Anda di halaman 1dari 4

Validasi Metode Dengan Kappa Cohen

Untuk membuktikan tingkat kesamaan atau kesepakatan antar Rater dalam

menilai aplikasi ini maka dibutuhkan pengujian. Uji validasi ini dilakukan dengan

melakukan pengujian sebanyak 30 kali pada 2 penguji dan pilihan jawaban adalah

jika 1 maka Ya jika 0 maka tidak. Hasil yang dapat dilihat pada tabel 4.4.

Tabel 4.3 pengujian kappa cohen

No
Penguji 1 Penguji 2
Pengujian
1 1 1
2 1 1
3 1 1
4 1 1
5 0 0
6 1 1
7 1 1
8 1 1
9 0 0
10 1 1
11 1 1
12 1 1
13 1 0
14 1 1
15 1 1
16 0 1
17 1 1
18 1 1
19 1 1
20 1 1
21 1 1
22 0 1
23 0 1
24 0 0
25 0 0
26 1 0
27 0 0
28 0 0
29 0 0
30 0 0
Pengujian validitas aplikasi dilakukan untuk mencari seberapa jauh

kesamaan atau kesepakatan antar Rater dalam menilai aplikasi ini. Pengujian ini

terdiri dari 30 kali pengujian yang akan dilakukan oleh dua Rater yang berbeda.

Tabel 4.4 Tabel nilai pengujian dengan SPSS


Pada tabel di atas, angka-angka ini digunakan untuk pembeda antara jawaban

pertama dan jawaban kedua dalam SPSS.

Setelah diuji dengan SPSS, didapatkan hasil sebagai berikut :

Gambar 4.169 Hasil Perhitungan SPSS

Hasil olah data kuisioner menggunakan Kappa (K) Cohen yang dihasilkan dari 30

pengujian menunjukkan nilai K = 0.634.

Tabel 4.5 Tabel Interpretasi nilai kappa (Landis & Koch, 1977)

Nilai K Kekuatan kesepakatan


<= 0.20 Buruk
0.21 - 0.40 Cukup
0.41 - 0.60 Sedang
0.61 - 0.80 Baik
0.81 - 1.00 Sangat Baik

Dari tabel di atas diperoleh kesimpulan bahwa nilai K = 0.634 masuk dalam

kategori baik. Kategori tersebut dapat diartikan bahwa ditemukan kesepakatan antara

Rater pertama dan kedua bahwa metode yang di gunakan pada sistem ini cukup baik

untuk digunakan.

Anda mungkin juga menyukai