Anda di halaman 1dari 12

REGRESI LOGISTIK MULTINOMIAL (2)

Analisis Regresi dalam statistika adalah salah satu metode untuk menentukan

hubungan sebab-akibat antara satu variabel dengan variabel-variabel yang lain.

Variabel “penyebab” disebut dengan bermacam-macam istilah, di antaranya seperti

variabel penjelas, variabel eksplanatorik, variabel independen, atau secara bebas,

variabel X (karena seringkali digambarkan dalam grafik sebagai absis, atau sumbu

X). Variabel “terkena akibat” dikenal sebagai variabel yang dipengaruhi, variabel

dependen, variabel terikat, atau variabel Y. Kedua variabel ini dapat merupakan

variabel acak (random), namun variabel yang dipengaruhi harus selalu variabel

acak. Analisis Regresi adalah salah satu analisis yang paling populer dan luas

pemakaiannya. Hampir semua bidang ilmu yang memerlukan analisis sebab-akibat

boleh dipastikan mengenal analisis ini.

Adapun Regresi Logistik (kadang disebut model logistik atau model logit)

merupakan salah satu bagian dari Analisis Regresi, yang digunakan untuk

memprediksi probabilitas kejadian suatu peristiwa, dengan mencocokkan data pada

fungsi logit kurva logistik. Metode ini merupakan model linear umum yang

digunakan untuk regresi binomial. Seperti analisis regresi pada umumnya, metode

ini menggunakan beberapa variabel prediktor, baik numerik maupun kategori.

Misalnya, probabilitas bahwa orang yang menderita serangan jantung pada waktu

tertentu dapat diprediksi dari informasi usia, jenis kelamin, dan indeks massa

5
6

tubuh. Regresi Logistik juga digunakan secara luas pada bidang kedokteran, ilmu

sosial, dan bahkan pada bidang pemasaran, seperti prediksi kecenderungan

pelanggan untuk membeli suatu produk atau berhenti berlangganan.

Regresi Logistik tidak memerlukan asumsi normalitas, heteroskedastisitas,

dan autokorelasi, dikarenakan variabel respon yang terdapat pada Regresi Logistik

merupakan variabel dummy (0 dan 1), sehingga residualnya, tidak memerlukan

ketiga pengujian tersebut. Untuk asumsi multikolinearitas, karena hanya

melibatkan variabel-variabel prediktor, maka masih perlu untuk dilakukan

pengujian. Untuk pengujian multikolinearitas ini dapat digunakan uji kebaikan suai

(goodness of fit test), yang kemudian dilanjutkan dengan pengujian paremeter, guna

melihat variabel-variabel prediktor mana saja yang signifikan, sehingga dapat tetap

digunakan dalam penelitian. Selanjutnya, di antara variabel-variabel prediktor yang

signifikan, dapat dibentuk suatu matriks korelasi, dan apabila tidak terdapat

variabel-variabel prediktor yang saling memiliki korelasi yang tinggi, maka dapat

disimpulkan bahwa tidak terdapat gangguan multikolinearitas pada model

penelitian (Hosmer dan Lemeshow, 2000).

REGRESI LOGISTIK MULTINOMIAL

Dalam analisis data dimana variabel respon adalah nominal, digunakan suatu

metode yang merupakan pengembangan dari regresi logistik dan dikenal sebagai

regresi logistik nominal atau nominal logistic regression, sedangkan untuk variabel

respon ordinal digunakan regresi logistik ordinal atau atau ordinal logistic

regression (McCullagh & Nelder, 1983).


7

Regresi logistik multinomial (nominal dan ordinal) merupakan salah satu

pendekatan pemodelan yang dapat digunakan untuk mendeskripsikan hubungan

beberapa variabel prediktor X dengan suatu variabel respon multinomial

(polytomous). Model regresi logistik nominal digunakan ketika tidak ada urutan di

antara kategori respon. Satu kategori diantaranya dipilih sebagai kategori acuan.

Analisis regresi logistik multinomial digunakan untuk memeriksa hubungan

antara variabel respon yang biasa terdiri dari data kualitatif dan variabel-variabel

prediktor yang terdiri atas data kualitatif dan kuantitatif.

Persamaan regresi logistik multinomial (Hosmer dan Lemeshow, 2000)

secara umur adalah sebagai berikut :

exp[𝑔𝑗 (𝑥)]
𝑃(𝑌 = 𝑗|𝑥) = 𝜋𝑗 (𝑥) =
∑𝑟−1
𝑘=0 exp[𝑔𝑘 (𝑥)]

exp⁡(𝛽𝑗0 + 𝛽𝑗1 𝑥1 + 𝛽𝑗2 𝑥2 + ⋯ + 𝛽𝑗𝑝 𝑥𝑝 )


= ⁡⁡⁡⁡⁡⁡⁡⁡⁡⁡⁡⁡⁡⁡⁡⁡(1)
∑𝑟−1
𝑘=0 exp⁡(𝛽𝑘0 + 𝛽𝑘1 𝑥1 + 𝛽𝑘2 𝑥2 + ⋯ + 𝛽𝑘𝑝 𝑥𝑝 )

Keterangan:

𝑃(𝑌 = 𝑗|𝑥) = perluang bersyarat dari variabel respon Y untuk kategori ke j pada

vektor x, j = 0,1,..,r-1

𝜋𝑗 (𝑥) = persamaan regresi logistik untuk variabel respon Y untuk kategori

ke j

𝑔𝑗 (𝑥) = logit pada variabel responY untuk kategori ke j

𝑥𝑚 = nilai dari variabel penjelas ke-m, m=1,2,3,...,p

𝛽𝑗𝑚 = koefisien/parameter model


8

Dimana vektor 𝛽̃0 = 0 sehingga 𝑔0 (𝑥) = 0

𝛽̃0 = parameter model logit untuk variabel respon Y untuk kategori ke 0

(𝛽00 , 𝛽01 , … , 𝛽0𝑝 )

Untuk model regresi multinomial, jika kategori 0 sebagai kategori referensi

(𝛽̃0 = 0), maka probabilitas bersyarat dengan variabel penjelas sebanyak p akan

menghasilkan persamaan sebagai berikut :

𝑃(𝑌 = 0|𝑥) = 𝜋0 (𝑥)

1
=
1 + exp(𝛽10 + 𝛽11 𝑥1 + ⋯ + 𝛽1𝑝 𝑥𝑝 ) + ⋯ + exp(𝛽𝑟0 + 𝛽𝑟1 𝑥1 + ⋯ + 𝛽𝑟𝑝 𝑥𝑝 )

𝑃(𝑌 = 1|𝑥) = 𝜋1 (𝑥)

exp(𝛽10 + 𝛽11 𝑥1 + ⋯ + 𝛽1𝑝 𝑥𝑝 )


=
1 + exp(𝛽10 + 𝛽11 𝑥1 + ⋯ + 𝛽1𝑝 𝑥𝑝 ) + ⋯ + exp(𝛽𝑟0 + 𝛽𝑟1 𝑥1 + ⋯ + 𝛽𝑟𝑝 𝑥𝑝 )

𝑃(𝑌 = 2|𝑥) = 𝜋2 (𝑥)

exp(𝛽20 + 𝛽21 𝑥1 + ⋯ + 𝛽2𝑝 𝑥𝑝 )


=
1 + exp(𝛽10 + 𝛽11 𝑥1 + ⋯ + 𝛽1𝑝 𝑥𝑝 ) + ⋯ + exp(𝛽𝑟0 + 𝛽𝑟1 𝑥1 + ⋯ + 𝛽𝑟𝑝 𝑥𝑝 )

….

𝑃(𝑌 = 𝑟 − 1|𝑥) = 𝜋𝑟−1 (𝑥)

exp(𝛽(𝑟−1)0 + 𝛽(𝑟−1)1 𝑥1 + ⋯ + 𝛽(𝑟−1)𝑝 𝑥𝑝 )


=
1 + exp(𝛽10 + 𝛽11 𝑥1 + ⋯ + 𝛽1𝑝 𝑥𝑝 ) + ⋯ + exp(𝛽(𝑟−1)0 + 𝛽(𝑟−1)1 𝑥1 + ⋯ + 𝛽(𝑟−1)𝑝 𝑥𝑝 )

Suatu variabel respon dengan r kategori akan membentuk r-1 persamaan

logit, dimana masing-masing persamaan ini membentuk regresi logistik biner yang

membandingkan suatu kelompok kategori terhadap referensi, yaitu sebagai berikut

:
9

𝑃(𝑌 = 1|𝑥) 𝜋1 (𝑥)


𝑔1 (𝑥) = 𝑙𝑛 = 𝑙𝑛 ( ) = 𝛽10 + 𝛽11 𝑥1 + ⋯ + 𝛽1𝑝 𝑥𝑝
𝑃(𝑌 = 0|𝑥) 𝜋0 (𝑥)

𝑃(𝑌 = 2|𝑥) 𝜋2 (𝑥)


𝑔2 (𝑥) = 𝑙𝑛 = 𝑙𝑛 ( ) = 𝛽20 + 𝛽21 𝑥1 + ⋯ + 𝛽2𝑝 𝑥𝑝
𝑃(𝑌 = 0|𝑥) 𝜋0 (𝑥)

...

𝑃(𝑌 = 𝑟 − 1|𝑥) 𝜋𝑟−1 (𝑥)


𝑔𝑟−1 (𝑥) = 𝑙𝑛 = 𝑙𝑛 ( )
𝑃(𝑌 = 0|𝑥) 𝜋0 (𝑥)

= 𝛽(𝑟−1)0 + 𝛽(𝑟−1)1 𝑥1 + ⋯ + 𝛽(𝑟−1)𝑝 𝑥𝑝

Jika terdapat variabel prediktor dengan skala kategorik, variabel tersebut

tidak tepat jika dimasukkan ke dalam model karena angka tersebut hanya sebagai

identifikasi saja dan tidak mempunyai nilai numerik. Agar variabel prediktor

tersebut dapat masuk ke dalam model, maka dilakukan transformasi dengan

memasukkan variabel dummy ke dalam model. Misalkan variabel penjelas ke-m,

yaitu 𝑥𝑚 yang mempunyai kategori sebanyak ℎ𝑚 , maka akan terdapat variabel

dummy sebanyak ℎ𝑚 − 1 . Dengan demikian fungsi logistik dengan p variabel

penjelas dan m variabel dummy akan menjadi :

ℎ𝑚 −1

𝑔𝑗 (𝑥) = 𝛽𝑗0 + 𝛽𝑗1 𝑥1 + 𝛽𝑗2 𝑥2 + ⋯ + ∑ 𝛽𝑗𝑚𝑣 𝐷𝑗𝑚𝑣 + ⋯ + 𝛽𝑗𝑝 𝑥𝑝 ⁡⁡⁡⁡⁡⁡(2)


𝑣=1

Dimana 𝐷𝑗𝑚𝑣 = variabel dummy dari variabel ke-m fungsi logit ke-j

Secara umum, langkah-langkah yang dilakukan dalam analisis regresi

logistik multinomial adalah :

1. Estimasi parameter regresi logistik multinomial.


10

2. Melakukan pengujian parameter secara simultan untuk mengetahui

kecocokan model analisis tersebut.

3. Melakukan pengujian parameter secara parsial untuk mengetahui variabel

prediktor yang paling berpengaruh dalam model tersebut.

4. Melakukan interpretasi terhadap nilai rasio kecenderungan yang terbentuk.

Estimasi Parameter

Dalam model regresi logistik, nilai harapan antar variabel respon tidak linier

serta memiliki varian yang tidak sama sehingga penduga parameter 𝛽̃ diperoleh

melalui metode Maximum Likelihood (Hosmer & Lemeshow, 2000). Untuk

memecahkan sistem persamaan nonlinier, solusi yang dilakukan adalah dengan

mengestimasi 𝛽̃ melalui proses iterasi Newton Raphson. Karena variabel respon

(𝑌𝑖 ) diasumsikan saling bebas, maka diperoleh fungsi likelihood bersyarat untuk

sampel sebanyak n observasi sebagai berikut:


𝑛

𝑙(𝐵) = ∏[ 𝜋0 (𝑥𝑖 )𝑦0𝑖 𝜋1 (𝑥𝑖 )𝑦1𝑖 𝜋2 (𝑥𝑖 )𝑦2𝑖 … 𝜋𝑟−1 (𝑥𝑖 )𝑦(𝑟−1)𝑖 ]
𝑖=1

Secara matematis, akan lebih mudah untuk mendapatkan nilai 𝛽̃ yang akan

memaksimalkan fungsi likelihood melalui log dari fungsi tersebut yaitu log

likelihood. Dengan demikian maka fungsi log likelihoodnya adalah:

𝐿(𝛽) = ln[𝑙(𝐵)]
𝑛

𝐿(𝛽) = ln [∏[ 𝜋0 (𝑥𝑖 )𝑦0𝑖 𝜋1 (𝑥𝑖 )𝑦1𝑖 𝜋2 (𝑥𝑖 )𝑦2𝑖 … 𝜋𝑟−1 (𝑥𝑖 )𝑦(𝑟−1)𝑖 ]]
𝑖=1
11

= ∑[𝑦0𝑖 ln{𝜋0 (𝑥𝑖 )} + 𝑦1𝑖 ln{𝜋1 (𝑥𝑖 )} + ⋯ + 𝑦(𝑟−1)𝑖 ln⁡{𝜋𝑟−1 (𝑥𝑖 )}]
𝑖=1

= ∑𝑛𝑖=1(𝑦1𝑖 𝑔1 (𝑥𝑖 ) + 𝑦2𝑖 𝑔2 (𝑥𝑖 ) + ⋯ + 𝑦(𝑟−1)𝑖 𝑔𝑟−1 (𝑥𝑖 ) − ln⁡[1 + exp(𝑔1 (𝑥𝑖 )) +

exp(𝑔2 (𝑥𝑖 ) + ⋯ + exp(𝑔𝑟−1 (𝑥𝑖 ))])

Untuk mendapatkan nilai 𝛽̃ yang memaksimalkan 𝐿(𝛽) dilakukan dengan

mengambil turunan pertama terhadap 𝐿(𝛽). Bentuk umum untuk persamaan ini

adalah

𝑛
𝜕𝐿(𝛽) 𝑥𝑝𝑖 𝑒 𝑔𝑟−1 (𝑥𝑖)
= ∑ [𝑦𝑗𝑖 𝑥𝑚𝑖 − ]
𝜕𝛽𝑟𝑝 1 + 𝑒 𝑔1 (𝑥𝑖) + 𝑒 𝑔2 (𝑥𝑖) + ⋯ + 𝑒 𝑔𝑟−1 (𝑥𝑖 )
𝑖=1

= ∑𝑛𝑖=1 𝑥𝑚𝑖 [𝑦(𝑟−1)𝑖 − 𝜋𝑟−1 (𝑥𝑖 )] (3)

Dengan 𝑗 = 0,1,2, … , 𝑟 − 1 dan 𝑚 = 0,1,2, … , 𝑝 dan 𝑥0𝑖 = 1 untuk masing-masing

subjek.

Maksimum likelihood estimator, 𝛽̃ , diperoleh dengan mengatur persamaan ini

sama dengan nol dan menyelesaikan solusi persamaan untuk 𝛽̃ . Solusi ini

membutuhkan perhitungan iterasi yang digunakan untuk memperoleh estimasi

respon kategorik.

Matriks turunan parsial kedua dibutuhkan untuk memperoleh informasi

matriks dan estimator matriks kovarian dari maksimum likelihood estimator.

Persamaan umum dari elemen dalam matriks turunan persial kedua sebagai berikut.
𝑛
𝜕 2 𝐿(𝛽)
= − ∑ 𝑥𝑚′ 𝑖 𝑥𝑚𝑖 𝜋𝑗 (𝑥𝑖 )[1 − 𝜋𝑗 (𝑥𝑖 )] ⁡⁡⁡⁡⁡⁡⁡⁡⁡⁡⁡⁡⁡(4)
𝜕𝛽𝑗𝑚 𝜕𝛽𝑗𝑚′
𝑖=1

Dan
𝑛
𝜕 2 𝐿(𝛽)
= ∑ 𝑥𝑚′ 𝑖 𝑥𝑚𝑖 𝜋𝑗 (𝑥𝑖 )𝜋𝑗′ (𝑥𝑖 ) ⁡⁡⁡⁡⁡⁡⁡⁡⁡⁡⁡⁡⁡⁡⁡⁡⁡⁡⁡⁡⁡⁡⁡(5)
𝜕𝛽𝑗𝑚 𝜕𝛽𝑗′ 𝑚′
𝑖=1

Untuk 𝑗⁡dan 𝑗 ′ = 0,1,2, … , 𝑟 − 1. 𝑝 dan 𝑚′ = 1,2, … , 𝑝.


12

Matriks informasi yang diamati, 𝐼(𝛽̂ ), adalah matriks ukuran 2(p+ 1) x 2(p+ 1) yang

elemen-elemennya adalah nilai negatif dari persamaan 2.3 dan 2.4 dievaluasi pada 𝛽̃ .

Estimator dari matriks kovarian maksimum likelihood estimator adalah invers dari

matrik informasi yang diamati,

̂ (𝛽̂ ) = 𝐼(𝛽̂ )−1


𝑉𝑎𝑟

Matriks X berukuran n x p+1 berisi nilai kovariat untuk masing-masing objek, matriks Vj

berukuran n x n adalah matriks diagonal dengan elemen umum 𝜋𝑗 (𝑥𝑖 )[1 − 𝜋𝑗 (𝑥𝑖 )] dengan

𝑗 = 1,2 dan 𝑖 = 0,1,2, … , 𝑁 dan matriks V3 berukuran n x n adalah matriks diagonal

dengan elemen umum 𝜋1 (𝑥𝑖 )𝜋2 (𝑥𝑖 ). Estimator dari matriks informasi dapat ditunjukkan sebagai

berikut

𝐼(𝛽̂ )11 𝐼(𝛽̂ )21


𝐼(𝛽̂ ) = [ ] (6)
𝐼(𝛽̂ )12 𝐼(𝛽̂ )22

Dimana

𝐼(𝛽̂ )11 = (𝑋′𝑉1 𝑋)

𝐼(𝛽̂ )22 = (𝑋′𝑉2 𝑋)

Dan

𝐼(𝛽̂ )12 = 𝐼(𝛽̂ )12 = −(𝑋′𝑉3 𝑋)

Nilai 𝛽 dapat ditentukan, dengan metode iterasi Newton-Rapshon

1. Dipilih taksiran awal 𝛽̃, misal 𝛽̃ = 0

2. Dihitung M(Y – 𝝅(x)) dan 𝐼̂(𝛽̂ ), selanjutnya dihitung invers dari 𝐼̂(𝛽̂ )

3. Pada setiap i+1 dihitung taksiran baru yaitu


−1
𝛽̃𝑖+1 = 𝛽̃𝑖 + ⁡ 𝐼̂(𝛽̂ ) {𝐌(𝐘⁡– ⁡𝝅(𝐱))}

Dengan 𝐌(𝐘⁡– ⁡𝝅(𝐱)) adalah matriks turunan parsial kedua dimana 𝐌 =

𝑰𝟐×𝟐 ⊗ 𝑿′

4. Iterasi berakhir jika diperoleh 𝛽̃𝑖+1 ≅ 𝛽̃𝑖


13

Pengujian Parameter

Pengujian terhadap parameter model dilakukan sebagai upaya memeriksa

peranan variabel prediktor terhadap model. Uji yang dilakukan ada dua, yaitu:

Pengujian parameter secara simultan

yaitu uji yang dilakukan untuk menguji peranan variabel prediktor dalam model

secara bersama-sama (Hosmer & Lemeshow, 2000).

H0 : 𝛽𝑗1 = 𝛽𝑗2 = ⋯ = 𝛽𝑗𝑝 = 0 , artinya tidak ada pengaruh antara sekumpulan

variabel prediktor dengan variabel respon

H1: minimal ada satu 𝛽𝑗𝑚 ≠ 0, artinya minimal ada satu variabel prediktor yang

berpengaruh terhadap variabel respon, m = 1,2,..,p

Dengan statistik uji :

𝑙0
𝐺 = −2𝑙𝑛 [ ]⁡⁡⁡⁡⁡⁡⁡⁡⁡⁡⁡⁡⁡⁡⁡⁡⁡⁡⁡⁡⁡⁡⁡⁡⁡⁡⁡⁡⁡⁡⁡⁡⁡⁡⁡⁡⁡⁡(7)
𝑙𝑘

Dimana 𝑙0 adalah likelihood tanpa variabel prediktor dan 𝑙𝑘 adalah likelihood

dengan variabel prediktor.

Statistik uji G ini mengikuti sebaran chi squares bila n mendekati

tak terhingga dengan derajat bebas p dimana 𝑣 = (𝑟 − 1)(𝑐 − 1), r

dan c masing-masing adalah banyaknya kategori pada variabel

respon dan prediktor. H0 akan ditolak pada tingkat signifikansi α

apabila nilai 𝐺 > 𝑋 2 (𝑣;𝛼) atau p-value < α, dengan kesimpulan


14

bahwa variabel prediktor secara bersama-sama atau secara

keseluruhan mempengaruhi variabel respon, dapat juga dikatakan

bahwa paling sedikit ada satu koefisien 𝛽𝑗𝑚 ≠ 0. Untuk mengetahui

𝛽𝑗𝑚 mana yang berpengaruh signifikan, dapat dilakukan uji

parameter 𝛽𝑗𝑚 secara parsial dengan uji Wald.

Pengujian parameter secara individu

yaitu uji yang dilakukan untuk menguji peranan variabel prediktor

dalam model secara individu. Pengujian variabel dilakukan satu per

satu menggunakan statistik uji Wald (Hosmer & Lemeshow, 2000).

Uji ini dilakukan dengan membandingkan model terbaik yang

dihasilkan oleh uji simultan terhadap model tanpa variabel prediktor

di dalam model terbaik. Hipotesis yang akan diuji adalah sebagai

berikut :

H0 : βjm = 0, artinya tidak ada pengaruh variabel prediktor ke-m

terhadap variabel respon kategori ke-j

H1 : βjm ≠ 0, artinya ada pengaruh variabel prediktor ke-m terhadap

variabel respon kategori ke-j

𝑗 = 0,1,2, … , 𝑟 − 1; ⁡𝑚 = 1,2, … , 𝑝

Statistik ujinya adalah


2
𝛽̂𝑗𝑚
𝑊=[ ]
𝑆𝑒(𝛽̂𝑗𝑚 )

Dimana 𝛽̂𝑗𝑚 ⁡ merupakan penduga dari βjm dan 𝑆𝑒(𝛽̂𝑗𝑚 ) adalah

penduga galat baku dari βjm. W diasumsikan mengikuti sebaran Chi


15

Square dengan derajat bebas 1. H0 akan ditolak jika 𝑊 > 𝑋 2 (1;𝛼)

atau p-value < α. Jika H0 ditolak maka dapat disimpulkan bahwa βjm

signifikan. Dengan kata lain variabel X secara parsial berpengaruh

signifikan terhadap variabel respon.

Ketepatan Klasifikasi

Untuk menilai kemampuan prosedur klasifikasi dalam memprediksi

keanggotaan kelompok, biasa digunakan tingkat kesalahan klasifikasi yang biasa

disebut apperent error rate. Bisa juga menggunakan sebaliknya, yaitu apperent

correct classification rate atau tingkat ketepatan klasifikasi (Rencher, 2002).

Estimasi sederhana dari tingkat error dapat diperoleh dengan mencoba

prosedur klasifikasi pada data set yang sama yang digunakan untuk menghitung

fungsi klasifikasi. Masing-masing pengamatan vektor yij dimasukkan ke dalam

fungsi klasifikasi dan ditetapkan ke dalam sebuah kelompok. Kemudian dihitung

jumlah klasifikasi yang benar dan jumlah klasifikasi yang salah. Hasilnya dapat

ditampilkan dalam bentuk tabel klasifikasi. Misalkan variabel respon Y terdiri dari

3 kategori, maka tabel klasifikasi dapat ditampilkan sebagai berikut


16

Tabel 1. Tabel klasifikasi untuk 3 kategori kelompok

Nilai Kategori Jumlah Nilai kategori Prediksi

Aktual Pengamatan 1 2 3

1 n1 n11 n12 n13

2 n2 n21 n22 n23

3 n3 n31 n32 n33

Diantara n1 pengamatan di kategori aktual sama dengan 1, n11 adalah

klasifikasi yang tepat untuk kategori aktual sama dengan 1, dan n12 serta n13 adalah

kesalahan klasifikasi untuk kategori aktual sama dengan 2 dan kategori aktual sama

dengan 3, dimana 𝑛1 = 𝑛11 + 𝑛12 + 𝑛13 . Demikian juga n2 pengamatan di kategori

aktual sama dengan 2, n21 dan n23 adalah kesalahan klasifikasi untuk kategori aktual

sama dengan 1 dan kategori aktual sama dengan 3. n22 adalah ketepatan klasifikasi

untuk kategori aktual sama dengan 2, dimana 𝑛2 = 𝑛21 + 𝑛22 + 𝑛23 . Untuk n3

pengamatan di kategori aktual sama dengan 3, n31 dan n32 adalah kesalahan

klasifikasi untuk kategori aktual sama dengan 1 dan kategori aktual sama dengan 2.

n33 adalah ketepatan klasifikasi untuk kategori aktual sama dengan 3, dimana 𝑛3 =

𝑛31 + 𝑛32 + 𝑛33 . Sehingga

𝑛12 + 𝑛13 + 𝑛21 + 𝑛23 + 𝑛31 + 𝑛32


𝐴𝑝𝑝𝑎𝑟𝑒𝑛𝑡⁡𝑒𝑟𝑟𝑜𝑟⁡𝑟𝑎𝑡𝑒 = ⁡⁡⁡⁡⁡⁡(8)
𝑛1 + 𝑛2 + 𝑛3

Demikian pula dapat didefinisikan

𝑛11 + 𝑛22 + 𝑛33


𝐴𝑝𝑝𝑎𝑟𝑒𝑛𝑡⁡𝑐𝑜𝑟𝑟𝑒𝑐𝑡⁡𝑐𝑙𝑎𝑠𝑠𝑖𝑓𝑖𝑐𝑎𝑡𝑖𝑜𝑛⁡𝑟𝑎𝑡𝑒 = ⁡⁡⁡⁡⁡⁡⁡.9)
𝑛1 + 𝑛2 + 𝑛3

Atau

𝐴𝑝𝑝𝑎𝑟𝑒𝑛𝑡⁡𝑒𝑟𝑟𝑜𝑟⁡𝑟𝑎𝑡𝑒 = 1 − ⁡𝐴𝑝𝑝𝑎𝑟𝑒𝑛𝑡⁡𝑐𝑜𝑟𝑟𝑒𝑐𝑡⁡𝑐𝑙𝑎𝑠𝑠𝑖𝑓𝑖𝑐𝑎𝑡𝑖𝑜𝑛⁡𝑟𝑎𝑡𝑒

Anda mungkin juga menyukai