Anda di halaman 1dari 4

Regresi Logistik Biner

Regresi logistik biner adalah analisis data yang digunakan untuk menjelaskan hubungan antara variabel
independen dan variabel dependen, dimana variabel dependennya merupakan variabel dikotomi atau
variabel dengan dua kategori dan data independennya data kategorik maupun kontinyu (Hosmer dan
Lemeshow, 1989). Variabel dependen diasumsikan mengikuti distribusi binomial dengan dua kategori
respon yang menyatakan kejadian sukses, yang dinotasikan dengan y=1, dan kejadian gagal, yang
dinotasikan dengan y=0. Secara umum, persamaan peluang regresi biner adalah sebagai berikut:

e β + β x + β x +…+β x
0 1 1 2 2 p p

π (x)¿
1+ e β +β x + β x +…+ β
0 1 1 2 2 p xp

π (x) adalah peluang kejadian sukses (y=1) dan β i adalah nilai parameter dengan i=1,2,3…,p. π (x)
merupakan fungsi non-linear sehingga perlu dilakukan transformasi ke bentuk logit. Hasil transformasi
logit tersebut adalah

π (x )
g ( x )=ln = β + β x + β x + …+ β p x p
1−π ( x) 0 1 1 2 2

jika terdapat beberapa variabel independen yang merupakan data kategorik berskala nominal atau
ordinal, maka variabel tersebut tidak akan tepat dimasukkan dalam model logit karena angka-angka
yang menyatkan tingkatan tersebut hanya sebagai identifikasi dan tidak memiliki nilai numerik. Dalam
situasi seperti ini diperlukan variabel dummy. Untuk variabel bebas dengan k kateori, diperlukan
sebanyak k-1 variabel dummy dimana satu kategori dijadikan reference.

Dalam regresi kategorik, variabel respon dapat ditulis sebagai berikut:

y j=π (x)+ε i

Dengan j=1,2,3,…,n dan ε i mempunyai salah satu kemungkinan dari dua nilai, yaitu:

ε i=1−π (x), jika y=1 dengan peluang π (x)

ε i=¿ - π (x), jika y=1 dengan peluang [1- π (x)]

Dalam hal ini error mengikuti distribusi Binomial dengan rata-rata nol dan varians π (x) [1- π (x)]

Pendugaan parameter

Pendugaan parameter pada model regresi logistik dapat dilakukan dengan metode maximum likelihood,
yaitu mencari penduga parameter yang akan memaksimalkan fungsi likelihood dan memaksimalkan
peluang dalam set suatu obervasi data(Hosmer dan Lemeshow, 2000). Fungsi likeihood distribusi
Binomial untuk n sampel independen adalah:
n
l ( β ) =∏ π ( x i ) y ¿ ¿
i

j=1

Pada metode maksimum likelihood, nilai estimasi dari β akan memaksimalkan fungsi likelihood.
Menurut Hosmer dan Lemeshow (2000) secara matematis, penggunaan logaritma natural dari fungsi
likelihood akan lebih mudah, dengan persamaan sebagai berikut:

L( β )= ln[(l ( β ) ¿ =

Uji signifikansi parameter

a. Uji simultan

Uji simultan digunakan untuk mengetahui variabel independen terhadap variabel dependen secara
bersama-sama dengan Uji Likelihood Ratio.

Hipotesis statistik:

H 0 : β1 =β2 =…= β p =0 (secara simultan tidak ada variabel independen yang mempengaruhi variabel
dependen)

H 1 : minimal ada satu β j ≠ 0, dimana j= 1,2,…p (minimal ada satu variabel independen yang
mempengaruhi variabel dependen

Statistik uji:

Statistik uji yang digunakan adalah uji G, yaitu:

L0
G=−2 ln
[ ]
L1
χ (2p)

Keterangan:

L0= Maksimum likelihood dari model reduksi yang hanya terdiri dari konstanta saja

L1= maksimum likelihood dari model penuh atau dengan semua variabel independen
2
Statistik G mengikuti distribusi chi square dengan derajat p. Keputusan tolak H 0 terjadi jika W> χ (α , p) ,
maka dapat dikatakan bahwa minimal ada satu variabel independen yang signifikan mempengaruhi
variabel dependen.

Uji parsial
Uji parsial dilakukan untuk mengetahui variabel independen mana yang signifikan mempengaruhi
variabel dependen. Uji parsial dilakukan dengan cara menguji satu per satu variabel independen
menggunakan uji Wald

Hipotesis statistik

H 0 : β j=0 (variabel independen ke-j tidak mempengaruhi variabel dependen)

H 0 : β j ≠ 0 (variabel independen ke-j mempengaruhi variabel dependen)

Statisti uji

β^ j
W=
[ SE( ^β j) ] χ 2(1)

Dimana:

^β j = penduga parameter ke-j

SE( ^β j ) = Standard error penduga parameter ke-j

J= 1, 2,…,p

Statistik uji W mengikuti distribusi chi square dengan derajat bebas 1. Keputusan untuk menolak Ho
2
terjadi jika nilai W> χ (α , 1) atau p-value kurang dari 0,05 maka dapat dikatakan bahwa variabel
independen ke-j signifikan mempengaruhi variabel dependen.

3) Uji Kesesuaian Model (Goodness of Fit Test)

Uji kesesuaian model digunakan untuk mengetahui apakah model telah sesuai dengan memeriksa
perbedaan antara hasil prediksi yang diperoleh dari model dan hasil yang diamati dalam data observasi
dengan menggunakan uji Hosmer dan Lemeshow.

Hipotesis statistik

H 0 : Model fit

H 1 : Model tidak fit

Statistik uji

4) Rasio Ketergantungan (Odds Ratio)

Rasio ketergantungan digunakan untuk melihat ukuran kecenderungan untuk mengalami suatu kejadian
tertentu antara suatu kategori terhadap kategori lainnya. Dalam hal ini didefiniskan sebagai rasio
ketergantungan untuk xj=1 terhadap xj=0.
¿=π (1)/¿ ¿

Tabel.. nilai ketergantung model Y terhadap Xj

Variabel Dependen Variabel Independen


X=1 X=0
(1) (2) (3)
y=1 eβ +β
0 j
eβ 0

π (1)= π (0)=
1+ e β +β
0 1
1+ e β 0

y=0 eβ +β 0 1
eβ 0

1- π (1)= 1- π (0)=
1+ e β +β 0 1
1+ e β 0

Total 1 1
Sumber: Hosmer dan Lemeshow (2000)

¿=π (1)/¿ ¿

eβ + β 0 1

β +β
/e β + β 0 1

1+ e 0 1

1+e β + β 0 1

¿=
eβ β
0
0
β
/e
1+ e 0

β
1+ e 0

eβ + β
0 1

¿=
eβ 0

¿=¿?????????

Rasio ketergantungan diinterpretasikan sebagai besarnya kecenderungan pengaruh observasi xj=1


adalah berapa kali lipat dibandingkan obervasi dengan xj=0. Sedangkan untuk variabel kontinyu,
koefisien Bj diinterpretasikan sebagai besarnya risiko terjadinya y=1 untuk setiap kenaikan c unit
variabel bebas yaitu exp(c.Bj) kali lebih besar. Nilai rasio ketergantungan ini dilambangkan dengan OR,
didefinisikan sebagai perbandingan dua nilai odds xj=1 terhadap xj=0 sehingga:

Anda mungkin juga menyukai