Anda di halaman 1dari 9

Statistika Matematika II 1 Analisis Regresi

ANALISIS REGRESI
A. PENDAHULUAN Istilah regresi pertama kali diperkenalkan oleh Sir Francis Galton pada tahun 1886. Galton menemukan bahwa ada kecenderungan bagi orang tua yang tinggi akan mempunyai anak yang tinggi dan sebaliknya. Meskipun demikian, ia mengamati bahwa tinggi anak bergerak menuju rata-rata tinggi anak secara keseluruhan. Dengan kata lain ketinggian anak yang amat tinggi atau orang tua yang amat pendek cenderung bergerak ke arah rata-rata tinggi populasi. Inilah yang disebut hokum Galton mengenai regresi universal. Secara umum analisis regresi adalah studi mengenai ketergantungan variabel dependen (respon) dengan satu atau lebih variabel independen (penjelas/ bebas). Dalam analisis regresi linier, jika jumlah variabel prediktor X satu maka disebut regresi linier sederhana, sedangkan jika lebih dari satu misalnya k peubah prediktor maka disebut regresi berganda. Pendugaan parameter regresi untuk model regresi berganda pada hakekatnya hanyalah perluasan konsep regresi sederhana (Sugiarto, 1992). Hasil analisis regresi adalah berupa koefisisen untuk masing-masing veriabel independen. Koefisien ini diperoleh dengan cara memprediksi nilai variabel respon dengan suatu persamaan.

B.

Pengujian Asumsi Klasik Regresi Sehubungan digunakannya alat-alat statistik dalam analisis data, agar analisis tersebut memperoleh hasil yang lebih akurat dan maka persyaratan atau asumsi yang melandasi penggunaan alat analisis harus dipenuhi. Di dalam persamaan model regresi linear berganda, dikenal beberapa asumsi yang mendasari persamaan model yang menyangkut; Linieritas, normalitas residual data (normality error term),

multikolinearitas, homoskedastisitas, dan autokorelasi, di mana perlu dilakukan pengujian dengan maksud untuk mengetahui apakah persamaan model regresi yang ditentukan tersebut merupakan model yang dapat menghasilkan estimasi yang tidak

Statistika Matematika II 2 Analisis Regresi

bias. Hair (1998) juga menyatakan bahwa terdapat tiga asumsi klasik dalam regresi linear yang harus diuji, yaitu outliernormalitas, linieritas, homoskedastisitas, dan autokorelasi meskipun dalam penjelasannya lebih lanjut beberapa asumsi dapat dianggap tidak kritis dalam analisis.

1.

Normalitas Galat Model Uji normalitas galat bertujuan untuk menguji apakah dalam model regresi, variabel galat memiliki distribusi normal. Seperti diketahui bahwa uji t dan F mengasumsikan bahwa nilai galat mengikuti distribusi normal. Kalau asumsi ini dilanggar maka uji statistik menjadi tidak valid untuk jumlah sampel kecil. Ada dua cara untuk mendeteksi apakah galat berdistribusi normal atau tidak, yaitu dengan analisis grafik dan uji statistik.

a. Analisis Grafik Salah satu cara termudah untuk melihat normalitas galat adalah dengan melihat grafik histogram yang membandingkan antara data observasi dengan distribusi yang mendekati distribusi normal. Namun demikian, hanya dengan melihat histogram dapat menyesatkan, khususnya untuk jumlah sampel yang kecil. Metode yang lebih handal adalah dengan melihat Normal Probability Plot yang membandingkan distribusi kumulatif dari distribusi normal. Distribusi normal akan membentuk satu garis lurus diagonal dan poting data residual / galat akan dibandingkan dengan garis diagonal. Jika distribusi data galat normal, maka garis yang menggambarkan data sesungguhnya akan mengikuti garis diagonalnya.

b. Analisis Statistik Uji normalitas dengan grafik dapat menyesatkan kalau tidak hati-hati secara visual kelihatan normal, pdahal secara statistik bisa sebaliknya. Oleh karena itu, dianjurkan disamping uji grafik, dilengkapi dengan uji statistik. Dalam hal ini, pengujian dapat dilakukan dengan Uji KolmogorovSmirnov (K-S). uji K-S dilakukan dengan membuat hipotesis: H0 = galat berdistribusi normal H1 = galat tidak berdistribusi normal

Statistika Matematika II 3 Analisis Regresi

Contoh: 1. Seorang peneliti ingin mengetahui pengaruh dari pendapatan keluarga (X) terhhadap pengeluaran konsumsi (Y) dari 8 keluarga petani cuplikan yang ditarik secara acak dari sebuah desa. Data hasil penelitian atas ke-8 petani cuplikan tersebut tampat dibawah ini.

Petani Cuplikan A B C D E F G H Jumlah

Pengeluaran konsumsi (Y) 15 13 10 17 9 8 10 14 96

Pendapatan keluarga (X) 20 18 14 16 12 10 14 16 120

1. Normalitas Tentukan H0 dan H1 H0 = sampel berasal dari populasi yang menyebar normal H1 = sampel tidak berasal dari populasi yang menyebar normal -

Hitung nilai mean

Hitung simpangan baku

Statistika Matematika II 4 Analisis Regresi

Diurutkan 10 12 14 14 16 16 18 20

Table AD i 1 2 3 4 5 6 7 8 Zi -1,56 -0,93 -0,31 -0,31 0,31 0,31 0,93 1,56 F(Z) 0,0594 0,1762 0,3783 0,3783 0,6217 0,6217 0,8238 0,9406 F =ln F(Z) -2,8235 -1,7361 -0,9721 -0,9721 -0,4753 -0,4753 -0,1938 -0,0612 N+1-i 8 7 6 5 4 3 2 1 F(n+1-i) 0,9406 0,8238 0,6217 0,6217 0,3783 0,3783 0,1762 0,0594 1-F(n+1-i) 0,0594 0,1762 0,3783 0,3783 0,6217 0,6217 0,8238 0,9406 F2i-ln(1F(n+1-i)) -2,8235 -1,7361 -0,9721 -0,9721 -0,4753 -0,4753 -0,1938 -0,0612 -5,647 -3,4722 -1,9442 -1,9442 -0,9506 -0,9506 -0,3876 -0,1224 F1i+F2i

AD hitung AD hit ={ ( ( ( ) ) ) ( ( ( ) )} ) ( ( ) )

= (0,7059+1,3021+1,2151+1,7012+1,0694+1,3071+0,6299+0,2295)-8 = 8,1602-8 = 0,1602

= 1+0,09375+0,03516 = 1,12891

Membanding kan AD dan CV AD hit = 0,1602 CV=1,12891 maka keputusan terima H0

Statistika Matematika II 5 Analisis Regresi

Kesimpulan Sampel berasal dari populasi yang menyebar normal.

2.

Uji Non-Autokorelasi Asumsi ini menghendaki bahwa tidak ada autokorelasi antara serangkaian pengamatan

yang diurutkan menurut waktu. Adanya kebebasan antar sisaan dapat dideteksi secara grafis dengan melihat pola tebaran sisaan terhadap urutan waktu. Jika tebaran sisaan terhadap urutan waktu tidak membentuk suatu pola tertentu atau bersifat acak maka dapat disimpulkan tidak ada autokorelasi antar sisaan (Draper dan Smith, 1992). Pengujian secara empiris dilakukan dengan menggunakan statistik uji Durbin-Watson. Hipotesis yang melandasi pengujian adalah: H0 : Tidak terdapat autokorelasi antar sisaan H1 : Terdapat autokorelasi antar sisaan Statistik uji yang digunakan adalah:

(e
t 2

t n

et 1 ) 2
2 t

e
t 1

t di mana: et = penduga sisaan ke-t, et yt y


et 1 = penduga sisaan ke-(t-1)

= 1, 2, , n

Kaidah keputusan dalam Uji Durbin-Watson adalah: 1. Jika du < d < 4du, maka keputusannya adalah terima H0 yang berarti tidak terdapat autokorelasi 2. Jika d < dl atau d > 4 du, maka keputusannya adalah tolak H0 yang berarti terdapat autokorelasi 3. Jika dl d du atau 4 du d 4 dl , maka tidak dapat diputuskan apakah H0 diterima atau ditolak sehingga tidak dapat disimpulkan ada tidaknya autokorelasi antar sisaan (Gujarati, 2003).

Statistika Matematika II 6 Analisis Regresi

Uji Otokorelasi a) Uji Durbin Watson b) Uji Lagrange Multiplier c) Uji Breusch-Godfrey

Langkah-Langkah Uji Durbin-Watson 1. Regresikan variabel bebas (X) terhadap variabel tergantung (Y). 2. Hitung nilai prediksinya. 3. Hitung nilai residualnya. 4. Kuadratkan nilai residualnya. 5. Lag-kan satu nilai residualnya. 6. Kurangkan nilai residual dengan Lag-kan satu nilai residualnya. 7. Masuk hasil perhitungan diatas masukan kedalam rumus Durbin-Watson

Tabel Durbin-Watson No 1 2 3 4 5 6 7 8 Jumlah X 20 18 14 16 12 10 14 16 120 Y 15 13 10 17 9 8 10 14 96 Ypred -19,287 -17,103 -12,735 -14,919 -10,551 -8,367 -12,735 -14,919 -110,616 e(residu) e2 et-1 e-(et-1) (e-(et-1))2 |residu| 34,287 34,287 30,103 22,735 31,919 19,551 16,367 22,735 177,697 -4,184 -7,368 9,184 -12,368 -3,184 6,368 6,184 -5,368 17,505856 54,287424 84,345856 152,967424 10,137856 40,551424 38,241856 398,037696 30,103 22,735 31,919 19,551 16,367 22,735 28,919

34,287 1175,598 30,103 906,1906 22,735 516,8802 31,919 1018,823 19,551 382,2416 16,367 267,8787 22,735 516,8802 28,919 836,3086 206,616 5620,801

Ypred = 2,553-1,092X1 Residu = Y- Ypred

Statistika Matematika II 7 Analisis Regresi

Rumus Durbin-Watson
( ( () ))

Dk K dL dU

=k,n =1 dan n=8 =0,763 =1,332

4-dU =3,237 4-dL =2,668

Tanpa kesimpulan

Tanpa kesimpulan Tidak ada

otokorelasi dL 0,070815 o,763 dU 1,332 2 4-dU 3,237 4-dL 2,668

otokorelasi

3.

Multikolinearitas Hair et al., (1998) menyatakan bahwa permasalahan multikolinearitas ditunjukkan oleh

nilai dari VIF (variance inflation factor). VIF didefinisikan sebagai


VIF j 1 1 R2 j

di mana: j p

= 1, 2, , p = banyaknya peubah penjelas

R2 j = koefisien determinasi

R2 j diperoleh dengan meregresikan peubah prediktor Xj dengan semua peubah prediktor


lain. Nilai VIF akan semakin besar jika terdapat korelasi yang semakin besar diantara peubah

Statistika Matematika II 8 Analisis Regresi

prediktor. Jika nilai VIF lebih dari 10, multikolinieritas memberikan pengaruh yang serius pada pendugaan metode kuadrat terkecil (Bowerman and O`Connel, 1990).

Pengujian Manual VIF 1. 2. 3. 4. 5. Hitung nilai korelasi antar varibel bebas (r) Kuadratkan nilai korelasi antar variabel bebas (r2). Hitung nilai tolenrance (Tol) dengan rumus (1-r2). Hitung nilai VIF dengan rumus 1/TOL Jika VIF < 10, maka tidak terjadi multikolinier.

Tabel uji multikolineasi No 1 2 3 4 5 6 7 8 Jumlah X 20 18 14 16 12 10 14 16 120 Y 15 13 10 17 9 8 10 14 96 XY 300 234 140 272 108 80 140 224 11520 X2 400 324 196 256 144 100 196 256 14400 Y2 225 169 100 289 81 64 100 196 9216

1.

( ( ) ( ) )(

)(

) ( ) )

( ( ( ( 2. ( )

( )(

)(

) )

( )(

)(

) )

Statistika Matematika II 9 Analisis Regresi

3.

Tolerance = 1-0,6561 = 0,3439

4. Karena VIF 10 maka tidak terjadi multikolinier

5.