Praktikum ketujuh ekonometrika dibahas mengenai perbaikan asumsi
Ordinary Least Square, dan menguji kelayakan model regresi
2.7.1. Perbaikan Asumsi Ordinary Least Square
Metode OLS akan tercapai jika dipenuhi beberapa asumsi klasik, yaitu multikolinieritas, autokorelasi, heteroskedastisitas, nilai rata-rata kesalahan (error) populasi pada model stokastiknya sama dengan nol, variabel independen adalah nonstokastik (nilainya konstan pada setiap kali percobaan yang dilakukan secara berulang) dan distribusi kesalahan (error) adalah normal. Uji ini dilakukan untuk mendapatkan hasil regresi yang baik, meskipun data yang digunakan tidak bagus. Secara umum, terdapat beberapa cara perbaikan asumsi OLS. 1. Menghilangkan Variabel X (Independen) Ketika menghadapi persoalan tentang multikolinieritas, salah satu metode sederhana yang bisa dilakukakan adalah dengan menghilangkan salah satu variabel independen yang mempunyai hubungan linier kuat. Misalnya dalam kasus hubungan antara tabungan dengan pendapatan dan kekayaan, bisa dilakukan dengan menghilangkan variabel independen kekayaan. Akan tetapi menghilangkan variabel independen di dalam suatu model akan menimbulkan bias spesifikasi model regresi. Masalah bias spesifikasi ini timbul karena kita melakukan spesifikasi model yang salah di dalam analisis. Ekonomi teori menyatakan bahwa pendapatan dan kekayaan merupakan faktor yang mempengaruhi tabungan sehingga kekayaan harus tetap dimasukkan di dalam model. 2. Melakukan Transformasi Variabel Misalnya dalam menganalisis perilaku tabungan masyarakat dengan pendapatan dan kekayaan sebagai variabel independen. Data yang dipunyai adalah data time series. Dengan data time series ini maka diduga akan terjadi multikolinieritas antara variabel independen pendapatan dan kekayaan karena data keduanya dalam berjalannya waktu memungkinkan terjadinya trend yakni bergerak dalam arah yang sama. Ketika pendapatan naik maka kekayaan juga naik dan sebaliknya jika pendapatan menurun diduga kekayaan juga menurun. Dalam mengatasi masalah multikolinieritas tersebut, dapat dilakukan transformasi variabel. Misalnya model regresi time series sebagai berikut: Y t −Y t −1= β1 ( X ¿ ¿ 1t−X 1t −1)+ β 2 ( X 2 t− X 2 t−1 ) +(et −e t−1 )¿ dimana : Y = tabungan; X 1 = pendapatan; X 2 = kekayaan. Persamaan tersebut merupakan bentuk transformasi variabel ke dalam bentuk diferensi pertama (first difference). Bentuk diferensi pertama ini akan mengurangi masalah multikolinieritas karena walalupun pada tingkat level X 1 dan X 2 terdapat multikolinieritas namun tidak berarti pada tingkat diferensi pertama masih terdapat korelasi yang tinggi antara keduanya. Transformasi variabel dalam persamaan tersebut menimbulkan masalah berkaitan dengan masalah variabel gangguan. Metode OLS mengasumsikan bahwa variabel gangguan tidak saling berkorelasi. Namun transformasi variabel variabel gangguan e t −e t−1diduga mengandung masalah autokorelasi. Walaupun variabel gangguan e t awalnya adalah independen, namun variabel gangguan e t −e t−1 yang diperoleh dari transformasi variabel dalam banyak kasus akan saling berkorelasi sehingga melanggar asumsi variabel gangguan metode OLS. 3. Penambahan Data Misalkan masalah multikolinieritas pada dasarnya merupakan persoalan sampel. Oleh karena itu, masalah multikolinieritas seringkali bisa diatasi jika kita menambah jumlah data. Karena, semakin banyak data yang ditambahkan maka hasil regresi semakin baik. Misalkan ketika kita menambah jumlah data karena ada masalah multikolinieritas antara X 1 dan X 2 maka ∑ x 21 i akan menaik sehingga menyebabkan varian dari ^β akan mengalami penurunan. Jika varian mengalami penurunan maka otomatis standard error juga akan mengalami penurunan sehingga kita akan mampu mengestimasi ^β lebih tepat. Dengan kata lain, jika multikolinieritas menyebabkan variabel independen tidak signifikan mempengaruhi variabel dependen melalui uji-t maka dengan penambahan jumlah data maka sekarang variabel independen menjadi signifikan mempengaruhi variabel dependen.
2.7.2. Uji Kelayakan Model Regresi
Uji kelayakan model regresi secara umum dibagi menjadi tiga, yaitu: 1. Uji-F Uji-F adalah uji statistik yang digunakan dalam persamaan regresi untuk mengetahui pengaruh variabel bebas X secara simultan terhadap variabel terikat Y . Jika dilakukan uji hipotesis, H 0 diterima jika nilai uji-F > α artinya data tidak signifikan. Sebaliknya, H 1 diterima jika nilai uji-F < α artinya data signifikan atau terdapat pengaruh nyata antara variabel bebas dan variabel terikat. Langkah- langkah uji-F sebagai berikut: a. Salah satu cara mengubah persamaaan regresi dapat dilakukan dengan mengganti peubah-peubah variabel X , misal dengan penambahan sin ( x ) , log( x), ln( x) , dan lain sebagainya.
Gambar 37. Mengubah Equation dengan
Penambahan Log b. Setelah klik Ok, maka akan muncul tab equation dengan variabel baru log ( X ). Gambar 38. Uji-F Berdasarkan gambar, nilai Prob(F-statistics) adalah 0.000384 . karena Prob(F-statistics) kurang dari 5% maka dapat disimpulkan bahwa hipotesis signifikan. 2. Uji-t Uji-t adalah uji statistik yang digunakan dalam persamaan regresi untuk mengetahui pengaruh masing-masing variabel bebas X secara individu terhadap variabel terikat Y . Jika dilakukan uji hipotesis, H 0 diterima jika nilai uji-t > α artinya data tidak signifikan. Sebaliknya, H 1 diterima jika nilai uji-t < α artinya data signifikan atau terdapat pengaruh nyata antara variabel bebas dan variabel terikat. Langkah-langkah uji-t dapat dilakukan dengan mengestimasi data seperti biasa seperti gambar berikut.
Gambar 39. Uji-t
Berdasarkan gambar, nilai Prob(F-statistics) adalah 0.000581 . karena Prob(F-statistics) kurang dari 5% maka dapat disimpulkan bahwa hipotesis signifikan. 3. Koefisien Determinasi Koefisien Determinasi adalah salah satu syarat yang menentukan baik tidaknya hasil regresi. Koefisien determinasi merupakan bentuk hubungan/pengaruh nyata antara variabel X terhadap variabel Y . Dimana, semakin besar persentase koefisien determinasi maka hubungan antara variabel X dan Y semakin baik. Sebaliknya, semakin kecil persentase koefisien determinasi maka hubungan antara variabel X dan Y semakin tidak baik. Jika variabel independent yang digunakan hanya satu, maka hasil Output dapat dilihat pada nilai R–squared dan jika variabel independent yang digunakan lebih dari satu Adjusted R–Squared.
Gambar 40. Equation dengan Penambahan Log
Berdasarkan gambar, terlihat bahwa nilai R-squred mengalami peningkatan dari hasil regresi sebelumnya dengan penambahan log ( X ).