Anda di halaman 1dari 6

10 DASAR ASUMSI KLASIK

ASUMSI 1 : MODEL REGRESI LINEAR DALAM PARAMETERNYA


Untuk menguji apakah variabel X ini berhubungan linier dengan variabel Y. Model
regresi ini linear dalam parameter-parameternya, seperti pada persamaan :

Yi = β1 + β2Xi + ui

Oleh karena “model regresi yang dalam parameter" merupakan titik awal dari CLRM (classical
linier regression model), Ingat selalu bahwa regresan Y dan regresor X itu sendiri bisa saja tidak
linear.
Model regresi haruslah linear, meskipun bisa saja sebenarnya variabel terikat Y dengan
variabel bebas X tidak linear. Istilah linear sebenarnya ada dua macam, yaitu linearitas pada
variabel dan linearitas pada parameter. Yang disebut dengan linearitas pada variabel adalah jika
digambarkan dalam grafik maka akan berbentuk garis lurus. Misalnya persamaan Y = a + bX.
Asumsi yang diperlukan dalam regresi linear adalah linearitas pada parameter, bukan linearitas
pada variabel.
ASUMSI 2 : NILAI REGRESOR, X, TETAP ATAU NILAI X BERDIRI SENDIRI
TERHADAP FAKTOR KESALAHAN (REGRESOR TETAP VERSUS STOKASTIK)
Nilai variabel X diasumsikan stokastik atau dianggap tetap dalam sampel yang berulang.
Analisis regresi yang kita lakukan didasarkan pada asumsi yang menyatakan bahwa regresor
tidak stokastik dan diasumsikan bernilai tetap pada sampling berulang. Sering kali-daripada
tidak, ekonom bergantung pada data sekunder, yaitu data yang dikumpulkan oleh peneliti lain,
seperti peneliti dari organisasi pemerintah dan sektor swasta. Oleh karena itu, strategi praktis
yang perlu dilakukan adalah untuk mengasumsikan bahwa untuk data yang sedang dianalisis,
nilai variabel penjelas diberikan, meskipun variabel-variabel tersebut secara intrinsik stokastik
(acak). Dengan demikian, hasil analisis regresi secara kondisional bergantung pada nilai yang
diberikan.
ASUMSI 3 : UNTUK X TERTENTU, NILAI RERATA GANGGUAN U ADALAH NOL
Menyatakan bahwa nilai rerata dari ui kondisional terhadap nilai Xi tertentu adalah nol.
Mengingat kembali model regresi linier variabel k :
Yi = β1 + β2X2i + β3X3i + … + βkXki + ui (1)
Kini mari kita asumsikan bahwa :
E( ui | X2i, X3i, …, Xki ) = w (2)
Dimana w adalah konstanta;perhatikan dalam model standar, w=0, tetapi kini kita biarkan w
sebagai konstanta.
Mengambil eskpektasi kondisional dari Persamaan (1), kita dapatkan :
E( Yi | X2i, X3i, …, Xki ) = β1 + β2X2i + β3X3i + … + βkXki + w (3)
=( β1 + w ) + β2X2i + β3X3i + … + βkXki
=α + β2X2i + β3X3i + … + βkXki
Dimana α = (β1, + w) dan ketika mengambil ekspektasi bahwa seseorang sebaiknya
memperhatikan bahwa variabel X diperlakukan sebagai konstanta. (Mengapa?)
Oleh karena itu, jika Asumsi 3 tidak terpenuhi, kita lihat bahwa kita tidak dapat
mengestimasi intercept yang sebenarnya, yaitu β1; apa yang kita dapatkan adalah α, yang
mengandung β1, dan E(ui) = w. Singkatnya, kita mendapatkan estimasi yang bias dari β1.
Pada kebanyakan situasi praktis, faktor intercept, β1, sedikit penting; kuantitas yang lebih
penting adalah koefisien kemiringan, di mana tetap tidak terpengaruh meskipun jika Asumsi 3
dilanggar." Selain itu, pada kebanyakan aplikasi, faktor intercept tidak memiliki interpretasi fisis.
Nilai Y hasil prediksi dengan model regresi tentunya mempunyai kesalahan atau tidak
tepat sama dengan nilai Y pada data. Selisihnya sering disebut dengan disturbance dan sering
disimbolkan dengan u. Nilai ini harus mempunyai rata-rata sama dengan 0 (eksak). Ketika kita
telah mendaptkan garis lurus pada model, maka nilai Y yang sebenarnya bisa berada di atas atau
di bawah garis lurus tersebut, akan tetapi jumlahnya akan seimbang sehingg rata-ratanya sama
dengan 0.
ASUMSI 4 : UNTUK X TERTENTU, VARIANS GANGGUAN U¡ KONSTAN ATAU
HOMOSKEDASTISITAS
Hal ini berarti semua varians adalah sama atau konstan. Dari kata homo (sama) atau equal,
dan skedastisitas berarti disperse atau scatter (persebaran). Jadi varians dari error atau
disturbance haruslah sama pada masing-masing nilai X .Yang dimana varians kondisional Yi
(sama dengan ui) bersifat kondisional terhadap Xi yang artinya keduanya tetap sama terlepas dari
nilai yang diambil oleh variabel X. Secara simbol dapat digambarkan sebagai :
E(u¡²) = ó²
Namun, jika pada analisis cross-section sering terjadi perbedaan atau heteroskedastisitas ini
dikarenakan ragam residualnya tidak homogen atau error yang biasanya dikarenakan adanya
populasi dengan waktu tertentu sehingga memiliki ukuran yang berbeda-beda. Untuk
membedakan antara homoskedastisitas dan heteroskedastisitas maka asumsikan bahwa pada
model dua variabel yaitu :
Y¡ = 1+ 2X¡ + u¡
Yang dimana Y merepresentasikan tabungan dan X merepresentasikan pendapatan. Pada
heteroskedastisitas ketika pendapatan meningkat maka secara rata-rata tabungan juga meningkat,
namun masih terdapat berbagai variabilitas pada tabungan mereka. Tetapi pada
homoskedastisitas varians dari tabungan tetap sama pada semua level pendapatan.
ASUMSI 5 : UNTUK X TERTENTU, TIDAK ADA OTOKORELASI, ATAU KORELASI
SERI, DIANTARA FAKTOR GANGGUAN
Asumsi ini masih berkaitan dengan nilai error, yaitu bahwa untuk sembarang 2 buah nilai X,
maka kedua error itu tidak berkorelasi (atau mempunyai korelasi 0). Tidak adanya korelasi seri
atau tidak adanya otokorelasi artinya dari nilai X¡ yang ada, deviasi kedua nilai Y manapun dari
nilai reratanya tidak akan membentuk sebuah pola, seperti yang ditunjukkan pada Figur 3.6 (a)
dan (b). Pada Figur 3.6 (a) nilai-nilai u membentuk korelasi positif, dimana nilai u yang positif
diikuti dengan nilai u yang positif atau nilai u yang negatif diikuti dengan nilai u yang negatif.
Pada Figur 3.6 (b) nilai-nilai u memiliki korelasi negatif, dimana sebuah nilai u yang positif
diikuti dengan nilai u yang negatif begitupun sebaliknya.
Apabila variabel gangguan (deviasi) mengikuti sebuah pola yang sistematis seperti pada
Figur 3.6 (a) dan (b) maka dapat dikatakan bahwa terdapat otokorelasi atau korelasi seri, namun
pada asumsi 5 ini mengatakan bahwa keberadaan korelasi itu tidak ada, maka Figur 3.6 (c)
memperlihatkan kondisi dimana tidak terdapat pola yang sistematis dari nilai-nilai u, yang
mengindikasikan tidak adanya korelasi atau korelasi nol (zero correlation).
ASUMSI 6 : JUMLAH OBSERVASI N HARUS LEBIH BESAR DARI JUMLAH
PARAMETER YANG DIESTIMASI
Artinya nilai variabel bebas (Xi) dengan error (ui) tidak berkorelasi. Diasumsikan bahwa Y
adalah dipengaruhi oleh X dan u, sehingga X dan u harus tidak saling berkorelasi. Jika X dan u
berkorelasi, maka tidak mungkin mencari pengaruh masing-masing terhadap Y. Jika X
berkorelasi positif dengan u, maka jika X meningkat u juga meningkat, atau jika X menurun
maka u juga menurun (juga sebaliknya jika berkorelasi negatif). Sehingga sulit untuk
mengisolasi pengaruh X dan u terhadap Y. Asumsi ini sebenarnya akan terpenuhi secara
otomatis jika X merupakan stokastik karena untuk X bernilai tetap, u akan berubah.
Jumlah observasi n harus lebih besar dari jumlah parameter yang diestimasi yang bahkan
untuk memenuhi asumsi yang lain juga jumlah n harus cukup besar. Jika jumlah parameter sama
atau bahkan lebih besar dari jumlah observasi, maka persamaan regresi tidak akan bisa
diestimasi. Maka harus banyak observasi yang jauh lebih besar daripada banyaknya variabel
penjelas. Menurut Arthur Goldberger telah menamakan asumsi 6 ini sebagai masalah
mikronumerositas yang artinya ukuran sampel yang kecil.
ASUMSI 7 : TERDAPAT VARIASI YANG CUKUP PADA NILAI VARIABEL X
Asumsi ini sebenarnya tidak asing bagi matematika sederhana. Jika ada dua parameter
yang akan dicari nilainya maka tentunya tidak mungkin diselesaikan dengan satu persamaan
(observasi).
Nilai x dari sampel tertentu tidak selalu harus sama secara teknis var (x) seharusnya
merupakan angka yang positif lebih jauh lagi tidak ada pencilan atau outlier dari nilai variabel x
yaitu yang menyatakan hubungan yang terlalu besar pada akhir observasi.
Asumsi diatas menyatakan terdapat variabilitas pada nilai X.
Persamaan ini apabila semua nilai x identik maka X = X bar
karena penyebut dari persamaan ini bernilai nol jadi
memungkinkan untuk mengestimasi B2 dan juga
mengestimasi B1

Contoh pengeluaran konsumsi keluarga pada bab 2 jika


terdapat sedikit saja variabel dalam pendapatan keluarga
maka kita tidak akan bisa menjelaskan secara jelas variasi-
variasi yang ada dalam pengeluaran konsumsi.
Sebaiknya tetap mengingat bahwa variasi pada y dan x
adalah esensial untuk menggunakan analisis regresi sebagai
alat penelitian singkatnya variabel-variabel yang ada harus
bervariasi. Pada asumsi ini menggarisbawahi bahwa classical linier regression model (CLRM)
telah lengkap.
ASUMSI 8 : TIDAK ADA KOLINEARITAS YANG PASTI DI ANTARA VARIABEL X
Harus ada variasi nilai dalam variabel X. Jika X nilainya sama untuk semua observasi
maka tentunya tidak dapat diestimasi. Meskipun ini mudah dimengerti namun sering dilupakan.
Asumsi 8 dari classical linear regression model atau CLRM adalah tidak ada
multikolinearitas diantara regresor regresor yang terlibat dalam model regresi. Nilai-nilai dalam
variable X tidak boleh sama. Alternatif: varians(X) harus benar-benar bilangan positif. Istilah
multikolinearitas mengacu pada Ragnar fish awalnya hal tersebut berarti keberadaan dari
hubungan linear yang sempurna atau tepat di antara sebagian atau seluruh variabel penjelas
dalam sebuah model regresi untuk regresi variabel x melibatkan variabel penjelas X1, X2..... Xk.
Di mana X1 = 1 untuk semua observasi mengikutkan faktor intercept .
1X2 + 2X2 + … + kXk = 0

Mengapa CRLM mengasumsikan tidak ada multikolinearitas di antara variabel X ?


Alasannya adalah jika multikolinearitas bersifat sempurna dalam pengertian yang diberikan
persamaan 10.1.1 koefisien regresi dari variabel-variabel X tidak dapat ditentukan dan standar
error nya tidak terhingga. Jika multikolinearitas kurang sempurna, seperti pada persamaan
10.1.2, koefisien regresi, walaupun dapat ditentukan, memiliki standar error yang besar ( dalam
kaitannya dengan koefisien itu sendiri) , dimana hal ini berarti koefisien-koefisien tidak dapat
diestimasi dengan tingkat keakuratan yang tinggi.

ASUMSI 9 : MODEL SECARA BENAR TERSPESIFIKASI SEHINGGA TIDAK


TERDAPAT BIAS SPESIFIKASI
Model regresi dispesifikasikan dengan benar. Alternatif: tidak Ada bias spesifikasi dalam
model yang digunakaan dalam analisis Empirik. Model regresi secara benar telah terspesifikasi.
Artinya, tidak ada spesifikasi yang bias, karena semuanya telah terekomendasi atau sesuai
dengan teori. Model regresi yang dibangun haruslah benar dalam arti sesuai dengan teori yang
telah dikembangkan. Seperti telah dijelaskan bahwa statistik hanyalah untuk menguji teori atau
fenomena tertentu. Jadi jika menggunakan variabel yang sembarangan (atau tidak berdasarkan
teori tertentu) maka model regresi yang dihasilkan juga patut dipertanyakan.
Model regresi yang dibangun haruslah benar dalam arti sesuai dengan teori yang telah
dikembangkan. Seperti telah dijelaskan bahwa statistik hanyalah untuk menguji teori atau
fenomena tertentu. Jadi jika menggunakan variabel yang sembarangan (atau tidak berdasarkan
teori tertentu) maka model regresi yang dihasilkan juga patut dipertanyakan

ASUMSI 10 : FAKTOR (GANGGUAN) STOKASTIK U TERDISTRIBUSI SECARA


NORMAL (NORMALITAS u)
Bentuk distribusi normal (bell-shaped) yaitu berbentuk seperti lonceng dan simetris..
Distribusi bisa residual atau bisa variabel Y. Normalitas tidak hanya di regresi linier. Bisa
dengan Korelasi Pearson , untuk membandingkan populasi dengan uji t itu ada asumsi normalitas
yang periksa. Diasumsikan dalam uji parametrik, bentuk distribusi diasumsikan normal.
Asumsi ini tidak esensial jika tujuan kita hanya untuk melakukan estimasi. Estimator
OLS adalah BLUE, terlepas apakah ui terdistribusi secara normal atau tidak. Dengan asumsi
normalitas, bagaimanapun, kita dapat mengembangkan estimator OLS dari koefisien regresi
yang mengikuti distribusi normal, ( n-k ) ó^² / ó²  memiliki X2, dan seseorang dapat menggunakan
uji t dan F untuk menguji berbagai hipotesis statistik terlepas dari ukuran sampel.
Tujuan dilakukannya uji normalitas adalah untuk menguji apakah variabel penganggu (e)
memiliki distribusi normal atau tidak. Pengujian normalitas data dapat dilakukan sebelum
ataupun setelah tahapan analisis regresi. Hanya saja pengalaman menunjukkan bahwa pengujian
normalitas yang dilakukan sebelum tahapan regresi lebih efisien dalam waktu.
Kiranya, karena jika asumsi normalitas data telah dipenuhi terlebih dulu, maka dampak
yang mungkin akan ditimbulkan dari adanya ketidaknormalan data seperti bias pada nilai t
hitung dan nilai F hitung dapat dihindari. Sebaliknya, bila dilakukan analisis regresi terlebih
dulu, dimana nilai t dan F baru diketahui, yang kemudian baru dilakukan normalitas data,
sedangkan ternyata hasilnya tidak normal maka analisis regresi harus diulang lagi. Pengujian
normalitas ini berdampak pada nilai t dan F karena pengujian terhadap keduanya diturunkan dari
asumsi bahwa data Y atau e berdistribusi normal.

Anda mungkin juga menyukai