Anda di halaman 1dari 5

Muhammad Rayhan Akbar

1706057644

Ordinary Least Square


Ordinary Least Square dapat didefinisikan sebagai sebuah metode ekonometrik dimana
terdapat variabel independen yang menjadi variable penjelas dan variabel dependen yaitu variable
yang dijelaskan dalam suatu model matematis berbentuk persamaan linier. Dalam OLS hanya
terdapat satu variable dependen, sedangkan untuk variable independen jumlahnya bisa lebih dari
satu. Jika variable bebas yang digunakan hanya satu disebut dengan regresilinier sederhana,
sedangkan jika variable bebas yang digunakan lebih dari satu disebut sebagai regresi linier
majemuk.

OLS merupakan metode regresi yang meminimalkan jumlah kesalahan (error) kuadrat.
Model regresi linier yang dipakai dengan metode OLS tersebut, harus memenuhi asumsi BLUE
(best Liniear Unbiased Estimator) menurut sebuah teori yang dikembangkan oleh Gauss-Markov,
atau Gauss Markov Theorem. BLUE adalah:

1. Best, Ordinary Least Square merupakan sebuah metode ekonometrik terbaik untuk
melakukan estimasi terhadap parameter yang tergambar dari suatu sampel populasi.
Metode ekonometrik ini dianggap terbaik karena parameter memiliki nilai varians yang
minimum atau bisa dikatakan efisien.
2. Linear, Ordinary Least Square memiliki bentuk model matematis yang berbentuk
persamaan linear. Sebagai contoh:
3. Unbiased, Ordinary Least Square memiliki nilai expected Beta yang sama dengan nilai
Beta actual. Jika nilai expected tidak sama terhadap actual, maka estimator dapat
dipastikan bersifat bias.

Berikut merupakan tujuh asumsi klasik dari Ordinary Least Square, yaitu:

1. Model regresi adalah linier pada parameter-parameternya.


Sebuah model ekonometrika dinyatakan linear apabila seluruh parameternya (𝛽0,
𝛽1, 𝛽2, …, 𝛽𝑖) berada pada derajat yang sama, meski variabelnya tidak pada derajat
yang sama. Ketiga contoh diatas merupakan contoh dari bentuk persamaan linear.
2. Variabel bebas (𝑋𝑖) memiliki nilai yang tetap (bersifat nonstokastik) dalam repeated
sampling,atau variabel bebas tidak berhubungan dengan error term.

Mengapa variable bebas dibatasi untuk bersifat non-stokastik dan independent


dengan error? Karena:
1. Jika nilai 𝑋𝑖 dan 𝑈𝑖 tidak independent, maka perubahan pada unsur 𝑈𝑖 akan
mengubah nilai 𝑋𝑖. Sehingga, kita tidak akan bisa melakukan analisis hubungan
parsial antara 𝑋𝑖 dan 𝑌𝑖;
2. Nilai 𝑋𝑖 banyak dipertahankan bersifat non-stochastic untuk melihat pengaruh
murni 𝑋𝑖 terhadap 𝑌𝑖 pada repeated sample.

3. Untuk setiap nilai 𝑋𝑖, nilai rata-rata atau expected value dari nilai error 𝑈𝑖 adalah 0. Dalam
kata lain, conditional mean value of 𝑈𝑖 bernilai 0. Secara matematis,

Meski terdapat error yang berada di atas dan di bawah garis regresi, tetapi apabila di
reratakan, nilai rata-rata dari error (+𝑈𝑖 dan -𝑈𝑖) berada pada garis regresinya dimana Error
yang bernilai positif dan negative saling cancel out, sehingga tidak berpengaruh terhadap
X)
4. Untuk setiap nilai 𝑋𝑖 tertentu, variansi (persebaran) dari nilai 𝑈𝑖 bernilai konstan(variance
di setiap titik 𝑋𝑖 adalah sama). Hal ini disebut bersifat sebagai homoskedastis.

Jika variance tidak bernilai konstan, maka disebut sebagai heteroskedastis.


5. Untuk dua nilai 𝑋, 𝑋𝑖 dan 𝑋𝑗 (𝑖≠𝑗), maka korelasi antara 𝑈𝑖 dan 𝑈𝑗 bernilai 0. Dengan kata
lain, error (shock) di suatu observasi tidak mempengaruhi error di observasi lain. Hal ini
disebut sebagai tidak memiliki autocorrelation antara nilai-nilai error.
6. Asumsi nomor 2, 3, dan 4 dapat disimplifikasi menjadi:

Dimana nilai Ui terdistribusi secara normal.

7. Untuk regresi yang bersifat multi-variable. Jika terdapat regressor 𝑋𝑖 (𝑖=1,2,3,…,𝑛), maka
tidak boleh ada hubungan linear sempurna (perfect multicollinearity) antar variable
independennya (regressor) berikut merupakan contoh dari perfect multicollinearity, yaitu:
𝑋2𝑖+4𝑋3𝑖=0 or
𝑋2𝑖=−4𝑋3𝑖
Kenapa tidak boleh bersifat perfect multicollinearity? Hal ini disebabkan oleh asumsi
nomor 2, yaitu variable bebas tidak boleh memiliki hubungan dependen antar sesama.

Uji terhadap pelanggaran asumsi Ordinary Least Square.

Terdapat cara-cara yang dapat digunakan untuk mendeteksi maupun untuk mengatasi masalah
pelanggaran asumsi OLS, yaitu:

1. Masalah multikolinieritas
Multikolinearitas, seperti yang disebutkan sebelumnya merupakan salah satu pelanggaran
asumsi OLS dimana terdapat hubungan yang linear antara variable-variabel independen
dalam sebuah sistem persamaan linear, sehingga memunculkan dependensi. Berikut
merupakan sejumlah tata cara yang dapat dilakukan sebagai indikasi dari terjadinya
multikolinearitas, yaitu;
a. Nilai R-square yang tinggi dan diikuti dengan nilai F-stat yang signifikan terhadap F-
crit, namun sebagian besar nilai dari t-stat tidak signifikan terhadap t-crit.
b. Tingkat korelasi antar dua variabel bebas. Jika nilai korelasi antar variable tersebut
bernilai cukup tinggi, seperti lebih dari 0.8, maka dapat dipastikan terjadi masalah
multikolinearitas dalam model matematis tersebut.
Terdapat beberapa hal yang bisa dilakukan untuk menghilangkan masalah
multikolinearitas dalam sebuah model matematis, yaitu:
a. Mennghilangkan variable bebas yang memiliki korelasi tinggi antar sesama dalam
model matematis tersebut.
b. Mengubah model matematis.
c. Melakukan pengambilan data yang lebih masif ataupun memilih sampel baru.
2. Masalah Heteroskedastisitas
Heteroskedastisitas juga menjadi salah satu pelanggaran asumsi OLS yang menyebabkan
parameter yang kita duga, tujuan kita melakukan OLS, menjadi tidak efisien yang
diakibatkan oleh besaran varians selalu berubah-ubah atau tidak konstan. Untuk
mendeteksi keberadaan permasalahan heteroskedastisitas ini dapat dilakukan dengan uji
White Test.
3. Masalah Autokorelasi
Salah satu asumsi klasik OLS adalah tidak adanya korelasi antar error, sehingga masalah
autokorelasi menjadi salah satu pelanggaran dari asumsi klasik OLS. Dengan terjadinya
pelanggaran pada asumsi OLS ini, parameter yang ingin diduga akan menjadi tidak efisien.
Untuk mengetahui keberadaan permasalahan autokorelasi pada first degree, peneliti dapat
menggunakan nilai Durbin-Watson (DW) test dari hasil regresi. Jika nilai DW semakin
mendekati angka dua, maka asumsi bahwa tidak ada autokorelasi dapat peneliti terima.
Namun untuk melihat tingkat autokorelasi pada degree yang lebih tinggi daripada first
degree maka peneliti akan menggunakan uji Breausch-Godfrey Lagrange Multiplier (LM).

Anda mungkin juga menyukai