Anda di halaman 1dari 5

1.

Asumsi Klasik Modal Regresi

Asumsi klasik adalah ketentuan-ketentuan yang harus dipenuhi pada model


regresi linear Ordinary Least Square (OLS) agar model tersebut menjadi valid
sebagai alat penduga. Komponen yang diperlukan untuk pengujian agar sebuah
asumsi tersebut dapat dibuktikan kebenarannya. Kebeneran akan tercapai jika suatu
asumsi telah memenuhi syarat-syarat model linear Ordinary Least Square (OLS),
syarat-syarat asumsi klasik model regresi yang harus dipenuhi adalah sebagai
berikut :

a. Uji Normalitas
Pengujian ini untuk mengetahui apakah nilai residual terdistribusi
secara normal atau tidak. Normal atau tidaknya suatu regresi dapat
ditentukan dengan pengujian. Pengujian dilakukan guna menentukan regresi
yang baik dan dapat dibuktikan. Ketika suatu regresi tidak normal maka
model tersebut belum bisa dikatakan baik. Model regresi yang baik adalah
yang memiliki nilai residual yang terdistribusi secara normal (Mardiatmoko,
2020).
Regresi yang baik sudah dapat diaplikasikan kepada aplikator.
Konsep dasar dari KolmogorovSmirnov Test adalah membandingkan
distribusi data yang akan diuji normalitasnya dengan distribusi normal baku.
Jika distribusi data yang akan diuji menunjukkan kemiripan (tidak terdapat
perbedaan yang signifikan) dengan distribusi normal baku, maka dapat
disimpulkan bahwa data yang diuji berdistribusi normal. Uji normalitas
diperlukan untuk menjawab pertanyaan apakah syarat sampel yang
representatif terpenuhi atau tidak, sehingga hasil penelitian dapat
digeneralisasi pada populasi atau dapat mewakili populasi (Sukestiyarno,
2017)
Uji normalitas digunakan untuk meneliti suatu model regresi, suatu
variabel independen dan variabel dependen ataupun keduanya mempunyai
distribusi normal atau tidak normal. Suatu variabel tidak berdistribusi secara
normal,maka hasil uji statistik akan menurun. Pada uji normalitas data dapat
dilakukan dengan menggunakan uji One Sample Kolmogorov Smirnov yaitu
dengan ketentuan apabila nilai signifikansi diatas 5% atau 0,05 maka data
memiliki distribusi normal. Sedangkan jika hasil uji One Sample Kolmogorov
Smirnov menghasilkan nilai signifikan dibawah 5% atau 0,05 maka data tidak
memiliki distribusi normal.
b. Uji Multikolinearitas
Menurut (Robbani, 2019) Multikolinearitas merupakan salah satu
pelanggaran asumsi klasik pada analisis regresi linear berganda yang
disebabkan adanya hubungan linear diantara sebagian atau seluruh variabel
independen dalam sebuah model regresi. Pengujian diperlukan untuk
mengetahui hubungan linear antar variable. Hubungan linear dapat
menyebabkan pengecualian atau eror tertentu. Hubungan linear antar
variablelah yang dapat menentukan hasil Uji Multikolinearitas. Setiap
pengujian pasti memiliki tujuan yang telah ditetukan.
Pengujian multikolinearitas memiliki tujuan agar mengetahui apakah
model regresi ditemukan adanya korelasi antar variabel independent atau
variable bebas. Efek dari multikolinearitas ini adalah menyebabkan tingginya
variabel pada sampel. Hal tersebut berarti standar error besar, akibatnya
ketika koefisien diuji, t-hitung akan bernilai kecil dari t-tabel. Hal ini
menunjukkan tidak adanya hubungan linear antara variabel independen yang
dipengaruhi dengan variabel dependen.Uji Multikolinieritas bertujuan untuk
menguji apakah didalam model regresi ditemukan adanya korelasi antara
variabel bebas (Ningsih, 2019).
Untuk menguji terdapat atau tidaknya multikolinearitas pada model
regresi dapat diketahui dari nilai toleransi dan nilai variance inflation factor
(VIF). Nilai Tolerance yang digunakan mengukur variabilitas dari variabel
bebas yang terpilih yang tidak dapat dijelaskan oleh variabel bebas lainnya.
Jadi nilai tolerance rendah sama dengan nilai VIF tinggi, dikarenakan VIF =
1/tolerance, dan menunjukkan terdapat kolinearitas yang tinggi. Nilai cut off
yang digunakan adalah untuk nilai tolerance 0,10 atau nilai VIF diatas angka
10. Dari nilai nilai tersebut dapat diasumsikan hasil pengujian. Hasil pengujian
digunakan untuk menentikan terdapat atau tidaknya multikolinearitas pada
model regresi.
c. Uji Autokorelasi
Menurut (Puspa, 2021) Uji autokorelasi adalah untuk menguji apakah
dalam model regresi linear terdapat korelasi antara kesalahan pengganngu
pada periode 𝑡 dengan kesalahan pengganggu pada periode 𝑡 − 1
(sebelumnya). Apabila korelasi terjadi akibatnya akan terdapat problem
autokorelasi. Model regresi yang dianggap baik apabila terlepas dari
autokorelasi. Uji korelasi dilakukan untuk mendapatkan data tertentu. Dalam
mendeteksi data apakah terdapat autokorelasi dapat dilakukan dengan
beberapa cara salah satunya adalah dengan menggunakan metode Durbin
Watson.
Uji Autokorelasi merupakan analisis statistik yang digunakan untuk
mengetahui adakah korelasi variabel yang ada di dalam model prediksi
berdasarkan dengan perubahan waktu. Oleh karena itu, apabila asumsi
autokorelasi terdapat pada sebuah model prediksi, maka nilai disturbance
tidak lagi berpasangan secara bebas, melainkan berpasangan secara
autokorelasi. Namun prinsip penting lainnya tetap akan kami bahas secara
singkat dan padat serta mudah dipahami. Setiap pengujian dilakukan
tentunya memiliki tujuan, begitu pula dengan uji auto korelasi. Uji autokorelasi
dilakukan untuk mengetahui adanya korelasi antar residual pada model
regresi dari waktu ke waktu (Edriani, 2021).
Apabila nilai Asymp. Sig. (2-tailed) kurang dari 5% atau 0,05, maka
untuk H0 ditolak dan Ha diterima. Hal tersebut berarti data residual terjadi
secara tidak acak (sistematis). Apabila nilai Asymp. Sig. (2-tailed) lebih dari
5% atau 0,05, maka untuk H0 diterima dan Ha ditolak. Hal tersebut berarti
data residual terjadi secara acak (random). Pengujian tersebut digunakan
pada hipotesis yang telah ditentukan. Hipotesi yang telah berasil teruji maka
dapat di katakana sebagi kebenaran.
d. Uji heteroskedastisitas
Uji Heteroskedastisitas merupakan pengujian yangdigunakan untuk
menilai apakah ada ketidaksamaan varian dari residual untuk semua
pengamatan pada model regresi linear. Uji ini merupakan salah satu dari uji
asumsi klasik yang harus dilakukan pada regresi linear. Pengujian dilakukan
untuk mendapatkan beberapa asumsi yang dikehendaki. Apabila asumsi
heteroskedastisitas tidak terpenuhi, maka model regresi dinyatakan tidak
valid sebagai alat peramalan, maka dari itu uji heteroskedastisitas dilakukan
untuk menguji ketergantungan variansi residual terhadap variabel bebas
(Edriani T. S., 2021)
Heteroskedastisitas adalah lawan kata dari homoskedastisitas,
dimana keadaan dimana terjadinya ketidaksamaan varian dari error untuk
semua pengamatan setiap variabel bebas pada model regresi. Oleh karena
itu, pengertian homoskedastisitas merukapan suatu keadaan dimana adanya
kesamaan varian dari error untuk semua pengamatan setiap variabel bebas
pada model regresi.Dilakukan uji heterokedastisitas digumakan untuk
menguji beberapa eror atau masalah. Berdasarkan hal tersebut maka uji
Heteroskedastisitas dengan Uji Glejser bertujuan untuk menguji apakah
dalam model regresi terjadi ketidaksamaan variance dari residual satu
pengamatan ke pengamatan yang lain (Setyarini, 2020).
Uji heteroskedastisitas digunakan untuk melakukan uji pada sebuah
model regresi yang terjadi ketidaknyamanan varian dari residual dalam satu
pengamatan ke pengamatan yang lainnya. Apabila varian berbeda, maka
dapat disebut sebagai heteroskedastisitas. Cara untuk mengetahui ada atau
tidaknya heteroskedastisitas pada suatu model regresi linier berganda, yaitu
dengan melihat grafik scatterplot atau dari nilai prediksi variabel terikat yaitu
SRESID dengan residual error yaitu ZPRED. Apabila tidak terdapat pola
tertentu dan tidak menyebar diatas maupun dibawah angka nol pada sumbu
y, maka dapat disimpulkan tidak terjadi heteroskedastisitas. Untuk model
penelitian yang baik adalah yang tidak terdapat heteroskedastisitas
DAFTAR PUSTAKA

Edriani, T. S., Rahmadani, A., & Noor, D. M. M. (2021). Analisis Hubungan Kepadatan
Penduduk dengan Pola Penyebaran COVID-19 Provinsi DKI Jakarta menggunakan
Regresi Robust. Indonesian Journal of Applied Mathematics, 1(2), 51-60.

Mardiatmoko, G. (2020). Pentingnya uji asumsi klasik pada analisis regresi linier berganda
(studi kasus penyusunan persamaan allometrik kenari muda [canarium indicum
l.]). BAREKENG: Jurnal Ilmu Matematika Dan Terapan, 14(3), 333-342.

Ningsih, S., & Dukalang, H. H. (2019). Penerapan metode suksesif interval pada analsis
regresi linier berganda. Jambura Journal of Mathematics, 1(1), 43-53.

Puspa, S. D., Riyono, J., & Puspitasari, F. (2021). Analisis Faktor-Faktor yang
Mempengaruhi Pemahaman Konsep Matematis Mahasiswa dalam Pembelajaran
Jarak Jauh Pada Masa Pandemi Covid-19. Jurnal Cendekia: Jurnal Pendidikan
Matematika, 5(1), 302-320.

Robbani, M., Agustiani, F., & Herrhyanto, N. (2019). Regresi least absolute shrinkage and
selection operator (LASSO) pada kasus inflasi di Indonesia tahun 2014-2017. Jurnal
EurekaMatika, 7(2), 1-16.

Setyarini, A. (2020). Analisis Pengaruh CAR, NPL, NIM, BOPO, LDR Terhadap ROA (Studi
Pada Bank Pembangunan Daerah di Indonesia Periode 2015-2018). Research Fair
Unisri, 4(1).

Sukestiyarno, Y. L., & Agoestanto, A. (2017). Batasan prasyarat uji normalitas dan uji
homogenitas pada model regresi linear. Unnes Journal of Mathematics, 6(2), 168-
177.

Anda mungkin juga menyukai