OLEH KELOMPOK 7 :
Pengertian uji asumsi klasik adalah metode statistik pada analisis regresi linier berganda
yang bertujuan untuk menilai apakah terdapat masalah asumsi klasik atau tidak pada model
regresi linear Ordinary Least Square (OLS). Tujuan dari uji asumsi klasik adalah untuk menilai
parameter penduga yang digunakan sahih dan tidak bias. Selain itu, uji asumsi klasik juga
memiliki fungsi untuk mengetahui apakah model regresi benar-benar menunjukkan hubungan
yang signifikan dan representatif ataukah tidak.
Asumsi klasik kerap dipakai untuk meninjau apakah dalam suatu model penelitian
Ordinary Least Square (OLS) ditemukan persoalan terkait asumsi klasik, seperti
multikolinearitas, normalitas, autokorelasi, hingga heteroskedastisitas. Namun, jauh sebelum
itu, Anda perlu memahami apa sebenarnya yang dimaksud model penelitian Ordinary Least
Square (OLS)? Dalam bahasa Indonesia, OLS disebut juga metode perhitungan kuadrat
terkecil. Ini mengasumsikan bahwa analisis cocok dengan model hubungan antara satu atau
lebih variabel penjelas dan variabel hasilnya kontinu. regresi OLS sendiri terbagi menjadi 2
macam, yaitu: regresi linear berganda dan juga regresi linear sederhana. Sebuah analisis regresi
yang tidak berdasarkan pada OLS ini tidak memerlukan persyaratan uji asumsi klasik, misaInya
pada pengujian regresi logistic serta pengujian regresi ordinal.
Dengan adanya dua jenis yang berbeda pada regresi linear, maka syarat atau asumsi klasik pada
regresi linear juga ada dua macam, diantaranya sebagai berikut :
Menurut Ghozali (2013:160) Uji normalitas bertujuan untuk mengetahui apakah masing-
masing variabel berdistribusi normal atau tidakUntuk menguji apakah data berdistribusi normal
atau tidak dilakukan uji statistic Kolmogorov-Smirnov Test. Residual berdistribusi normal jika
memiliki nilai signifikansi > 0,05. Dan dapat dideteksi dengan melihat penyebaran data (titik)
pada sumbu diagonal dari grafik atau melihat histogram dari residualnya. Dasar pengambilan
keputusan:
A. Jika data menyebar di sekitar garis diagonal dan mengikuti arah garis diagonal atau
grafik histogramnya menunjukan pola distribusi normal, maka model regresi memenuhi
asumsi normalitas.
B. Jika data menyebar jauh dari regional dan/tidak mengikuti arah garis diagonal atau
grafik histogram tidak menunjukan pola distribusi normal, maka model regresi tidak
memenuhi asumsi normalitas.
➢ Uji Multikolinearitas
Ada banyak cara untuk menentukan apakah suatu model memiliki gejala Multikolinieritas,
pada modul ini hanya diperkenalkan 2 cara, yaitu VIF dan Uji Korelasi.
❖ Uji VIF.
Cara ini sangat mudah, hanya melihat apakah nilai VIF untuk masing-masing variabel lebih
besar dari 10 atau tidak. Bila nilai VIF lebih besar dari 10 maka diindikasikan model tersebut
memiliki gejala Multikolinieritas.
❖ PARTIAL CORRELATION
Cara kedua adalah dengan melihat keeratan hubungan antara dua variabel penjelas atau
yang lebih dikenal dengan istilah korelasi.
Untuk menentukan apakah hubungan antara dua variabel bebas memiliki masalah
multikoliniaritas adalah melihat nilai Significance (2-tailed), jika nilainya lebih kecil dari 0,05
(α=5%) maka diindikasikan memiliki gejala Multikolinearitas yang serius. Dari seluruh nilai
Significance (2-tailed) di atas, dapat disimpulkan seluruh variabel penjelas tidak terbebas dari
masalah Multikolinearitas.
➢ Uji Autokorelasi
Uji Autokorelasi merupakan sebuah analisis statistik yang dilakukan untuk mengetahui
apakah terdapat korelasi variabel yang ada di dalam model prediksi dengan perubahan waktu.
Oleh karena itu, apabila asumsi autokorelasi terjadi pada sebuah model prediksi, maka nilai
disturbance tidak lagi berpasangan secara bebas, melainkan berpasangan secara autokolerasi.
Suatu model regresi dapat dikatakan baik ketika terbebas dari autokorelasi. Uji autokorelasi
yang dapat muncul karena adanya observasi yang berurutan sepanjang waktu dan saling
berkaitan satu sama lainnya (Ghozali, 2016). Permasalahan ini muncul karena residual tidak
bebas pada satu observasi ke observasi lainnya. Menurut (Ajija, 2011) uji autokorelasi
bertujuan untuk menunjukkan korelasi anggota observasi yang diurutkan berdasarkan waktu
atau ruang. Uji autokorelasi juga bertujuan untuk menguji apakah dalam suatu model regresi
linear ada korelasi antara kesalahan pengganggu pada periode t dengan kesalahan pada periode
t-1 (sebelumnya). Jika terjadi korelasi, maka dinamakan ada problem autokorelasi. Masalah ini
timbul karena residual (kesalahan pengganggu) tidak bebas dari satu observasi ke obervasi
lainnya. Jika data observasi di atas 100 data sebaiknya menggunakan uji Lagrange Multiplier.
Gejala autokorelasi dapat dideteksi menggunakan uji Durbin Watson Test dengan
menentukan nilai durbin watosn (DW). Uji autokorelasi hanya dilakukan pada data time series
(runtut waktu) dan tidak perlu dilakukan pada data cross section seperti pada kuesioner di mana
pengukuran semua variabel dilakukan secara serempak pada saat yang bersamaan. Model
regresi pada penelitian di Bursa Efek Indonesia di mana periodenya lebih dari satu tahun
biasanya memerlukan uji autokorelasi.
Run test merupakan bagian dari statistik non-parametik yang dapat digunakan untuk
melakukan pengujian, apakah antar residual terjadi korelasi yang tinggi. Apabila antar residual
tidak terdapat hubungan korelasi, dapat dikatakan bahwa residual adalah random atau acak.
Uji heterokedastisitas merupakan alat uji model regresi untuk mengetahui ketidaksamaan
variance dari residual satu pengamatan ke pengamatan yang lainnya. Jika variance dari residual
satu pengamatan ke pengamatan lain tetap, maka disebut Homokedastisitas dan jika berbeda
disebut Heterokedastisitas. Model regresi yang baik adalah yang homokedastisitas atau tidak
terjadi masalah heterokedastisitas. Menurut Ghozali (2013) “Uji heteroskedastisitas bertujuan
untuk mengetahui apakah dalam model regresi terjadi ketidaksamaan varian dari suatu residual
pengamatan ke pengamatan lain”. Kebanyakan data cross section mengandung situasi
heteroskesdatisitas karena data ini menghimpun data yang mewakili berbagai ukuran (kecil,
sedang, dan besar).
✓ Konsekuensi Heteroskedastisitas
1. Akibat tidak konstannya varians menyebabkan varians hasil estimasi menjadi besar.
2. Besarnya varians estimasi akan berpengaruh pada uji hipotesis yang dilakukan (uji t
dan uji F) karena kedua uji tersebut menggunakan besaran varians estimasi. Akibatnya,
kedua uji hipotesis tersebut menjadi tidak akurat.
3. Lebih besarnya varians estimasi akan mengakibatkan standard error juga lebih besar
sehingga interval kepercayaan menjadi lebar
4. Akibat dari beberapa dampak tersebut menyebabkan kesimpulan yang diambil dari
persamaan regresi yang dihasilkan dapat menyesatkan.
✓ Cara Uji Heteroskedastisitas
Beberapa metode pengujian yang bisa digunakan diantaranya yaitu Uji Park, Uji Glesjer,
Grafik Plot (Scatter Plot), dan uji koefisien korelasi Spearman.
DAFTAR PUSTAKA
https://ojs.unpkediri.ac.id/index.php/manajemen/article/download/12026/843/
Nihayah, Ana Zahrotun. 2019. Pengolahan Data Penelitian Menggunakan Software SPSS
23.0. Walisongo : Semarang. https://febi.walisongo.ac.id/wp-
content/uploads/2019/12/EBOOK-SOFTWARE-SPSS-23-3.0.pdf
Ajija, Shochrul Rohmatul, dkk. 2011. Cara Cerdas Menguasai Eviews. Jakarta: Salemba
Empat.
Ghozali, I. (2016) Aplikasi Analisis Multivariete Dengan Program IBM SPSS 23. Edisi 8.
Semarang: Badan Penerbit Universitas Diponegoro.
IBM SPSS 21 Update PLS Regresi. Semarang: Badan Penerbit Universitas Diponegoro.
Gujarati, Damodar N. (2003). Basic Econometric Forth Edition. New York: Mc Graw-Hill.