Anda di halaman 1dari 8

Resume Analisis Kuantitatif

“Menerapkan Teknik Analisis Untuk Menguji Asumsi Klasik”

OLEH KELOMPOK 7 :

I Gusti Ngurah Wisnu Utama Hita (2102022647)


Ni Putu Sri Purnami Dewi (2102022664)
Ida Bagus Mas Widnyana (2102022665)
Ni Made Ayu Sania Maharani (2102022669)
Gusti Ayu Putu Rimbi Rianthi (2102022750)

PROGRAM STUDI AKUNTANSI


FAKULTAS EKONOMI, BISNIS DAN PARIWISATA
UNIVERSITAS HINDU INDONESIA
TAHUN AJARAN 2022/2023
➢ Konsep Asumsi Klasik

Pengertian uji asumsi klasik adalah metode statistik pada analisis regresi linier berganda
yang bertujuan untuk menilai apakah terdapat masalah asumsi klasik atau tidak pada model
regresi linear Ordinary Least Square (OLS). Tujuan dari uji asumsi klasik adalah untuk menilai
parameter penduga yang digunakan sahih dan tidak bias. Selain itu, uji asumsi klasik juga
memiliki fungsi untuk mengetahui apakah model regresi benar-benar menunjukkan hubungan
yang signifikan dan representatif ataukah tidak.

Asumsi klasik kerap dipakai untuk meninjau apakah dalam suatu model penelitian
Ordinary Least Square (OLS) ditemukan persoalan terkait asumsi klasik, seperti
multikolinearitas, normalitas, autokorelasi, hingga heteroskedastisitas. Namun, jauh sebelum
itu, Anda perlu memahami apa sebenarnya yang dimaksud model penelitian Ordinary Least
Square (OLS)? Dalam bahasa Indonesia, OLS disebut juga metode perhitungan kuadrat
terkecil. Ini mengasumsikan bahwa analisis cocok dengan model hubungan antara satu atau
lebih variabel penjelas dan variabel hasilnya kontinu. regresi OLS sendiri terbagi menjadi 2
macam, yaitu: regresi linear berganda dan juga regresi linear sederhana. Sebuah analisis regresi
yang tidak berdasarkan pada OLS ini tidak memerlukan persyaratan uji asumsi klasik, misaInya
pada pengujian regresi logistic serta pengujian regresi ordinal.

Dengan adanya dua jenis yang berbeda pada regresi linear, maka syarat atau asumsi klasik pada
regresi linear juga ada dua macam, diantaranya sebagai berikut :

1. Uji Asumsi Klasik Pada Regresi Linear Sederhana


• Asumsi klasik pada regresi linear sederhana antara lain:
a. Data interval atau rasio
b. linearitas
c. normalitas
d. heteroskedastisitas
e. Outlier
f. Autokorelasi (Hanya untuk data time series atau runtut waktu).
2. Uji Asumsi Klasik Pada Regresi Linear Berganda
• Asumsi klasik pada regresi linear berganda antara lain:
a. Data interval atau rasio
b. linearitas
c. normalitas
d. heteroskedastisitas
e. Outlier
f. Multikollinearitat
g. Autokorelasi (Hanya untuk data time series atau runtut waktu).
➢ Uji Normalitas

Menurut Ghozali (2013:160) Uji normalitas bertujuan untuk mengetahui apakah masing-
masing variabel berdistribusi normal atau tidakUntuk menguji apakah data berdistribusi normal
atau tidak dilakukan uji statistic Kolmogorov-Smirnov Test. Residual berdistribusi normal jika
memiliki nilai signifikansi > 0,05. Dan dapat dideteksi dengan melihat penyebaran data (titik)
pada sumbu diagonal dari grafik atau melihat histogram dari residualnya. Dasar pengambilan
keputusan:

A. Jika data menyebar di sekitar garis diagonal dan mengikuti arah garis diagonal atau
grafik histogramnya menunjukan pola distribusi normal, maka model regresi memenuhi
asumsi normalitas.
B. Jika data menyebar jauh dari regional dan/tidak mengikuti arah garis diagonal atau
grafik histogram tidak menunjukan pola distribusi normal, maka model regresi tidak
memenuhi asumsi normalitas.
➢ Uji Multikolinearitas

Multikolinearitas adalah hubungan linier antar variabel bebas. Ghozali (2017:71)


menyatakan bahwa uji multikolinearitas bertujuan untuk menguji apakah dalam model regresi
terdapat korelasi yang tinggi atau sempurna antar variabel independen. Model regresi yang baik
seharusnya tidak ada korelasi diantara variabel. Bila ada korelasi yang tinggi diantara variabel
bebasnya, maka hubungan antara variabel bebas terhadap variabel terikat menjadi terganggu.

Ghozali (2017:73) menyatakan dengan tingkat signifikansi 90%, adanya multikolinearitas


antar variabel independen dapat dideteksi dengan menggunakan matriks korelasi dengan
ketentuan sebagai sebagai berikut:
• Jika nilai matriks korelasi antar dua variabel independen lebih besar dari (>) 0,90 maka
terdapat multikolinearitas.
• Jika nilai matriks korelasi antar dua variabel independen lebih kecil (<) 0,90 maka tidak
terdapat multikolinearitas.

Ada banyak cara untuk menentukan apakah suatu model memiliki gejala Multikolinieritas,
pada modul ini hanya diperkenalkan 2 cara, yaitu VIF dan Uji Korelasi.

❖ Uji VIF.

Cara ini sangat mudah, hanya melihat apakah nilai VIF untuk masing-masing variabel lebih
besar dari 10 atau tidak. Bila nilai VIF lebih besar dari 10 maka diindikasikan model tersebut
memiliki gejala Multikolinieritas.

❖ PARTIAL CORRELATION

Cara kedua adalah dengan melihat keeratan hubungan antara dua variabel penjelas atau
yang lebih dikenal dengan istilah korelasi.

Untuk menentukan apakah hubungan antara dua variabel bebas memiliki masalah
multikoliniaritas adalah melihat nilai Significance (2-tailed), jika nilainya lebih kecil dari 0,05
(α=5%) maka diindikasikan memiliki gejala Multikolinearitas yang serius. Dari seluruh nilai
Significance (2-tailed) di atas, dapat disimpulkan seluruh variabel penjelas tidak terbebas dari
masalah Multikolinearitas.

➢ Uji Autokorelasi

Uji Autokorelasi merupakan sebuah analisis statistik yang dilakukan untuk mengetahui
apakah terdapat korelasi variabel yang ada di dalam model prediksi dengan perubahan waktu.
Oleh karena itu, apabila asumsi autokorelasi terjadi pada sebuah model prediksi, maka nilai
disturbance tidak lagi berpasangan secara bebas, melainkan berpasangan secara autokolerasi.

Suatu model regresi dapat dikatakan baik ketika terbebas dari autokorelasi. Uji autokorelasi
yang dapat muncul karena adanya observasi yang berurutan sepanjang waktu dan saling
berkaitan satu sama lainnya (Ghozali, 2016). Permasalahan ini muncul karena residual tidak
bebas pada satu observasi ke observasi lainnya. Menurut (Ajija, 2011) uji autokorelasi
bertujuan untuk menunjukkan korelasi anggota observasi yang diurutkan berdasarkan waktu
atau ruang. Uji autokorelasi juga bertujuan untuk menguji apakah dalam suatu model regresi
linear ada korelasi antara kesalahan pengganggu pada periode t dengan kesalahan pada periode
t-1 (sebelumnya). Jika terjadi korelasi, maka dinamakan ada problem autokorelasi. Masalah ini
timbul karena residual (kesalahan pengganggu) tidak bebas dari satu observasi ke obervasi
lainnya. Jika data observasi di atas 100 data sebaiknya menggunakan uji Lagrange Multiplier.

Gejala autokorelasi dapat dideteksi menggunakan uji Durbin Watson Test dengan
menentukan nilai durbin watosn (DW). Uji autokorelasi hanya dilakukan pada data time series
(runtut waktu) dan tidak perlu dilakukan pada data cross section seperti pada kuesioner di mana
pengukuran semua variabel dilakukan secara serempak pada saat yang bersamaan. Model
regresi pada penelitian di Bursa Efek Indonesia di mana periodenya lebih dari satu tahun
biasanya memerlukan uji autokorelasi.

Untuk mendeteksi terdapat atau tidaknya autokorelasi adalah dengan melakukan :

1) Uji Run Test.

Run test merupakan bagian dari statistik non-parametik yang dapat digunakan untuk
melakukan pengujian, apakah antar residual terjadi korelasi yang tinggi. Apabila antar residual
tidak terdapat hubungan korelasi, dapat dikatakan bahwa residual adalah random atau acak.

2) Uji Durbin – Watson


1. Kriteria pengambilan keputusan :
a. Mencari nilai dl dan du dari t-tabel berdasarkan jumlah sampel penelitian.
b. Membuat grafik untuk mengetahui apakah data penelitian memiliki masalah
autokorelasi.
2. Pengambilan keputusan ada atau tidaknya autokorelasi menggunakan kriteria DW tabel
dengan tingkat signifikansi 5% yaitu sebagai berikut :
a. Nilai D-W di bawah -2 artinya terdapat autokorelasi positif.
b. Nilai D-W di antara -2 sampai +2 artinya tidak ada autokorelasi.
c. Nilai D-W di atas +2 artinya terdapat autokorelasi negatif.
3. Uji Breusch-Godfrey Serial Correlation LM Test. Dasar pengambilan keputusan uji ini
berdasarkan nilai p-value.
Jika uji Breusch-Godfrey Serial Correlation LM Test dengan signifikansi > 0.05 maka
model regresi tidak terdapat masalah autokorelasi.
Jika hasil uji Breusch-Godfrey Serial Correlation LM Test dengan signifikansi < 0.05
maka model regresi masih terdapat masalah autokorelasi.
Sebagai contoh misal hasil uji Autokorelasi dengan menggunakan uji Breusch-Godfrey
(LM Test) menunjukkan nilai probability chi-square dari Obs*R-squared sebesar
0.2869. Nilai tersebut bernilai diatas 0,05 maka dapat disimpulkan bahwa tidak terdapat
masalah autokorelasi pada model regresi.

Beberapa cara untuk menanggulangi masalah autokorelasi adalah sebagai berikut :

1. Mengubah model regresi ke dalam bentuk persamaan beda umum (generalized


difference equation).
2. Memasukkan variabel lag dari variabel terikat menjadi salah satu variabel bebas,
sehingga data observasi menjadi berkurang 1.
3. Mengeluarkan satu variabel atau lebih variabel bebas yang mempunyai nilai korelasi
sederhana relatif tinggi.
4. Transformasi variabel. Menganalisis ulang model regresi yang sama, tetapi dengan nilai
variabel-variabel yang telah ditransformasikan.
5. Penambahan data baru. Semakin sedikit sampel yang diambil dalam penelitian akan
cenderung meningkatkan adanya gangguan.
➢ Uji Heteroskedastisitas

Uji heterokedastisitas merupakan alat uji model regresi untuk mengetahui ketidaksamaan
variance dari residual satu pengamatan ke pengamatan yang lainnya. Jika variance dari residual
satu pengamatan ke pengamatan lain tetap, maka disebut Homokedastisitas dan jika berbeda
disebut Heterokedastisitas. Model regresi yang baik adalah yang homokedastisitas atau tidak
terjadi masalah heterokedastisitas. Menurut Ghozali (2013) “Uji heteroskedastisitas bertujuan
untuk mengetahui apakah dalam model regresi terjadi ketidaksamaan varian dari suatu residual
pengamatan ke pengamatan lain”. Kebanyakan data cross section mengandung situasi
heteroskesdatisitas karena data ini menghimpun data yang mewakili berbagai ukuran (kecil,
sedang, dan besar).

✓ Konsekuensi Heteroskedastisitas
1. Akibat tidak konstannya varians menyebabkan varians hasil estimasi menjadi besar.
2. Besarnya varians estimasi akan berpengaruh pada uji hipotesis yang dilakukan (uji t
dan uji F) karena kedua uji tersebut menggunakan besaran varians estimasi. Akibatnya,
kedua uji hipotesis tersebut menjadi tidak akurat.
3. Lebih besarnya varians estimasi akan mengakibatkan standard error juga lebih besar
sehingga interval kepercayaan menjadi lebar
4. Akibat dari beberapa dampak tersebut menyebabkan kesimpulan yang diambil dari
persamaan regresi yang dihasilkan dapat menyesatkan.
✓ Cara Uji Heteroskedastisitas

Beberapa metode pengujian yang bisa digunakan diantaranya yaitu Uji Park, Uji Glesjer,
Grafik Plot (Scatter Plot), dan uji koefisien korelasi Spearman.
DAFTAR PUSTAKA

https://ojs.unpkediri.ac.id/index.php/manajemen/article/download/12026/843/

Nihayah, Ana Zahrotun. 2019. Pengolahan Data Penelitian Menggunakan Software SPSS
23.0. Walisongo : Semarang. https://febi.walisongo.ac.id/wp-
content/uploads/2019/12/EBOOK-SOFTWARE-SPSS-23-3.0.pdf

Ajija, Shochrul Rohmatul, dkk. 2011. Cara Cerdas Menguasai Eviews. Jakarta: Salemba
Empat.

Ghozali, I. (2016) Aplikasi Analisis Multivariete Dengan Program IBM SPSS 23. Edisi 8.
Semarang: Badan Penerbit Universitas Diponegoro.

Ghozali, Imam. (2013). Aplikasi Analisis Multivariate dengan Program

IBM SPSS 21 Update PLS Regresi. Semarang: Badan Penerbit Universitas Diponegoro.

Gujarati, Damodar N. (2003). Basic Econometric Forth Edition. New York: Mc Graw-Hill.

Maddala, G.S (1992). Introduction to Econometric, 2nd Edition, MacMillan Publishing


Company, New York.

Anda mungkin juga menyukai