Anda di halaman 1dari 13

Uji Asumsi Klasik

Uji asumsi klasik adalah persyaratan statistik yang harus dipenuhi pada analisis regresi
linear berganda yang berbasis ordinary least square (OLS). Jadi analisis regresi yang
tidak berdasarkan OLS tidak memerlukan persyaratan asumsi klasik, misalnya regresi
logistik atau regresi ordinal. Demikian juga tidak semua uji asumsi klasik harus
dilakukan pada analisis regresi linear, misalnya uji multikolinearitas tidak dapat
dipergunakan pada analisis regresi linear sederhana dan uji autokorelasi tidak perlu
diterapkan pada data cross sectional.
Uji asumsi klasik juga tidak perlu dilakukan untuk analisis regresi linear yang bertujuan
untuk menghitung nilai pada variabel tertentu. Misalnya nilai return saham yang dihitung
dengan market model, atau market adjusted model. Perhitungan nilai return yang
diharapkan dilakukan dengan persamaan regresi, tetapi tidak perlu diuji asumsi klasik.
Setidaknya ada lima uji asumsi klasik, yaitu uji multikolinearitas, uji heteroskedastisitas,
uji normalitas, uji autokorelasi dan uji linearitas. Tidak ada ketentuan yang pasti tentang
urutan uji mana dulu yang harus dipenuhi. Analisis dapat dilakukan tergantung pada
data yang ada. Sebagai contoh, dilakukan analisis terhadap semua uji asumsi klasik,
lalu dilihat mana yang tidak memenuhi persyaratan. Kemudian dilakukan perbaikan
pada uji tersebut, dan setelah memenuhi persyaratan, dilakukan pengujian pada uji
yang lain.
1. Uji Normalitas
Uji normalitas adalah untuk melihat apakah nilai residual terdistribusi normal atau tidak.
Model regresi yang baik adalah memiliki nilai residual yang terdistribusi normal. Jadi uji
normalitas bukan dilakukan pada masing-masing variabel tetapi pada nilai residualnya.
Sering terjadi kesalahan yang jamak yaitu bahwa uji normalitas dilakukan pada masingmasing variabel. Hal ini tidak dilarang tetapi model regresi memerlukan normalitas pada
nilai residualnya bukan pada masing-masing variabel penelitian.
Pengertian normal secara sederhana dapat dianalogikan dengan sebuah kelas. Dalam
kelas siswa yang bodoh sekali dan pandai sekali jumlahnya hanya sedikit dan sebagian
besar berada pada kategori sedang atau rata-rata. Jika kelas tersebut bodoh semua
maka tidak normal, atau sekolah luar biasa. Dan sebaliknya jika suatu kelas banyak
yang pandai maka kelas tersebut tidak normal atau merupakan kelas unggulan.
Pengamatan data yang normal akan memberikan nilai ekstrim rendah dan ekstrim tinggi
yang sedikit dan kebanyakan mengumpul di tengah. Demikian juga nilai rata-rata,
modus dan median relatif dekat.

Uji normalitas dapat dilakukan dengan uji histogram, uji normal P Plot, uji Chi Square,
Skewness dan Kurtosis atau uji Kolmogorov Smirnov. Tidak ada metode yang paling
baik atau paling tepat. Tipsnya adalah bahwa pengujian dengan metode grafik sering
menimbulkan perbedaan persepsi di antara beberapa pengamat, sehingga penggunaan
uji normalitas dengan uji statistik bebas dari keragu-raguan, meskipun tidak ada
jaminan bahwa pengujian dengan uji statistik lebih baik dari pada pengujian dengan
metode grafik.
Jika residual tidak normal tetapi dekat dengan nilai kritis (misalnya signifikansi
Kolmogorov Smirnov sebesar 0,049) maka dapat dicoba dengan metode lain yang
mungkin memberikan justifikasi normal. Tetapi jika jauh dari nilai normal, maka dapat
dilakukan beberapa langkah yaitu: melakukan transformasi data, melakukan trimming
data outliers atau menambah data observasi. Transformasi dapat dilakukan ke dalam
bentuk Logaritma natural, akar kuadrat, inverse, atau bentuk yang lain tergantung dari
bentuk kurva normalnya, apakah condong ke kiri, ke kanan, mengumpul di tengah atau
menyebar ke samping kanan dan kiri.
2. Uji Multikolinearitas
Uji multikolinearitas adalah untuk melihat ada atau tidaknya korelasi (keterkaitan) yang
tinggi antara variabel-variabel bebas dalam suatu model regresi linear berganda. Jika
ada korelasi yang tinggi di antara variabel-variabel bebasnya, maka hubungan antara
variabel bebas terhadap variabel terikatnya menjadi terganggu. Sebagai ilustrasi,
adalah model regresi dengan variabel bebasnya motivasi, kepemimpinan dan kepuasan
kerja dengan variabel terikatnya adalah kinerja. Logika sederhananya adalah bahwa
model tersebut untuk mencari pengaruh antara motivasi, kepemimpinan dan kepuasan
kerja terhadap kinerja. Jadi tidak boleh ada korelasi yang tinggi antara motivasi dengan
kepemimpinan, motivasi dengan kepuasan kerja atau antara kepemimpinan dengan
kepuasan kerja.
Alat statistik yang sering dipergunakan untuk menguji gangguan multikolinearitas
adalah dengan variance inflation factor (VIF), korelasi pearson antara variabel-variabel
bebas, atau dengan melihat eigenvalues dan condition index (CI).
Beberapa alternatif cara untuk mengatasi masalah multikolinearitas adalah sebagai
berikut:
1. Mengganti atau mengeluarkan variabel yang mempunyai korelasi yang tinggi.
2. Menambah jumlah observasi.
3. Mentransformasikan data ke dalam bentuk lain, misalnya logaritma natural, akar

kuadrat atau bentuk first difference delta.


4. Dalam tingkat lanjut dapat digunakan metode regresi bayessian yang masih jarang
sekali digunakan.
3. Uji Heteroskedastisitas
Uji heteroskedastisitas adalah untuk melihat apakah terdapat ketidaksamaan varians
dari residual satu ke pengamatan ke pengamatan yang lain. Model regresi yang
memenuhi persyaratan adalah di mana terdapat kesamaan varians dari residual satu
pengamatan ke pengamatan yang lain tetap atau disebut homoskedastisitas.
Deteksi heteroskedastisitas dapat dilakukan dengan metode scatter plot dengan
memplotkan nilai ZPRED (nilai prediksi) dengan SRESID (nilai residualnya). Model
yang baik didapatkan jika tidak terdapat pola tertentu pada grafik, seperti mengumpul di
tengah, menyempit kemudian melebar atau sebaliknya melebar kemudian menyempit.
Uji statistik yang dapat digunakan adalah uji Glejser, uji Park atau uji White.
Beberapa alternatif solusi jika model menyalahi asumsi heteroskedastisitas adalah
dengan mentransformasikan ke dalam bentuk logaritma, yang hanya dapat dilakukan
jika semua data bernilai positif. Atau dapat juga dilakukan dengan membagi semua
variabel dengan variabel yang mengalami gangguan heteroskedastisitas.
4. Uji Autokorelasi
Uji autokorelasi adalah untuk melihat apakah terjadi korelasi antara suatu periode t
dengan periode sebelumnya (t -1). Secara sederhana adalah bahwa analisis regresi
adalah untuk melihat pengaruh antara variabel bebas terhadap variabel terikat, jadi
tidak boleh ada korelasi antara observasi dengan data observasi sebelumnya. Sebagai
contoh adalah pengaruh antara tingkat inflasi bulanan terhadap nilai tukar rupiah
terhadap dollar. Data tingkat inflasi pada bulan tertentu, katakanlah bulan Februari,
akan dipengaruhi oleh tingkat inflasi bulan Januari. Berarti terdapat gangguan
autokorelasi pada model tersebut. Contoh lain, pengeluaran rutin dalam suatu rumah
tangga. Ketika pada bulan Januari suatu keluarga mengeluarkan belanja bulanan yang
relatif tinggi, maka tanpa ada pengaruh dari apapun, pengeluaran pada bulan Februari
akan rendah.
Uji autokorelasi hanya dilakukan pada data time series (runtut waktu) dan tidak perlu
dilakukan pada data cross section seperti pada kuesioner di mana pengukuran semua
variabel dilakukan secara serempak pada saat yang bersamaan. Model regresi pada
penelitian di Bursa Efek Indonesia di mana periodenya lebih dari satu tahun biasanya

memerlukan uji autokorelasi.


Beberapa uji statistik yang sering dipergunakan adalah uji Durbin-Watson, uji dengan
Run Test dan jika data observasi di atas 100 data sebaiknya menggunakan uji
Lagrange Multiplier. Beberapa cara untuk menanggulangi masalah autokorelasi adalah
dengan mentransformasikan data atau bisa juga dengan mengubah model regresi ke
dalam bentuk persamaan beda umum (generalized difference equation). Selain itu juga
dapat dilakukan dengan memasukkan variabel lag dari variabel terikatnya menjadi
salah satu variabel bebas, sehingga data observasi menjadi berkurang 1.
5. Uji Linearitas
Uji linearitas dipergunakan untuk melihat apakah model yang dibangun mempunyai
hubungan linear atau tidak. Uji ini jarang digunakan pada berbagai penelitian, karena
biasanya model dibentuk berdasarkan telaah teoretis bahwa hubungan antara variabel
bebas dengan variabel terikatnya adalah linear. Hubungan antar variabel yang secara
teori bukan merupakan hubungan linear sebenarnya sudah tidak dapat dianalisis
dengan regresi linear, misalnya masalah elastisitas.
Jika ada hubungan antara dua variabel yang belum diketahui apakah linear atau tidak,
uji linearitas tidak dapat digunakan untuk memberikan adjustment bahwa hubungan
tersebut bersifat linear atau tidak. Uji linearitas digunakan untuk mengkonfirmasikan
apakah sifat linear antara dua variabel yang diidentifikasikan secara teori sesuai atau
tidak dengan hasil observasi yang ada. Uji linearitas dapat menggunakan uji DurbinWatson, Ramsey Test atau uji Lagrange Multiplier.
STATISTIKA BISBIS ( REGRESI )
ANALISIS REGRESI DAN KORELASI (Materi VIII : Analisis Regresi dan Korelasi
Sederhana)
.fullpost{display:inline;} Pengertian : Analisis regresi merupakan salah satu analisis yang
bertujuan untuk mengetahui pengaruh suatu variabel terhadap variabel lain. Dalam
analisis regresi, variabel yang mempengaruhi disebut Independent Variable (variabel
bebas) dan variabel yang dipengaruhi disebut Dependent Variable (variabel terikat).
Jika dalam persamaan regresi hanya terdapat satu variabel bebas dan satu variabel
terikat, maka disebut sebagai persamaan regresi sederhana, sedangkan jika variabel
bebasnya lebih dari satu, maka disebut sebagai persamaan regresi berganda.
Analisis Korelasi merupakan suatu analisis untuk mengetahui tingkat keeratan
hubungan antara dua variabel. Tingkat hubungan tersebut dapat dibagi menjadi tiga
kriteria, yaitu mempunyai hubungan positif, mempunyai hubungan negatif dan tidak
mempunyai hubungan.
Analisis Regresi Sederhana : digunakan untuk mengetahui pengaruh dari variabel

bebas terhadap variabel terikat atau dengan kata lain untuk mengetahui seberapa jauh
perubahan variabel bebas dalam mempengaruhi variabel terikat. Dalam analisis regresi
sederhana, pengaruh satu variabel bebas terhadap variabel terikat dapat dibuat
persamaan sebagai berikut : Y = a + b X. Keterangan : Y : Variabel terikat (Dependent
Variable); X : Variabel bebas (Independent Variable); a : Konstanta; dan b : Koefisien
Regresi. Untuk mencari persamaan garis regresi dapat digunakan berbagai pendekatan
(rumus), sehingga nilai konstanta (a) dan nilai koefisien regresi (b) dapat dicari dengan
metode sebagai berikut :
a = [(Y . X2) (X . XY)] / [(N . X2) (X)2] atau a = (Y/N) b (X/N)
b = [N(XY) (X . Y)] / [(N . X2) (X)2]
Contoh :
Berdasarkan hasil pengambilan sampel secara acak tentang pengaruh lamanya belajar
(X) terhadap nilai ujian (Y) adalah sebagai berikut :
(nilai ujian)
X (lama belajar)
X2
XY
40
4
16
160
60
6
36
360
50
7
49
350
70
10
100
700
90
13
169
1.170
2
Y = 310
X = 40
X = 370
XY = 2.740
Dengan menggunakan rumus di atas, nilai a dan b akan diperoleh sebagai berikut :
a = [(Y . X2) (X . XY)] / [(N . X2) (X)2]
a = [(310 . 370) (40 . 2.740)] / [(5 . 370) 402] = 20,4
b = [N(XY) (X . Y)] / [(N . X2) (X)2]
b = [(5 . 2.740) (40 . 310] / [(5 . 370) 402] = 5,4
Sehingga persamaan regresi sederhana adalah Y = 20,4 + 5,2 X
Berdasarkan hasil penghitungan dan persamaan regresi sederhana tersebut di atas,
maka dapat diketahui bahwa : 1) Lamanya belajar mempunyai pengaruh positif
(koefisien regresi (b) = 5,2) terhadap nilai ujian, artinya jika semakin lama dalam belajar
maka akan semakin baik atau tinggi nilai ujiannya; 2) Nilai konstanta adalah sebesar
20,4, artinya jika tidak belajar atau lama belajar sama dengan nol, maka nilai ujian
adalah sebesar 20,4 dengan asumsi variabel-variabel lain yang dapat mempengaruhi
dianggap tetap.
Analisis Korelasi (r) : digunakan untuk mengukur tinggi redahnya derajat hubungan
antar variabel yang diteliti. Tinggi rendahnya derajat keeratan tersebut dapat dilihat dari
koefisien korelasinya. Koefisien korelasi yang mendekati angka + 1 berarti terjadi
hubungan positif yang erat, bila mendekati angka 1 berarti terjadi hubungan negatif
yang erat. Sedangkan koefisien korelasi mendekati angka 0 (nol) berarti hubungan
kedua variabel adalah lemah atau tidak erat. Dengan demikian nilai koefisien korelasi
adalah 1 r + 1. Untuk koefisien korelasi sama dengan 1 atau + 1 berarti
hubungan kedua variabel adalah sangat erat atau sangat sempurna dan hal ini sangat
jarang terjadi dalam data riil. Untuk mencari nilai koefisen korelasi (r) dapat digunakan
rumus sebagai berikut : r = [(N . XY) (X . Y)] / {[(N . X2) (X)2] . [(N . Y2)
(Y)2]}

Contoh :
Sampel yang diambil secara acak dari 5 mahasiswa, didapat data nilai Statistik dan
Matematika sebagai berikut :
Sampel X (statistik) Y (matematika)
XY
X2
Y2
1
2
3
6
4
9
2
5
4
20
25
16
3
3
4
12
9
16
4
7
8
56
49
64
5
8
9
72
64
81
Jumlah 25
28
166
151
186
r = [(N . XY) (X . Y)] / {[(N . X2) (X)2] . [(N . Y2) (Y)2]}
r = [(5 . 166) (25 . 28) / {[(5 . 151) (25)2] . [(5 . 186) (28)2]} = 0,94
Nilai koefisien korelasi sebesar 0,94 atau 94 % menggambarkan bahwa antara nilai
statistik dan matematika mempunyai hubungan positif dan hubungannya erat, yaitu jika
mahasiswa mempunyai nilai statistiknya baik maka nilai matematikanya juga akan baik
dan sebaliknya jika nilai statistik jelek maka nilai matematikanya juga jelek.
ANALISIS REGRESI DAN KORELASI (Materi IX : Analisis Regresi dan Korelasi
Berganda)
.fullpost{display:inline;} Dalam kondisi riil yang dihadapai di lapangan, perubahan suatu
variabel tidak hanya dipengaruhi oleh stu variabel saja tetati sering kali dipengaruhi oleh
banyak variabel. Misalnya, variabel yang mempengaruhi jumlah barang yang diminta
(Qdx) tidak hanya variabel harga saja (Px), tetapi masih banyak variabel lain yang
dapat mempengaruhinya, yaitu tingkat pendapatan (I), selera (T), harga barang lain
(Py) dan lain-lain. Dengan demikian fungsi permintaan menjadi : Qdx = f (Px, I, T, Py,
). Untuk mengetahui pengaruh dari 2 atau lebih variabel bebas terhadap suatu
variabel terikat digunakan Analisis Regresi Berganda, dengan persamaan regresi
berganda: Y = a + b1 X1 + b2 X2 + bn Xn.
Dalam beberapa literatur yang membahas tentang analisis regresi berganda,
penggunaan rumus untuk mencari konstata dan koefisien regresi hanya sampai dengan
jumlah dua variabel bebas, sedangkan untuk lebih dari dua variabel bebas digunakan
metode matrik. Terkait dengan hal tersebut, analisis regresi berganda dalam hal ini
hanya terbatas sampai jumlah dua variabel bebas atau dengan persamaan regresi
berganda Y = a + b1 X1 + b2 X2. Dengan menggunakan Metode Least Square, untuk
mencari parameter a, b1 dan b2 adalah dengan rumus sebagai berikut :
a = (Y/N) (b1 . X1/N) (b2 . X2/N)
b1 = [(x1y . x22) (x2y . x1x2)] / [( x12 . x22) (x1x2)2]
b2 = [(x2y . x12) (x1y . x1x2)] / [( x12 . x22) (x1x2)2]
Sedangkan untuk mencari nilai x12 ; x22 ; x1x2 ; x1y ; dan x2y adalah sebagai
berikut :
x12 = X12 ((X1)2/N) ; x22 = X22 ((X2)2/N) ; x1x2 = X1X2 ((X1 .
X2)/N)
x1y = X1Y ((X1 . Y)/N) ; x2y = X2Y ((X2 . Y)/N

Contoh : Hasil pengumpulan data tentang import dari suatu negara (Y) yang
dipengaruhi oleh pendapatan nasional negara tersebut (X1) dan harga import komoditi
(X2) adalah sebagai berikut :
X1
100 104 106
111
111
115
130
134
136
X2
100 99
110
126
113
103
102
103
98
Y
100 106 107
120
110
116
123
133
137
Berdasarkan hasil pengolahan data tersebut di atas, diketahui nilai dari :
X1 = 1.017 ; X2 = 954 ; Y = 1.052 ; X12 = 115.571
X22 = 101.772 ; X1Y = 119.750 ; X2Y = 111.433 ; X1X2 = 119.750
Nilai masing-masing x12 ; x22 ; x1x2 ; x1y ; dan x2y adalah :
x12 = 650 ; x22 = 648 ; x1y = 874 ; x2y = 79 ; x1x2 = 112
Dengan demikian nilai b1, b2 dan a adalah sebagai berikut :
b1 = [(874 . 648) (- 79 . - 112)] / [(650 . 648) (-112)2] = 1,3642
b2 = [(-79 . 650) (874 . - 112)] / [(650 . 648) (-112)2] = 0,1139
a = 116,89 1,3642 (113) 0,1139(106) = 49,3383
Persamaan regresi berganda adalah : Y = 49,3383 + 1,3642 X1 + 0,1139 X2
Penjelasan persamaan regresi berganda adalah sebagai berikut : 1) Nilai koefisien
regresi (b1) sebesar 1,3642 menggambarkan pengaruh yang positif dari variabel
pendapatan nasional (X1) terhadap import komoditi (Y), yaitu jika pendapatan nasional
negara meningkat maka import komoditi juga akan meningkat (dengan asumsi variabel
X2 dalam keadaan konstan atau tetap); 2) Nilai koefisien regresi (b2) sebesar 0,1139
menggambarkan pengaruh yang positif dari variabel harga komoditi (X2) terhadap
import komoditi (Y), (dengan asumsi variabel X1 dalam keadaan konstan atau tetap);
dan 3) Nilai konstanta sebesar 49,3383 menggambarkan terjadinya penurunan import
komoditi jika pendapatan nasional (X1) dan harga komoditi (X2) mempunyai nilai nol.
Untuk mencari nilai korelasi berganda atau R = [((b1 . x1y) + (b2 . x2y))/ y2]
Nilai y2 = Y2 ((Y)2/N) = 124.288 (1.0522 / 9) = 1.320,89
Nilai R = [((1,3642 . 874) + (0,1139 . - 79))/ 1.320,89] = 0,9464090 atau 94,6%.
Nilai R tersebut menunjukkan bahwa hubungan antara varibel pendapatan nasional
(X1) dan variabel harga komoditi (X2) mempunyai hubungan yang erat dan positif
(karena 94,6% lebih mendekati 100%) dengan variabel import komoditi (Y).
Uji statistik t menunjukkan seberapa jauh variabel independen secara
individual menerangkan variasi. Pengujian ini dilakukan dengan menggunakan tingkat
signifikansi 5%. Jika nilai signifikansi t < 0,05 artinya terdapat pengaruh yangsignifikan antara
satu variabel independen terhadap variabel dependen. Jika nilaisignifikansi t > 0,05 artinya tidak
terdapat pengaruh antara satu variabel independenterhadap variabel dependen

asumsi klasik dalam regresi


Asumsi

klasik

dalam

regresi:

Normalitas
Uji normalitas adalah untuk melihat apakah nilai residual terdistribusi normal atau tidak. Model regresi yang baik

adalah memiliki nilai residual yang terdistribusi normal. Jadi uji normalitas bukan dilakukan pada masing-masing
variabel tetapi pada nilai residualnya. Sering terjadi kesalahan yang jamak yaitu bahwa uji normalitas dilakukan pada
masing-masing variabel. Hal ini tidak dilarang tetapi model regresi memerlukan normalitas pada nilai residualnya
bukan

pada

masing-masing

variabel

penelitian.

Pengertian normal secara sederhana dapat dianalogikan dengan sebuah kelas. Dalam kelas siswa yang bodoh sekali
dan pandai sekali jumlahnya hanya sedikit dan sebagian besar berada pada kategori sedang atau rata-rata. Jika kelas
tersebut bodoh semua maka tidak normal, atau sekolah luar biasa. Dan sebaliknya jika suatu kelas banyak yang
pandai maka kelas tersebut tidak normal atau merupakan kelas unggulan. Pengamatan data yang normal akan
memberikan nilai ekstrim rendah dan ekstrim tinggi yang sedikit dan kebanyakan mengumpul di tengah. Demikian
juga

nilai

rata-rata,

modus

dan

median

relatif

dekat.

Uji normalitas dapat dilakukan dengan uji histogram, uji normal P Plot, uji Chi Square, Skewness dan Kurtosis atau
uji Kolmogorov Smirnov. Tidak ada metode yang paling baik atau paling tepat. Tipsnya adalah bahwa pengujian
dengan metode grafik sering menimbulkan perbedaan persepsi di antara beberapa pengamat, sehingga penggunaan
uji normalitas dengan uji statistik bebas dari keragu-raguan, meskipun tidak ada jaminan bahwa pengujian dengan
uji

statistik

lebih

baik

dari

pada

pengujian

dengan

metode

grafik.

Jika residual tidak normal tetapi dekat dengan nilai kritis (misalnya signifikansi Kolmogorov Smirnov sebesar 0,049)
maka dapat dicoba dengan metode lain yang mungkin memberikan justifikasi normal. Tetapi jika jauh dari nilai
normal, maka dapat dilakukan beberapa langkah yaitu: melakukan transformasi data, melakukan trimming data
outliers atau menambah data observasi. Transformasi dapat dilakukan ke dalam bentuk Logaritma natural, akar
kuadrat, inverse, atau bentuk yang lain tergantung dari bentuk kurva normalnya, apakah condong ke kiri, ke kanan,
mengumpul

di

tengah

atau

menyebar

ke

samping

kanan

dan

kiri.

(http://konsultanstatistik.blogspot.com/2009/03/uji-asumsi-klasik.html)

Uji normalitas adalah uji yang dilakukan untuk mengecek apakah data penelitian kita berasal dari populasi yang
sebarannya normal. Uji ini perlu dilakukan karena semua perhitungan statistik parametrik memiliki asumsi
normalitas sebaran. Rumus yang digunakan untuk melakukan suatu uji (t-test misalnya) dibuat dengan
mengasumsikan bahwa data yang akan dianalisis berasal dari populasi yang sebarannya normal. Data yang normal
memiliki kekhasan seperti mean, median dan modusnya memiliki nilai yang sama. Selain itu juga data normal
memiliki bentuk kurva yang sama, bell curve. Dengan mengasumsikan bahwa data dalam bentuk normal, analisis

statistic

baru

bisa

dilakukan.

Ada beberapa cara melakukan uji asumsi normalitas ini yaitu menggunakan analisis Chi Square dan KolmogorovSmirnov.
(http://psikologistatistik.blogspot.com/2006/10/uji-asumsi-1-uji-normalitas.html)

Variabel pengganggu e dari suatu regresi disyaratkan berdistribusi normal. Hal ini untuk memenuhi asumsi zero
mean. Jika variabel e berdistribusi normal, maka variabel yang diteliti Y juga berdistribusi normal. Untuk menguji
normalitas

e,

dapat

digunakan

formula

Jarqu

Berra

(JB

test).

(http://www.damandiri.or.id/file/samsudiunmuhsolobab4.pdf)

Multikolinearitas

Multikolinearitas adalah kondisi terdapatnya hubungan linier atau korelasi yang tinggi antara
masing-masing variabel independen dalam model regresi. Multikolinearitas biasanya terjadi
ketika sebagian besar variabel yang digunakan saling terkait dalam suatu model regresi. Oleh
karena itu masalah multikolinearitas tidak terjadi pada regresi linier sederhana yang hanya
melibatkan
Indikasi

satu

terdapat

masalah

variable

multikolinearitas

dapat

kita

lihat

dari

independen.
kasus-kasus

sebagai

berikut:

Nilai R2 yang tinggi (signifikan), namun nilai standar error dan tingkat signifikansi masing-masing variabel sangat
rendah.
ii. Perubahan kecil sekalipun pada data akan menyebabkan perubahan signifikan pada variabel yang diamati.
iii. Nilai koefisien variabel tidak sesuai dengan hipotesis, misalnya variabel yang seharusnya memiliki pengaruh
positif

(nilai

koefisien

positif),

ditunjukkan

dengan

nilai

negatif.

Memang belum ada kriteria yang jelas dalam mendeteksi masalah multikolinearitas dalam model regresi linier.
Selain itu hubungan korelasi yang tinggi belum tentu berimplikasi terhadap masalah multikolinearitas. Tetapi kita
dapat melihat indikasi multikolinearitas dengan tolerance value (TOL), eigenvalue, dan yang paling umum digunakan
adalah

varians

inflation

factor

(VIF).

Hingga saat ini tidak ada kriteria formal untuk menentukan batas terendah dari nilai toleransi atau VIF. Beberapa
ahli berpendapat bahwa nilai toleransi kurang dari 1 atau VIF lebih besar dari 10 menunjukkan multikolinearitas
signifikan, sementara itu para ahli lainnya menegaskan bahwa besarnya R2 model dianggap mengindikasikan adanya

multikolinearitas. Klein (1962) menunjukkan bahwa, jika VIF lebih besar dari 1/(1 R2) atau nilai toleransi kurang
dari

(1

R2),

maka

multikolinearitas

dapat

dianggap

signifikan

secara

statistik.

(http://ariyoso.wordpress.com/2009/11/27/multikolinearitas-dan-autokorelasi/)

Uji multikolinearitas adalah untuk melihat ada atau tidaknya korelasi yang tinggi antara variabel-variabel bebas
dalam suatu model regresi linear berganda. Jika ada korelasi yang tinggi di antara variabel-variabel bebasnya, maka
hubungan antara variabel bebas terhadap variabel terikatnya menjadi terganggu. Sebagai ilustrasi, adalah model
regresi dengan variabel bebasnya motivasi, kepemimpinan dan kepuasan kerja dengan variabel terikatnya adalah
kinerja. Logika sederhananya adalah bahwa model tersebut untuk mencari pengaruh antara motivasi, kepemimpinan
dan kepuasan kerja terhadap kinerja. Jadi tidak boleh ada korelasi yang tinggi antara motivasi dengan
kepemimpinan,

motivasi

dengan

kepuasan

kerja

atau

antara

kepemimpinan

dengan

kepuasan

kerja.

Alat statistik yang sering dipergunakan untuk menguji gangguan multikolinearitas adalah dengan variance inflation
factor (VIF), korelasi pearson antara variabel-variabel bebas, atau dengan melihat eigenvalues dan condition index
(CI).Beberapa

alternatif

Mengganti

atau

cara

untuk

mengeluarkan

ii.

mengatasi

masalah

variabel

yang

multikolinearitas
mempunyai

Menambah

adalah
korelasi

sebagai
yang

jumlah

berikut:
tinggi.
observasi.

Mentransformasikan data ke dalam bentuk lain, misalnya logaritma natural, akar kuadrat atau bentuk first difference
delta.
Dalam tingkat lanjut dapat digunakan metode regresi bayessian yang masih jarang sekali digunakan.
(http://konsultanstatistik.blogspot.com/2009/03/uji-asumsi-klasik.html)

Pengujian multikolinearitas juga sering disebut uji independensi. Pengujian ini akan melihat apakah antara sesama
prediktor memiliki hubungan yang besar atau tidak. Jika hubungan antara sesama prediktor kuat maka antara
prediktor

tersebut

tidak

independen.

Untuk menguji ada tidaknya multikolinearitas, kita dapat menggunakan nilai Toleransi atau VIF (Variance Inflation
Factor),

VIF

dengan

1/(

1-r

rumus

_12^2

)m

Tolerance

sebagai

1/VIF

berikut,

(1-r

_12^2)

Pengujian multikolinearitas diketahui dari nilai VIF setiap prediktor. Jika nilai VIF prediktor tidak melebihi 10, maka

dapat

kita

katakan

bahwa

data

kita

terbebas

dari

persoalan

multikolinearitas.

Ada beberapa prosedur yang dapat digunakan untuk mengatasi masalah multikolinearitas, seperti pengunaan
informasi apriori dari hubungan beberapa variable yang berkolinear, menghubungkan data cross-sectional dan data
time series, mengeluarkan suatu variabel atau beberapa variabel bebas yang terlibat hubungan kolinear, melakukan
transformasi variable dengan prosedur first difference, melalui ln(logaritma) dan penambahan data baru dan juga
melalui ridge regression. Akan tetapi pada prakteknya prosedur penanggulangan yang telah disebutkan di atas sangat
tergantung sekali pada kondisi penelitian, misalnya penggunaan informasi apriori sangat tergantung dari ada atau
tidaknya dasar teori (literatur) yang sangat kuat untuk mendukung hubungan matematis antara variabel bebas yang
saling berkolinear, prosedur mengeluarkan variabel bebas yang berkolinear seringkali membuat banyak peneliti
keberatan karena prosedur ini akan mengurangi obyek penelitian yang diangkat, sedangkan prosedur lainnya seperti
menghubungkan data cross sectional dan time series, prosedur first difference dan penambahan data baru seringkali
hanya

memberikan

efek

penanggulangan

yang

kecil

pada

masalah

multikolinearitas.

Jika pada pengujian menunjukkan bahwa terdapat permasalahan multikolinearitas, maka dilakukan penanggulangan
untuk mengatasi masalah multikolinearitas tersebut. Kita bisa menggunakan berbagai cara. Salah satunya
menggunakan prosedur Principal Component Analysis (PCA) untuk mengatasi multikolinearitas. Prosedur PCA pada
dasarnya bertujuan untuk menyederhanakan variabel yang diamati dengan cara menyusutkan (mereduksi)
dimensinya. Hal ini dilakukan dengan cara menghilangkan korelasi diantara variabel bebas melalui transformasi
variabel

bebas

asal

ke

variabel

baru

yang

tidak

berkorelasi

sama

sekali.

(http://akademik.unsri.ac.id/download/journal/files/padresources/PCA%20(PRCPL%20COMP%20ANLS).pdf)

Heterokedastisitas
Uji heteroskedastisitas adalah untuk melihat apakah terdapat ketidaksamaan varians dari residual satu ke
pengamatan ke pengamatan yang lain. Model regresi yang memenuhi persyaratan adalah di mana terdapat kesamaan
varians dari residual satu pengamatan ke pengamatan yang lain tetap atau disebut homoskedastisitas.

Deteksi heteroskedastisitas dapat dilakukan dengan metode scatter plot dengan memplotkan nilai ZPRED (nilai
prediksi) dengan SRESID (nilai residualnya). Model yang baik didapatkan jika tidak terdapat pola tertentu pada
grafik, seperti mengumpul di tengah, menyempit kemudian melebar atau sebaliknya melebar kemudian menyempit.
Uji

statistik

yang

dapat

digunakan

adalah

uji

Glejser,

uji

Park

atau

uji

White.

Beberapa alternatif solusi jika model menyalahi asumsi heteroskedastisitas adalah dengan mentransformasikan ke

dalam bentuk logaritma, yang hanya dapat dilakukan jika semua data bernilai positif. Atau dapat juga dilakukan
dengan

membagi

semua

variabel

dengan

variabel

yang

mengalami

gangguan

heteroskedastisitas.

(http://konsultanstatistik.blogspot.com/2009/03/uji-asumsi-klasik.html)

Uji heteroskedastisitas bertujuan untuk menguji apakah dalam model regresi terjadi ketidaksamaan varians dan
residual satu pengamatan ke pengamatan yang lain. jika varians dari residual satu pengamatan ke pengamatan yang
lain tetap, maka disebut homoskedastisitas dan jika berbeda disebut heteroskedastisitas. Model regresi yang baik
adalah

yang

homoskedastisitas

atau

tidak

terjadi

heteroskedastisitas.

Uji heteroskedastisitas dilakukan dengan menggunakan uji Glejser, yang dilakukan dengan meregresikan nilai
absolut residual yang diperoleh dari model regresi sebagai variabel dependen terhadap semua variabel independen
dalam model regresi. Apabila nilai koefisien regresi dari masing-masing variabel bebas dalam model regresi ini tidak
signifikan secara statistik, maka dapat disimpulkan tidak terjadi heteroskedastisitas (Sumodiningrat. 2001 : 271).
(http://jurnal-sdm.blogspot.com/2009/04/uji-asumsi-klasik-regresi-berganda.html)

Autokorelasi
Uji autokorelasi digunakan untuk melihat apakah ada hubungan linear antara error serangkaian observasi yang
diurutkan menurut waktu (data time series). Uji autokorelasi perlu dilakukan apabila data yang dianalisis merupakan
data

time

series

(Gujarati,

1993).

Dimana,
d

ei

nilai
=

Durbin

jumlah

Watson

kuadrat

sisa

Nilai Durbin Watson kemudian dibandingkan dengan nilai d-tabel. Hasil perbandingan akan menghasilkan
kesimpulan

seperti

Jika

Jika

Jika

du

Jika

dl

<
>
<

<

dl,
(4

d
<

kriteria

sebagai

berarti

dl),

<

(4

du

atau

(4

terdapat
berarti

dl),

du),

autokorelasi

terdapat

berarti

berikut:

autokorelasi

tidak

berarti

tidak

terdapat
dapat

positif
negatif
autokorelasi
disimpulkan

(http://ariyoso.wordpress.com/2009/11/27/multikolinearitas-dan-autokorelasi/)

Uji autokorelasi adalah untuk melihat apakah terjadi korelasi antara suatu periode t dengan periode sebelumnya (t

-1). Secara sederhana adalah bahwa analisis regresi adalah untuk melihat pengaruh antara variabel bebas terhadap
variabel terikat, jadi tidak boleh ada korelasi antara observasi dengan data observasi sebelumnya. Sebagai contoh
adalah pengaruh antara tingkat inflasi bulanan terhadap nilai tukar rupiah terhadap dollar. Data tingkat inflasi pada
bulan tertentu, katakanlah bulan Februari, akan dipengaruhi oleh tingkat inflasi bulan Januari. Berarti terdapat
gangguan autokorelasi pada model tersebut. Contoh lain, pengeluaran rutin dalam suatu rumah tangga. Ketika pada
bulan Januari suatu keluarga mengeluarkan belanja bulanan yang relatif tinggi, maka tanpa ada pengaruh dari
apapun,

pengeluaran

pada

bulan

Februari

akan

rendah.

Uji autokorelasi hanya dilakukan pada data time series (runtut waktu) dan tidak perlu dilakukan pada data cross
section seperti pada kuesioner di mana pengukuran semua variabel dilakukan secara serempak pada saat yang
bersamaan. Model regresi pada penelitian di Bursa Efek Indonesia di mana periodenya lebih dari satu tahun biasanya
memerlukan

uji

autokorelasi.

Beberapa uji statistik yang sering dipergunakan adalah uji Durbin-Watson, uji dengan Run Test dan jika data
observasi di atas 100 data sebaiknya menggunakan uji Lagrange Multiplier. Beberapa cara untuk menanggulangi
masalah autokorelasi adalah dengan mentransformasikan data atau bisa juga dengan mengubah model regresi ke
dalam bentuk persamaan beda umum (generalized difference equation). Selain itu juga dapat dilakukan dengan
memasukkan variabel lag dari variabel terikatnya menjadi salah satu variabel bebas, sehingga data observasi menjadi
berkurang

1.

(http://konsultanstatistik.blogspot.com/2009/03/uji-asumsi-klasik.html)

Linearitas
Uji linearitas dipergunakan untuk melihat apakah model yang dibangun mempunyai hubungan linear atau tidak. Uji
ini jarang digunakan pada berbagai penelitian, karena biasanya model dibentuk berdasarkan telaah teoretis bahwa
hubungan antara variabel bebas dengan variabel terikatnya adalah linear. Hubungan antar variabel yang secara teori
bukan merupakan hubungan linear sebenarnya sudah tidak dapat dianalisis dengan regresi linear, misalnya masalah
elastisitas.

Jika ada hubungan antara dua variabel yang belum diketahui apakah linear atau tidak, uji linearitas tidak dapat
digunakan untuk memberikan adjustment bahwa hubungan tersebut bersifat linear atau tidak. Uji linearitas
digunakan untuk mengkonfirmasikan apakah sifat linear antara dua variabel yang diidentifikasikan secara teori
sesuai atau tidak dengan hasil observasi yang ada. Uji linearitas dapat menggunakan uji Durbin-Watson, Ramsey Test
atau

uji

Lagrange

(http://konsultanstatistik.blogspot.com/2009/03/uji-asumsi-klasik.html)

Multiplier.