Anda di halaman 1dari 16

UJI ASUMSI KLASIK

Uji Asumsi Klasik

Uji asumsi klasik adalah persyaratan statistik yang harus dipenuhi pada analisis regresi linear
berganda yang berbasis ordinary least square (OLS). Jadi analisis regresi yang tidak
berdasarkan OLS tidak memerlukan persyaratan asumsi klasik, misalnya regresi logistik atau
regresi ordinal. Demikian juga tidak semua uji asumsi klasik harus dilakukan pada analisis
regresi linear, misalnya uji multikolinearitas tidak dilakukan pada analisis regresi linear
sederhana dan uji autokorelasi tidak perlu diterapkan pada data cross sectional.

Uji asumsi klasik juga tidak perlu dilakukan untuk analisis regresi linear yang bertujuan untuk
menghitung nilai pada variabel tertentu. Misalnya nilai return saham yang dihitung dengan
market model, atau market adjusted model. Perhitungan nilai return yang diharapkan dapat
dilakukan dengan persamaan regresi, tetapi tidak perlu diuji asumsi klasik.

Uji asumsi klasik yang sering digunakan yaitu uji multikolinearitas, uji heteroskedastisitas, uji
normalitas, uji autokorelasi dan uji linearitas. Tidak ada ketentuan yang pasti tentang urutan uji
mana dulu yang harus dipenuhi. Analisis dapat dilakukan tergantung pada data yang ada.
Sebagai contoh, dilakukan analisis terhadap semua uji asumsi klasik, lalu dilihat mana yang tidak
memenuhi persyaratan. Kemudian dilakukan perbaikan pada uji tersebut, dan setelah memenuhi
persyaratan, dilakukan pengujian pada uji yang lain.

Uji Asumsi Klasik (Lengkap)

Uji asumsi klasik merupakan terjemahan dari clasical linear regression model (CLRM) yang
merupakan asumsi yang diperlukan dalam analisis regresi linear dengan ordinary least square
(OLS). Sebagai informasi, semua ini berkat kejeniusan seorang matematikawan Jerman bernama
Carl Friedrich Gauss.

CLRM juga sering disebut dengan The Gaussian Standard, yang sebenarnya terdiri dari 10 item.
Akan tetapi, yang sering kita jumpai dalam berbagai penelitian, atau berbagai buku statistik
terapan mungkin hanya 4 atau 5 saja. Mengapa? Berikut sedikit uraian tentang 10 item tersebut.

1.    Asumsi 1: Linear Regression Model.

Model regresi haruslah linear, meskipun bisa saja sebenarnya variabel terikat Y dengan
variabel bebas X tidak linear. Istilah linear sebenarnya ada dua macam, yaitu linearitas pada
variabel dan linearitas pada parameter. Yang disebut dengan linearitas pada variabel adalah
jika digambarkan dalam grafik maka akan berbentuk garis lurus. Misalnya persamaan Y = a
+ bX. Seandainya persamaannya adalah Y = a + b X^2 maka disebut tidak linear, karena
jika digambarkan dalam grafik tidak membentuk garis lurus. Atau secara umum dapat
dikatakan jika X mempunyai pangkat 1. Sedangkan linearitas pada parameter adalah
merujuk kepada koefisiennya yaitu b. Jadi persamaan Y = a + b X^2 dapat disebut linear
jika koefisien b mempunyai pangkat 1. Asumsi yang diperlukan dalam regresi linear adalah
linearitas pada parameter, bukan linearitas pada variabel.

HARJANTO SUTEDJO hal 1


UJI ASUMSI KLASIK

2.    Asumsi 2: X values are fixed in repeated sampling.

Nilai variabel X diasumsikan stokastik atau dianggap tetap dalam sampel yang berulang.
Misalnya ada 7 data yang akan dianalisis dengan regresi (ini hanya contoh saja, karena
regresi dengan 7 data tampaknya terlalu sedikit).
Gaji (juta)        Pengeluaran (juta)
3                     2,5
3                     2
3                     3
4                     3
4                     2,5
5                     4,5
5                    4
Jadi misalnya ambil nilai tetap untuk X, yaitu gaji 3 juta maka sampel pertama mempunyai
pengeluaran 2,5 juta. Lalu ambil lagi sampel kedua dengan gaji 3 juta maka pengeluarannya
adalah 2 juta. Demikian seterusnya untuk sampel dengan gaji 4 juta dan 5 juta. Jadi nilai X
dianggap tetap pada sampel yang berulang. (dalam regresi lanjut, dapat diasumsikan bahwa
X tidak stokastik).

3.    Asumsi 3: Zero mean value of disturbance ui

Nilai Y hasil prediksi dengan model regresi tentunya mempunyai kesalahan atau tidak tepat
sama dengan nilai Y pada data. Selisihnya sering disebut dengan disturbance dan sering
disimbolkan dengan u. Nilai ini harus mempunyai rata-rata sama dengan 0 (eksak). Ketika
kita telah mendaptkan garis lurus pada model, maka nilai Y yang sebenarnya bisa berada di
atas atau di bawah garis lurus tersebut, akan tetapi jumlahnya akan seimbang sehingg rata-
ratanya sama dengan 0.

4.    Asumsi 4: Homoscedasticity or equal variance of ui

Homo berarti sama atau equal, scedasticity berarti disperse atau scatter atau ada yang
mengartikan sebaran. Jadi varians dari error atau disturbance haruslah sama pada masing-
masing nilai X. Sebagai contoh, ada 3 orang dengan gaji 3 juta sehingga memberikan tiga
buah error dan mempunyai varians. Varians ini harus sama (equal) dengan varians error
pada nilai X yang lain misalnya 4 juta. Demikian seterusnya.

5.    Asumsi 5: No autocorrelation between the disturbances

Asumsi ini masih berkaitan dengan nilai error, yaitu bahwa untuk sembarang 2 buah nilai X,
maka kedua error itu tidak berkorelasi (atau mempunyai korelasi 0). Misalnya error pada X
sebesar 3 juta dengan Y sebesar 2,5 dengan error pada X sebesar 3 juta dengan Y sebesar 2
juta tidak berkorelasi. Pengertian lain adalah misalnya ada persamaan Y = a + b X + u
dengan u adalah error. Jika ada korelasi antara u dengan u-1 (error sebelumnya) maka model
akan gagal, karena Y pada model harusnya dipengaruhi oleh X saja, akan dipengaruhi oleh
u. Demikian seterusnya.

HARJANTO SUTEDJO hal 2


UJI ASUMSI KLASIK

6.    Asumsi 6: Zero covariance between ui and Xi

Artinya nilai variabel bebas (Xi) dengan error (ui) tidak berkorelasi. Diasumsikan bahwa Y
adalah dipengaruhi oleh X dan u, sehingga X dan u harus tidak saling berkorelasi. Jika X
dan u berkorelasi, maka tidak mungkin mencari pengaruh masing-masing terhadap Y. Jika X
berkorelasi positif dengan u, maka jika X meningkat u juga meningkat, atau jika X menurun
maka u juga menurun (juga sebaliknya jika berkorelasi negatif). Sehingga sulit untuk
mengisolasi pengaruh X dan u terhadap Y. Asumsi ini sebenarnya akan terpenuhi secara
otomatis jika X merupakan stokastik karena untuk X bernilai tetap, u akan berubah.

7.    Asumsi 7: The number of observations n must be greater than the number of
parameters to be estimated

Asumsi ini sebenarnya tidak asing bagi matematika sederhana. Jika ada dua parameter yang
akan dicari nilainya maka tentunya tidak mungkin diselesaikan dengan satu persamaan
(observasi).

8.    Asumsi 8: Variability in X values

Harus ada variasi nilai dalam variabel X. Jika X nilainya sama untuk semua observasi maka
tentunya tidak dapat diestimasi. Meskipun ini mudah dimengerti namun sering dilupakan.

9.    Asumsi 9: The regression model is correctly specified

Model regresi yang dibangun haruslah benar dalam arti sesuai dengan teori yang telah
dikembangkan. Seperti telah dijelaskan bahwa statistik hanyalah untuk menguji teori atau
fenomena tertentu. Jadi jika menggunakan variabel yang sembarangan (atau tidak
berdasarkan teori tertentu) maka model regresi yang dihasilkan juga patut dipertanyakan.

10.  Asumsi 10: There is no perfect multicollinearity

Tidak ada hubungan linear yang tinggi antara variabel-variabel bebas dalam model regresi.
Jadi asumsi ini tentunya tidak bisa diterapkan pada regresi dengan satu variabel bebas
(regresi linear sederhana).

Setelah menyimak uraian di atas, mungkin ada beberapa pertanyaan yang spontan muncul dalam
benak Anda. Misalnya, mengapa uji normalitas residual tidak ada? Tepat sekali, asumsi
normalitas residual (bukan normalitas pada masing-masing variabel) memang diperlukan akan
tetapi itu tidak termasuk dalam uji asumsi klasik. Gujarati (2004:93) menulis 'The assumption
that the disturbances ui are normally distributed is not a part of the CLRM’. Jika Anda masih
berargumen, bahwa di dalam berbagai penelitian, uji normalitas residual dimasukkan dalam uji
asumsi klasik (CLRM). Kajian tentang normalitas dimasukkan dalam Classical Normal Linear
Regression Model (CNLRM). Jadi masalah penempatannya mau di mana, kita tidak dapat
berkomentar.

HARJANTO SUTEDJO hal 3


UJI ASUMSI KLASIK

Jika Anda simak lebih lanjut, maka dari 10 asumsi dalam CLRM tidak semuanya perlu diuji
karena secara otomatis telah dimasukkan dalam persamaan untuk mengestimasi nilai konstanta,
koefisien atau errornya. Asumsi 2, 3, 6, 7, 8 dan 9 tidak perlu lagi dilakukan pengujian tersendiri.
Asumsi 1 juga sering tidak dilakukan karena terkait dengan asumsi 9, yaitu bahwa model harus
dispesifikasi dengan benar. Asumsi 4, 5 dan 10 yang memerlukan pengujian tersendiri ditambah
dengan pengujian normalitas.

Sumber Bacaan: Gujarati (2004)

untuk penelitian skripsi, apa digunakan semuanya?

sesuai keperluan

1. Uji Normalitas

Uji normalitas adalah untuk melihat apakah nilai residual terdistribusi normal atau tidak. Model
regresi yang baik adalah memiliki nilai residual yang terdistribusi normal. Jadi uji normalitas
bukan dilakukan pada masing-masing variabel tetapi pada nilai residualnya. Sering terjadi
kesalahan yang jamak yaitu bahwa uji normalitas dilakukan pada masing-masing variabel. Hal
ini tidak dilarang tetapi model regresi memerlukan normalitas pada nilai residualnya bukan pada
masing-masing variabel penelitian.

Pengertian normal secara sederhana dapat dianalogikan dengan sebuah kelas. Dalam kelas siswa
yang bodoh sekali dan pandai sekali jumlahnya hanya sedikit dan sebagian besar berada pada
kategori sedang atau rata-rata. Jika kelas tersebut bodoh semua maka tidak normal, atau sekolah
luar biasa. Dan sebaliknya jika suatu kelas banyak yang pandai maka kelas tersebut tidak normal
atau merupakan kelas unggulan. Pengamatan data yang normal akan memberikan nilai ekstrim
rendah dan ekstrim tinggi yang sedikit dan kebanyakan mengumpul di tengah. Demikian juga
nilai rata-rata, modus dan median relatif dekat.

Uji normalitas dapat dilakukan dengan uji histogram, uji normal P Plot, uji Chi Square,
Skewness dan Kurtosis atau uji Kolmogorov Smirnov. Tidak ada metode yang paling baik atau
paling tepat. Tipsnya adalah bahwa pengujian dengan metode grafik sering menimbulkan
perbedaan persepsi di antara beberapa pengamat, sehingga penggunaan uji normalitas dengan uji
statistik bebas dari keragu-raguan, meskipun tidak ada jaminan bahwa pengujian dengan uji
statistik lebih baik dari pada pengujian dengan metode grafik.

Jika residual tidak normal tetapi dekat dengan nilai kritis (misalnya signifikansi Kolmogorov
Smirnov sebesar 0,049) maka dapat dicoba dengan metode lain yang mungkin memberikan
justifikasi normal. Tetapi jika jauh dari nilai normal, maka dapat dilakukan beberapa langkah
yaitu: melakukan transformasi data, melakukan trimming data outliers atau menambah data
observasi. Transformasi dapat dilakukan ke dalam bentuk Logaritma natural, akar kuadrat,
inverse, atau bentuk yang lain tergantung dari bentuk kurva normalnya, apakah condong ke kiri,
ke kanan, mengumpul di tengah atau menyebar ke samping kanan dan kiri.

HARJANTO SUTEDJO hal 4


UJI ASUMSI KLASIK

2. Uji Multikolinearitas

Uji multikolinearitas adalah untuk melihat ada atau tidaknya korelasi yang tinggi antara
variabel-variabel bebas dalam suatu model regresi linear berganda. Jika ada korelasi yang tinggi
di antara variabel-variabel bebasnya, maka hubungan antara variabel bebas terhadap variabel
terikatnya menjadi terganggu. Sebagai ilustrasi, adalah model regresi dengan variabel bebasnya
motivasi, kepemimpinan dan kepuasan kerja dengan variabel terikatnya adalah kinerja. Logika
sederhananya adalah bahwa model tersebut untuk mencari pengaruh antara motivasi,
kepemimpinan dan kepuasan kerja terhadap kinerja. Jadi tidak boleh ada korelasi yang tinggi
antara motivasi dengan kepemimpinan, motivasi dengan kepuasan kerja atau antara
kepemimpinan dengan kepuasan kerja.

Alat statistik yang sering dipergunakan untuk menguji gangguan multikolinearitas adalah dengan
variance inflation factor (VIF), korelasi pearson antara variabel-variabel bebas, atau dengan
melihat eigenvalues dan condition index (CI).

Beberapa alternatif cara untuk mengatasi masalah multikolinearitas adalah sebagai berikut:
1. Mengganti atau mengeluarkan variabel yang mempunyai korelasi yang tinggi.
2. Menambah jumlah observasi.
3. Mentransformasikan data ke dalam bentuk lain, misalnya logaritma natural, akar
kuadrat atau bentuk first difference delta.

3. Uji Heteroskedastisitas

Uji heteroskedastisitas adalah untuk melihat apakah terdapat ketidaksamaan varians dari
residual satu ke pengamatan ke pengamatan yang lain. Model regresi yang memenuhi
persyaratan adalah di mana terdapat kesamaan varians dari residual satu pengamatan ke
pengamatan yang lain tetap atau disebut homoskedastisitas.

Deteksi heteroskedastisitas dapat dilakukan dengan metode scatter plot dengan memplotkan nilai
ZPRED (nilai prediksi) dengan SRESID (nilai residualnya). Model yang baik didapatkan jika
tidak terdapat pola tertentu pada grafik, seperti mengumpul di tengah, menyempit kemudian
melebar atau sebaliknya melebar kemudian menyempit. Uji statistik yang dapat digunakan
adalah uji Glejser, uji Park atau uji White.

Beberapa alternatif solusi jika model menyalahi asumsi heteroskedastisitas adalah dengan
mentransformasikan ke dalam bentuk logaritma, yang hanya dapat dilakukan jika semua data
bernilai positif. Atau dapat juga dilakukan dengan membagi semua variabel dengan variabel
yang mengalami gangguan heteroskedastisitas.

4. Uji Autokorelasi

HARJANTO SUTEDJO hal 5


UJI ASUMSI KLASIK

Uji autokorelasi adalah untuk melihat apakah terjadi korelasi antara suatu periode t dengan
periode sebelumnya (t -1). Secara sederhana adalah bahwa analisis regresi adalah untuk melihat
pengaruh antara variabel bebas terhadap variabel terikat, jadi tidak boleh ada korelasi antara
observasi dengan data observasi sebelumnya. Sebagai contoh adalah pengaruh antara tingkat
inflasi bulanan terhadap nilai tukar rupiah terhadap dollar. Data tingkat inflasi pada bulan
tertentu, katakanlah bulan Februari, akan dipengaruhi oleh tingkat inflasi bulan Januari. Berarti
terdapat gangguan autokorelasi pada model tersebut. Contoh lain, pengeluaran rutin dalam suatu
rumah tangga. Ketika pada bulan Januari suatu keluarga mengeluarkan belanja bulanan yang
relatif tinggi, maka tanpa ada pengaruh dari apapun, pengeluaran pada bulan Februari akan
rendah.

Uji autokorelasi hanya dilakukan pada data time series (runtut waktu) dan tidak perlu
dilakukan pada data cross section seperti pada kuesioner di mana pengukuran semua variabel
dilakukan secara serempak pada saat yang bersamaan. Model regresi pada penelitian di Bursa
Efek Indonesia di mana periodenya lebih dari satu tahun biasanya memerlukan uji autokorelasi.

Beberapa uji statistik yang sering dipergunakan adalah uji Durbin-Watson, uji dengan Run Test
dan jika data observasi di atas 100 data sebaiknya menggunakan uji Lagrange Multiplier.
Beberapa cara untuk menanggulangi masalah autokorelasi adalah dengan mentransformasikan
data atau bisa juga dengan mengubah model regresi ke dalam bentuk persamaan beda umum
(generalized difference equation). Selain itu juga dapat dilakukan dengan memasukkan variabel
lag dari variabel terikatnya menjadi salah satu variabel bebas, sehingga data observasi menjadi
berkurang 1.

5. Uji Linearitas

Uji linearitas dipergunakan untuk melihat apakah model yang dibangun mempunyai hubungan
linear atau tidak. Uji ini jarang digunakan pada berbagai penelitian, karena biasanya model
dibentuk berdasarkan telaah teoretis bahwa hubungan antara variabel bebas dengan variabel
terikatnya adalah linear. Hubungan antar variabel yang secara teori bukan merupakan hubungan
linear sebenarnya sudah tidak dapat dianalisis dengan regresi linear, misalnya masalah elastisitas.

Jika ada hubungan antara dua variabel yang belum diketahui apakah linear atau tidak, uji
linearitas tidak dapat digunakan untuk memberikan adjustment bahwa hubungan tersebut bersifat
linear atau tidak. Uji linearitas digunakan untuk mengkonfirmasikan apakah sifat linear antara
dua variabel yang diidentifikasikan secara teori sesuai atau tidak dengan hasil observasi yang
ada. Uji linearitas dapat menggunakan uji Durbin-Watson, Ramsey Test atau uji Lagrange
Multiplier.

Uji Heteroskedastisitas dengan Glejser

Pengujian heteroskedastisitas dengan metode grafik lazim dipergunakan meskipun


menimbulkan bias, karena pengamatan antara satu pengamat dengan pengamat lain bisa
menimbulkan perbedaan persepsi. Oleh karena itu, penggunaan uji statistik diharapkan
menghilangkan unsur bias tersebut. Salah satu uji statistik yang lazim dipergunakan adalah uji
Glejser (di samping uji yang lain, misalnya uji Park, atau uji White).

HARJANTO SUTEDJO hal 6


UJI ASUMSI KLASIK

Uji Glejser dilakukan dengan meregresikan variabel-variabel bebas terhadap nilai absolut
residualnya (Gujarati, 2004). Sebagai pengertian dasar, residual adalah selisih antara nilai
observasi dengan nilai prediksi; dan absolut adalah nilai mutlaknya. Sebagai ilustrasi, berikut
adalah regresi antara kecerdasan emosional (KE) dan kecerdasan spiritual (KS) terhadap kinerja
auditor (KA)

KA = a + b1 KE + b2 KS

Langkah pertama adalah meregresikan KE dan KS (sebagai variabel independen) terhadap KA


(sebagai variabel dependen). Kemudian klik menu Save pada menu residual klik unstandardized.
Klik OK sehingga akan muncul nilai res_1 pada tabulasi data SPSS. Angka yang terdapat pada
kolom res_1 pada tabulasi SPSS merupakan nilai residual yaitu selisih antara KA hasil observasi
(kuesioner) dengan KA hasil prediksi pada persamaan di atas.

Langkah kedua adalah menghitung nilai absolut dari residual di atas. Jika dilakukan dengan
maka dengan menggunakan menu Transform --> compute. Pada baris Target variable isikan
abs_res yang berarti absolut residual. Kemudian klik pada function ABS(numexpr) sehingga
pada baris numeric expression akan keluar ABS(?). Isikan res_1 pada (?) lalu tekan OK,
sehingga pada kolom sebelah res_1 akan keluar abs_res yang berisi nilai absolut residual.

Selanjutnya adalah meregresikan KE dan KS dengan absolut residual, dan interpretasi


heteroskedastisitas dilakukan dengan melihat signifikansi antara KE dan KS secara parsial
terhadap abs_res. Gangguan heteroskedastisitas terjadi jika terdapat pengaruh yang signifikan
antara KE dan KS (salah satu atau keduanya) terhadap absolut residualnya.

Bahan bacaan: Gujarati, D., 2004. Basic Econometric. Mc-Grawhill, New York.

Uji Normalitas dengan Kolmogorov Smirnov

Banyak sekali teknik pengujian normalitas suatu distribusi data yang telah dikembangkan oleh
para ahli. Kita sebenarnya sangat beruntung karena tidak perlu mencari-cari cara untuk menguji
normalitas, dan bahkan saat ini sudah tersedia banyak sekali alat bantu berupa program statistik
yang tinggal pakai. Berikut adalah salah satu pengujian normalitas dengan menggunakan teknik
Kolmogorov Smirnov.
Uji Kolmogorov Smirnov merupakan pengujian normalitas yang banyak dipakai, terutama
setelah adanya banyak program statistik yang beredar. Kelebihan dari uji ini adalah sederhana
dan tidak menimbulkan perbedaan persepsi di antara satu pengamat dengan pengamat yang lain,
yang sering terjadi pada uji normalitas dengan menggunakan grafik.

Konsep dasar dari uji normalitas Kolmogorov Smirnov adalah dengan membandingkan distribusi
data (yang akan diuji normalitasnya) dengan distribusi normal baku. Distribusi normal baku
adalah data yang telah ditransformasikan ke dalam bentuk Z-Score dan diasumsikan normal. Jadi
sebenarnya uji Kolmogorov Smirnov adalah uji beda antara data yang diuji normalitasnya
dengan data normal baku. Seperti pada uji beda biasa, jika signifikansi di bawah 0,05 berarti
terdapat perbedaan yang signifikan, dan jika signifikansi di atas 0,05 maka tidak terjadi

HARJANTO SUTEDJO hal 7


UJI ASUMSI KLASIK

perbedaan yang signifikan. Penerapan pada uji Kolmogorov Smirnov adalah bahwa jika
signifikansi di bawah 0,05 berarti data yang akan diuji mempunyai perbedaan yang signifikan
dengan data normal baku, berarti data tersebut tidak normal.
Lebih lanjut, jika signifikansi di atas 0,05 maka berarti tidak terdapat perbedaan yang signifikan
antara data yang akan diuji dengan data normal baku, artinya….ya berarti data yang kita uji
normal, kan tidak berbeda dengan normal baku.
Jika kesimpulan kita memberikan hasil yang tidak normal, maka kita tidak bisa menentukan
transformasi seperti apa yang harus kita gunakan untuk normalisasi. Jadi ya kalau tidak normal,
gunakan plot grafik untuk melihat menceng ke kanan atau ke kiri, atau menggunakan Skewness
dan Kurtosis sehingga dapat ditentukan transformasi seperti apa yang paling tepat dipergunakan.

Uji Normalitas dengan Kolmogorov Smirnov dengan Program SPSS

Pengujian normalitas dengan menggunakan Program SPSS dilakukan dengan menu Analyze,
kemudian klik pada Nonparametric Test, lalu klik pada 1-Sample K-S. K-S itu singkatan dari
Kolmogorov-Smirnov. Maka akan muncul kotak One-Sample Kolmogorov-Smirnov Test. Data
yang akan diuji terletak di kiri dan pindahkan ke kanan dengan tanda panah. Lalu tekan OK saja.
Pada output, lihat pada baris paling bawah dan paling kanan yang berisi Asymp.Sig.(2-tailed).
Lalu intepretasinya adalah bahwa jika nilainya di atas 0,05 maka distribusi data dinyatakan
memenuhi asumsi normalitas, dan jika nilainya di bawah 0,05 maka diinterpretasikan sebagai
tidak normal.

Uji Normalitas dengan Skewness dan Kurtosis

Uji normalitas dengan Skewness dan Kurtosis memberikan kelebihan tersendiri, yaitu bahwa
akan diketahui grafik normalitas menceng ke kanan atau ke kiri, terlalu datar atau mengumpul di
tengah. Oleh karena itu, uji normalitas dengan Skewness dan Kurtosis juga sering disebut dengan
ukuran kemencengan data. Pengujian dengan SPSS dilakukan dengan menu Analyze, lalu klik
Descriptive Statistics, pilih menu Descriptives. Data yang akan diuji normalitasnya dipindah dari
kotak kiri ke kanan, lalu tekan Options. Klik pada Distribution yaitu Skewness dan Kurtosis,
tekan Continue, lalu tekan OK.

Pada output akan tampak nilai Statistic Skewness dan Statistic Kurtosis. Lalu hitunglah Zskew
dengan persamaan Statistik : (Akar(6/N)) dengan N adalah jumlah observasi. Persamaan yang
sama juga dipakai untuk menghitung Zkurt (Akar(24/N). Misalnya nilai statistic skewness adalah
0,5 dan statistic kurtosis adalah 0,9; dan jumlah data adalah 100, maka nilai Zskew adalah
sebesar 2,041 dan nliai Zkurt adalah sebesar 3,674. Nilai tersebut kemudian dibandingkan
dengan + 1,96 pada signifikansi 0,05 dan sebesar + 2,58 pada signifikansi 0,01. Jadi tampak
bahwa Zskew (2,041 > 1,96) dan Zkurt (3,674 > 1,96).

Syarat data yang normal adalah nilai Zskew dan Zkurt > + 1,96 (signifikansi 0,05). Jadi data di
atas dinyatakan tidak normal karena Zkurt tidak memenuhi persyaratan, baik pada signifikansi
0,05 maupun signifikansi 0,01. Kelebihan dari uji Skewness dan Kurtosis adalah bahwa kita
dapat mengetahui kemencengan data, di mana data yang normal akan menyerupai bentuk
lonceng. Kemungkinan yang ada adalah menceng ke kiri, jika nilai Zskew positif dan di atas

HARJANTO SUTEDJO hal 8


UJI ASUMSI KLASIK

1,96; atau menceng ke kanan jika Zskew bernilai negatif dan di bawah 1,96. Berdasarkan nilai
Kurtosis maka dapat ditentukan bahwa data mempunyai nilai puncak yang terlalu tinggi jika
Zkurt bernilai positif dan di atas 1,96; jika nilai puncak tidak ada atau data relatif datar maka
nilai Zkurt adalah negatif dan di bawah 1,96.

Agak bingung ya??? Memang Skewness dan Kurtosis mempunyai kelebihan, yaitu kita dapat
melakukan transformasi data berdasarkan nilai yang kita peroleh, hal yang tidak dapat dilakukan
oleh Kolmogorov-Smirnov, tetapi kelemahannya apa?? Anda agak bingung kan?? Nah itu
kelemahannya. Tapi kalau anda membaca dengan cermat dan tidak bingung, maka berarti
kelemahan Skewness dan Kurtosis boleh dibilang minimal, meskipun sedikit lebih rumit dari
pada Kolmogorov-Smirnov.
 
Regresi Logistik  

Regresi logistik (logistic regression) sebenarnya sama dengan analisis regresi berganda, hanya
variabel terikatnya merupakan variabel dummy (0 dan 1). Sebagai contoh, pengaruh beberapa
rasio keuangan terhadap keterlambatan penyampaian laporan keuangan. Maka variabel
terikatnya adalah 0 jika terlambat dan 1 jika tidak terlambat (tepat). Regresi logistik tidak
memerlukan asumsi normalitas, meskipun screening data outliers tetap dapat dilakukan. Untuk
asumsi multikolinearitas pada regresi logistik silahkan simak di sini.

Interpretasi regresi logistik menggunakan odd ratio atau kemungkinan. Sebagai contoh, jika
rasio keuangan ROA meningkat sebesar 1% maka kemungkinan ketepatan menyampaikan
laporan keuangan meningkat sebesar 1,05 kali. Berarti semakin tinggi ROA kemungkinan tepat
semakin tinggi. Atau jika rasio keuangan DER meningkat sebesar 2% maka kemungkinan
ketepatan penyampaian laporan keuangan meningkat sebesar 0,98 kali atau bisa dikatakan
menurun karena lebih kecil dari 1 yang berarti kemungkinan terlambat semakin tinggi.

Regresi Linear Berganda

Regresi linear adalah alat statistik yang dipergunakan untuk mengetahui pengaruh antara satu
atau beberapa variabel terhadap satu buah variabel. Variabel yang mempengaruhi sering disebut
variabel bebas, variabel independen atau variabel penjelas. Variabel yang dipengaruhi sering
disebut dengan variabel terikat atau variabel dependen. Regresi linear hanya dapat digunakan
pada skala interval dan ratio.

Secara umum regresi linear terdiri dari dua, yaitu regresi linear sederhana yaitu dengan satu buah
variabel bebas dan satu buah variabel terikat; dan regresi linear berganda dengan beberapa
variabel bebas dan satu buah variabel terikat. Analisis regresi linear merupakan metode statistik
yang paling jamak dipergunakan dalam penelitian-penelitian sosial, terutama penelitian ekonomi.
Program komputer yang paling banyak digunakan adalah SPSS (Statistical Package For Service
Solutions).

Regresi Linear Sederhana

HARJANTO SUTEDJO hal 9


UJI ASUMSI KLASIK

Analisis regresi linear sederhana dipergunakan untuk mengetahui pengaruh antara satu buah
variabel bebas terhadap satu buah variabel terikat. Persamaan umumnya adalah:
Y = a + b X.
Dengan Y adalah variabel terikat dan X adalah variabel bebas. Koefisien a adalah konstanta
(intercept) yang merupakan titik potong antara garis regresi dengan sumbu Y pada koordinat
kartesius.

Langkah penghitungan analisis regresi dengan menggunakan program SPSS adalah: Analyse -->
regression --> linear. Pada jendela yang ada, klik variabel terikat lalu klik tanda panah pada kota
dependent. Maka variabel tersebut akan masuk ke kotak sebagai variabel dependen. Lakukan
dengan cara yang sama untuk variabel bebas (independent). Lalu klik OK dan akan muncul
output SPSS.

Interpretasi Output

1. Koefisien determinasi

Koefisien determinasi mencerminkan seberapa besar kemampuan variabel bebas dalam


menjelaskan varians variabel terikatnya. Mempunyai nilai antara 0 – 1 di mana nilai yang
mendekati 1 berarti semakin tinggi kemampuan variabel bebas dalam menjelaskan varians
variabel terikatnya.

2. Nilai t hitung dan signifikansi

Nilai t hitung > t tabel berarti ada pengaruh yang signifikan antara variabel bebas terhadap
variabel terikat, atau bisa juga dengan signifikansi di bawah 0,05 untuk penelitian sosial, dan
untuk penelitian bursa kadang-kadang digunakan toleransi sampai dengan 0,10.

3. Persamaan regresi

Sebagai ilustrasi variabel bebas: Biaya promosi dan variabel terikat: Profitabilitas (dalam juta
rupiah) dan hasil analisisnya Y = 1,2 + 0,55 X. Berarti interpretasinya:

1. Jika besarnya biaya promosi meningkat sebesar 1 juta rupiah, maka profitabilitas
meningkat sebesar 0,55 juta rupiah.
2. Jika biaya promosi bernilai nol, maka profitabilitas akan bernilai 1,2 juta rupiah.

Interpretasi terhadap nilai intercept (dalam contoh ini 1,2 juta) harus hati-hati dan sesuai dengan
rancangan penelitian. Jika penelitian menggunakan angket dengan skala likert antara 1 sampai 5,
maka interpretasi di atas tidak boleh dilakukan karena variabel X tidak mungkin bernilai nol.

Regresi Linear Berganda

HARJANTO SUTEDJO hal 10


UJI ASUMSI KLASIK

Analisis regresi linear berganda sebenarnya sama dengan analisis regresi linear sederhana, hanya
variabel bebasnya lebih dari satu buah. Persamaan umumnya adalah:

Y = a + b1 X1 + b2 X2 + .... + bn Xn.

Dengan Y adalah variabel bebas, dan X adalah variabel-variabel bebas, a adalah konstanta
(intersept) dan b adalah koefisien regresi pada masing-masing variabel bebas.

Interpretasi terhadap persamaan juga relatif sama, sebagai ilustrasi, pengaruh antara motivasi
(X1), kompensasi (X2) dan kepemimpinan (X3) terhadap kepuasan kerja (Y) menghasilkan
persamaan sebagai berikut:

Y = 0,235 + 0,21 X1 + 0,32 X2 + 0,12 X3

1. Jika variabel motivasi meningkat dengan asumsi variabel kompensasi dan kepemimpinan
tetap, maka kepuasan kerja juga akan meningkat
2. Jika variabel kompensasi meningkat, dengan asumsi variabel motivasi dan kepemimpinan
tetap, maka kepuasan kerja juga akan meningkat.
3. Jika variabel kepemimpinan meningkat, dengan asumsi variabel motivasi dan kompensasi
tetap, maka kepuasan kerja juga akan meningkat.

Interpretasi terhadap konstanta (0,235) juga harus dilakukan secara hati-hati. Jika
pengukuran variabel dengan menggunakan skala Likert antara 1 sampai dengan 5 maka tidak
boleh diinterpretasikan bahwa jika variabel motivasi, kompensasi dan kepemimpinan bernilai
nol, karena ketiga variabel tersebut tidak mungkin bernilai nol karena Skala Likert terendah yang
digunakan adalah 1.

Analisis regresi linear berganda memerlukan pengujian secara serempak dengan menggunakan F
hitung. Signifikansi ditentukan dengan membandingkan F hitung dengan F tabel atau melihat
signifikansi pada output SPSS. Dalam beberapa kasus dapat terjadi bahwa secara simultan
(serempak) beberapa variabel mempunyai pengaruh yang signifikan, tetapi secara parsial tidak.
Sebagai ilustrasi: seorang penjahat takut terhadap polisi yang membawa pistol (diasumsikan
polisis dan pistol secara serempak membuat takut penjahat). Akan tetapi secara parsial, pistol
tidak membuat takut seorang penjahat. Contoh lain: air panas, kopi dan gula menimbulkan
kenikmatan, tetapi secara parsial, kopi saja belum tentu menimbulkan kenikmatan.

Penggunaan metode analisis regresi linear berganda memerlukan uji asumsi klasik yang secara
statistik harus dipenuhi. Asumsi klasik yang sering digunakan adalah asumsi normalitas,
multikolinearitas, autokorelasi, heteroskedastisitas dan asumsi linearitas..

Langkah-langkah yang lazim dipergunakan dalam analisis regresi linear berganda adalah 1)
koefisien determinasi; 2) Uji F dan 3 ) uji t. Persamaan regresi sebaiknya dilakukan di akhir
analisis karena interpretasi terhadap persamaan regresi akan lebih akurat jika telah diketahui

HARJANTO SUTEDJO hal 11


UJI ASUMSI KLASIK

signifikansinya. Koefisien determinasi sebaiknya menggunakan Adjusted R Square dan jika


bernilai negatif maka uji F dan uji t tidak dapat dilakukan.

Bentuk-bentuk regresi yang juga sering digunakan dalam penelitian adalah regresi logistik atau
regresi ordinal.

Pertanyaan-pertanyaan yang sering muncul

1. Dalam uji regresi sederhana apakah perlu menginterpretasikan nilai F hitung?

Uji F adalah uji kelayakan model (goodness of fit) yang harus dilakukan dalam analisis regresi
linear. Untuk analisis regresi linear sederhana Signifikansi pada Uji F sama hasilnya dengan
signifikansi pada uji t.

2. Kapan menggunakan uji satu arah dan kapan menggunakan uji dua arah?

Penentuan arah pengujian adalah berdasarkan masalah penelitian, tujuan penelitian dan
perumusan hipotesis. Jika hipotesis sudah menentukan arahnya, maka sebaiknya digunakan uji
satu arah, tetapi jika hipotesis belum menentukan arah, maka sebaiknya menggunakan uji dua
arah. Penentuan arah pada hipotesis berdasarkan tinjauan literatur. Contoh hipotesis dua arah:
Terdapat pengaruh antara kepuasan terhadap kinerja. Contoh hipotesis satu arah: Terdapat
pengaruh positif antara kepuasan terhadap kinerja. Nilai t tabel juga berbeda antara satu arah dan
dua arah. Jika menggunakan signifikansi, maka signifikansi hasil output dibagi dua terlebih
dahulu, baru dibandingkan dengan 5%.

3. Apa bedanya korelasi dengan regresi?

Korelasi adalah hubungan dan regresi adalah pengaruh. Korelasi bisa berlaku bolak-balik,
sebagai contoh A berhubungan dengan B demikian juga B berhubungan dengan A. Untuk regresi
tidak bisa dibalik, artinya A berpengaruh terhadap B, tetapi tidak boleh dikatakan B berpengaruh
terhadap A. Dalam kehidupan sehari-hari kedua istilah itu (hubungan dan pengaruh) sering
dipergunakan secara rancu, tetapi dalam ilmu statistik sangat berbeda. A berhubungan dengan B
belum tentu A berpengaruh terhadap B. Tetapi jika A berpengaruh terhadap B maka pasti A juga
berhubungan dengan B. (Dalam analisis lanjut sebenarnya juga ada pengaruh yang bolak-balik
yang disebut dengan recursive, yang tidak dapat dianalisis dengan analisis regresi tetapi
menggunakan (structural equation modelling).

HARJANTO SUTEDJO hal 12


UJI ASUMSI KLASIK

Pengertian dan Penjelasan Uji Autokorelasi


Durbin Watson
Uji Autokorelasi Durbin Watson
Pengertian Uji Autokorelasi

Uji Autokorelasi adalah sebuah analisis statistik yang dilakukan untuk mengetahui adakah
korelasi variabel yang ada di dalam model prediksi dengan perubahan waktu. Oleh karena itu,
apabila asumsi autokorelasi terjadi pada sebuah model prediksi, maka nilai disturbance tidak lagi
berpasangan secara bebas, melainkan berpasangan secara autokorelasi. Dalam kesempatan ini,
kita hanya akan fokus pada tutorial uji autokorelasi dengan SPSS. Namun prinsip penting lainnya
tetap akan kami bahas secara singkat dan padat serta mudah dipahami.

Uji autokorelasi di dalam model regresi linear, harus dilakukan apabila data merupakan data time
series atau runtut waktu. Sebab yang dimaksud dengan autokorelasi sebenarnya adalah: sebuah
nilai pada sampel atau observasi tertentu sangat dipengaruhi oleh nilai observasi sebelumnya.

Uji Autokorelasi

Pengertian autokorelasi

Autokorelasi adalah terjadi korelasi antara observasi ke-i dengan observasi ke-i-1. Contohnya
yaitu: misalkan sampel ke-20, nilainya dipengaruhi oleh sampel ke-19. Sampel ke-19, nilainya
dipengaruhi oleh sampel ke-18, dan seterusnya. Coba kita perhatikan pada contoh tersebut, yaitu
ada nilai selisih antara nilai observasi ke-18 dengan ke-19, nilai observasi ke-19 dengan ke-20,
dan seterusnya.

Demikian pengertian yang mudah dipahami oleh para pembaca, sebab kami disini tidak akan
menjelaskan pemahaman tentang arti autokorelasi secara teoritis, sebab para pembaca nantinya
malah akan kesulitan. Untuk pengertian teoritis silahkan anda mencari referensi buku-buku
statistik. Dalam kesempatan ini, kami akan menjelaskan tutorial melakukan uji autokorelasi
dengan SPSS.

Cara perhitungan secara manual perihal asumsi autokorelasi bukanlah dihitung pada semua
variabel, melainkan cukup pada residualnya saja. Untuk cara perhitungan secara manual, kami
sudah jelaskan secara detail dan lengkap di artikel kami yang berjudul: Durbin Watson Hitung
dengan Excel.

Cara Mendeteksi Autokorelasi

Masalah asumsi Autokorelasi dapat dideteksi dengan menggunakan berbagai jenis analisis, yaitu
antara lain:

HARJANTO SUTEDJO hal 13


UJI ASUMSI KLASIK

1. Uji Durbin Watson


2. Uji Breucsh Godfrey
3. Uji Durbin Watson h
4. The Engle’s ARCH Test.

Uji Durbin Watson h statistik bisa dilakukan jika variabel terikat atau dependent variables
merupakan variabel Lag. Lag artinya selisih antara sampel ke-i dengan sampel ke-i-1, seperti
yang sudah dijelaskan di atas sebelumnya. Sedangkan uji durbit watson malah sebaliknya, bisa
dilakukan jika variabel terikat bukanlah variabel lag.

Uji Durbin Watson

Uji Durbin watson adalah uji autokorelasi yang menilai adanya autokorelasi pada residual. Uji
ini dilakukan dengan asumsi atau syarat antara lain:

1. Model regresi harus menyertakan konstanta.


2. Autokorelasi harus diasumsikan sebagai autokorelasi first order.
3. Variabel dependen bukan merupakan variabel Lag.

Autokorelasi first order adalah korelasi antara sampel ke-i dengan sampel ke-i-1 seperti yang
sudah dibahas di atas sebelumnya.

Uji Durbin watson akan menghasilkan nilai Durbin Watson (DW) yang nantinya akan
dibandingkan dengan dua (2) nilai Durbin Watson Tabel, yaitu Durbin Upper (DU) dan Durbin
Lower DL). Dikatakan tidak terdapat autokorelasi jika nilai DW > DU dan (4-DW) > DU atau
bisa dinotasikan juga sebagai berikut: (4-DW) > DU < DW. Untuk menentukan autokorelasi
negatif atau positif, akan kami bahas pada artikel berikutnya.

Uji F dan Uji T


Anwar Hidayat
-

Uji F dikenal dengan Uji serentak atau uji Model/Uji Anova, yaitu uji untuk melihat
bagaimanakah pengaruh semua variabel bebasnya secara bersama-sama terhadap variabel
terikatnya. Atau untuk menguji apakah model regresi yang kita buat baik/signifikan atau tidak
baik/non signifikan. Dalam artikel ini dijelaskan tentang Uji F dan Uji T dalam penelitian.

Jika model signifikan maka model bisa digunakan untuk prediksi/peramalan, sebaliknya jika
non/tidak signifikan maka model regresi tidak bisa digunakan untuk peramalan.

HARJANTO SUTEDJO hal 14


UJI ASUMSI KLASIK

Uji F dan Uji T

 Cara Melakukan Uji F

Uji F dapat dilakukan dengan membandingkan F hitung dengan Tabel F: F Tabel dalam Excel,
jika F hitung > dari F tabel, (Ho di tolak Ha diterima) maka model signifikan atau bisa dilihat
dalam kolom signifikansi pada Anova (Olahan dengan SPSS, Gunakan Uji Regresi dengan
Metode Enter/Full Model). Model signifikan selama kolom signifikansi (%) < Alpha (kesiapan
berbuat salah tipe 1, yang menentukan peneliti sendiri, ilmu sosial biasanya paling besar alpha
10%, atau 5% atau 1%). Dan sebaliknya jika F hitung < F tabel, maka model tidak signifikan, hal
ini juga ditandai nilai kolom signifikansi (%) akan lebih besar dari alpha.

Uji T

Uji t dikenal dengan uji parsial, yaitu untuk menguji bagaimana pengaruh masing-masing
variabel bebasnya secara sendiri-sendiri terhadap variabel terikatnya. Uji ini dapat dilakukan
dengan mambandingkan t hitung dengan t tabel atau dengan melihat kolom signifikansi pada
masing-masing t hitung, proses uji t identik dengan Uji F (lihat perhitungan SPSS pada
Coefficient Regression Full Model/Enter). Atau bisa diganti dengan Uji metode Stepwise.

Seperti kita telah pelajari pada berbagai artikel dalam website statistikian, bahwa ada banyak
sekali yang membahas tentang Uji F dan Uji T. Pertanyaannya, sebenarnya apakah yang
dimaksud dengan Uji F dan Uji T tersebut? Di atas kita telah pelajari sebagian dari yang
dimaksud untuk menjawab pertanyaan ini. Namun perlu statistikian jelaskan lagi bahwa
sebenarnya Uji F dan Uji T itu tidak hanya sebatas dari apa yang telah dibahas di atas, dimana di

HARJANTO SUTEDJO hal 15


UJI ASUMSI KLASIK

atas membahas tentang Uji F dan Uji T dalam konteks analisis regresi linear. Namun dalam
konteks yang lain, bisa jadi ada dalam berbagai jenis analisis, misalnya Uji ANOVA, ANCOVA,
MANOVA juga terdapat nilai F. Dan pada uji beda 2 sampel berpasangan, yaitu paired t test dan
uji beda 2 sampel bebas, yaitu independen t test, juga ada nilai T.

Perbedaan Uji F dan Uji T

Jadi kesimpulannya: bahwa uji F adalah uji yang mengukur besarnya perbedaan variance antara
kedua atau beberapa kelompok. Sedangkan Uji T adalah uji yang mengukur perbedaan dua atau
beberapa Mean antar kelompok.

Dalam uji F dikenal istilah F Hitung dan Tabel F: F Tabel dalam Excel seperti yang telah dibahas
di atas. F Hitung adalah nilai F hasil perhitungan analisis, yang kemudian nilainya akan
dibandingkan dengan F Tabel pada Numerator dan Denumerator tertentu. Numerator disebut
juga dengan Degree of Freedom 1, sedangkan Denumerator adalah Degree of Freedom 2.
Misalnya pada Regresi Linear, Nilai Denumerator adalah jumlah sampel dikurangi jumlah
variabel bebas dikurangi 1. Sedangkan nilai Numerator adalah jumlah variabel bebas. Untuk
lebih jelasnya, silahkan pelajari tentang Tabel F: F Tabel dalam Excel.

Sama halnya dengan F Hitung, T Tabel juga digunakan untuk mengukur tingkat signifikansi
sebuah analisis. Namun bedanya, T Tabel tidak mengenal istilah Numerator dan Denumerator,
yang ada hanyalah nilai T pada Degree Of Freedom tertentu. Misalnya pada Uji Paired T Test,
Degree of Freedom sebesar jumlah observasi pada kedua kelompok. Sedangkan pada Independen
T Test, degree of freedom adalah sebesar jumlah sampel.

HARJANTO SUTEDJO hal 16

Anda mungkin juga menyukai