Anda di halaman 1dari 25

UJI NORMALITAS DATA - SKEWNESS & KURTOSIS

Uji normalitas data selanjutnya adalah dengan menggunakan analisa dari nilai skewness dan
kurtosis data. Skewness dan kurtosis adalah ukuran yang lebih cenderung untuk melihat
distribusi data secara grafik.
1. Skewness (Kecondongan)
Kecondongan suatu kurva dapat dilihat dari perbedaan letak mean, median dan modusnya. Jika
ketiga ukuran pemusatan data tersebut berada pada titik yang sama, maka dikatakan simetris atau
data berdistribusi normal. Sedangkan jika tidak berarti data tidak simetris atau tidak berdistribusi
normal.
Ukuran kecondongan data terbagi atas tiga bagian, yaitu :

 Kecondongan data ke arah kiri (condong negatif) dimana nilai modus lebih dari nilai mean
(modus > mean).
 Kecondongan data simetris (distribusi normal) dimana nilai mean dan modus adalah sama (mean
= modus).
 Kecondongan data ke arah kanan (condong positif) dimana nilai mean lebih dari nilai modus
(mean > modus).

Nilainya dapat diukur dengan menggunakan koefisien kecondongan Pearson dan koefisien
kecondongan Momen. (Akan dibahas khusus pada materi berikutnya).

2. Kurtosis (Keruncingan)
Keruncingan dinilai sebagai bentuk distorsi dari kurva normal. Tingkat keruncingan diukur
dengan membandingkan bentuk keruncingan kurva distribusi data dengan kurva normal. Terbagi
atas tiga, yaitu :

 Leptokurtic, yaitu bagian tengah distribusi data memiliki puncak yang lebih runcing (nilai
keruncingan lebih dari 3).
 Platykurtic, yaitu bagian tengah distribusi data memiliki puncak yang lebih datar (nilai
keruncingan kurang dari 3).
 Mesokurtic, yaitu bagian tengah distribusi data memiliki puncak diantara Leptokurtic dan
Platykurtic (nilai keruncingan sama dengan 3).
Selanjutnya, untuk melihat apakah data berdistribusi normal atau tidak dengan menggunakan
skewness dan kurtosis, dapat digunakan formula sebagai berikut :

Z-Skewness = Skewness / sqrt(6/N)


Interpretasi pada tingkat signifikansi (alpha) 5% :
 Jika data memiliki nilai Z-Skewness < -1,96 berarti data memiliki kecondongan kanan.
 Jika data memiliki nilai Z-Skewness > +1,96 berarti data memiliki kecondongan kiri.
 Jika data memiliki nilai Z-Skewness antara -1,96 dan +1,96, berarti data mendekati simetris.
Z-Kurtosis = Kurtosis / sqrt(24/N)
Interpretasi pada tingkat signifikansi (alpha) 5% :
 Jika data memiliki nilai Z-Kurtosis < -1,96, berarti data memiliki keruncingan Leptokurtik.
 Jika data memiliki nilai Z-Kurtosis > +1,96, berarti data memiliki keruncingan Platikurtik.
 Jika data memiliki nilai Z-Kurtosis antara -1,96 dan +1,96, berarti data memiliki keruncingan
Mesokurtik.

Untuk contoh kita gunakan data pada penelitian Pengaruh Kualitas Pelayanan Pramuniaga dan
Jumlah Pengunjung Toko terhadap Jumlah Pembeli. Dengan menggunakan SPSS 21 :
 Pilih Analyze -> Descriptives Statistics -> Descriptives

UJI ASUMSI KLASIK

Uji asumsi klasik adalah persyaratan statistik yang harus dipenuhi pada analisis regresi linear
berganda yang berbasis ordinary least square (OLS). Jadi analisis regresi yang tidak berdasarkan
OLS tidak memerlukan persyaratan asumsi klasik, misalnya regresi logistik atau regresi ordinal.
Demikian juga tidak semua uji asumsi klasik harus dilakukan pada analisis regresi linear,
misalnya uji multikolinearitas tidak dilakukan pada analisis regresi linear sederhana dan uji
autokorelasi tidak perlu diterapkan pada data cross sectional.

Uji asumsi klasik juga tidak perlu dilakukan untuk analisis regresi linear yang bertujuan untuk
menghitung nilai pada variabel tertentu. Misalnya nilai return saham yang dihitung dengan
market model, atau market adjusted model. Tujuan pengujian asumsi klasik ini adalah
untuk memberikan kepastian bahwa persamaan regresi yang didapatkan memiliki ketepatan
dalam estimasi, tidak bias dan konsisten.

Uji asumsi klasik yang sering digunakan yaitu uji multikolinearitas, uji heteroskedastisitas, uji
normalitas, uji autokorelasi dan uji linearitas. Tidak ada ketentuan yang pasti tentang urutan uji
mana dulu yang harus dipenuhi. Analisis dapat dilakukan tergantung pada data yang ada.
Sebagai contoh, dilakukan analisis terhadap semua uji asumsi klasik, lalu dilihat mana yang tidak
memenuhi persyaratan. Kemudian dilakukan perbaikan pada uji tersebut, dan setelah memenuhi
persyaratan, dilakukan pengujian pada uji yang lain.

1. Uji Normalitas

Uji normalitas adalah untuk melihat apakah nilai residual terdistribusi normal atau tidak. Model
regresi yang baik adalah memiliki nilai residual yang terdistribusi normal. Jadi uji normalitas
bukan dilakukan pada masing-masing variabel tetapi pada nilai residualnya. Sering terjadi
kesalahan yang jamak yaitu bahwa uji normalitas dilakukan pada masing-masing variabel. Hal
ini tidak dilarang tetapi model regresi memerlukan normalitas pada nilai residualnya bukan pada
masing-masing variabel penelitian.

Pengertian normal secara sederhana dapat dianalogikan dengan sebuah kelas. Dalam kelas siswa
yang bodoh sekali dan pandai sekali jumlahnya hanya sedikit dan sebagian besar berada pada
kategori sedang atau rata-rata. Jika kelas tersebut bodoh semua maka tidak normal, atau sekolah
luar biasa. Dan sebaliknya jika suatu kelas banyak yang pandai maka kelas tersebut tidak normal
atau merupakan kelas unggulan. Pengamatan data yang normal akan memberikan nilai ekstrim
rendah dan ekstrim tinggi yang sedikit dan kebanyakan mengumpul di tengah. Demikian juga
nilai rata-rata, modus dan median relatif dekat.

Uji normalitas dapat dilakukan dengan uji histogram, uji normal P Plot, uji Chi Square,
Skewness dan Kurtosis atau uji Kolmogorov Smirnov. Tidak ada metode yang paling baik atau
paling tepat. Tipsnya adalah bahwa pengujian dengan metode grafik sering menimbulkan
perbedaan persepsi di antara beberapa pengamat, sehingga penggunaan uji normalitas dengan uji
statistik bebas dari keragu-raguan, meskipun tidak ada jaminan bahwa pengujian dengan uji
statistik lebih baik dari pada pengujian dengan metode grafik.

Jika residual tidak normal tetapi dekat dengan nilai kritis (misalnya signifikansi Kolmogorov
Smirnov sebesar 0,049) maka dapat dicoba dengan metode lain yang mungkin memberikan
justifikasi normal. Tetapi jika jauh dari nilai normal, maka dapat dilakukan beberapa langkah
yaitu: melakukan transformasi data, melakukan trimming data outliers atau menambah data
observasi. Transformasi dapat dilakukan ke dalam bentuk Logaritma natural, akar kuadrat,
inverse, atau bentuk yang lain tergantung dari bentuk kurva normalnya, apakah condong ke kiri,
ke kanan, mengumpul di tengah atau menyebar ke samping kanan dan kiri.

Kasus:
Seorang peneliti ingin menguji asumsiheteroskedastisitas dari variabel Kinerja Karyawan (Y),
Struktur Organisasi (X1), Budaya Organisasi (X2) dan Kepemimpinan (X3).

Langkah-Langkah:
1) Masukkan data X1, X2, X3 dan Y yang terdapat pada lampiran.
2) Pilih menu Analyze kemudian submenu Regression, lalu pilih Linear.

3) Tampak di layar menu Linear Regression


 Pada kotak Dependent isikan variabel Y
 Pada kotak Independent isikan variabel X1, X2 dan X3
 Pada kotak Method pilih Enter

4) Pilih Plots di menu kemudian akan muncul tampilan Windows Linear Regression: Plots

 Aktifkan pilihan Histogram dan Normal probability plot


 Tekan Continue lalu Ok pada menu Linear Regression

5) Hasil output
Dengan melihat tampilan grafik Histogram maupun grafik Normal P-Plot of Regression
Standardized Residual dapat disimpulkan bahwa grafik histogram memberikan pola distribusi
yang normal. Sedangkan pada grafik normal plot, terlihat titik-titik menyebar disekitar garis
diagonal. Kedua grafik ini menunjukkan bahwa model regresi tidak menyalahi asumsi
normalitas. Jadi dapat disimpulkan bahwa model regresi pada penelitian ini memenuhi syarat
untuk menjadi model regresi yang baik karena merupakan model regresi yang memiliki distribusi
data normal atau mendekati normal.

UJI NORMALITAS DENGAN CARA LAMA


Asumsi :
Ho : Data tidak terdistribusi normal
Ha : Data terdistribusi normal
IP BB TB SEPATU USIA
N 30 30 30 30 30
Mean 3,6543 47,9667 170,3333 38,6333 19,4333
Normal Parametersa,b
Std. Deviation ,14602 7,88488 36,50256 1,92055 ,72793
Absolute ,072 ,202 ,327 ,263 ,391
Most Extreme
Positive ,070 ,202 ,327 ,263 ,391
Differences
Negative -,072 -,103 -,244 -,137 -,276
Kolmogorov-Smirnov Z ,394 1,108 1,789 1,438 2,141
Asymp. Sig. (2-tailed) ,998 ,172 ,003 ,032 ,000

Hasil Uji Normalitas dikatakan Normal jika nilai Signifikansi > 0,05. Dapat kita analisis dari
hasil SPSS masing-masing variabel adalah sebagai berikut :
 a. Variabel IP memilki signifikasi sebesar 0,998 > 0,05 yang artinya data
tersebut terdistribusi normal. Maka kesimpulannya Ha diterima dan Ho ditolak.
 b. Variabel Berat Badan memilki signifikasi sebesar 0,172 > 0,05 yang artinya variabel
tersebut terdistribusi normal Maka kesimpulannya Ha diterima dan Ho ditolak. Variabel
Tinggi Badan memilki signifikasi sebesar 0,003 < 0,05 yang artinya variabel tersebut tidak
terdistribusi normal Maka kesimpulannya Ho diterima dan Ha ditolak.
 c. Variabel Ukuran Sepatu memilki signifikasi sebesar 0,032 < 0,05 yang artinya variabel
tersebut tidak terdistribusi normal. Maka kesimpulannya Ho diterima dan Ha ditolak.
 d. Variabel Usia memilki signifikasi sebesar 0,000 < 0,05 yang artinya variabel
tersebut tidak terdistribusi normal (Ho diterima). Maka kesimpulannya Ho diterima dan Ha
ditolak.
Kesimpulan : Data yang diteliti dalam penelitian ini tidak lolos uji Multikoliner, karena terdapat
beberapa data yang signifikansinya di bawah 0,05

UJI NORMALITAS MENGGUNAKAN CARA SEKARANG (RESIDUAL)


Dengan di asumsikan variable IP sebagai variabel dependent, didapat nilai residual yang
dijadikan unsur uji normalitas, maka dihasilkan data seperti tabel berikut :
One-Sample Kolmogorov-Smirnov Test
Unstandardized
Residual
N 30
Mean ,0000000
Normal
Std. ,13392995
Parametersa,b
Deviation
Absolute ,078
Most Extreme
Positive ,078
Differences
Negative -,067
Kolmogorov-Smirnov Z ,427
Asymp. Sig. (2-tailed) ,993
a. Test distribution is Normal. Kesimpulan :
b. Calculated from data. Pada Tabel diatas signifikansinya
sebesar 0,993. Maka dapat disimpulkan
keseluruhan data (Tinggi badan, Berat badan, usia, serta nomor sepatu) tersebut terdistribusi
normal, karena nilai signifikansinya lebih dari 0,05.

2. Uji Linieritas
Uji linearitas dipergunakan untuk melihat apakah model yang dibangun mempunyai hubungan
linear atau tidak. Uji ini jarang digunakan pada berbagai penelitian, karena biasanya model
dibentuk berdasarkan telaah teoretis bahwa hubungan antara variabel bebas dengan variabel
terikatnya adalah linear. Hubungan antar variabel yang secara teori bukan merupakan hubungan
linear sebenarnya sudah tidak dapat dianalisis dengan regresi linear, misalnya masalah elastisitas.
Jika ada hubungan antara dua variabel yang belum diketahui apakah linear atau tidak, uji
linearitas tidak dapat digunakan untuk memberikan adjustment bahwa hubungan tersebut bersifat
linear atau tidak. Uji linearitas digunakan untuk mengkonfirmasikan apakah sifat linear antara
dua variabel yang diidentifikasikan secara teori sesuai atau tidak dengan hasil observasi yang
ada. Uji linearitas dapat menggunakan uji Durbin-Watson, Ramsey Test atau uji Lagrange
Multiplier.

Uji Heteroskedastisitas dengan Glejser


Pengujian heteroskedastisitas dengan metode grafik lazim dipergunakan meskipun menimbulkan
bias, karena pengamatan antara satu pengamat dengan pengamat lain bisa menimbulkan
perbedaan persepsi. Oleh karena itu, penggunaan uji statistik diharapkan menghilangkan unsur
bias tersebut. Salah satu uji statistik yang lazim dipergunakan adalah uji Glejser (di samping uji
yang lain, misalnya uji Park, atau uji White).
Uji Glejser dilakukan dengan meregresikan variabel-variabel bebas terhadap nilai absolut
residualnya (Gujarati, 2004). Sebagai pengertian dasar, residual adalah selisih antara nilai
observasi dengan nilai prediksi; dan absolut adalah nilai mutlaknya. Sebagai ilustrasi, berikut
adalah regresi antara kecerdasan emosional (KE) dan kecerdasan spiritual (KS) terhadap kinerja
auditor (KA)

KA = a + b1 KE + b2 KS

Langkah pertama adalah meregresikan KE dan KS (sebagai variabel independen) terhadap KA


(sebagai variabel dependen). Kemudian klik menu Save pada menu residual klik unstandardized.
Klik OK sehingga akan muncul nilai res_1 pada tabulasi data SPSS. Angka yang terdapat pada
kolom res_1 pada tabulasi SPSS merupakan nilai residual yaitu selisih antara KA hasil observasi
(kuesioner) dengan KA hasil prediksi pada persamaan di atas.

Langkah kedua adalah menghitung nilai absolut dari residual di atas. Jika dilakukan dengan
maka dengan menggunakan menu Transform --> compute. Pada baris Target variable isikan
abs_res yang berarti absolut residual. Kemudian klik pada function ABS(numexpr) sehingga
pada baris numeric expression akan keluar ABS(?). Isikan res_1 pada (?) lalu tekan OK,
sehingga pada kolom sebelah res_1 akan keluar abs_res yang berisi nilai absolut residual.
Selanjutnya adalah meregresikan KE dan KS dengan absolut residual, dan interpretasi
heteroskedastisitas dilakukan dengan melihat signifikansi antara KE dan KS secara parsial
terhadap abs_res. Gangguan heteroskedastisitas terjadi jika terdapat pengaruh yang signifikan
antara KE dan KS (salah satu atau keduanya) terhadap absolut residualnya.

Asumsi :
Ho : Tidak terdapat hubungan linear antar variabel (Nilai signifikansi Deviation from
Linearity nya lebih kecil dari 0,05)
Ha : Terdapat hubungan linear antar variabel (Nilai signifikansi Deviation from Linearity
nya lebih besar dari 0,05)

ANOVA Table
Sum of df Mean F Sig.
Squares Square
(Combined) ,381 18 ,021 ,980 ,532
Between Linearity ,030 1 ,030 1,375 ,266
IP * Groups Deviation from ,351 17 ,021 ,957 ,547
BB Linearity
Within Groups ,237 11 ,022
Total ,618 29

Kesimpulan :
Berdasarkan analisis SPSS, untuk variabel Berat Badan terhadap IP nilai sig Deviation from
Linearitynya sebesar 0,547 (lebih besar dari 0,05) artinya terdapat hubungan linear antara
variabel Berat badan dan IP . Jadi kesimpulannya Ha diterima dan Ho ditolak.

ANOVA Table
Sum of df Mean F Sig.
Squares Square
(Combined) ,398 18 ,022 1,101 ,449
Between Linearity ,004 1 ,004 ,186 ,675
Groups Deviation from ,394 17 ,023 1,154 ,414
IP *
TB Linearity
Within Groups ,221 11 ,020
Total ,618 29
Kesimpulan :
Berdasarkan analisis SPSS, untuk variabel Tinggi Badan terhadap IP Berdasarkan analisis
SPSS, untuk variabel Berat nilai sig Deviation from Linearitynya sebesar 0,414 (lebih besar
dari 0,05) artinya terdapat hubungan linear antara variabel Tinggi badan dan IP Jadi
kesimpulannya Ha diterima dan Ho ditolak.

ANOVA Table
Sum of df Mean F Sig.
Squares Square
(Combined) ,175 7 ,025 1,236 ,326
Between Linearity ,047 1 ,047 2,351 ,139
Groups Deviation from ,127 6 ,021 1,050 ,421
IP *
SEPATU Linearity
Within Groups ,444 22 ,020
Total ,618 29

Kesimpulan :
Berdasarkan analisis SPSS, untuk variabel Ukuran Sepatu terhadap IP nilai sig Deviation
from Linearitynya sebesar 0,421 (lebih besar dari 0,05) artinya terdapat hubungan linear
antara variabel Ukuran Sepatu dan IP. Jadi kesimpulannya Ha diterima dan Ho ditolak.

ANOVA Table
Sum of df Mean F Sig.
Squares Square
(Combined) ,040 3 ,013 ,593 ,625
Between Linearity ,026 1 ,026 1,147 ,294
Groups Deviation from ,014 2 ,007 ,315 ,732
IP *
USIA Linearity
Within Groups ,579 26 ,022
Total ,618 29

Kesimpulan :
Berdasarkan analisis SPSS, untuk variabel Usia terhadap IP nilai sig Deviation from
Linearitynya sebesar 0,732 (lebih besar dari 0,05) artinya terdapat hubungan linear antara
variabel Usia dan IP. Jadi kesimpulannya Ha diterima dan Ho ditolak.

Kesimpulan : Terdapat hubungan linear antar variable yang diteliti dalam penelitian ini

Uji linieritas juga bisa dilakukan dengan melihat scatterplot antara standar residual dengan
prediksinya. Bila sebaran tidak menunjukkan pola tertentu maka dikatakan asumsi linieritas
memenuhi syarat.
Hasil pengujian menunjukkan scatterplot tidak membentuk pola tertentu sehingga dapat
disimpulkan bahwa model pada penelitian ini memenuhi syarat untuk menjadi model yang baik
karena asumsi linieritasterpenuhi

3. Uji Multikolinearitas

Uji multikolinearitas adalah untuk menguji apakah pada model regresi ditemukan adanya
korelasi antar variabel independen. Jika terdapat atau terjadi korelasi, maka dinamakan terdapat
problem multikolinieritas (multiko). Model regresi yang baik seharusnya tidak terjadi kerelasi di
antara variabel independen. Jika ada korelasi yang tinggi di antara variabel-variabel bebasnya,
maka hubungan antara variabel bebas terhadap variabel terikatnya menjadi terganggu. Sebagai
ilustrasi, adalah model regresi dengan variabel bebasnya motivasi, kepemimpinan dan kepuasan
kerja dengan variabel terikatnya adalah kinerja. Logika sederhananya adalah bahwa model
tersebut untuk mencari pengaruh antara motivasi, kepemimpinan dan kepuasan kerja terhadap
kinerja. Jadi tidak boleh ada korelasi yang tinggi antara motivasi dengan kepemimpinan,
motivasi dengan kepuasan kerja atau antara kepemimpinan dengan kepuasan kerja.

Alat statistik yang sering dipergunakan untuk menguji gangguan multikolinearitas adalah dengan
variance inflation factor (VIF), korelasi pearson antara variabel-variabel bebas, atau dengan
melihat eigenvalues dan condition index (CI).

Beberapa alternatif cara untuk mengatasi masalah multikolinearitas adalah sebagai berikut:
1. Mengganti atau mengeluarkan variabel yang mempunyai korelasi yang tinggi.
2. Menambah jumlah observasi.
3. Mentransformasikan data ke dalam bentuk lain, misalnya logaritma natural, akar kuadrat atau
bentuk first difference delta.

Kasus:
Seorang peneliti ingin menguji asumsimultikolinieritas dari variabel Kinerja Karyawan (Y),
Struktur Organisasi (X1), Budaya Organisasi (X2) dan Kepemimpinan (X3).

Langkah-Langkah:
1) Masukkan data X1, X2, X3 dan Y yang terdapat pada lampiran.
2) Pilih menu Analyze kemudian submenu Regression, lalu pilih Linear.
3) Tampak di layar menu Linear Regression

 Pada kotak Dependent isikan variabel Y


 Pada kotak Independent isikan variabel X1, X2 dan X3
 Pada kotak Method pilih Enter
4) Untuk menampilkan matriks korelasi dan nilai tolerance serta VIF pilih Statistics di menu
kemudian akan muncul tampilan Windows Linear Regression: Statistics
 Aktifkan pilihan Covariancematrix dan ColliniearityDiagnostics
 Tekan Continue lalu Ok pada menu LinearRegression
5) Hasil output
Coefficientsa
Model CollinearityStatistics

Tolerance VIF

1 X1 ,299 3,348

X2 ,250 3,993

X3 ,703 1,423

a. DependentVariable: Y

Dari tabel Coefficients menunjukkan bahwa tidak ada variabel independen yang memiliki
nilai Tolerance kurang dari 0,100 yang berarti tidak ada korelasi antar variabel independen.
Dengan demikian dapat dikatakan bahwa tidak terjadi multikolinearitas.
Multikolinieritas juga diuji dengan menghitung nilai VIF (VarianceInflatingFactor). Bila nilai
VIF lebih kecil dari 5 maka tidak terjadi multikolinieritas. Semua nilai VIF pada
tabel Coefficients menunjukkan angka kurang dari 5. Dengan demikian dapat disimpulkan
bahwa model pada penelitian ini memenuhi syarat untuk menjadi model regresi yang baik karena
tidak terjadi korelasi antar variabel independen (non-multikolinearitas).
CoefficientCorrelationsa
Model X3 X1 X2

1 Correlations X3 1,000 ,134 -,420

X1 ,134 1,000 -,806

X2 -,420 -,806 1,000

Covariances X3 ,021 ,004 -,012

X1 ,004 ,041 -,032

X2 -,012 -,032 ,039

a. DependentVariable: Y

Melihat tabel CoefficientCorrelations tampak bahwa terjadi korelasi yang cukup tinggi antara
variabel X1 dan X2 dengan tingkat korelasi – 0,806 atau 80,6%. Karena nilainya masih di bawah
95% sehingga masih dapat dikatakan tidak terjadi multikolinearitas(non-multikolinearitas).

4. Uji Heteroskedastisitas

Uji heteroskedastisitas bertujuan untuk menguji apakah dalam model regresi terjadi atau
terdapat ketidaksamaan varians dari rersidual dari satu pengamatan ke pengamatan yang lain.
Jika varians dari nilai residual dari satu pengamatan ke pengamatan yang lain tetap, maka disebut
dengan Homokedastisitas. Dan jika varians berbeda dari satu pengamatan ke pengamatan yang
lainnya, maka disebut Heteroskedastisitas. Menurut Singgih Santoso dalam bukunya yang
berjudul Buku Latihan SPSS Statistik Parametrik, menyabutkan bahwa model regresi yang baik
adalah yang tidak terjadi Heteroskedastisitas, atau dengan kata lain model regresi yang baik
adalah yang Homokedastisitas.

Deteksi heteroskedastisitas dapat dilakukan dengan metode scatter plot dengan memplotkan nilai
ZPRED (nilai prediksi) dengan SRESID (nilai residualnya). Model yang baik didapatkan jika
tidak terdapat pola tertentu pada grafik, seperti mengumpul di tengah, menyempit kemudian
melebar atau sebaliknya melebar kemudian menyempit. Uji statistik yang dapat digunakan
adalah uji Glejser, uji Park atau uji White.

Beberapa alternatif solusi jika model menyalahi asumsi heteroskedastisitas adalah dengan
mentransformasikan ke dalam bentuk logaritma, yang hanya dapat dilakukan jika semua data
bernilai positif. Atau dapat juga dilakukan dengan membagi semua variabel dengan variabel
yang mengalami gangguan heteroskedastisitas.

Contoh Kasus 1:
Seorang peneliti ingin menguji asumsiheteroskedastisitas dari variabel Kinerja Karyawan (Y),
Struktur Organisasi (X1), Budaya Organisasi (X2) dan Kepemimpinan (X3).
Langkah-Langkah:
1) Masukkan data X1, X2, X3 dan Y yang terdapat pada lampiran.
2) Pilih menu Analyze kemudian submenu Regression, lalu pilih Linear.

3) Tampak di layar menu Linear Regression

 Pada kotak Dependent isikan variabel Y


 Pada kotak Independent isikan variabel X1, X2 dan X3
 Pada kotak Method pilih Enter
4) Pilih Plots di menu kemudian akan muncul tampilan Windows Linear Regression: Plots

 Masukkan variable*SRESID pada kotak pilihan Y


 Masukkan variable*ZPRED pada kotak pilihan X
 Tekan Continue lalu Ok pada menu Linear Regression

5) Hasil output
Dari grafik Scatterplot terlihat bahwa titik-titik menyebar secara acak serta tersebar baik diatas
maupun dibawah angka nol pada sumbu Y. Jadi dapat disimpulkan bahwa model pada penelitian
ini memenuhi syarat untuk menjadi model yang baik karena merupakan model yang
homoskedastisitas atau varians dari nilai residual pengamatan satu ke pengamatan yang lain
tetap.
Contoh Kasus 2
Output SPSS :
Coefficientsa
Model Unstandardized Coefficients Standardized t Sig.
Coefficients

B Std. Error Beta

(Constant) -,406 ,850 -,478 ,637

IP ,098 ,119 ,174 ,823 ,418

BB ,000 ,003 ,022 ,069 ,945


1
TB ,000 ,000 -,079 -,378 ,709

SEPATU ,011 ,013 ,254 ,811 ,425

USIA -,013 ,024 -,114 -,527 ,603


a. Dependent Variable: Absresidual
Ho : Data terkena heterokesdastisitas
Ha : Data tidak terkena heterokesdastisitas
Asumsi “ Jika nilai signifikansi di atas 0,05 maka data tersebut homokesdatisitas atau tidak
terkena heterokesdatisitas.”
Setelah di olah menggunakan SPSS, dengan Dependent Variable : Abs Residual. Maka dapat
diambil kesimpulan bahwa :
 Variabel IP tidak terkena Heteroskesdastisitas karena nilai signifikansinya di atas 0,05
yaitu sebesar 0,418. Jadi kesimpulannya Ha diterima dan Ho ditolak.
 Kemudian variabel Berat Badan juga tidak terkena heteroskesdastisitas karena nilai
signifikansinya di atas 0,05 yaitu sebesar 0,945 Jadi kesimpulannya Ha diterima dan Ho
ditolak.
 Variabel Tinggi Badan tidak terkena Heteroskesdastisitas karena nilai signifikansinya di
atas 0,05 yaitu sebesar 0,709. Jadi kesimpulannya Ha diterima dan Ho ditolak.
 Variabel Ukuran Sepatu tidak terkena Heteroskesdastisitas karena nilai signifikansinya di
atas 0,05 yaitu sebesar 0,425. Jadi kesimpulannya Ha diterima dan Ho ditolak.
 Variabel Usia tidak terkena Heteroskesdastisitas karena nilai signifikansinya di atas 0,05
yaitu sebesar 0,603. Jadi kesimpulannya Ha diterima dan Ho ditolak.

Kesimpulan : Data yang diteliti lolos Uji Heterokesdastisitas

5. Uji Autokorelasi
Uji autokorelasi bertujuan untuk menguji apakah dalam model regresi linear ada korelasi antara
kesalahan pengganggu pada periode t dengan kesalahan pengganggu pada periode sebelumnya.
Jika terjadi korelasi, maka dinamakan ada problem autokorelasi. Secara sederhana adalah bahwa
analisis regresi adalah untuk melihat pengaruh antara variabel bebas terhadap variabel terikat,
jadi tidak boleh ada korelasi antara observasi dengan data observasi sebelumnya. Sebagai contoh
adalah pengaruh antara tingkat inflasi bulanan terhadap nilai tukar rupiah terhadap dollar. Data
tingkat inflasi pada bulan tertentu, katakanlah bulan Februari, akan dipengaruhi oleh tingkat
inflasi bulan Januari. Berarti terdapat gangguan autokorelasi pada model tersebut. Contoh lain,
pengeluaran rutin dalam suatu rumah tangga. Ketika pada bulan Januari suatu keluarga
mengeluarkan belanja bulanan yang relatif tinggi, maka tanpa ada pengaruh dari apapun,
pengeluaran pada bulan Februari akan rendah.

Uji autokorelasi hanya dilakukan pada data time series (runtut waktu) dan tidak perlu dilakukan
pada data cross section seperti pada kuesioner di mana pengukuran semua variabel dilakukan
secara serempak pada saat yang bersamaan. Model regresi pada penelitian di Bursa Efek
Indonesia di mana periodenya lebih dari satu tahun biasanya memerlukan uji autokorelasi.

Beberapa uji statistik yang sering dipergunakan adalah uji Durbin-Watson, uji dengan Run Test
dan jika data observasi di atas 100 data sebaiknya menggunakan uji Lagrange Multiplier.
Beberapa cara untuk menanggulangi masalah autokorelasi adalah dengan mentransformasikan
data atau bisa juga dengan mengubah model regresi ke dalam bentuk persamaan beda umum
(generalized difference equation). Selain itu juga dapat dilakukan dengan memasukkan variabel
lag dari variabel terikatnya menjadi salah satu variabel bebas, sehingga data observasi menjadi
berkurang 1.
Kasus:
Seorang peneliti ingin menguji asumsiautokorelasi dari variabel Kinerja Karyawan (Y), Struktur
Organisasi (X1), Budaya Organisasi (X2) dan Kepemimpinan (X3).

Langkah-Langkah:
1) Masukkan data X1, X2, X3 dan Y yang terdapat pada lampiran.
2) Pilih menu Analyze kemudian submenu Regression, lalu pilih Linear.
3) Tampak di layar menu Linear Regression

 Pada kotak Dependent isikan variabel Y


 Pada kotak Independent isikan variabel X1, X2 dan X3
 Pada kotak Method pilih Enter
4) Pilih Statistics di menu kemudian akan muncul tampilan Windows Linear Regression:
Statistics

 Aktifkan pilihan Durbin-Watson


 Tekan Continue lalu Ok pada menu Linear Regression

5) Hasil output
Model Summaryb
Model Adjusted R Std. Error of Durbin-
R R Square Square theEstimate Watson

1 ,710a ,504 ,474 1,319 1,844

a. Predictors: (Constant), X3, X1, X2


b. DependentVariable: Y

Nilai DW sebesar 1,844 akan dibandingkan dengan nilai tabel yang memiliki signifikansi 5%,
jumlah sampel 54 dan jumlah variabel independen 3. Oleh karena nilai ini lebih besar dari batas
atas (du) 1,681 dan kurang dari 4-du, maka dapat disimpulkan tidak terdapat autokorelasi.

6. Uji Asumsi Heteroskedastisitas.


Uji ini bertujuan untuk menguji apakah dalam model regresi terjadi atau terdapat
ketidaksamaan varians dari rersidual dari satu pengamatan ke pengamatan yang lain. Jika varians
dari nilai residual dari satu pengamatan ke pengamatan yang lain tetap, maka disebut
dengan Homokedastisitas. Dan jika varians berbeda dari satu pengamatan ke pengamatan yang
lainnya, maka disebut Heteroskedastisitas. Menurut Singgih Santoso dalam bukunya yang
berjudul Buku Latihan SPSS Statistik Parametrik, menyabutkan bahwa model regresi yang baik
adalah yang tidak terjadi Heteroskedastisitas, atau dengan kata lain model regresi yang baik
adalah yang Homokedastisitas.
Kasus:
Seorang peneliti ingin menguji asumsiheteroskedastisitas dari variabel Kinerja Karyawan (Y),
Struktur Organisasi (X1), Budaya Organisasi (X2) dan Kepemimpinan (X3).

Langkah-Langkah:
6) Masukkan data X1, X2, X3 dan Y yang terdapat pada lampiran.
7) Pilih menu Analyze kemudian submenu Regression, lalu pilih Linear.

8) Tampak di layar menu Linear Regression


 Pada kotak Dependent isikan variabel Y
 Pada kotak Independent isikan variabel X1, X2 dan X3
 Pada kotak Method pilih Enter

9) Pilih Plots di menu kemudian akan muncul tampilan Windows Linear Regression: Plots

 Masukkanvariable*SRESID pada kotak pilihan Y


 Masukkanvariable*ZPRED pada kotak pilihan X
 Tekan Continue lalu Ok pada menu Linear Regression

10) Hasil output

Dari grafik Scatterplot terlihat bahwa titik-titik menyebar secara acak serta tersebar baik diatas
maupun dibawah angka nol pada sumbu Y. Jadi dapat disimpulkan bahwa model pada penelitian
ini memenuhi syarat untuk menjadi model yang baik karena merupakan model yang
homoskedastisitas atau varians dari nilai residual pengamatan satu ke pengamatan yang lain
tetap.
 Pindahkan variabel "Kualitas Pelayanan Pramuniag" ke kolom Variables

 Pilih Options dan tandai Kurtosis dan Skewness, lalu klik Continue dan klik Ok
 Output dari data tersebut adalah

Output di atas diperoleh nilai skewness -0,344 dan nilai kurtosis adalah 1,168. Sehingga kita bisa
menghitung nilai Z-Skewness dan Z-Kurtosis, sebagai berikut :

Z-Skewness = Skewness / sqrt(6/N) = -0,344 / sqrt(6/40) = -0,89


Atau nilai -1,96 < Z-Skewness = -0,89 < +1,96. Berarti kecondongan data adalah simetris atau
berdistribusi normal.

Z-Kurtosis = Kurtosis / sqrt(24/N) = 1,168 / sqrt(24/40) = 1,51

Atau nilai -1,96 < Z-Kurtosis = 1,51 < +1,96. Berarti keruncingan data adalah mesokurtik atau
memiliki distribusi normal.

Anda mungkin juga menyukai