Anda di halaman 1dari 79

Korelasi distances

Korelasi distances untuk melihat persamaan


atau perbedaan. Baik pasangan variabel atau
pasangaan kasus.
Tujuannya untuk mencari persamaan atau
perbedaan variabel atau kasus yang
dibandingkan
Korelasi distances bisa digunakan untuk jenis
data apapun
Misalkan kita ingin mengetahui kesamaan
pengaruh, motivasi, iklim organisasi terhadap
kinerja

Misalkan dari penelitian diperoleh data sebagai


berikut
Motivasi Ikrim Organisasi Kinerja
90 97 90
100 103 99
80 86 54
95 97 92
98 99 95
89 91 88
86
87
92
92
89
90 Mengerjakan dengan
korelasi distances,
105 101 98
135 142 100
150 153 101
75
78
80
83
81
79 jangan menantai
69 73 71
68
66
72
70
70
69
between variabel,
64
60
68
64
69
63 Similarities, dan pada
58 62 60
56
52
61
56
60
57
measures pilih Pearson
50
48
44
54
53
48
53
51
50
correlation
41 44 43
38 42 40
36 43 41
34 38 40
31 35 36
28 33 32
25 30 33
21 28 30
18 25 26
14 19 20
11 18 17
Jangan lupa buat dulu rumusan
masalahnya
1. Berapa besar korelasi antara motivasi dengan
kinerja
2. Berapa besar korelasi antara Iklim Organisasi
denan Kinerja
3. Bagaimana kesamaan nilai korelasi antara
motivasi dengan Iklim organisasi
Diperoleh hasil sbb
Dapat disimpulkan bahwa
1. Korelasi antara motivasi dengan kinerja sangat
kuat yaitu 0.949
2. Korelasi antara Iklim organisasi dengan kinerja
juga sangat kuat yaitu 0.942
3. Jika dibandingkan antara hasil korelasi Motivasi
dengan Kinerja dan antara Iklim organisasi
dengan Kinerja, maka korelasinya sangat kuat.
Jadi Motivasi dan Iklim organisasi mempunyai
kesamaan dalam menentukan kinerja
KULIAH KE 10
TENTU SEBELUMNYA KITA BICARA
REGRESI DAN KORELASI
REMIDIAL DULU
APA SYARAT KORELASI

APA FUNGSI ANOVA DALAM REGRESI

BAGAIMANA CARA UJI LINEARITAS

KALAU TIDAK LINEAR DI APAKAN ??


SEBELUMNYA JUGA PERLU
DIINGAT
• BILA DILAKUKAN UJI VALIDITAS DAN
REALIABILITAS (BAGAIMANA CARA
MELAKUKAN UJINYA)
• UNTUK APA GUNANYA UJI NORMALITAS DAN
HOMOGENITAS DAN BAGAIMANA
MELAKUKAN UJINYA
• INGAT TENTANG UJI ASUMSI DASAR LAINNYA
AUTOKORELASI
MULTIKOLINEARITAS
HETEROKEDASTISITAS
AUTOKORELASI
• Otokorelasi: korelasi antara variabel itu
sendiri, pada pengamatan yang berbeda
waktu atau individu. Umumnya kasus
otokorelasi banyak terjadi pada data time
series Kondisi sekarang dipengaruhi
waktu lalu. Misal: Tinggi badan, upah,
dsbnya.
• Salah satu alat deteksi: melihat pola
hubungan antara residual (ui) dan variabel
bebas atau waktu (X).
AUTOKORELASI
Dalam suatu model regresi asumsi yang harus
dipenuhi adalah tidak adanya autokorelasi antara
kesalahan pengganggu periode t dengan kesalahan
pengganggu pada periode (t – 1) atau tidak ada
serial korelasi.
mestinya E(eie j) = 0 untuk i  j

Sebab-sebab terjadinya
AUTOKORELASI antara lain adalah
(1) Kelambanan : Besar kemungkinan terjadi
pada data historis. Perubahan situasi ekonomi
biasanya tidak terjadi dengan segera, biasa
lamban, dan tergantng besarnya pengaruh
variabel-variabel yang ikut menentukan
panjangnya siklus dan kecepatan perubahan;
(2) Spesifikasi bias : Apabila dalam suatu model
tidak mengikutsertakan suatu atau beberapa
variabel, padahal variabel tersebut relevan, maka
dapat menimbulkan AUTOKORELASI
(penghilangan sejumlah variabel penjelas);
(3) Kesalahan spesifikasi bentuk model
matematis yang dipilih sebagai model
empiris : misalnya yang seharusnya model itu
non linier, tetapi dipaksa secara linier, maka akan
menimbulkan AUTOKORELASI pada kesa-
lahan pengganggu;
(4) Pengaruh time lag : apabila variabel
dependen tidak hanya dipengaruhi oleh variabel
independen, tetapi juga oleh variabel dependen
pada periode sebelumnya.
Masihada penyebab lain, misalnya
. Phenomena sarang laba-laba
. Adanya manipulasi data

Tapi ingat kebanyakan autokorelasi


terjadi pada data runtun waktu
(time series)
Akibat terjadinya autokorelasi
1.Interval konfidensi menjadi sangat lebar
2. Signifikansi tidak kuat
3. Variansi kesalahan variabel pengganggu S2
akan underestimate untuk 2
4. Penggunaan uji t atau F tidak lagi syah (valid)
5. dll
Pengujian AUTOKORELASI
Cara untuk menguji apakah model
tersebut bersifat Autokorelasi atau
tidak, dapat dipergunakan Uji Durbin –
Watson.
Untuk mendeteksi adanya AUTOKORELASI
Durbin – Watson mempergunakan rumus :

 e  e 
2
t t 1
d t 2

e t 1
2
t

Cara pengujian :
(a) Uji AUTOKORELASI positif,
(b) Uji autokorlasi negatif,
(c) Uji AUTOKORELASI dua sisi.
Uji AUTOKORELASI positif
Durbin – Watson menyatakan bahwa apabila
angka statistik d  0, maka ada
AUTOKORELASI positif.
Ho : Tidak ada AUTOKORELASI positif
Ha : Ada AUTOKORELASI positif

Dengan :
d < dL berarti d adalah bermakna (signifikan)
sehingga menerima hipotesis alternatif yang
menyatakan ADA AUTOKORELASI positif.

d > dU berarti d adalah tidak bermakna (tidak


signifikan) sehingga menerima hipotesis nol
yang menyatakan positif TIDAK ADA
AUTOKORELASI
dL < d < dU berarti pengujian tidak dapat
memberikan keputusan (inconclusive --- ragu-
ragu)
d

TIDAK ADA
ADA AUTOKORELASI AUTOKORELASI
positif

dL dU
tidak dapat
memberikan keputusan
Uji AUTOKORELASI negatif

Pada kasus AUTOKORELASI negatif , pengujiannya


adalah :
d > 4 – dL berarti d adalah bermakna (signifikan) sehingga
menerima hipotesis alternatif yang menyatakan ada
AUTOKORELASI negatif.
d < 4 – dU berarti d adalah tidak bermakna (tidak signi-
fikan) sehingga menerima hipotesis nol yang
menyatakan tidak ada AUTOKORELASI negatif.
4 – dU < d < 4 – dL berarti pengujian tidak dapat membe-
rikan keputusan (inconclusive --- ragu-ragu)
tidak ada ADA
AUTOKORELASI AUTOKORELASI
negatif negatif

dL dU 4-dU 4-dL
?????
Uji AUTOKORELASI dua sisi

Pada kasus AUTOKORELASI uji dua sisi , pengujiannya


adalah :
d < dL berarti d adalah bermakna (signifikan) sehingga
menerima hipotesis yang menyatakan
ada AUTOKORELASI.
d > 4 – dL berarti d adalah bermakna (signifikan) sehingga
menerima hipotesis yang menyatakan
ada AUTOKORELASI
dU < d < 4 – dU berarti ?????
ADA
AUTOKORELASI
ADA
AUTOKORELASI

dL dU 4-dU 4-dL

?????
Statistik Durbin-Watson (D-W)
• Persamaan:
DW 
 t t 1
( e - e ) 2

 t
e 2

• Nilai kiraan mungkin di antara 0 dan 4.


Positif Tak Muktamat Tiada Autokorelasi Tak Muktamat Negatif

Tidak tahu Tidak tahu

Korelasi positif Tidak ada korelasi Korelasi negatif

T. Ramayah
0 dL dU 4-dU
Kaedah Penyelidikan Perniagaan
4-dL 4
PANDUAN LAIN, uji Autokorelasi dan uji
Kolinearitas dapat ditentukan dengan Durbin-
Waltson (DW) sebagai berikut

1.65 < DW < 2.35 Tidak terjadi Autokorelasi

1.21 < DW < 1.65 atau 2.35 < DW < 2.79 Tidak
dapat disimpulkan

DW < 1.21 atau DW > 2.79 terjadi Autokorelasi


MENGATASI
Banyak caraAUTOKORELASI
yang dapat ditempuh tapi sangat
memerlukan perhitungan matemati yang rumit,
Cara yang agak sederhana yang dapat ditempuh
adalah sebagai berikut :

Pertama-tama hitung nilai  yaitu :

atau

Yang kanan lebih banyak digunakan


Kemudian hitung nilai xi , yi yang baru dengan
Rumus berikut

Kemudian hitung lagi regresinya

Sebetulnya banyak model lain


Silakan baca buku
Untuk pengecekan dengan menggunakan SPSS
Lakukan seperti mengerjakan Regresi dan
jangan lupa mengklik boks statistik (Durbin-
Watson)
KOLINEARITAS
(multikolinearitas)
• ADANYA HUBUNGAN LINEAR YANG
SEMPURNA ANTARA VARIABEL-VARIABEL
BEBAS
• KOLINEARITAS BERARTI HUBUNGAN BERARTI
HUBUNGAN LINEAR TUNGGAL.
• KOLINEARITAS GANDA (MULTIKOLINEARITAS)
MENUNJUKKAN ADANYA LEBIH DARI SATU
HUBUNGAN LINEAR YANG SEMPURNA
• APABILA HANYA ADA 2 VARIABEL, INTER
KORELASI DIUKUR DENGAN KOEFISIEN KORELASI
SEDERHANA
• JIKA DUA VARIABEL ATAU LEBIH , INTERKORELASI
DAPAT DI UKUR DENGAN KOEFISIEN KORELASI
PARSIAL ATAU KOEFISIEN KORELASI BERGANDA
ANTARA VARIABEL BEBAS DENGAN SISA
VARIABEL LAINNYA
• DALAM REGRESI LINEAR HARUS DIANGGAP
BAHWA TIDAK ADA KOLINEARITAS GANDA
DIANTARA VARIABEL BEBAS DENGAN ALASAN
APABILA KOLINEARITAS SEMPURNA TERJADI PAPA
A1X1 + A2X2 + . . .+ An Xn = 0, MAKA KOEFISIEN
TIDAK DAPAT DITENTUKAN DAN STANTARD
ERRORNYA MENJADI TAK HINGGA.
TAPI KALAU PADA
A1X1 + A2X2 + . . .+ An Xn +VI= 0
DENGAN VI = KESALAHAN PENGGANGGU, JUGA
AKAN MEMPUNYAI STANTARD ERROR YANG
TINGGI.
Pada prakteknya, hampir mustahil variabel-
variabel yang benar-benar tidak
berhubugan.
• Kita mau menunjukkan bahwa multikolinearitas
tidak berpengaruh terhadap kemampuan
persamaan regresi berganda untuk memprediksi
variabel terikat.
• Jadi kita mesti mengurangi dampak dari
multikolinearitas tersebut
UJI MULTIKOLINEARITAS
(MENDETEKSI KOLINEARITAS GANDA)

Multikolinieritas dapat dideteksi dengan menghitung koefisien


korelasi ganda dan membandingkannya dengan koefisien korelasi
antar variabel bebas.
Sebagai contoh, diambil kasus regresi x1, x2, x3, x4 terhadap y.
Pertama dihitung Ry, x1x2x3x4. Setelah itu, dihitung korelasi antar
enam pasang variabel bebas, yaitu rx1x2, rx1x3, rx1x4, rx2x3,
rx2x4, dan rx3x4. Apabila salah satu darikoefisien korelasi itu
sangat kuat, maka dilanjutkan dengan menghitung koefisien
korelasi ganda dari masing-masing variabel bebas dengan 3
variabel bebas lainnya, yaitu Rx1, x2x3x4; Rx2, x1x3x4;
Rx3,x1x2x4; dan Rx4, x1x2x3. Apabila beberapa koefisien korelasi
tersebut mendekati Ry, x1x2x3x4, maka dikatakan terjadi
multikolinieritas.
Jika ada koefisien korelasi yang sangat tinggi,
maka mesti dilanjutkan dengan menghitung
Koefisien korelasi ganda antar variabel bebas
Yaitu Rx1,x2x3x4 , Rx2, x1x3x4 Rx3,x1x2x4 Rx4,x1x2x3

Jika ada nilainya yang mendekati Ry,x1x2x3x4


maka berarti terjadi multikolinearitas

Repot juga melakukan hal di atas


• Kalau kita menggunakan faktor inflasi variansi
VIF (Variance Inflation Factor)

• Dengan rj2 adalah koefisien determinasi,


maka bila rj = 0.7, maka rj2 =0.49 sehingga
1 - rj2 = 0.51 yang mengakibatkan VIF < 2, itu
sebanya jika nilai r terletak -0.7  r  0.7 di
anggap tidak masalah untuk menggunakan
variabel-variabel bebas tersebut
Jika 0.7 < r  1, ada masalah kolinearitas
Uji multikolonieritas dengan SPSS dilakukan
dengan uji regresi, dengan patokan nilai VIF
(variance inflation factor) dan koefisien korelasi
antar variabel bebas. Kriteria yang digunakan
adalah:
1)jika nila VIF di sekitar angka 1 atau memiliki
toerance mendekati 1, maka dikatakan tidak
terdapat masalah multikolinieritas dalam model
regresi;
2) jika koefisien korelasi antarvariabel bebas
kurang dari 0,5, maka tidak terdapat masalah
multikolinieritas.
Uji multikolinearitas, autokorelasi secara
bersama-sama
Lakukan regresi linear ,Pada statistik pilih
Estimates
Covariance matrik
Model Fit
Descriptives
Colinearity diagnostic
Dusbin-Watson
Jangan lupa *SRESID Pada Y dan *ZPRED pada X
Juga klik Normal Probability plot
• Colinearity Diagnostic untuk pengecekan
Muliticolinearity
• Durbin-Watson untuk pengecekan
Autokorelasi

• Perhatikan hasilnya
Kalau kita ambil patokan -0.7  r  0.7 maka tidak
ada masalah dengan multicolinearitas, tapi kalau
dipilih r < 0.5, baru timbul masalah
Ingat kembali
dengan patokan nilai VIF
(variance inflation factor) dan koefisien korelasi
antar variabel bebas. Kriteria yang digunakan
adalah:
1)jika nila VIF di sekitar angka 1 atau memiliki
toerance mendekati 1, maka dikatakan tidak
terdapat masalah multikolinieritas dalam model
regresi;
2) jika koefisien korelasi antarvariabel bebas
kurang dari 0,5, maka tidak terdapat masalah
multikolinieritas.
Karena nilai VIF semuanya berkisar di angka 1,
maka dapat disimpulkan tidak ada masalah
dengan multikolinearitas
Alat ukur lain yaitu nilai tolerasi > 0.1
Dan nilai VIF < 10

(contoh lain lihat buku Nisfiannoor M hal 176-


182)
Ingat kembali, uji Autokorelasi dan uji
Kolinearitas dapat ditentukan dengan Durbin-
Waltson (DW) sebagai berikut

1.65 < DW < 2.35 Tidak terjadi Autokorelasi

1.21 < DW < 1.65 atau 2.35 < DW < 2.79 Tidak
dapat disimpulkan

DW < 1.21 atau DW > 2.79 terjadi Autokorelasi


Statistik Durbin-Watson (D-W)
• Persamaan:

DW 
 t t 1
( e - e ) 2

 e 2
t
• Nilai kiraan mungkin di antara 0 dan 4.
Positif Tak Muktamat Tiada Autokorelasi Tak Muktamat Negatif

0 dl du 4 - du 4 - dl 4
• Nilai 2 menunjukkan tiada autokorelasi manakala 0 dan 4
menunjukkan autokorelasi sempurna positif dan negatif

T. Ramayah Kaedah Penyelidikan Perniagaan


DW = 2.269, jadi tidak masalah dg autokorelasi

Yang terbaik, bandingkan nilai DW dengan tabel


Durbin-Watson
Jika nilai DW > nilai di tabel DW, maka tidak ada
masalah dengan autokorelasi
Cara di atas, masih memberikan indikasi
yang kurang jelas, untuk itu ada cara lain yang
lebih kongkrit, yaitu dengan menggunakan uji
korelasi (parsial)
Silakan coba data tadi dengan menggunakan uji
korelasi parsial

Jangan lupa memasukkan variabel Y pada


variabel yang di kontrol

Diperoleh hasil sebagai berikut


Mana diantara hubungan variabel yang sig < 
berarti terjadi multikolinearitas
MENGATASI KOLINEARITAS GANDA
(MULITKOLINEARITAS)
INGAT TIDAK SATUPUN CARA YANG TEPAT
UNTUK MENGATASINYA. KARENA
KOLINEARITAS GANDA MERUPAKAN
PERSOALAN SAMPEL.

HANYA ADA BEBERAPA ATURAN/CARA YANG


DAPAT DITEMPUH
1. MISALKAN Y= a0 + a1X1 + a2X2 + I
DENGAN : Y = KINERJA
X1 = MOTIVASI
X2 = IKLIM ORGANISASI
TELAH ADA KAJIAN SEBELUMNYA BAHWA
MOTIVASI DAN IKLIM ORGANISASI
MEMPUNYAI KOLINEARITAS YANG TINGGI,
SEHNGGA a2 = 0.2 a1 , MAKA ROBAH MODEL
REKRESINYA MENJADI
Y = a0 + a1X1 + 0.2a1X2 + I
= a0 + aXI + I
DENGAN XI = (X2 +0.2X3)
2. MENGGABUNGKAN DATA CROSS SECTION
DAN BERKALA
DATA PENAMPANG (CROSS SECTION ) ADALAH
DATA YANG MENGAMBARKAN KEADAAN
PADA SUATU WAKTU TERTENTU
DATA BERKALA DATA YANG MENGGAMBARKAN
PERKEMBANGAN DARI WAKTU KE WAKTU
INGAT DATA BERKALA CENDERUNG AKAN
MENGAKIBATKAN KORELASI YANG TINGGI
MAU TAU RUMUS STAT NYA
Ln Y= a0 + a1LnX1 + a2 Ln X2 +  a
ROBAH
I MENJADI

Y*= a0 + a1LnX + I
m
DENGAN
p
Y* = LN Y - a2 Ln X2
u
n
3. Mengeluarkan satu variabel atau lebih dan
kesalahan spesifikasi
Misalkan dari persamaan Y= a0 + a1X1 + a2X2 + I
Keluarkan variabel X1 maka persamaannya
menjadi
Y= a0 + a2X2 + I

Mesti memberikan alasan yang cukup mengapa


X1 yang di keluarkan
Ingat dengan menghilangkan salah satu var,
akan terjadi kesalahan specifikasi
• Hal di atas di lakukan jika
• Jika nila VIF > 10, maka dianggap bahwa kita
mesti membuang variabel-variabel bebas
tersebut

• Bisakah anda pikirkan berapakah


nilai r sehingga nilai VIF > 10 ????
4. Transformasi variabel (ini banyak dilakukan
untuk variabel data time series
Yt = a0 + a1X1t + a2X2t + t
Yt-1 = a0 + a1X1t-1 + a2X2t-1 + t
Maka
Yt - Yt-1 = a1(X1t -X1t-1 ) + a2 (X2t - X2t-1 )+Vt
5. Penambahan data baru

• Metoda ini yang paling sederhana untuk di


gunakan
Mengatasi Multikolinearitas

Sekarang metoda ini yang paling


banyak digunakan
Regresi ridge
Dengan regresi ridge

Y = a0 + a1X1 + a2X2 + + anXn


Di Transformasi menjadi :
n
skj   xik  xk xij  x j 

Y* = b0 + b1Z1 + b2Z2 + + bnZn


i 1

Transformasi datanya menjadi :


yi  y * xi  x
*
y  z 
i
n  1s yy
ij
n  1s jj
HETEROSKEDASTISITAS
• SALAH SATU ASUMSI DASAR LAIN YANG
PENTING UNTUK MODEL REGRESI KLASIK
ADALAH ERROR (VAR PENGGANGGU)
MEMPUNYAI VARIANSI YANG SAMA ARTINYA
VAR (I) = E (I) = 2
• INI DISEBUT DENGAN HOMOSKEDASDIK
• MASALAHNYA BAGAIMAN KALAU HAL DI ATAS
ILUSTRASI HETEROSKEDASTISITAS
PADAHAL DALAM KEADAAN MONOSKEDASTIK
MESTILAH

VAR (I) = E (I) = 2

KALAU TERJADI HETEROSKEDASTISITAS, MAKA


BIAS AKAN TINGGI
MENDETEKSI
HETEROKEDASTISITAS
INGAT JUGA TIDAK ADA CARA/METODA YANG
PASTI UNTUK MENDETEKSINYA

MAKA YANG ADA HANYA ALTERNATIF UNTUK


MENDETEKSINYA
BEBERAPA CARA MENDETEKSINYA
1. SIFAT PERSOALAN
2. METODA GRAFIK

Curvelinier Tak tentu

Curvelinier Curvelinier
positif negatif
Pola Grafik
ui2

i
Pengamatan:
1.Tidak adanya pola yang sistematis.
2.Berapapun nilai Y prediksi, residual kuadratnya relatif sama.
3.Variansi konstan, dan data homoskedastis.
Pola Adanya Heteroskedastisitas

ui2 u i2

i
i
Pola sistematis
3. Uji Park

• Prinsip: memanfaatkan bentuk regresi untuk


melihat adanya heteroskedastisitas.
• Langkah-langkah yang dikenalkan Park:
1. Run regresi Yi = 0 + 0Xi + ui
2. Hitung ln ui2
3. Run regresi ln ui2 =  +  ln Xi + vi

4. Lakukan uji-t. Bila  signifikan, maka ada


heteroskedastisitas dalam data.
4. Uji Glejser

Banyak rumus lain lagi


5. Uji korelasi rank spearman’s
  d i2 
rs  1  6  2 

 n n  1 
Dengan nilai t hitung adalah
rs n  2
t
1  r 
s
2

Hipotesa diterima jika th >tt


• Kalau tak mampu juga dengan rumus di
atas, lakukan dengan menggunakan
SPSS

• Silakan di coba di rumah dan pada


waktunya akan saya minta secara acak
untuk mempresentasikannya
Atau perhatikan cara berikut
• Silakan masukka ke SPSS data yang akan anda
lakukan uji Heterokedastisitas
• Analyz e Regresion linear dst

• Pindahkan variabel y ke dependent list dan


variabel x ke faktor list. Selanjutnya, pilih
kotak dialog plots, dan masukkan *SRESID ke
Y dan *ZPRED ke X,
Uji multikolinearitas
Multikolinearitas muncul ketika variabel-
variabel bebasnya saling berkorelasi.
Variabel-variabel bebas yang berkorelasi
membuat kita sulit mengambil kesimpulan
tentang masing-masing koefisien regresinya
dan masing-masing dampaknya terhadap
variabel terikat.
Regresi berjenjang
• Pertama-tama buat regresi linear sederhana
dengan memilih variabel bebas yang
korelasinya paling besar dengan variabel Y,
• Lanjutnya dengan menambahkan variabel
bebas lainnya yang korelasinya paling besar ke
2 dst
• Buang variabel yang menyebabkan
multikolinearitas (hati-hati memilihnya)
Cari dulu korelasi antara y dengan semua variabel bebas
<
korelasi antar enam pasang variabel bebas, yaitu rx1x2,
rx1x3, rx1x4, rx2x3, rx2x4, dan rx3x4.

Anda mungkin juga menyukai