Ringkasan Materi Statistika Multivariat - 0119121002 - Harry Christ Even Sibarani
Ringkasan Materi Statistika Multivariat - 0119121002 - Harry Christ Even Sibarani
i yˆi yi
Syarat 1 :
Residual atau Error adalah variabel random yang berdistribusi Normal dengan
means 0 dan varians tertentu N(0,2)
Syarat 2 :
adanya homoscedasticity, yang artinya varians Y sama untuk beberapa nilai X
dapat dilihat melalui plot antara error ( ) dengan nilai ( )
Jik plot tersebut tidak berpola, berarti syarat ini terpenuhi
Syarat 3 :
Tidak ada otokorelasi antar residual
Digunakan uji Durbin-Watson untuk melihat kondisi otokorelasi
Fungsi :
Melihat ada tidaknya otokorelasi
Hipotesis :
H0 : tidak ada otokorelasi ( = 0 )
H1 : ada otokorelasi ( 0 )
Uji Statistika
n
e eu 1
2
u
d u 2
n
e
u 1
2
u
Uji Durbin-Watson
Pengambilan Keputusan:
Untuk mengambil kesimpulan digunakan tabel D-W
H0 ditolak pada taraf 2, jika:
d<dL atau 4-d<dL
H0 diterima pada taraf 2, jika:
d>dU dan 4-d>dU
Jika tidak keduanya, tidak dapat disimpulkan
Uji Residual (pada regresi Linier)
Syarat 4 (untuk regresi Linier Ganda):
Tidak ada multicollinearity atau hubungan linier yang sempurna antar variabel
independent
Digunakan uji korelasi untuk melihat kondisi multicollinearity
Koefisien Determinan (pada regresi Linier)
Perhitungan R2 :
JKR
R2
JKT
(n 1) R 2 k
R 2
adjusted
n k 1
3. Pokok Bahasan: Regresi Linear Berganda
Regresi Linear Berganda adalah model regresi linear dengan melibatkan lebih dari
satu variable bebas atau predictor. Dalam bahasa inggris, istilah ini disebut
dengan multiple linear regression.
Perbedaan antara regresi berganda dengan regresi sederhana. Pada dasarnya regresi
linear berganda adalah model prediksi atau peramalan dengan
menggunakan data berskala interval atau rasio serta terdapat lebih dari satu predictor.
Skala data yang dimaksud diatas adalah pada semua variabel terutama variable terikat.
Pada regresi linear, tidak menutup kemungkinan digunakannya data dummy pada
variable bebas. Yaitu pada regresi linear dengan dummy.
Asumsi klasik pada regresi linear berganda antara lain: Data interval atau rasio,
linearitas, normalitas, non outlier, homoskedastisitas, non multikolinearitas dan non
autokorelasi.
Linearitas
Ada hubungan linear antara variable bebas dengan variable terikat. Asumsi linearitas
diuji dengan uji linearitas regresi, misalnya dengan kurva estimasi.
Dengan kurva estimasi kita bisa tentukan ada hubungan linear atau tidak dengan
melihat nilai p value linearitas. Jika p value < 0,05 maka terdapat hubungan yang
linear antara predictor dan response.
Untuk uji linearitas regresi, kami sudah membahasnya pada artikel yang telah lalu,
yaitu artikel linearitas regresi.
Normalitas Residual
Residual adalah beda antara y dengan y prediksi. Y adalah variable terikat, sedangkan
y prediksi adalah Y hasil persamaan regresi yang dibuat. Sehingga residual dibangun
dengan rumus: y – y prediksi.
Asumsi normalitas pada regresi linear adalah pada residualnya, bukan pada data per
variabelnya.
Uji Asumsi normalitas regresi linear dapat diuji dengan berbagai metode uji
normalitas, seperti uji Shapiro wilk, lilliefors atau Kolmogorov smirnov, Anderson
darling, ryan joiner, Shapiro francia, jarque bera, skewness kurtosis test dan berbagai
jenis uji normalitas lainnya.
Berbagai jenis uji normalitas tersebut sudah saya bahas secara tuntas dalam berbagai
artikel yang telah saya rilis sebelumnya. Silahkan dipelajari untuk menambah
wawasan anda.
Non Outlier
Outlier disebut dengan data pencilan atau data yang nilainya extreme atau lain dari
pada yang lainnya. Batasan outlier atau tidak bisa dilihat dari nilai absolut studentized
residual. Jika absolut studentized residual > 3 maka sampel atau observasi yang
dimaksud menjadi outlier.
Homoskedastisitas
Homoskedastisitas adalah sebuah kondisi dimana varians dari error bersifat konstan
atau tetap. Dengan kata lain bahwa varians dari error bersifat identic untuk setiap
pengamatan.
Non Multikolinearitas
Multikolinearitas adalah keadaan dimana terdapat interkorelasi atau korelasi kuat
antar variable bebas di dalam model. Dinyatakan ada interkorelasi jika korelasi antar
variable bebas di dalam model regresi linear berganda > 0,8. Beberapa pakar
menggunakan batasan lebih dari 0,9.
Cara lain yang lebih objektif adalah dengan menggunakan nilai variance inflating
factor (VIF) dan tolerance. Dikatakan ada multikolinearitas jika nilai VIF > 10
dan/atau nilai tolerance < 0,01.
Berdasarkan uraian diatas, maka jelas sekali bahwa asumsi multikolinearitas hanya
ada dalam regresi linear berganda dan tidak ada pada regresi linear sederhana. Sebab
pada regresi linear berganda ada lebih dari satu vriabel bebas, sedangkan pada regresi
linear sederhana hanya ada satu variable bebas
Non Autokorelasi
Autokorelasi dapat diartikan bahwa terdapat korelasi antar waktu. Sehingga bisa
diartikan dengan mudah bahwa autokorelasi ini sering terjadi pada regresi linear
berganda dengan data time series atau runtun waktu. Dan jarang sekali terjadi pada
data cross section.
Data runtun waktu ini misalnya data return saham sebuah perusahaan per bulan dari
tahun 2012 sd 2017.
Sedangkan data cross section, misalnya data hasil dari kuesioner yang disebarkan
pada semua siswa sebuah kelas, dimana hanya diukur satu kali saja.
Uji autokorelasi ini bisa diuji dengan menggunakan nilai Durbin Watson (DW) dan
run test. Jika menggunakan uji Durbin Watson, dikatakan tidak ada autokorelasi jika
nilai DW hitung > Batas atas DW table dan (4 – DW Hitung) > Batas atas DW Tabel
Cara lain adalah dengan menggunakan diagram Normal Probability Plot seperti di bawah ini
Gejala heteroskedastisitas dapat ditentukan dengan diagram scatter antara variabel Y prediksi
(Fits) dengan variabel residual.
Heteroskedastisitas Residual Minitab
Dapat disimpulkan tidak ada gejala heteroskedastisitas apabila plot menyebar merata di atas
dan di bawah sumbu 0 tanpa membentuk sebuah pola tertentu. Diagram di atas dapat
menyimpulkan bahwa tidak terdapat gejala heteroskedastisitas.
Untuk mendeteksi adanya gejala multikolinearitas dapat dilihat nilai VIF pada gambar output
di atas. Dikatakan tidak ada gejala multikolinearitas apabila VIF < 5. Di atas VIF 1,458,
1,202 dan 1,326 dimana kurang dari 5 maka tidak ada gejala multikolinearitas.
Autokorelasi Pada Interprestasi Regresi Linear
Uji F Regresi
Uji F pada regresi berfungsi sebagai uji simultan, yaitu untuk menentukan apakah secara
serentak semua variabel independen mempunyai pengaruh yang bermakna terhadap variabel
dependen dapat dilihat dari nilai uji F. Disimpulkan ada pengaruh apabila nilai P value
kurang dari batas kritis penelitian atau alpha. Misalnya pada uji ini, lihat output session 1,
nilai P Regression pada Analysis of Variance sebesar 0,000 di mana < 0,05 maka
disimpulkan bahwa secara simultan variabel independen mempunyai pengaruh bermakna
terhadap variabel dependen.
T Parsial
T parsial digunakan untuk mengetahui apakah variabel independen yang di dalam model
regresi mempunyai pengaruh secara individu terhadap variabel dependen dengan
memperhatikan keberadaan variabel lain di dalam model. Nilai t parsial dapat dilihat melalui
nilai t pada output session 1 di atas. Dinyatakan ada pengaruh parsial apabila nilai p value (P)
kurang dari batas kritis penelitian atau alpha. Di atas semua variabel independen nilai p value
t parsial < 0,05 maka semua ada pengaruh secara individu terhadap Y dengan memperhatikan
variabel lain.
Persamaan Regresi
Untuk membuat persamaan regresi maka kita menggunakan nilai koefisien beta variabel
independen dengan cara melihat nilai Coef pada output session 1 atau pada worksheet lihat
ada variabel baru disebelah kanan residual dengan nama COEF1. Secara berurutan dari atas
ke bawah:
Konstanta: 1,072
X1: 0,29613
X2: 0,14130
X3: 0,46880
Atau mudahnya dalam minitab ini anda dapat langsung melihat melalui “The regression
equation is” pada output session 1, di mana dalam uji ini hasilnya:
Apabila variabel lain bernilai konstan maka Nilai Y akan berubah dengan
sendirinya sebesar nilai konstanta yaitu 1,20.
Apabila variabel lain bernilai konstan maka Nilai Y akan berubah sebesar 0,296
setiap satu satuan X1.
Apabila variabel lain bernilai konstan maka Nilai Y akan berubah sebesar 0,141
setiap satu satuan X2.
Apabila variabel lain bernilai konstan maka Nilai Y akan berubah sebesar 0,469
setiap satu satuan X3.
R Square
R Square disebut juga dengan Koefisien Determinasi Berganda. R Square di dalam mintab
ditunjukkan dengan nilai R-Sq di mana pada uji ini nilainya dapat dilihat di output session 1
yaitu sebesar 63,8% artinya variabel Y dapat dijelaskan oleh sekelompok variabel independen
x1, x2 dan x3 secara serentak atau simultan sebesar 63,8% sedangkan sisanya (100%-
63,8%=36,2%) dijelaskan oleh variabel lain di luar model yang tidak diteliti.