Anda di halaman 1dari 9

Tugas Kelompok

ASUMSI REGRESI LINIER BERGANDA

OLEH :

KELOMPOK : III (TIGA)

ANGGOTA KELOMPOK : 1. NENENG JUNITA LANDE


2. NUR RAHMAH
3. RENALDI HARDIANSAH
4. RISKA NAWATI NUR
5. SAFIRA NUR ADHAN
6. SITTI HARDIANTI
7. SITTI ZUHRA WATI
8. SRI FITRIYANTI REZKI
9. SYEYIN ALIKA NASIR
10. ZASKIYANA ETIKA SARI

PROGRAM STUDI S1 STATISTIKA


FAKULTAS MATEMATIKA DAN ILMU PENGETAHUAN ALAM
UNIVERITAS HALUOLEO
KENDARI
2021
Soal :
1. Carilah asumsi yang digunakan dalm regresi linier berganda lalu tentukan :
a. Bagaimana cara mendeteksinya!
b. Bagaimana cara mengatasinya!
Jawab :
1. Pengujian Asumsi Analisis Regresi Berganda
Menurut Imam Ghozali (2011), uji asumsi klasik terhadap model regresi
linier dilakukan agar dapat diketahui apakah model regresi baik atau tidak.
Tujuan pengujian asumsi klasik adalah untuk memberikan kepastian bahwa
persamaan regresi yang diperoleh memiliki ketepatan dalam estimasi, tidak bias,
dan konsisten. Ini disebut dengan kriteria BLUE (Best Linear Unbiased
Estimator). Sebelum melakukan analisis regresi terlebih dahulu dilakukan
pengujian asumsi. Asumsi-asumsi yang harus dipenuhi dalam analisis regresi
antara lain: normalitas, heteroskedastisitas, autokorelasi, multikolinieritas, dan
linearitas.
a. Uji Normalitas
Menurut Ghozali (2016) uji normalitas dilakukan untuk menguji apakah
pada suatu model regresi, suatu variabel independen dan variabel dependen
ataupun keduanya mempunyai distribusi normal atau tidak normal. Apabila
suatu variabel tidak berdistribusi secara normal, maka hasil uji statistik akan
mengalami penurunan. Disini, yang diuji adalah residual atau galat baku
regresinya.
Cara dalam mendeteksi apakah residual memiliki distribusi normal atau
tidak adalah dengan analisis grafik (P-P Plot) dan uji Kolmogorov-
Smirnov .
Analisis grafik ini salah satu cara termudah untuk mengetahui normalitas
dengan melihat histogram yang membandingkan antara data observasi
dengan distribusi yang mendekati distribusi normal. Dasar pengambilan
keputusan dalam analisis ini sebagai berikut:
▪ Apabila data menyebar disekitar garis diagonal serta mengikuti arah
garis diagonal atau grafik histogramnya hal ini menujukkan bahwa pola
distribusi normal, maka model regresi memenuhi asumsi normalitas.
▪ Apabila data menyebar jauh dari garis diagonal dan ataupun tidak
mengikuti arah garis diagonal atau grafik histogram hal ini tidak
menunjukkan bahwa pola distribusi normal, maka model regresi tidak
memenuhi asumsi normalitas.
Uji Kolmogrof-Smirnov (KS). Menurut Suliyanto (2011: 75) dasar
pengambilan keputusan dari analisis ini apakah model regresi memenuhi
asumsi normalitas sebagai berikut:
▪ Apabila nilai Sig > alpha (0.05) maka nilai residual bersdistribsi normal
▪ Apabila nilai Sig < alpha(0.05) maka nilai residual berdistribusi tidak
normal.
Cara mengatasi data yang tidak berdistribusi normal adalah sebagai
berikut :
Membuang outliers
Salah satu alasan mengapa data kita tidak normal adalah adanya outliers.
Outliers adalah data yang memiliki skor ekstrem, baik ekstrem tinggi
maupun ekstrem rendah. Adanya outliers dapat membuat distribusi skor
condong ke kiri atau ke kanan. Beberapa ahli menilai data outliers ini
lebih baik kita buang, karena ada kemungkinan subjek mengerjakan
dengan asal-asalan, selain itu adanya data outliers juga mengacaukan
pengujian statistik.
Transformasi Data
Jika beberapa ahli tidak setuju dengan cara menghapus data-data ekstrem,
cara lain yang bisa ditempuh adalah dengan transformasi data.
Transformasi data dilakukan dengan mengubah data kita dengan formula
tertentu tergantung dari bentuk grafik kita.
Mengubah Analisis ke Non-Parametrik
Cara terakhir jika dengan menghapus outliers dan men-transformasi data
kita belum berhasil adalah dengan mengubah teknik analisis kita ke
analisis non-parametrik. Analisis non-parametrik tidak memerlukan
asumsi normalitas seperti yang diperlukan pada analisis parametrik.
Meskipun demikian, power test analisis non-parametrik ini tentu lebih
lemah jika dibandingkan dengan analisis parametrik.
Analisis Analisis Non Fungsi
Parametrik Parametrik
Paired sample t- Uji tanda Meneliti perbedaan
test Uji Wilcoxon dalam suatu kelompok

Independent Uji Man Whitney Membandingkan dua sample


sample t-test U; bebas
Anova satu jalur Kruskal-Wallis Membandingkan tiga
kelompok atau lebih
Anova dua jalur Anava dua jalur Membandingkan tiga
Friedman kelompok atau lebih dengan
menggunakan dua faktor yang
berbeda
Korelasi Korelasi Mengetahui hubungan
Pearson peringkat korelasi linier antara dua
Spearman perubah

b. Uji Heteroskedastisitas
Menurut Ghozali (2017:47) heteroskedastisitas memiliki arti bahwa
terdapat varian variabel pada model regresi yang tidak sama. Uji
heteroskedastisitas bertujuan untuk menguji apakah dalam model regresi
terjadi ketidaksamaan variansi dari residual satu pengamatan ke pengamatan
yang lain. Apabila varians sama, disebut homoskedastisitas. Untuk model
penelitian yang baik adalah yang tidak terdapat heteroskedastisitas (Ghozali,
2016)
Untuk mendeteksi adanya masalah heterodekedastitas dapat
menggunakan metode analisis grafik dan bisa juga uji Breusch-Pagan.
Metode grafik ini dilakukan dengan melihat grafik plot antara nilai
prediksi variabel dependen yaitu ZPRED dengan residualnya SRESID
(Ghozali 2017: 49). Dasar pengambilan keputusan metode ini yaitu:
▪ Apabila terdapat pola tertentu, seperti titik-titik yang ada membentuk
pola tertentu yang teratur (bergelombang, melebar kemudian
menyempit), maka menunjukkan bahwa telah terjadi
heteroskedastisitas.
▪ Apabila tidak terdapat pola yang jelas, serta titik-titik menyebar diatas
dan dibawah angka 0 pada sumbu Y secara acak, maka tidak terjadi
heteroskedastisitas
Uji Breusch-Pagan adalah uji untuk mendeteksi adanya
heteroskesdatisitas dalam suatu model yang merupakan penyempurnaan
uji Goldfeld-Quandt. Uji G-Q memiliki kemampuan yang memuaskan
untuk diterapkan pada sampel kecil sedangkan BP-G test dapat
diterapkan dengan baik untuk sampel besar. Uji Breusch Pagan bertujuan
untuk melihat apakah terdapat efek cross section/time series atau
keduanya di dalam data panel. Kriteria pengujian hioptesis pada uji ini
adalah :
𝐻0 : tidak ada gejala heteroskedastisitas
𝐻1 : ada gejala heteroskedastisitas
Dasar pengambilan keputusannya :
▪ Apabila Probabilitas Breusch-Pagan < alpha (0,05), maka H0 ditolak
dan H1 diterima.
▪ Apabila Probabilitas Breusch-Pagan > alpha (0,05), maka H0 diterima
dan H1 ditolak.
Persoalan heteroskedastisitas dapat diatasi dengan metode WLS
(Weighted Least Square), yaitu dengan menggunakan pembobot dalam model
regresi yang dilakukan. Pemilihan terhadap suatu faktor untuk pembobotan
tergantung bagaimana sisaan regresi berkorelasi dengan X atau Y. Jika sisaan
proporsional terhadap 𝑋𝑖 maka model akan dibagi dengan √𝑋𝑖 dan jika sisaan
adalah proporsional dengan 𝑋𝑖 2 sehingga model akan dibagi dengan 𝑋𝑖 .
selain proporsional dengan 𝑋𝑖 dan 𝑋𝑖 2 bisa juga diasumsikan bahwa pola
variansisaan adalah proporsional dengan [𝐸(𝑌𝑖 )]2 sehingga dibagi dengan
𝐸(𝑌𝑖 ). Sesungguhnya pembobot yang diberikan bergantung pada pola
sebaran sisaan terhadap variabel bebas maupun variabel terikat dengan
1 1 1 1
pembobotan , , ,
√𝑋𝑖 𝑋𝑖 2 𝐸(𝑌𝑖 ) 𝜎𝑖

c. Uji Multikolinieritas
Uji multikolinearitas ini dimaksudkan untuk menguji apakah terdapat
korelasi yang tinggi atau sempurna antara variabel bebas atau tidak dalam
model regresi. Efek dari multikolinearitas ini adalah menyebabkan tingginya
variabel pada sampel. Hal tersebut berarti standar error besar.
Untuk mendeteksi adanya korelasi yang tinggi antar variabel independen
dapat dilakukan cara salah satunya menggunakan Tolerance dan Variance
Inflation Factor (VIF). Menurut Ghazali (2017: 36) tolerance mengukur
variabilitas variabel independen terpilih yang tidak dijelaskan oleh variabel
independen lainnya. Jadi, tolerance yang rendah sama dengan nilai VIF yang
tinggi. Asumsi dari Tolerance dan Variance Inflation Factor (VIF) dapat
dinyatakan sebagai berikut:
▪ Jika VIF > 10 dan nilai Tolerance < 0.10 maka terjadi multikolinearitas.
Semakin tinggi nilai VIF-nya maka semakin serius permasalahan
multikolinearitasnya
▪ Jika VIF < 10 dan nilai Tolerance > 0.10 maka tidak terjadi
multikolinearitas.
Cara lainnya adalah dengan menghitung koefisien korelasi antara sesama
variabel prediktor. Jika nilai koefisien korelasi melebihi 0,8 maka ini
mengindikasikan adanya masalah kolinearitas di dalam regresi.
Cara mengatasi multikolinearitas adalah sebagai berikut :
Jika jumlah variabel banyak, maka kita dapat melakukan Analisis Faktor
sebelum regresi. Setelah analisis faktor, variabel baru yang terbentuk kita
gunakan sebagai variabel di dalam model regresi.
Dengan cara memilih salah satu diantara variabel bebas yang berkorelasi
kuat. Oleh karena itu, sebelumnya anda harus mencari variabel yang nilai
VIFnya tinggi dan nilai korelasinya dengan variabel bebas lainnya kuat.
Melakukan operasi matematis antar variabel bebas yang berkorelasi kuat
sehingga didapat variabel baru hasil operasi tersebut yang kemudian
dimasukkan ke dalam model regresi sebagai perwakilan dari variabel
yang menjadi sumber operasi matematis tersebut.
d. Uji Autokorelasi
Aautokorelasi dapat muncul karena observasi yang berurutan sepanjang
waktu yang berkaitan satu sama lainnya. Permasalahan ini muncul karena
residual tidak bebas pada satu observasi ke observasi lainnya. Uji autokorelasi
menunjukkan apakah terdapat korelasi antara kesalahan pengganggu pada
periode t dengan kesalahan pada periode t-1. Model regresi yang dianggap baik
apabila terlepas dari autokorelasi.
Pada data runtut waktu (time series), autokorelasi seringkali ditemukan
karena adanya “gangguan” pada seseorang atau individu/kelompok cenderung
mempengaruhi “gangguan” pada individu atau kelompok yang sama pada
periode berikutnya. Sedangkan, pada data crosssection (silang waktu),
autokorelasi relatif jarang terjadi karena “gangguan” pada observasi yang
berbeda berasal dari individu kelompok yang berbeda.
Untuk mendeteksi terdapat atau tidaknya autokorelasi adalah dengan
melakukan uji Durbin Watson dan Run-test.
Ada atau tidaknya autokorelasi dapat diketahui dari nilai d (koefisien DW).
Pengujian dilakukan dengan menggunakan uji durbin watson dengan
hipotesis :
𝐻0 = 0 , maka tidak ada autokorelasi
𝐻1 ≠ 0, maka ada autokorelasi
Hasil perhitungan durbin watson kemudian dibandingkan dengan nilai
DW kritis. Tabel titik kritis durbin watson d pada α = 5% atau 0,05 (n =
ukuran sampel dan k = banyaknya variabel independen dalam regresi).
Hasil perbandingan akan menghasilkan kesimpulan sebagai berikut:
1) Jika DW ≤ dL (batas bawah) atau DW ≥ 4-dL Tolak 𝐻0 berarti terdapat
autokorelasi..
2) Jika du ≤ DW ≤ 4-du, Terima 𝐻0 berarti tidak terdapat autokorelasi
positif/negatif.
3) Jika 4-du ≤ DW≤ 4-dL, maka tidak dapat diputuskan apakah Tolak
𝐻0 atau Terima 𝐻0 sehigga tidak disimpulkan ada tidaknya korelasi .
Biasa disebut daerah keragu-raguan; tidak ada keputusan.
Uji Run test dengan menggunakan bantuan software SPSS, yaitu dilihat
dari nilai Asymp.Sig. Ketentuannya adalah :
1) Apabila nilai Asymp.Sig > α artinya terima 𝐻0 sehingga disimpulkan
bahwa model regresi tidak terdapat autokolerasi.
2) Apabila nilai Asymp.Sig < α artinya tolak 𝐻0 sehingga disimpulkan
bahwa model regresi terdapat autokolerasi.
Cara mengatasi uji autokorelasi dapat dilakukan berdasarkan penjelasan
berikut:
Banyak cara yang dapat dilakukan dalam transformasi untuk mengatasi
masalah autokorelasi. Pemilihan cara transformasi tersebut dipengaruhi oleh
“diketahui atau tidak diketahuinya koefisien autokorelasi (p).” Koefisien
korelasi (p) disebut juga dengan istilah “Rho“. Jika koefisien autokorelasi
diketahui maka tinggal menyelesaikan dengan cara transformasi. Sedangkan
jika tidak diketahui maka cara penyelesaiannya dengan terlebih dahulu
menaksir koefisien autokorelasi dengan rnenggunakan berbagai metode,
antara lain metode Durbin Watson, Theil-Nagar, atau Cochrane-Orcutt.
Setelah koefisien autokorelasi diketahui, maka langkah selanjutnya
adalah melakukan transformasi. Kemudian dari data hasil transformasi,
dilakukan pendeteksian ulang untuk mendeteksi ada atau tidaknya
autokorelasi. Jika pada data hasil transformasi masih terdapat autokorelasi,
maka dilakukan transformasi ulang sampai tidak terdapat autokorelasi.
Setelah diperoleh data yang terhindar dan autokorelasi, langkah selanjutnya
menerapkan dengan metode Ordinary Least Squares (OLS) untuk
menentukan koefisien-koefisien regresinya.

e. Uji Linieritas
Uji Linearitas bertujuan untuk mengetahui apakah dua variable
mempunyai hubungan yang linear atau tidak secara signifikan.Pengujian ini
melihat bagaimana variable (X) mempengaruhi variable (Y), baik itu pengaruh
berbanding lurus maupun berbanding terbalik.Uji ini biasanya digunakan
sebagai prasyarat dalam analisis korelasi atau regresi linear.
Uji linearitas dapat dilakukan melalui test of linearity. Kriteria yang
berlaku adalah :
▪ jika nilai signifikansi pada linearity ≤ 0,05, maka antara variabel bebas dan
variabel terikat terdapat hubungan yang linear.
▪ jika nilai signifikansi pada linearity > 0,05, maka antara variabel bebas dan
variabel terikat tidak terdapat hubungan yang linear.
Cara mengatasi uji linearitas pada data yang kita miliki dapat dilakukan
dengan beberapa cara berikut ini:
Ada hubungan linear antara variable bebas dengan variable terikat. Asumsi
linearitas diuji dengan uji linearitas regresi, misalnya dengan kurva estimasi.
Dengan kurva estimasi kita bisa tentukan ada hubungan linear atau tidak
dengan melihat nilai p value linearitas. Jika p value < 0,05 maka terdapat
hubungan yang linear antara predictor dan response. Perhatikan kolom Sig
pada tabel pertama, jika nilainya < 5% maka persamaan yang terbentuk
dapat / layak digunakan untuk proses estimasi. Sedangkan bentuk kurva yang
non linier (parabola) mengindikasikan bahwa persamaan yang terbentuk layak
digunakan untuk proses estimasi. Untuk melakukan proses estimasi maka
bentuk terlebih dahulu.

Anda mungkin juga menyukai