Anda di halaman 1dari 5

TUGAS SIMULASI STATISTIK

PEMBANGKITAN PEUBAH ACAK KASUS REGRESI LINIER


DENGAN MULTIKOLINEARITAS

KELOMPOK 5 :

1. Nurul Aulia Rachman G14160026


2. Anggi Eka Putri C.R G14160027
3. Niftahus Sa’adah G14160028
4. Nadya Paramitha G14160029
5. Deka Widya Cahyati G14160030

DEPARTEMEN STATISTIKA
FAKULTAS MATEMATIKA DAN ILMU PENGETAHUAN ALAM
INSTITUT PERTANIAN BOGOR
2019
PENDAHULUAN
Analisis regresi linier merupakan suatu metode yang sering digunakan untuk
mengetahui hubungan atau pengaruh dari peubah penjelas terhadap peubah respon.
Peubah penjelas merupakan peubah yang nilainya tidak tergantung dari peubah lain
sehingga dapat dipilih secara bebas olen peneliti. Sedangkan peubah respon nilainya
bergantung dari satu atau lebih peubah lainnya. Dalam regresi berganda, salah satu asumsi
yang digunakan dalam metode OLS (Ordinary Least Squares) adalah tidak adanya
hubungan linier atar peubah penjelas. Adanya hubungan linier antar peubah penjelas
dalam regresi dinamakan dengan multikolinieritas. Dalam tugas ini akan dilakukan
pendeteksian multikolinieritas dalam regresi linier berganda dengan data yang
dibangkitkan menggunakan sebaran normal. Kemudian dilakukan pendeteksian
menggunakan nilai VIF.

TINJAUAN PUSTAKA
Pembangkitan Data Menggunakan Sebaran Normal

Regresi Linier Berganda

Analisis regesi merupakan metode dalam statistika yang digunakan dalam


mendeteksi hubungan atau pengaruh dari satu atau lebih peubah penjelas terhadap peubah
respon. Pada analisis regresi terdapat satu atau lebih peubah penjelas atau peubah bebas
yang dinotasikan sebagai X dan satu peubah respon yang dinotasikan sebagai Y. Jika
banyaknya peubah penjelas yang digunakan hanya satu maka model yang digunakan
adalah model regresi linier sederhana. Jika peubah penjelas yang digunakan lebih dari satu
(𝑋1 , 𝑋2 , ⋯ , 𝑋𝑛 ) maka model yang digunakan adalah model regresi linier berganda.
Sehingga bentuk umum dari regresi berganda dapat ditulis sebagai berikut :

𝑌𝑖 = 𝛽0 + 𝛽1 𝑋1𝑖 + 𝛽2 𝑋2𝑖 + ⋯ + 𝛽𝑘 𝑋𝑘𝑖 + 𝑒𝑖

Pada tugas ini pembangkitan data yang dilakukan hanya membangkitkan dua peubah
penjelas dan satu peubah respon. Sehingga model regresinya menjadi :

𝑌𝑖 = 𝛽0 + 𝛽1 𝑋1𝑖 + 𝛽2 𝑋2𝑖 + 𝑒𝑖

dengan Y adalah peubah respon, 𝑋1 , 𝑋2 adalah peubah penjelas, dan 𝑒𝑖 adalah error.
Indeks 𝑖 menujukkan observasi untuk data cross section, 𝛽0 disebut intersep, 𝛽1 dan 𝛽2
dalam regresi berganda disebut koefisien regresi parsial (Pakinde H dan Setiawan A
2009).

Terdapat beberapa asumsi yang harus dipenuhi dalam melakukan analisis regresi linier,
diantaranya :
1. Adanya hubungan linier antara peubah penjelas X dengan peubah respon Y.
2. Sisaan menyebar normal
3. Nilai harapan sisaan sama dengan nol
4. Ragam dari sisaan homogen
5. Antar sisaan saling bebas
6. Tidak terdapat multikolinieritas (hubungan linier antar peubah penjelas)
asumsi-asumsi tersebut digunakan untuk mendapatkan penduga yang tak bias dan terbaik.

Multikolinieritas

Hubungan linier antara peubah penjelas dalam regresi berganda dinamakan


multikolinieritas. Ada dua asumsi penting tentang sisaan yang akan mempengaruhi sifat
dari penduga yang BLUE (Best Linear Unbiased Estimator). Pertama, ragam dari sisaan
adalah konstan (homoskedastisitas). Kedua, tidak adanya korelasi atau hubungan antar
sisaan yang biasa disebut sebagai masalah autokorelasi. Jika kedua hal tersebut tidak
terpenuhi maka penduga yang kita dapatkan dalam metode OLS tidak lagi mengandung
sifat BLUE (Pakinde H dan Setiawan A 2009). Jika terdapat multikolinieritas diantara
peubah penjelas maka penduga bagi parameter model regresi dengan metode OLS akan
menghasilkan penduga yang tak bias, namun penduga tersebut memiliki ragam yang
besar. Ragam yang besar ini akan mengakibatkan pengujian hipotesis mengenai
signifikansi koefisien regresi cenderung menerima H0, yang berarti koefisien regresi
tersebut tidak berbeda nyata dengan nol (Nurhasanah 2012).
Ada beberapa metode yang dgunakan untuk mendeteksi masalah multikolinieritas
dalam suatu model regresi diantaranya menggunakan matriks korelasi, variance inflation
factors (VIF), serta R2(Nurhasanah 2012). Apabila nilai R2 tinggi katakanlah diatas 80 %,
tetapi hanya sedikit peubah penjelas yang signifikan mempengaruhi peubah respon
melalui uji t, sedangkan semua peubah penjelas secara simultan mempengaruhi peubah
respon melalui uji F, maka ini merupakan suatu gejala multikolinieritas (Pakinde H dan
Setiawan A 2009). Kemudian, apabila nilai VIF yang dihasilkan lebih dari 5 maka dapat
dicurigai bahwa asumsi multikolinieritas tidak terpenuhi. Penyelesaian masalah ini, telah
dikembangkan berbagai pendekatan, diantaranya menggunakan principal component
analysis (PCA), regresi ridge, regresi stepwise, serta regresi akar laten (laten root
regression) (Nurhasanah 2012).

PROSEDUR SIMULASI
Simulasi data yang dilakukan untuk memperoleh data dengan masalah
multikolinieritas. Pembangkitan data tersebut menggunakan ukuran contoh sebesar 100
dan 50, serta ragam sebesasar 5, 15, dan 100. Pembangkita data tersebut menggunakan
bantuan software R. Adapun tahapan yang dilakukan adalah sebagai berikut:

1. Membangkitkan X1 dan X2 menggunakan sebaran normal untuk n tertentu


2. Membangkitkan sisaan e ~ N (0,ragam), pembangkitan data untuk kondisi
multikolinearitas rendah, sedang, tinggi ditandai dengan melihat nilai R2
dengan mengubah nilai ragam yaitu 100, 15, dan 5.
3. Menentukan Y yang merupakan fungsi linear dari X1 dan X2 dimana Y = 2X1
+ X2 + 5 + e
4. Membuat persamaan regresi untuk masing-masing persamaan.
5. Mengecek multikolinearitas dengan R2, VIF, korelasi X1 dan X2

PEMBAHASAN

Analisis Regresi Berganda

Berdasarkan prosedur simulasi yang sudah ditetapkan, pembangkitan bilangan acak


dilakukan untuk 2 ukuran sampel dengan ragam untuk masing-masing ukuran sampel
yaitu 5, 15, dan 100. Jadi, hasil dari pembangkitan bilangan acak ini diperoleh enam data
frame
a. Data frame 1: n = 50, ragam = 5
Diperoleh model regresi berganda: 𝑌𝑖 = 5.10989 + 2.99249𝑋1𝑖 + 0.03989𝑋2𝑖

b. Data frame 2: n = 50, ragam = 15


Diperoleh model regresi berganda: 𝑌𝑖 = 5.10989 + 2.99566𝑋1𝑖 + 0.02303𝑋2𝑖

c. Data frame 3: n = 50, ragam = 100


Diperoleh model regresi berganda: 𝑌𝑖 = 5.10989 + 2.99832𝑋1𝑖 + 0.00892𝑋2𝑖

d. Data frame 4: n = 100, ragam = 5


Diperoleh model regresi berganda: 𝑌𝑖 = 5.04253 + 2.95742𝑋1𝑖 + 0.01190𝑋2𝑖

e. Data frame 5: n = 100, ragam = 15


Diperoleh model regresi berganda: 𝑌𝑖 = 5.04253 + 2.97542𝑋1𝑖 + 0.00687𝑋2𝑖

f. Data frame 6: n = 100, ragam = 100


Diperoleh model regresi berganda: 𝑌𝑖 = 5.04253 + 2.99048𝑋1𝑖 + 0.00266𝑋2𝑖

Tabel 1 Nilai VIF X1 dan X2


ragam 5 15 100
n=50 4.84602 4.84602 4.84602
n=100 4.22733 4.22733 4.22733

Tabel 2 Nilai Korelasi X1 dan X2

ragam 5 15 100
n=50 0.89087 0.91563 0.92859
n=100 0.88705 0.89836 0.90129

Berdasarkan Tabel 2, nilai X1 dan X2 memiliki nilai korelasi yang semakin meningkat
ketika ragam diperbesar. Nilai korelasi tertinggi didapat dengan membangkitkan ukuran
contoh sebesar 50 dan ragam 100 yang mencapai nilai korelasi 0.92859. Hal ini
membuktikan bahwa model regresi tersebut mengandung multikolinieritas.
KESIMPULAN

DAFTAR PUSTAKA

Nurhasanah. 2012. Metode Regresi dengan Iterasi HKB dalam Mengatasi


Multikolinieritas. Jurnal Matematika, Statistika, dan Komputasi. 8(2):129-135
Pakinde H dan Setiawan A. 2009. Studi Simulasi dan Studi Kasus Masalah
Multikolinieritas dalam Model Regresi Linier [paper]. Universitas Kristen Satya
Wacana. Salatiga

LAMPIRAN

Kodingan:

multikolinearitas <- function(n,sd)


{
set.seed(1234)
x1 <- sample(rnorm(n,0,sd))
x2 <- 2*x1+rnorm(n,0,sd)
e <- rnorm (n)
y <- 3*x1 + 5 + e
data.multikol <- data.frame(y,x1,x2)
return(data.multikol)
}

data1 <- multikolinearitas(100,sqrt(100))


View(data1)
regresi1 <- lm(y~.,data=data1)
summary(regresi1)
vif(regresi1)

Anda mungkin juga menyukai