Anda di halaman 1dari 12

, TUGAS EKONOMETRIKA

REGRESI LINEAR BERGANDA METODE OLS

Dosen Pengampu :
Dr. Dewi Rahayu, SE, MP

Oleh:
Ferry Febrian (1710311310014)

PROGRAM STUDI: ILMU EKONOMI & STUDI PEMBANGUNAN


FAKULTAS EKONOMI DAN BISNIS
UNIVERSITAS LAMBUNG MANGKURAT
BANJARMASIN
2019
A. Pengertian Regresi Berganda
Analisis regresi merupakan analisis statistika yang digunakan untuk
mengetahui hubungan antara variabel dependen dengan varibel independen.
Apabila hanya terdapat satu variabel independen disebut analisis regresi
sederhana, sedangkan apabila terdapat beberapa variabel independen disebut
analisis regresi ganda. Regresi linear OLS adalah sebuah model regresi linear
dengan metode perhitungan kuadrat terkecil atau yang di dalam bahasa inggris
disebut dengan istilah ordinary least square. Di dalam model regresi ini, ada
beberapa syarat yang harus dipenuhi agar model peramalan yang dibuat
menjadi valid sebagai alat peramalan. Syarat-syarat tersebut apabila dipenuhi
semuanya, maka model regresi linear tersebut dikatakan BLUE. BLUE adalah
singkatan dari Best Linear Unbiased Estimation. Salah satu metode yang cukup
familiar yang biasa digunakan untuk mengestimasi paramater dalam regresi
linier adalah Metode Ordinary Least Square atau Metode Kuadrat Terkecil.
Tujuan dari metode ini adalah meminimumkan jumlah residual kuadrat. Nilai
minimum sebuah fungsi dapat dicari dengan melakukan penurunan dari fungsi
tersebut.
Dalam mengkaji hubungan antara beberapa variabel menggunakan
analisis regresi, terlebih dahulu peneliti menentukan satu variabel yang disebut
dengan variabel tidak bebas dan satu atau lebih variabel bebas. Jika ingin dikaji
hubungan atau pengaruh satu variabel bebas terhadap variabel tak bebas, maka
model regresi yang digunakan model regresi linear sederhana. Kemudian jika
ingin dikaji hubungan atau pengaruh dua atau lebih variabel bebas terhadap
variabel tak bebas, maka model regresi yang digunakan adalah model regresi
linear berganda (multiple linear regression model). Kemudian untuk
mendapatkan model regresi linear sederhana maupun model regresi linear
berganda dapat diperoleh dengan melakukan estimasi terhadap parameter-
parameternya menggunakan metode tertentu. Adapun metode yang dapat
digunakan untuk mengestimasi parameter model regresi linier sederhana
maupun model regresi linier berganda adalah dengan metode kuadrat terkecil
(ordinary least square/OLS) dan metode kemungkinan maksimum (maximum
likelihood estimation/MLE) (Kutner et.al, 2004).
B. Jenis-Jenis Regresi Berganda
a. Regresi Linier Berganda
Pada dasarnya regresi linear berganda adalah model prediksi atau
peramalan dengan menggunakan data berskala interval atau rasio serta
terdapat lebih dari satu predictor. Sedangkan jika jumlah variable bebas
hanya ada satu saja, maka itu disebut dengan regresi linear sederhana.
Skala data yang dimaksud diatas adalah pada semua variabel terutama
variable terikat. Pada regresi linear, tidak menutup kemungkinan
digunakannya data dummy pada variable bebas. Yaitu pada regresi linear
dengan variabel dummy.
Contoh: “pengaruh ROA, ROE dan NPM Terhadap Return Saham.”
Persamaan model regresi linear berganda sebagai berikut:
Y = α + β1 X2 + β2 X2 + βn Xn + e
Keterangan:
Y = Variabel terikat atau response.
X = Variabel bebas atau predictor.
α = Konstanta.
β = Slope atau Koefisien estimate.

b. Regresi Logistik Berganda


Regresi Logistik berganda adalah model regresi berganda jika variabel
terikatnya adalah data dikotomi. Dikotomi artinya dalam bentuk kategorik
dengan jumlah kategori sebanyak 2 kategori. Misal: laki-laki dan perempuan,
baik dan buruk, ya dan tidak, benar dan salah serta banyak lagi contoh
lainnya.
Sedangkan variabel bebas jenis regresi berganda ini pada umumnya
adalah juga variabel dikotomi. Namun tidak masalah jika variabel dalam
skala data interval, rasio, ordinal maupun multinomial. Ada dua metode yang
sering dipakai dalam jenis regresi berganda ini, yaitu metode logit dan probit.
Contoh: “Pengaruh rokok dan jenis kelamin terhadap kejadian kanker
paru.” Dimana rokok kategorinya ya dan tidak, jenis kelamin kategorinya laki-
laki dan perempuan, sedangkan kejadian kanker paru kategorinya ya dan
tidak.

c. Regresi Ordinal berganda


Regresi berganda jenis ini adalah analisis regresi dimana variabel terikat
adalah berskala data ordinal. Sedangkan variabel bebas pada umumnya juga
ordinal, namun tidak masalah jika variabel dengan skala data yang lain, baik
kuantitatif maupun kualitatif. Keunikan regresi ini adalah jika variabel bebas
adalah data kategorik atau kualitatif, maka disebut sebagai faktor.
Sedangkan jika data numerik atau kuantitatif, maka disebut sebagai
covariates.
Ada 5 metode perhitungan jenis regresi ordinal :
1) Logit dengan persamaan: f(x) = log(x/(1-x))
Jenis ini digunakan pada sebagian besar distribusi data. Maka
aplikasi SPSS secara default atau bawaan aslinya menggunakan
option link jenis Logit ini.
2) Negative Log-log dengan persamaan f(x) = -log(-log(x))
Jenis ini digunakan apabila data mempunyai kecenderungan bernilai
rendah,
3) Complementary Log-log dengan persamaan f(x) = log(-log(1-x))
Jenis ini digunakan apabila data mempunyai kecenderungan bernilai
tinggi,
4) Cauchit (Inverse Cauchy) dengan persamaan f(x) = tan(Phi(x-0,5))
Jenis ini digunakan apabila variabel latent mempunyai nilai yang
ekstrim,
5) Probit dengan persamaan f(x) = O-1 (x) dengan O-1 adalah fungsi
inverse distribusi kumulatif standar normal
Jenis ini digunakan apabila variabel latent terdistribusi secara normal.
Contoh: “Pengaruh tingkat penghasilan dan usia terhadap tingkat
pengetahuan terhadap IT”. Dimana tingkat penghasilan sebagai faktor
dengan kategori: rendah, menengah dan tinggi. Usia sebagai covariates
dengan skala data numerik. Dan tingkat pengetahuan terhadap IT sebagai
variabel terikat berskala data ordinal dengan kategori: baik, cukup dan
kurang.

d. Regresi Multinomial Berganda


Regresi multinomial berganda adalah jenis regresi dimana variabel terikat
adalah data nominal dengan jumlah kategori lebih dari 2 (dua) dan variabel
bebas ada lebih dari satu variabel.
Jenis regresi ini hampir sama dengan regresi logistik berganda, namun
bedanya adalah variabel terikat kategorinya lebih dari dua, sedangkan
regresi logistik berganda variabel terikatnya mempunyai kategori hanya dua
(dikotomi).
Regresi ini juga mirip dengan regresi ordinal, hanya saja bedanya skala
data pada regresi ini tidak bertingkat (bukan ordinal) atau dengan kata lain
tidak ada yang lebih baik atau lebih buruk.
Contoh: “Pengaruh Pendidikan Orang Tua dan Penghasilan Orang Tua
terhadap pilihan jurusan kuliah”. Dimana pendidikan dan penghasilan orang
tua berskala data ordinal dan pilihan jurusan kuliah adalah variabel berskala
data nominal lebih dari dua kategori, yaitu: jurusan kesehatan, hukum, sosial,
sastra, pendidikan, lain-lain.

e. Regresi Data Panel Berganda


Dari jenis-jenis di atas, sebenarnya masih ada jenis lain yang merupakan
pengembangan dari jenis-jenis di atas, yaitu dengan adanya kompleksitas
berupa data time series atau runtut waktu, atau data panel. Seperti yang
terjadi pada regresi data panel ataupun regresi cochrane orcutt.
C. Asumsi-Asumsi Klasik Metode OLS
Adapun asumsi-asumsi klasik Metode Ordinary Least Square atau Metode
Kuadrat Terkecil adalah sebagai berikut :
1. Asumsi 1
Hubungan antara variabel dependen (Y) dan variabel independen (X) adalah
linier dalam parameter.

2. Asumsi 2
Variabel independen (X) adalah variabel yang tidak acak atau tidak random
(non stochastic). Jika variabel independennya lebih dari satu di dalam regresi
berganda maka diasumsikan antara variabel independen dengan variabel
independen lainnya tidak memiliki hubungan yang mutlak (tidak terjadi
multikolinieritas).

3. Asumsi 3
Nilai harapan (expected value) atau rata-rata dari variabel
gangguan adalah nol atau dapat dinyatakan sebagai berikut :

Karena mengasumsikan bahwa nilai harapan dari Y hanya dipengaruhi oleh


variabl independen yang ada atau dapat dinyatakan sebagai berikut :

4. Asumsi 4
Varian dari variabel gangguan adalah sama (homoskedastisitas) atau
dapat dinyatakan sebagai berikut :

5. Asumsi 5
Tidak ada serial korelasi antara gangguan atau gangguan tidak saling
berhubungan dengan yang lain (non autokorelasi) atau dapat dinyatakan
sebagai berikut :

6. Asumsi 6
Variabel gangguan berdistribusi normal atau dapat dinyatakan sebagai
berikut :

Asumsi 1 sampai 5 dikenal dengan model regresi regresi linier klasik.


Dengan asumsi-asumsi di atas pada model regresi linier klasik, model
kuadrat terkecil (OLS) memiliki sifat ideal yang dikenal dengan Teorema
Gauss Markov. Sehingga Metode Kuadrat Terkecil (OLS) akan menghasilkan
estimator yang memiliki sifat tidak bias, linier dan mempunyai varians yang
minimum ( Best Linier Unbiased Estimators = BLUE ).

D. Uji Asumsi Klasik


Uji asumsi klasik adalah persyaratan statistik yang harus dipenuhi pada
analisis regresi linear berganda yang berbasis ordinary least square (OLS). Jadi
analisis regresi yang tidak berdasarkan OLS tidak memerlukan persyaratan
asumsi klasik, misalnya regresi logistik atau regresi ordinal. Demikian juga tidak
semua uji asumsi klasik harus dilakukan pada analisis regresi linear, misalnya uji
multikolinearitas tidak dilakukan pada analisis regresi linear sederhana dan uji
autokorelasi tidak perlu diterapkan pada data cross sectional.
Uji asumsi klasik juga tidak perlu dilakukan untuk analisis regresi linear yang
bertujuan untuk menghitung nilai pada variabel tertentu. Misalnya nilai return
saham yang dihitung dengan market model, atau market adjusted model. Tujuan
pengujian asumsi klasik ini adalah untuk memberikan kepastian bahwa
persamaan regresi yang didapatkan memiliki ketepatan dalam estimasi, tidak
bias dan konsisten.
Uji asumsi klasik yang sering digunakan yaitu uji multikolinearitas, uji
heteroskedastisitas, uji normalitas, uji autokorelasi dan uji linearitas. Tidak ada
ketentuan yang pasti tentang urutan uji mana dulu yang harus dipenuhi. Analisis
dapat dilakukan tergantung pada data yang ada. Sebagai contoh, dilakukan
analisis terhadap semua uji asumsi klasik, lalu dilihat mana yang tidak memenuhi
persyaratan. Kemudian dilakukan perbaikan pada uji tersebut, dan setelah
memenuhi persyaratan, dilakukan pengujian pada uji yang lain.

1. Uji Normalitas
Uji normalitas adalah untuk melihat apakah nilai residual terdistribusi
normal atau tidak. Model regresi yang baik adalah memiliki nilai residual yang
terdistribusi normal. Jadi uji normalitas bukan dilakukan pada masing-masing
variabel tetapi pada nilai residualnya. Sering terjadi kesalahan yang jamak
yaitu bahwa uji normalitas dilakukan pada masing-masing variabel. Hal ini
tidak dilarang tetapi model regresi memerlukan normalitas pada nilai
residualnya bukan pada masing-masing variabel penelitian.
Pengertian normal secara sederhana dapat dianalogikan dengan
sebuah kelas. Dalam kelas siswa yang bodoh sekali dan pandai sekali
jumlahnya hanya sedikit dan sebagian besar berada pada kategori sedang
atau rata-rata. Jika kelas tersebut bodoh semua maka tidak normal, atau
sekolah luar biasa. Dan sebaliknya jika suatu kelas banyak yang pandai
maka kelas tersebut tidak normal atau merupakan kelas unggulan.
Pengamatan data yang normal akan memberikan nilai ekstrim rendah dan
ekstrim tinggi yang sedikit dan kebanyakan mengumpul di tengah. Demikian
juga nilai rata-rata, modus dan median relatif dekat.
Uji normalitas dapat dilakukan dengan uji histogram, uji normal P Plot,
uji Chi Square, Skewness dan Kurtosis atau uji Kolmogorov Smirnov. Tidak
ada metode yang paling baik atau paling tepat. Tipsnya adalah bahwa
pengujian dengan metode grafik sering menimbulkan perbedaan persepsi di
antara beberapa pengamat, sehingga penggunaan uji normalitas dengan uji
statistik bebas dari keragu-raguan, meskipun tidak ada jaminan bahwa
pengujian dengan uji statistik lebih baik dari pada pengujian dengan metode
grafik.
Jika residual tidak normal tetapi dekat dengan nilai kritis (misalnya
signifikansi Kolmogorov Smirnov sebesar 0,049) maka dapat dicoba dengan
metode lain yang mungkin memberikan justifikasi normal. Tetapi jika jauh
dari nilai normal, maka dapat dilakukan beberapa langkah yaitu: melakukan
transformasi data, melakukan trimming data outliers atau menambah data
observasi. Transformasi dapat dilakukan ke dalam bentuk Logaritma natural,
akar kuadrat, inverse, atau bentuk yang lain tergantung dari bentuk kurva
normalnya, apakah condong ke kiri, ke kanan, mengumpul di tengah atau
menyebar ke samping kanan dan kiri.

2. Uji Multikolinearitas
Uji multikolinearitas adalah untuk melihat ada atau
tidaknya korelasi yang tinggi antara variabel-variabel bebas dalam suatu
model regresi linear berganda. Jika ada korelasi yang tinggi di antara
variabel-variabel bebasnya, maka hubungan antara variabel bebas terhadap
variabel terikatnya menjadi terganggu. Sebagai ilustrasi, adalah model
regresi dengan variabel bebasnya motivasi, kepemimpinan dan kepuasan
kerja dengan variabel terikatnya adalah kinerja. Logika sederhananya adalah
bahwa model tersebut untuk mencari pengaruh antara motivasi,
kepemimpinan dan kepuasan kerja terhadap kinerja. Jadi tidak boleh ada
korelasi yang tinggi antara motivasi dengan kepemimpinan, motivasi dengan
kepuasan kerja atau antara kepemimpinan dengan kepuasan kerja.
Alat statistik yang sering dipergunakan untuk menguji gangguan
multikolinearitas adalah dengan variance inflation factor (VIF), korelasi
pearson antara variabel-variabel bebas, atau dengan melihat eigenvalues
dan condition index (CI).
Beberapa alternatif cara untuk mengatasi masalah multikolinearitas
adalah sebagai berikut:
a. Mengganti atau mengeluarkan variabel yang mempunyai korelasi yang
tinggi.
b. Menambah jumlah observasi.
c. Mentransformasikan data ke dalam bentuk lain, misalnya logaritma
natural, akar kuadrat atau bentuk first difference delta.

3. Uji Heteroskedastisitas
Uji heteroskedastisitas adalah untuk melihat apakah terdapat
ketidaksamaan varians dari residual satu ke pengamatan ke pengamatan
yang lain. Model regresi yang memenuhi persyaratan adalah di mana
terdapat kesamaan varians dari residual satu pengamatan ke pengamatan
yang lain tetap atau disebut homoskedastisitas.
Deteksi heteroskedastisitas dapat dilakukan dengan metode scatter plot
dengan memplotkan nilai ZPRED (nilai prediksi) dengan SRESID (nilai
residualnya). Model yang baik didapatkan jika tidak terdapat pola tertentu
pada grafik, seperti mengumpul di tengah, menyempit kemudian melebar
atau sebaliknya melebar kemudian menyempit. Uji statistik yang dapat
digunakan adalah uji Glejser, uji Park atau uji White.
Beberapa alternatif solusi jika model menyalahi asumsi
heteroskedastisitas adalah dengan mentransformasikan ke dalam bentuk
logaritma, yang hanya dapat dilakukan jika semua data bernilai positif. Atau
dapat juga dilakukan dengan membagi semua variabel dengan variabel yang
mengalami gangguan heteroskedastisitas.

4. Uji Autokorelasi
Uji autokorelasi adalah untuk melihat apakah terjadi korelasi antara
suatu periode t dengan periode sebelumnya (t -1). Secara sederhana adalah
bahwa analisis regresi adalah untuk melihat pengaruh antara variabel bebas
terhadap variabel terikat, jadi tidak boleh ada korelasi antara observasi
dengan data observasi sebelumnya. Sebagai contoh adalah pengaruh antara
tingkat inflasi bulanan terhadap nilai tukar rupiah terhadap dollar. Data tingkat
inflasi pada bulan tertentu, katakanlah bulan Februari, akan dipengaruhi oleh
tingkat inflasi bulan Januari. Berarti terdapat gangguan autokorelasi pada
model tersebut. Contoh lain, pengeluaran rutin dalam suatu rumah tangga.
Ketika pada bulan Januari suatu keluarga mengeluarkan belanja bulanan
yang relatif tinggi, maka tanpa ada pengaruh dari apapun, pengeluaran pada
bulan Februari akan rendah.
Uji autokorelasi hanya dilakukan pada data time series (runtut
waktu) dan tidak perlu dilakukan pada data cross section seperti pada
kuesioner di mana pengukuran semua variabel dilakukan secara serempak
pada saat yang bersamaan. Model regresi pada penelitian di Bursa Efek
Indonesia di mana periodenya lebih dari satu tahun biasanya memerlukan uji
autokorelasi.
Beberapa uji statistik yang sering dipergunakan adalah uji Durbin-
Watson, uji dengan Run Test dan jika data observasi di atas 100 data
sebaiknya menggunakan uji Lagrange Multiplier. Beberapa cara untuk
menanggulangi masalah autokorelasi adalah dengan mentransformasikan
data atau bisa juga dengan mengubah model regresi ke dalam bentuk
persamaan beda umum (generalized difference equation). Selain itu juga
dapat dilakukan dengan memasukkan variabel lag dari variabel terikatnya
menjadi salah satu variabel bebas, sehingga data observasi menjadi
berkurang 1.

5. Uji Linearitas
Uji linearitas dipergunakan untuk melihat apakah model yang dibangun
mempunyai hubungan linear atau tidak. Uji ini jarang digunakan pada
berbagai penelitian, karena biasanya model dibentuk berdasarkan telaah
teoretis bahwa hubungan antara variabel bebas dengan variabel terikatnya
adalah linear. Hubungan antar variabel yang secara teori bukan merupakan
hubungan linear sebenarnya sudah tidak dapat dianalisis dengan regresi
linear, misalnya masalah elastisitas.
Jika ada hubungan antara dua variabel yang belum diketahui apakah
linear atau tidak, uji linearitas tidak dapat digunakan untuk memberikan
adjustment bahwa hubungan tersebut bersifat linear atau tidak. Uji linearitas
digunakan untuk mengkonfirmasikan apakah sifat linear antara dua variabel
yang diidentifikasikan secara teori sesuai atau tidak dengan hasil observasi
yang ada. Uji linearitas dapat menggunakan uji Durbin-Watson, Ramsey Test
atau uji Lagrange Multiplier.

Anda mungkin juga menyukai