Anda di halaman 1dari 9

Ringkasan Materi Kuliah

1. Pokok Bahasan: Regresi Linear Sederhana


Regresi linier sederhana adalah suatu metode yang digunakan untuk melihat bentuk
hubungan antar satu variabel independent (bebas) dan mempunyai hubungan garis
lurus dengan variabel dependennya (terikat). Sebuah variabel hasil observasi yang
diperoleh sangat mungkin dipengaruhi oleh variabel lainnya, misalkan tinggi badan
dan berat badan seseorang. Untuk suatu tinggi tertentu ada besaran berat badan yang
mempengaruhi, demikian juga sebaliknya.

2. Pokok Bahasan: Uji Residu (Error) dalam Regresi Linear Sederhana


Ada beberapa syarat yang terkait dengan residual atau error ( ) yang harus
diperhatikan dalam regresi linier
Error :

 i  yˆi  yi
Syarat 1 :
Residual atau Error adalah variabel random yang berdistribusi Normal dengan
means 0 dan varians tertentu  N(0,2)
Syarat 2 :
adanya homoscedasticity, yang artinya varians Y sama untuk beberapa nilai X
dapat dilihat melalui plot antara error ( ) dengan nilai ( )
Jik plot tersebut tidak berpola, berarti syarat ini terpenuhi
Syarat 3 :
 Tidak ada otokorelasi antar residual
 Digunakan uji Durbin-Watson untuk melihat kondisi otokorelasi
Fungsi :
Melihat ada tidaknya otokorelasi
Hipotesis :
H0 : tidak ada otokorelasi (  = 0 )
H1 : ada otokorelasi (   0 )
Uji Statistika
n

e  eu 1 
2
u
d  u 2
n

e
u 1
2
u

Uji Durbin-Watson
Pengambilan Keputusan:
Untuk mengambil kesimpulan digunakan tabel D-W
 H0 ditolak pada taraf 2, jika:
d<dL atau 4-d<dL
 H0 diterima pada taraf 2, jika:
d>dU dan 4-d>dU
 Jika tidak keduanya, tidak dapat disimpulkan
Uji Residual (pada regresi Linier)
Syarat 4 (untuk regresi Linier Ganda):
 Tidak ada multicollinearity atau hubungan linier yang sempurna antar variabel
independent
 Digunakan uji korelasi untuk melihat kondisi multicollinearity
Koefisien Determinan (pada regresi Linier)
Perhitungan R2 :
JKR
R2 
JKT
(n  1) R 2  k
R 2
adjusted 
n  k 1
3. Pokok Bahasan: Regresi Linear Berganda
Regresi Linear Berganda adalah model regresi linear dengan melibatkan lebih dari
satu variable bebas atau predictor. Dalam bahasa inggris, istilah ini disebut
dengan multiple linear regression.

Perbedaan antara regresi berganda dengan regresi sederhana. Pada dasarnya regresi
linear berganda adalah model prediksi atau peramalan dengan
menggunakan data berskala interval atau rasio serta terdapat lebih dari satu predictor.

Skala data yang dimaksud diatas adalah pada semua variabel terutama variable terikat.
Pada regresi linear, tidak menutup kemungkinan digunakannya data dummy pada
variable bebas. Yaitu pada regresi linear dengan dummy.

Perbedaan Regresi Linear Berganda dan Sederhana


Seperti yang sudah saya bahas diatas, dikatakan regresi linear berganda jika jumlah
variable bebas lebih dari satu. Sedangkan jika jumlah variable bebas hanya ada satu
saja, maka itu yang disebut dengan regresi linear sederhana.
Model regresi linear berganda dilukiskan dengan persamaan sebagai berikut:
Y = α + β1 X2 + β2 X2 + βn Xn + e
Keterangan:
Y = Variabel terikat atau response.
X = Variabel bebas atau predictor.
α = Konstanta.
β = Slope atau Koefisien estimate

Contoh Regresi Linear Berganda


Salah satu contoh penelitian yang menggunakan analisis regresi linear berganda
adalah penelitian dengan judul: “pengaruh ROA, NPM dan Size Terhadap Return
Saham.”
Berdasarkan contoh penelitian diatas, sudah jelas bahwasanya semua variable
berskala data interval atau rasio. Dengan kata lain data yang digunakan adalah data
kuantitatif atau numeric. Dalam contoh tersebut juga dijelaskan bahwasanya variable
bebas lebih dari satu, yaitu ROA, NPM dan Size.

Asumsi Klasik regresi Linear Berganda


Seperti halnya uji parametris lainnya, maka regresi linear juga mempunyai syarat atau
asumsi klasik yang harus terpenuhi. Agar model prediksi yang dihasilkan nantinya
bersifat BLUE (Best Linear Unbiased Estimation).

Asumsi klasik pada regresi linear berganda antara lain: Data interval atau rasio,
linearitas, normalitas, non outlier, homoskedastisitas, non multikolinearitas dan non
autokorelasi.

Data Interval atau rasio.


Skala data semua variable terutama variable terikat adalah interval atau rasio. Asumsi
ini tidak perlu diuji, cukup anda pastikan bahwa data yang digunakan adalah data
interval atau rasio (numeric atau kuantitatif).

Linearitas
Ada hubungan linear antara variable bebas dengan variable terikat. Asumsi linearitas
diuji dengan uji linearitas regresi, misalnya dengan kurva estimasi.
Dengan kurva estimasi kita bisa tentukan ada hubungan linear atau tidak dengan
melihat nilai p value linearitas. Jika p value < 0,05 maka terdapat hubungan yang
linear antara predictor dan response.
Untuk uji linearitas regresi, kami sudah membahasnya pada artikel yang telah lalu,
yaitu artikel linearitas regresi.

Normalitas Residual
Residual adalah beda antara y dengan y prediksi. Y adalah variable terikat, sedangkan
y prediksi adalah Y hasil persamaan regresi yang dibuat. Sehingga residual dibangun
dengan rumus: y – y prediksi.

Asumsi normalitas pada regresi linear adalah pada residualnya, bukan pada data per
variabelnya.
Uji Asumsi normalitas regresi linear dapat diuji dengan berbagai metode uji
normalitas, seperti uji Shapiro wilk, lilliefors atau Kolmogorov smirnov, Anderson
darling, ryan joiner, Shapiro francia, jarque bera, skewness kurtosis test dan berbagai
jenis uji normalitas lainnya.
Berbagai jenis uji normalitas tersebut sudah saya bahas secara tuntas dalam berbagai
artikel yang telah saya rilis sebelumnya. Silahkan dipelajari untuk menambah
wawasan anda.

Non Outlier
Outlier disebut dengan data pencilan atau data yang nilainya extreme atau lain dari
pada yang lainnya. Batasan outlier atau tidak bisa dilihat dari nilai absolut studentized
residual. Jika absolut studentized residual > 3 maka sampel atau observasi yang
dimaksud menjadi outlier.

Homoskedastisitas
Homoskedastisitas adalah sebuah kondisi dimana varians dari error bersifat konstan
atau tetap. Dengan kata lain bahwa varians dari error bersifat identic untuk setiap
pengamatan.

Kebalikan dari homoskedastisitas adalah heteroskedastisitas. Model regresi linear


berganda yang baik adalah model yang bebas dari kondisi heteroskedastisitas.

Non Multikolinearitas
Multikolinearitas adalah keadaan dimana terdapat interkorelasi atau korelasi kuat
antar variable bebas di dalam model. Dinyatakan ada interkorelasi jika korelasi antar
variable bebas di dalam model regresi linear berganda > 0,8. Beberapa pakar
menggunakan batasan lebih dari 0,9.
Cara lain yang lebih objektif adalah dengan menggunakan nilai variance inflating
factor (VIF) dan tolerance. Dikatakan ada multikolinearitas jika nilai VIF > 10
dan/atau nilai tolerance < 0,01.
Berdasarkan uraian diatas, maka jelas sekali bahwa asumsi multikolinearitas hanya
ada dalam regresi linear berganda dan tidak ada pada regresi linear sederhana. Sebab
pada regresi linear berganda ada lebih dari satu vriabel bebas, sedangkan pada regresi
linear sederhana hanya ada satu variable bebas

Non Autokorelasi
Autokorelasi dapat diartikan bahwa terdapat korelasi antar waktu. Sehingga bisa
diartikan dengan mudah bahwa autokorelasi ini sering terjadi pada regresi linear
berganda dengan data time series atau runtun waktu. Dan jarang sekali terjadi pada
data cross section.
Data runtun waktu ini misalnya data return saham sebuah perusahaan per bulan dari
tahun 2012 sd 2017.
Sedangkan data cross section, misalnya data hasil dari kuesioner yang disebarkan
pada semua siswa sebuah kelas, dimana hanya diukur satu kali saja.
Uji autokorelasi ini bisa diuji dengan menggunakan nilai Durbin Watson (DW) dan
run test. Jika menggunakan uji Durbin Watson, dikatakan tidak ada autokorelasi jika
nilai DW hitung > Batas atas DW table dan (4 – DW Hitung) > Batas atas DW Tabel

Kesalahan Persepsi Tentang Asumsi Regresi Linear


Ada beberapa kesalahan klasik yang sering terjadi pada para peneliti yang masih awal
belajar untuk meneliti. Terutama yang masih awal berkenalan dengan regresi linear
berganda. Yaitu: lebih dulu melakukan uji asumsi klasik baru kemudian melakukan
uji regresi linear.
Seharusnya, dari sekian banyak asumsi yang ada dalam regresi linear berganda, hanya
asumsi linearitas yang harus dilakukan terlebih dulu. Dan uji linearitas regresi hanya
dilakukan jika tujuan dari dibuatnya model regresi adalah untuk mebentuk model
terbaik. Sedangkan jika tujuannya untuk sekedar menjawab hipotesis, maka asumsi
linearitas ini bisa diabaikan.
Asumsi multikolinearitas bisa dilakukan sebelum uji regresi, sebab yang digunakan
adalah data per variable. Sedangkan asumsi yang lainnya haruslah setelah dilakukan
uji regresi. Alasannya adalah: uji normalitas, outlier, homoskedastisitas dan
autokorelasi menggunakan nilai error atau residual sebagai parameternya.

4. Pokok Bahasan: Uji Residu (Error) dalam Regresi Linear Berganda


perbedaan antara variabel dependen atau Y dengan Y prediksi. Yang dimaksud dengan Y
prediksi adalah nilai Y berdasarkan hasil persamaan regresi. Dalam output minitab ini juga
dapat dilihat nilai Y prediksi dalam worksheet di mana ada variabel baru yang bernama Fits1.

Histogram Normalitas Residual Minitab


Residual dinyatakan berdistribusi normal apabila histogram menyerupai bel menghadap ke
atas. Apabila anda ingin mendapatkan hasil meyakinkan dapat melakukan uji normalitas pada
variabel residual dengan cara yang sudah dijelaskan pada artikel sebelumnya yang
berjudul: Normalitas Pada Minitab.

Cara lain adalah dengan menggunakan diagram Normal Probability Plot seperti di bawah ini

PP Plot Normalitas Residual Minitab


Dapat disimpulkan berdistribusi normal apabila plot mengikuti garis lurus.

Berdasarkan 2 diagram di atas dapat disimpulkan bahwa residual berdistribusi normal.

Heteroskedastisitas pada interprestasi regresi linear

Gejala heteroskedastisitas dapat ditentukan dengan diagram scatter antara variabel Y prediksi
(Fits) dengan variabel residual.
Heteroskedastisitas Residual Minitab
Dapat disimpulkan tidak ada gejala heteroskedastisitas apabila plot menyebar merata di atas
dan di bawah sumbu 0 tanpa membentuk sebuah pola tertentu. Diagram di atas dapat
menyimpulkan bahwa tidak terdapat gejala heteroskedastisitas.

Output 1 Sessions Minitab

Output Anova Pada Regresi


Linear dengan Minitab

Multikolinearitas Pada Interprestasi Regresi Linear

Untuk mendeteksi adanya gejala multikolinearitas dapat dilihat nilai VIF pada gambar output
di atas. Dikatakan tidak ada gejala multikolinearitas apabila VIF < 5. Di atas VIF 1,458,
1,202 dan 1,326 dimana kurang dari 5 maka tidak ada gejala multikolinearitas.
Autokorelasi Pada Interprestasi Regresi Linear

Untuk mendeteksi adanya gejala autokorelasi dengan melihat nilai Durbin-Watson statistics


pada output di bawah ini:

Output 2 Session Minitab

Output Autokorelasi Pada


Regresi Linear dengan Minitab
Di atas nilai Durbin-Watson statistics sebesar 2,05091. Nilai tersebut dapat menyimpulkan
bahwa tidak terdapat gejala autokorelasi.

Uji F Regresi

Uji F pada regresi berfungsi sebagai uji simultan, yaitu untuk menentukan apakah secara
serentak semua variabel independen mempunyai pengaruh yang bermakna terhadap variabel
dependen dapat dilihat dari nilai uji F. Disimpulkan ada pengaruh apabila nilai P value
kurang dari batas kritis penelitian atau alpha. Misalnya pada uji ini, lihat output session 1,
nilai P Regression pada Analysis of Variance sebesar 0,000 di mana < 0,05 maka
disimpulkan bahwa secara simultan variabel independen mempunyai pengaruh bermakna
terhadap variabel dependen.

T Parsial

T parsial digunakan untuk mengetahui apakah variabel independen yang di dalam model
regresi mempunyai pengaruh secara individu terhadap variabel dependen dengan
memperhatikan keberadaan variabel lain di dalam model. Nilai t parsial dapat dilihat melalui
nilai t pada output session 1 di atas. Dinyatakan ada pengaruh parsial apabila nilai p value (P)
kurang dari batas kritis penelitian atau alpha. Di atas semua variabel independen nilai p value
t parsial < 0,05 maka semua ada pengaruh secara individu terhadap Y dengan memperhatikan
variabel lain.

Persamaan Regresi

Untuk membuat persamaan regresi maka kita menggunakan nilai koefisien beta variabel
independen dengan cara melihat nilai Coef pada output session 1 atau pada worksheet lihat
ada variabel baru disebelah kanan residual dengan nama COEF1. Secara berurutan dari atas
ke bawah:

 Konstanta: 1,072
 X1: 0,29613
 X2: 0,14130
 X3: 0,46880
Atau mudahnya dalam minitab ini anda dapat langsung melihat melalui “The regression
equation is” pada output session 1, di mana dalam uji ini hasilnya:

Y = 1.20 + 0.296 X1 + 0.141 X2 + 0.469 X3

Persamaan di atas dapat disimpulkan sebagai berikut:

 Apabila variabel lain bernilai konstan maka Nilai Y akan berubah dengan
sendirinya sebesar nilai konstanta yaitu 1,20.
 Apabila variabel lain bernilai konstan maka Nilai Y akan berubah sebesar 0,296
setiap satu satuan X1.
 Apabila variabel lain bernilai konstan maka Nilai Y akan berubah sebesar 0,141
setiap satu satuan X2.
 Apabila variabel lain bernilai konstan maka Nilai Y akan berubah sebesar 0,469
setiap satu satuan X3.

R Square

R Square disebut juga dengan Koefisien Determinasi Berganda. R Square di dalam mintab
ditunjukkan dengan nilai R-Sq di mana pada uji ini nilainya dapat dilihat di output session 1
yaitu sebesar 63,8% artinya variabel Y dapat dijelaskan oleh sekelompok variabel independen
x1, x2 dan x3 secara serentak atau simultan sebesar 63,8% sedangkan sisanya (100%-
63,8%=36,2%) dijelaskan oleh variabel lain di luar model yang tidak diteliti.

Anda mungkin juga menyukai