Anda di halaman 1dari 22

BAB II

LANDASAN TEORI

1. Pengertian Regresi

Istilah regresi pertama kali diperkenalkan oleh Sir Francis Galton pada
tahun 1886. Galton menemukan adanya tendensi bahwa orang tua yang memiliki
tubuh tinggi memiliki anak-anak yang tinggi, orang tua yang pendek memiliki anak-
anak yang pendek pula. Kendati demikian. Ia mengamati bahwa ada
kecenderungan tinggi anak cenderung bergerak menuju rata-rata tinggi populasi
secara keseluruhan. Dengan kata lain, ketinggian anak yang amat tinggi atau orang
tua yang amat pendek cenderung bergerak kearah rata-rata tinggi populasi. Inilah
yang disebut hukum Golton mengenai regresi universal. Dalam bahasa galton, ia
menyebutkan sebagai regresi menuju mediokritas.

Hukum regresi semesta (law of universal regression) dari Galton diperkuat oleh
temannya Karl Pearson, yang mengumpulkan lebih dari seribu catatan tinggi
anggota kelompok keluarga. Ia menemukan bahwa rata-rata tinggi anak laki-laki
kelompok ayah (yang) pendek lebih besar dari pada tinggi ayah mereka, jadi
“mundurnya” (“regressing”) anak laki-laki yang tinggi maupun yang pendek serupa
kea rah rata-rata tinggi semua laki-laki. Dengan kata lain Galton, ini adalah
“kemunduran kearah sedang”.

Secara umum, analisis regresi pada dasarnya adalah studi mengenai


ketergantungan satu variabel dependen (terikat) dengan satu atau lebih variabel
independent (variabel penjelas/bebas), dengan tujuan untuk mengestimasi dan/
atau memprediksi rata-rata populasi atau niiai rata-rata variabel dependen
berdasarkan nilai variabe! independen yang diketahui. Pusat perhatian adalah
pada upaya menjelaskan dan mengevalusi hubungan antara suatu variabel dengan
satu atau lebih variabel independen. Hasil analisis regresi adalah berupa koefisien
regresi untuk masing-masing variable independent. Koefisien ini diperoleh dengan
cara memprediksi nilai variable dependen dengan suatu persamaan.

Interpretasi modern mengenai regresi agak berlainan dengan regresi versi


Galton. Secara umum. analisis regresi pada dasarnya adalah studi mengenai
ketergantungan variabel dependen (terikat) dengan satu atau lebih variabel
independen (variabel penjelas/bebas), dengan tujuan untuk mengestimasi
dan/atau memprediksi rata-rata populasi atau nilai rata-rata variabel dependen
berdasarkan nilai variabel independen yang diketahui (Gujarati, 2003).

Hasil analisis regresi adalah berupa koefisien untuk masing-masing variabel


independen. Koefisien ini diperoleh dengan cara memprediksi nilai variabel
dependen dengan suatu persamaan; Koefisien regresi dihitung dengan dua tujuan
sekaligus: Fertama, meminimumkan penyimpangan antara nilai aktual dan nilai
estimasi variabel dependen berdasarkan data yang ada (Tabachnick, 1996).

2. Analisis Regresi Linear Berganda


Dalam ilmu sosial (pendidikan) jarang terjadi adanya hubungan antara dua
variabel saja. Sebagian besar satu variabel mempunyai hubungan dengan banyak
variabel sehingga dalam analisis statistik pun hendaknya digunakan alat statistik
yang bisa mencakup hubungan banyak variabel. Apabila kita jumpai satu variabel
terikat yang dipengaruhi oleh beberapa variabel bebas dalam mempengaruhi
variabel terikat itu bermacam-macam, sehingga bentuk hubungannyapun berbeda.

Dalam kajian ilmu sosial maupun kependidika sering terjad sifat hubungan
berjenjang. Ini berarti bahwa variabel bebas dalam mempengaruhi variabel terikat
tidak terjadi secara langsung, tetapi melalui variavel lain. Variabel lain
menjembatani pengaruh variabel bebas terhadap variabel terikat tersebut dengan
variabel antara. Disamping itu, antar variabel bebas itu sendiri mempunyai pola
hubungan yang tidak tetap artinya bisa benar-benar bebas, berkorelasi tetapi tidak
signifikan, mempunyai hubungan yang tidak erat.

Pola hubungan-hubungan regresi ganda yang akan dibahas pada makalah


ini diantaranya:

1. Masing-masing variabel bebas berdiri sendiri dalam mempengaruhi variable

terikat. Dalam kondisi ini antar variabel bebas tidak terdapat hubungan yang
signifikan. Jika kondisi ini yang dijumpai, maka hasil perhitungan kuadrat
koefisien merupakan jumlah sumbangan/kontribusi variabel bebas terhadap
variabel terikat. Besarnya kontribusi total variabel bebas terhadap variabel
terikat merupakan jumlah kontribusi masing-masing variabel bebas terhadap
variabel terikat.

2. Masing-masing variabel bebas tidak berdiri sendiri-sendir, tetapi antar mereka


mempunyai kebebasan dalam mempengaruhi variabel terikat. Walaupun
unsure kebersamaan tetapi masih adasifat mandirinya dalam memberikan
kontribusi terhadap variabel terikat. Kalau sifat mandirinya variabel tersebut
tidak ada, maka dengan menghilangkan variabel bebas tersebut tidak akan
mempengaruhi besarnya kontribusi. Hal ini disebabkan oleh karena kontribusi
variabel bebas yang tidak mempunyai sifat mandiri telah diwakili oleh variabel
bebas lainnya. Jika korelasi antar variabel bebas sangat besar, maka sifat
mandiri variabel bebas dalam memberikan kontribusi terhadap variabel terikat
sangat kecil, demikian pula sebaliknya.

3. Variabel bebas dalam mempengaruhi variabel terikat tidak langsung, sehingga


ada variabel antara yang menjembatani hubungan antara variabel bebas dan
variabel terikat. Dalam kasus ini peneliti hendaknya hati-hati, karena tanpa
memperhatikan variabel antara dapat memberikan keputusan yang salah dan
tidak rasional. Kalau variabel antara dilibatkan dalam analisis, maka analisisnya
berjenjang. Mula-mula menganalisis hubungan antara variabel bebas dengan
variabel antara, baru kemudian mencari hubungan variabel antara dengan
variabel terikatnya.

Apabila yang kita hadapi adala kondisi (pola) pertama, maka analisisnya
akan sederhana. Sebaliknya jika yang kita hadapi adalah pola yang kedua, maka
kita harus melihat besarnya kontribusi bersama maupun yang benar-benar
terpisah. Lain halnya jika tujuan kita tidak akan melihat kontribusi variabel bebas
terhadap variabel terika, tetapi hanya sekedar untuk melakukan prediksi atas nilai
variabel terikat dengan dasar variabel bebas. Tujuan yang terakhir ini kurang
mempunyai sumbangan dalam pengambilan kebijakan. Sebaiknya kita dapat
menggunakan analisis statistik (khususnya regresi ganda) semaksimal mungkin.
Semakin banyak variabel bebas yang dilibatkan dalam perhitungan (tentunya
sesuai dengan teori yang mendasari penelitian) semakin baik keputusan yang
dapat diambil.

Mengingat dewasa ini komputer telah diprogram untuk membantu peneliti


dalam menganalisis data yang melibatkan banyak variabel, maka analisis statistik
tidak perlu ditakuti. Walaupun demikian pemakai hasil (output) komputer
hendaknya memahami konsep analisis yang diperintahkan. Tanpa mengetahui
konsep dasarnya hasil analisis komputer tidak dapat membantu pemakai dalam
menginterpretasikan serta mengambilkeputusan. Di samping itu, tanpa
pengetahuan statistik memungkinkan penelitian tidak tahu adanya kesalahan
dalam analisis maupun kelemahan nalisis, padahal kesalahan serta kelemahan itu
masih berkemungkinan muncul. Ingat bahwa komputer itu bergantung pada orang
yang menjalankannya (dalam hal ini adalah orang yang memerintah), jika
perintahnya tidak sesua dengan tujuan awal maka hasilnyapun akan menyimpang
atau bahkan tidak ada hasil sama sekali karena komputer tidak dapat mengolah
(memproses).

Regresi linier berganda adalah analisis regresi yang menjelaskan hubungan


antara peubah respon (variabel dependen) dengan faktor-faktor yang
mempengaruhi lebih dari satu prediktor (variabel independen).
Regresi linier berganda hampir sama dengan regresi linier sederhana,
hanya saja pada regresi linier berganda variabel bebasnya lebih dari satu variabel
penduga. Tujuan analisis regresi linier berganda adalah untuk mengukur intensitas
hubungan antara dua variabel atau lebih dan membuat prediksi perkiraan nilai Y
atas X
Garis regresi yang baik mempunyai cirri-ciri :
a(Y) = 0
a(Y) 2 = nilai minimum
dimana
Y = nilai actual variable Y
a = nilai taksirn vaiabel Y
setelah kita menentukan bentuk garis regresi maka tindakan selanjutnya adalah
menentukan ketepatan garis regresi tersebut. Dengan diagram pencar dapat
diketahui secara kasar ketepatan garis regresi dengan memperhatikan luas
penyimpangan terhadap garis regresi yang berupa titik-titik kordinat. Bila
penyebaran titik kordinat tidak luas berarti semakin tepat garis regresi yang kita
buat sebaliknya.

Analisis regresi linear berganda sebenarnya sama dengan analisis regresi


linear sederhana, hanya variabel bebasnya lebih dari satu buah. Persamaan
umumnya adalah:
Y = a + b1 X1 + b2 X2 + .... + bn Xn.
Dengan Y adalah variabel bebas, dan X adalah variabel-variabel bebas, a
adalah konstanta (intersept) dan b adalah koefisien regresi pada masing-masing
variabel bebas.
Interpretasi terhadap persamaan juga relatif sama, sebagai ilustrasi,
pengaruh antara motivasi (X1), kompensasi (X2) dan kepemimpinan (X3) terhadap
kepuasan kerja (Y) menghasilkan persamaan sebagai berikut:
Y = 0,235 + 0,21 X1 + 0,32 X2 + 0,12 X3
1. Jika variabel motivasi meningkat dengan asumsi variabel kompensasi dan
kepemimpinan tetap, maka kepuasan kerja juga akan meningkat
2. Jika variabel kompensasi meningkat, dengan asumsi variabel motivasi dan
kepemimpinan tetap, maka kepuasan kerja juga akan meningkat.
3. Jika variabel kepemimpinan meningkat, dengan asumsi variabel motivasi dan
kompensasi tetap, maka kepuasan kerja juga akan meningkat.
Interpretasi terhadap konstanta (0,235) juga harus dilakukan secara hati-
hati. Jika pengukuran variabel dengan menggunakan skala Likert antara 1 sampai
dengan 5 maka tidak boleh diinterpretasikan bahwa jika variabel motivasi,
kompensasi dan kepemimpinan bernilai nol, karena ketiga variabel tersebut tidak
mungkin bernilai nol karena Skala Likert terendah yang digunakan adalah 1.
Analisis regresi linear berganda memerlukan pengujian secara serempak
dengan menggunakan F hitung. Signifikansi ditentukan dengan membandingkan F
hitung dengan F tabel atau melihat signifikansi pada output SPSS. Dalam beberapa
kasus dapat terjadi bahwa secara simultan (serempak) beberapa variabel
mempunyai pengaruh yang signifikan, tetapi secara parsial tidak. Sebagai ilustrasi:
seorang penjahat takut terhadap polisi yang membawa pistol (diasumsikan polisis
dan pistol secara serempak membuat takut penjahat). Akan tetapi secara parsial,
pistol tidak membuat takut seorang penjahat. Contoh lain: air panas, kopi dan gula
menimbulkan kenikmatan, tetapi secara parsial, kopi saja belum tentu
menimbulkan kenikmatan.
Penggunaan metode analisis regresi linear berganda memerlukan uji
asumsi klasik yang secara statistik harus dipenuhi. Asumsi klasik yang sering
digunakan adalah asumsi normalitas, multikolinearitas, autokorelasi,
heteroskedastisitas dan asumsi linearitas..
Langkah-langkah yang lazim dipergunakan dalam analisis regresi linear
berganda adalah 1) koefisien determinasi; 2) Uji F dan 3 ) uji t. Persamaan regresi
sebaiknya dilakukan di akhir analisis karena interpretasi terhadap persamaan
regresi akan lebih akurat jika telah diketahui signifikansinya. Koefisien determinasi
sebaiknya menggunakan Adjusted R Square dan jika bernilai negatif maka uji F dan
uji t tidak dapat dilakukan. Bentuk-bentuk regresi yang juga sering digunakan
dalam penelitian adalah regresi logistik atau regresi ordinal.
BAB III

PEMBAHASAN

1. Analisis Regresi
Analisis regresi merupakan studi dalam menjelaskan dan mengevaluasi
hubungan antara suatu peubah bebas (independent variable) dengan satu peubah
tak bebas (dependent variable) dengan tujuan untuk mengestimasi dan atau
meramalkan nilai peubah tak bebas didasarkan pada nilai peubah bebas yang
diketahui (Widarjono, 2005).

Analisis regresi adalah teknik statistika yang berguna untuk memeriksa dan
memodelkan hubungan diantara variabel-variabel. Penerapannya dapat dijumpai
secara luas di banyak bidang seperti teknik, ekonomi, manajemen, ilmu-ilmu
biologi, ilmu-ilmu sosial, dan ilmu-ilmu pertanian. Pada saat ini, analisis regresi
berguna dalam menelaah hubungan dua variabel atau lebih, dan terutama untuk
menelusuri pola hubungan yang modelnya belum diketahui dengan sempurna,
sehingga dalam penerapannya lebih bersifat eksploratif.

Analisis regresi dikelompokkan dari mulai yang paling sederhana sampai yang
paling rumit, tergantung tujuan yang berlandaskan pengetahuan atau teori
sementara, bukan asal ditentukan saja. jika dalam persamaan regresi hanya
terdapat satu variabel terikat,maka disebut sebagai regresi sederhana. Sedangkan
jika variabel bebasnya lebih dari satu, maka disebut sebagai persamaan regresi
berganda

Analisis regresi merupakan analisis data untuk mengetahui seberapa besar


pengaruh suatu variabel independen terhadap variabel dependen. Analisis regresi
terbagi menjadi regresi linear dan nonlinear. Regresi linear dibagi menjadi dua
bagian yaitu, regresi linear sederhana dan regresi linear berganda. Analisis regresi
adalah salah satu analisis yang paling populer dan luas pemakaiannya. Hampir
semua bidang ilmu yang memerlukan analisis sebab-akibat boleh dipastikan
mengenal analisis ini.

2. REGRESI LINEAR BERGANDA


Regresi berganda seringkali digunakan untuk mengatasi permasalahan analisis
regresi yang melibatkan hubungan dari dua atau lebih variabel bebas. Pada
awalnya regresi berganda dikembangkan oleh ahli ekonometri untuk membantu
meramalkan akibat dari aktivitas-aktivitas ekonomi pada berbagai segmen
ekonomi. Misalnya laporan tentang peramalan masa depan perekonomian di
jurnal-jurnal ekonomi (Business Week, Wal Street Journal, dll), yang didasarkan
pada model-model ekonometrik dengan analisis berganda sebagai alatnya. Salah
satu contoh penggunaan regresi berganda dibidang pertanian diantaranya
ilmuwan pertanian menggunakan analisis regresi untuk menjajagi antara hasil
pertanian (misal: produksi padi per hektar) dengan jenis pupuk yang digunakan,
kuantitas pupuk yang diberikan, jumlah hari hujan, suhu, lama penyinaran
matahari, dan infeksi serangga.Model regresi linier berganda merupakan
pengembangan signifikan dari model regresi linier sederhana. Jika regresi
sederhana hanya ada satu variabel dependen (Y) dan satu variabel independen (X),
maka pada kasus regresi berganda, terdapat satu variabel dependen dan lebih dari
satu variabel independen.

Analisis Regresi Linear Berganda digunakan untuk mengukur pengaruh antara


lebih dari satu variabel prediktor (variabel independen) hingga k-variabel prediktor
terhadap variabel dependen.
Bentuk umum sebuah model regresi untuk k variabel bebas adalah :

dimana merupakan variabel acak, parameter adalah

koefisien-koefisien regresi yang perlu diduga. Variabel-variabel


mungkin seluruhnya sebagai variabel-variabel dasar yang berbeda atau
diantaranya sebagai fungsi dari variabel dasar yang lain. Jika kejadian pertama
yang terjadi, kita peroleh model regresi linear berganda, karena semua variabelnya
linear dan tidak ada yang merupakan fungsi dari variabel lainnya. (Tiro, 2006)

Menurut Tiro (2006), asumsi untuk regresi linear berganda yaitu;

1. Asumsi Eksistensi

Untuk setiap kombinasi khusus nilai-nilai tetap dari variabel bebas (dasar)

(misalnya X1= 57, X2 = 8) adalah variabel acak (univariate) dengan


distribusi peluang tertentu yang mempunyai nilai rata-rata dan variansi
terhingga.

2. Asumsi Kebebasan

Nilai-nilai Y adalah hasil pengamatan yang bebas statistik antara satu dengan
lainnya.

3. Asumsi kelinearan

Nilai rata-rata Y, untuk setiap kombinasi nilai khusus dari dan

ditulis dengan notasi adalah sebuah fungsi linear dari

Atau
4. Asumsi Kehomogenan
Variansi Y sama untuk setiap kombinasi tertentu dari , yakni

2. Asumsi Kenormalan
Untuk setiap nilai kombinasi tertentu , Y mempunyai distribusi
normal. Kita gunakan simbol

yang berarti Y berdistribusi normal dengan rata-rata dan variansi .


Asumsi ini tidak diperlukan untuk membuat model regresi akan tetapi
umumnya diperlukan untuk membuat inferensi.

Misalkan banyaknya variabel bebas berjumlah 2 (k=2), nilai data variabel


tersebut, dapat dituliskan sebagai berikut:
(

Untuk menghitung nilai 0 , 1, 2 apabila k=2 sebagai taksiran , melalui


metode OLS (Ordinary Least Square) dengan hasil sebagai berikut:

3. Pengujian Analisis Linear Berganda


Menurut Julie Pallant dan Andy Field, Uji Regresi Berganda punya sejumlah
asumsi yang tidak boleh dilanggar. Asumsi-asumsi Uji Regresi Berganda adalah:

1. Ukuran Sampel
Masalah berkenaan ukuran sampel di sini adalah generabilitas. Dengan sampel
kecil anda tidak bisa melakukan generalisasi (tidak bisa diulang) dengan sampel
lainnya. Berbeda penulis berbeda berapa sampel yang seharusnya dalam uji Regresi
Berganda. Stevens (1996, p.72) merekomendasikan bahwa “untuk penelitian ilmu
sosial, sekitar 15 sampel per prediktor (variabel bebas) dibutuhkan untuk mengisi
persamaan uji regresi.” Tabachnick and Fidell (1996, p.132) memberi rumus guna
menghitung sampel yang dibutuhkan uji Regresi, berkaitan dengan jumlah variabel
bebas yang digunakan:

n > 50 + 8m

Dimana :
n = Jumlah Sampel
m = Jumlah Variabel Bebas

Jika peneliti menggunakan 5 variabel bebas, maka jumlah sampel yang


dibutuhkan adalah 90 orang, dalam mana 50 ditambah ( 5 x 8) = 50 + 40 = 90.

2. Outlier
Regresi Berganda sangat sensitif terhadap Outlier (skor terlalu tinggi atau
terlalu rendah). Pengecekan terhadap skor-skor ekstrim seharusnya dilakukan
sebelum melakukan Regresi Berganda. Pengecekan ini dilakukan baik terhadap
variabel bebas maupun terikat. Outlier bisa dihapus dari data atau diberikan skor
untuk variabel tersebut yang tinggi, tetapi tidak terlampau beda dengan kelompok
skor lainnya. Prosedur tambahan guna mendeteksi outlier juga terdapat pada
program SPSS file mah_1. Outlier pada variabel terikat dapat diidentifikasi dari
Standardised Residual plot yang dapat disetting. Tabachnick and Fidell (1996, p. 139)
menentukan outlier adalah nilai-nilai Standardised Residual di atas 3,3 (atau < - 3,3).

Outlier juga bisa dicek menggunakan jarak Mahalanobis yang tidak diproduksi
oleh program Regresi Berganda SPSS ini. Ia tidak terdapat dalam output SPSS. Untuk
mengidentifikasi sampel mana yang merupakan Outlier, anda perlu menentukan
nilai kritis Chi Square, dengan menggunakan jumlah variabel bebas yang digunakan
dalam penelitian sebagai “degree of freedom-nya” atau derajat kebebasan. Pallant
menggunakan Alpha 0,001 agar lebih meyakinkan, yang rinciannya sebagai berikut:

Untuk menggunakan tabel kritis Chi Square, lakukan langkah berikut:

2. Tentukan variabel bebas yang digunakan dalam analisis;


3. Temukan nilai di atas pada salah satu kolom berbayang; dan
4. Baca melintasi kolom untuk menemukan nilai kritis yang dikehendaki.

3. Normalitas Residu
Normalitas adalah residu yang seharusnya terdistribusi normal seputar skor-
skor variabel terikat. Residu adalah sisa atau perbedaan hasil antara nilai data
pengamatan variabel terikat terhadap nilai variabel terikat hasil prediksi. Untuk
melihat apakah residu normal atau tidak, dapat dilakukan dengan cara berikut:
 Melihat grafik Normal P-P Plot, dan
 Uji Kolmogorov-Smirnov
Pada grafik Normal P-P Plot, residu yang normal adalah data memencar mengikuti
fungsi distribusi normal yaitu menyebar seiring garis z diagonal. Residu normal dari
uji Kolmogorov-Smirnov adalah diperolehnya nilai p > 0,05.
Linieritas adalah residual yang seharusnya punya hubungan dalam bentuk “straight-
line” dengan skor variabel terikat yang diprediksi. Homoskedastisitas adalah varians
residual seputar skor-skor variabel terikat yang diprediksi seharusnya sama bagi
skor-skor yang diprediksi secara keseluruhan.

4. Multikolinieritas
Uji Regresi mengasumsikan variabel-variabel bebas tidak memiliki hubungan
linier satu sama lain. Sebab, jika terjadi hubungan linier antarvariabel bebas akan
membuat prediksi atas variabel terikat menjadi bias karena terjadi masalah
hubungan di antara para variabel bebasnya.
Dalam Regresi Berganda dengan SPSS, masalah Multikolinieritas ini ditunjukkan
lewat tabel Coefficient, yaitu pada kolom Tolerance dan kolom VIF (Variance Inflated
Factors). Tolerance adalah indikator seberapa banyak variabilitas sebuah variabel
bebas tidak bisa dijelaskan oleh variabel bebas lainnya. Tolerance dihitung dengan
rumus 1 – R2 untuk setiap variabel bebas. Jika nilai Tolerance sangat kecil (< 0,10),
maka itu menandakan korelasi berganda satu variabel bebas sangat tinggi dengan
variabel bebas lainnya dan mengindikasikan Multikolinieritas. Nilai VIF merupakan
invers dari nilai Tolerance (1 dibagi Tolerance). Jika nilai VIF > 10, maka itu
mengindikasikan terjadinya Multikolinieritas.

Hipotesis untuk Multikolinieritas ini adalah:

5. Autokorelasi
Autokorelasi juga disebut Independent Errors. Regresi Berganda
mengasumsikan residu observasi seharusnya tidak berkorelasi (atau bebas). Asumsi
ini bisa diuji dengan teknik statistik Durbin-Watson, yang menyelidiki korelasi
berlanjut antar error (kesalahan). Durbin-Watson menguji apakah residual yang
berdekatan saling berkorelasi. Statistik pengujian bervariasi antara 0 hingga 4
dengan nilai 2 mengindikasikan residu tidak berkorelasi. Nilai > 2 mengindikasikan
korelasi negatif antar residu, di mana nilai < 2 mengindikasikan korelasi positif. >

Cara melakukan uji Durbin-Watson adalah, nilai Durbin-Watson hitung harus


lebih besar dari batas atas Durbin-Watson tabel. Syarat untuk mencari Durbin-
Watson tabel adalah Tabel Durbin-Watson. Untuk mencari nilai Durbin-Watson
tabel:

1. tentukan besar n (sampel) dan k (banyaknya variabel bebas).


2. Tentukan taraf signifikansi penelitian yaitu 0,05.

Durbin-Watson hitung dapat dicari dengan SPSS. Nilai Durbin-Watson hitung


terdapat dalam output SPSS, khususnya pada tabel Model Summary. Hipotesis
untuk Autokorelasi ini adalah:

Pengambilan keputusannya adalah:

Dengan kurva normal pengambilan Durbin-Watson:

1. Terima H0 jika Durbin-Watson hitung lebih besar dari ..... dan Durbin-Watson
hitung lebih kecil dari 4 - .....; Artinya tidak ada Autokorelasi.
2. Tolak H0 jika Durbin-Watson hitung lebih kecil dari ..... atau 4 - ..... lebih kecil
dari .....; Artinya ada Autokorelasi.

6. Homoskedastisitas
Uji Regresi bisa dilakukan jika data bersifat Homoskedastisitas bukan
Heteroskedastisitas. Homoskedastisitas adalah kondisi dalam mana varians dari data
adalah sama pada seluruh pengamatan. Terdapat sejumlah uji guna mendeteksi
gejala heteroskedastisitas misalnya uji Goldfeld-Quandt dan Park. Namun, Wang and
Jain beranggapan bahwa Uji Park dapat lebih teliti dalam memantau gejala
heteroskedastisitas ini. Dengan demikian, penelitian ini akan menggunakan Uji Park
guna menentukan gejala heteroskedastisitas variabel-variabelnya.

Uji Park dilakukan dengan meregresikan nilai residual (Lne2) dengan masing-
masing variabel independent. “The Park test suggests that if heteroscedasticity is
present, the heteroscedastic varianc eσ_i^2 may be systematically related to one or
more of the explanatory variables.” Rumus uji Park sebagai berikut:

Cara melakukan Uji Park adalah sebagai berikut:

1. Dengan SPSS klik Analyze -->Regression --> Linear --> Masukkan variabel y ke
Dependent --> Masukkan variabel x1, x2, x3, x4 ke Independent(s) --> Klik Save
--> Pada Residual klik Unstandardized --> Continue --> OK
2. Pada SPSS klik Data View --> Cek bahwa ada satu variabel baru bernama res_1. Ini
merupakan nilai ε_i^ . Nilai ini harus dikuadratkan dengan cara (pada SPSS) klik
Transform --> Compute --> Isi Target Variable dengan ε_i^2 --> Pada operasi
hitung kalikan nilai ε_i^ dengan ε_i^ . Pada Variable View SPSS muncul variabel
baru bernama ε_i^2.
3. Dengan SPSS, tepatnya menu Transform --> Compute lakukan perubahan nilai
ε_i^2, X1, X2, X3, X4 ke dalam bentuk logaritma natural (Ln) [caranya dengan Klik
Ln lalu pindahkan variabel] Ln(ε_i^2 ) yaitu regresi unstandardized residual pada
Target Variable dinamai Lnei2; X1 yaitu variabel x1 pada Target Variable dinamai
Lnx1; X2 yaitu variabel x2 pada Target Variable dinamai Lnx2; x3 yaitu variabel x3
pada Target Variable dinamai Lnx3; x4 yaitu variabel x4 pada Target Variable
dinamai Lnx4.
4. Setelah diperoleh nilai variabel-variabel baru Lnei2, LnX1, LnX2, LnX3, dan LnX4.
5. Lakukan uji regresi kembali secara satu per satu.
6. Pertama, klik Analyze --> Regression>Linear --> Masukkan variabel Lnei2 ke kotak
Dependent --> Masukkan variabel LnX1 ke Independent(s) --> OK. Sementara
hasil belum dihiraukan.
7. Kedua, klik Analyze --> Regression --> Linear --> Variabel Lnei2 masih ada di
Dependent, biarkan > Keluarkan LnX1 dan masukkan LnX2 ke Independent(s) >
OK. Sementara hasil belum dihiraukan.
8. Ketiga, klik Analyze --> Regression --> Linear --> Variabel Lnei2 masih ada di
Dependent, biarkan > Keluarkan LnX2 dan masukkan LnX3 ke Independent(s) >
OK. Sementara hasil belum dihiraukan.
9. Keempat, klik Analyze --> Regression --> Linear --> Variabel Lnei2 masih ada di
Dependent, biarkan > Keluarkan LnX3 dan masukkan LnX4 ke Independent(s) >
OK. Sementara hasil belum dihiraukan.
10. Perhatikan Output SPSS. Pada output, terdapat hasil perhitungan Park bagi
variabel x1, x2, x3 dan x4, tepatnya adalah hasil uji Lnei2 dengan LnX1, dan uji
Lnei2 dengan LnX2, uji Lnei2 dengan LnX3, dan uji Lnei2 dengan LnX4.
11. Peneliti akan memperbandingkan apa yang tertera di tabel Coefficients, yaitu
nilai t.
12. Guna memastikan apakah ada gejala heteroskedastisitas, peneliti akan
memperbandingkan nilai thitung dengan ttabel. Nilai ttabel dapat dicari pada
Tabel t, yaitu dengan menentukan df = n - 4 . n adalah jumlah sampel dan 4
karena jumlah variabel independen penelitian adalah 4. Sehingga nilai df = 48 – 4
= 44. Dalam taraf 0,05 uji yang dilakukan adalah 2 sisi sehingga singnifikansi pada
tabel adalah 0,025.

Dengan mempertemukan nilai 46 dan 0,025 dan uji 2 sisi pada taraf 95% (0,025) pada
Tabel t diperoleh nilai t tabel penelitian sebesar ......

Hipotesis yang diajukan mengenai masalah homoskedastisitas ini sebagai berikut:

Alternatif Uji Homoskedastisitas Jika Uji Park dianggap Terlampau Rumit


Jika uji Park dianggap terlampau rumit, maka pengujian alternatif dapat
ditempuh guna melihat apakah terjadi Homoskedastisitas atau Heteroskedastisitas.

Caranya dengan melihat grafik persilangan SRESID dengan ZPRED pada output hasil
SPSS. Caranya sebagai berikut:

1 Klik Analyze --> Regression --> Linear


2 Klik Plot.
3 Isikan SRESID pada y-axis dan ZPRED pada x-axis.
4 Klik Continue. Perhatikan grafik scatterplot. Ingat, Homoskedastisitas terjadi jika
varians dari residual satu pengamatan ke pengamatan lain tetap atau sama.
Heteroskedastisitas terjadi jika varians dari residual satu pengamatan ke
pengamatan lain tidak sama atau tidak tetap.

Homoskedastisitas terjadi jika tidak terdapat pola tertentu yang jelas, serta titik-titik
menyebar di atas dan di bawah angka 0 pada sumbu Y. Heteroskedastisitas terjadi jika
terdapat titik-titik memili pola tertentu yang teratur seperti bergelombang, melebar
kemudian menyempit.

Interpretasi Hasil Uji Regresi Berganda

Setelah uji Regresi Berganda selesai dilakukan, peneliti harus melakukan interpretasi.
Rumus Regresi Berganda (standar) adalah sebagai berikut:

Setelah pengujian Regresi Berganda dengan SPSS selesai, hal-hal penting untuk
interpretasi adalah apa yang tercantum pada tabel-tabel pada output SPSS.

Tabel Descriptives
Pada tabel Descriptive dapat dilihat nilai Standar Deviasi. Nilai ini terdapat pada
kolom Std. Deviation. Nilai ini nanti akan diperbandingkan dengan nilai Std. Error of the
Estimate.

Tabel Model Summary


Tabel ini memberi informasi seberapa baik model analisis kita secara
keseluruhan, yaitu bagaimana 4 variabel bebas mampu memprediksikan 1 variabel
terikat, dengan rincian sebagai berikut ini:

Kolom Model. Menunjukkan berapa buah model analisis yang kita bentuk.

Kolom R. Menunjukkan seberapa baik variabel-variabel bebas memprediksikan hasil


(multiple correlation coefficient). Kisaran nilai R adalah 0 hingga 1. Semakin nilai R
mendekati angka 1, maka semakin kuat variabel-variabel bebas memprediksikan
variabel terikat. Namun, ketepatan nilai R ini lebih disempurnakan oleh kolom Adjusted
R Square yang merupakan koreksi atas nilai R.

Kolom Adjusted R Square. Fungsinya menjelaskan apakah sampel penelitian mampu


mencari jawaban yang dibutuhkan dari populasinya. Kisaran nilai Adjusted R Square
adalah 0 hingga 1. Pedoman interpretasi atas nilai Adjusted R Square adalah sebagai
berikut:

Kalikan Adjusted R2 dengan 100% maka akan diperoleh berapa % varians tiap sampel
pada variabel terikat bisa diprediksi oleh variabel-variabel bebas secara bersama-sama
(simultan).

Std. Error of the Estimate. Kolom ini menjelaskan seberapa kuat variabel-variabel bebas
bisa memprediksi variabel terikat. Nilai Std. Error of the Estimate diperbandingkan
dengan nilai Std. Deviation (bisa dilihat pada tabel Descriptives). Jika Std. Error of the
Estimate < Std. Deviation, maka Std. Error of the Estimate baik untuk dijadikan
prediktor dalam menentukan variabel terikat. Jika Std. Error of the Estimate > Std.
Deviation, maka Std. Error of the Estimate tidak baik untuk dijadikan prediktor dalam
mementukan variabel terikat.

Durbin-Watson. Kolom ini digunakan untuk mengecek uji asumsi Autokorelasi.


Bagaimana variabel bebas yang satu berkorelasi dengan variabel bebas lainnya. Durbin-
Watson ini digunakan dalam uji asumsi Regresi sebelumnya.

Tabel Coefficients
Pada tabel Coefficient, mohon perhatikan lalu jelaskan nilai-nilai yang tertera
pada kolom-kolom berikut ini:
Model. Kolom ini menjelaskan berapa banyak model analisis yang dibuat peneliti. Pada
kolom ini juga terdapat nama-nama variabel bebas yang digunakan dalam penelitian.
Variabel-variabel tersebut diberi label “Constant” yaitu nilai konstanta yang digunakan
dalam persamaan uji Regresi Berganda (a).

Unstandardized Coefficient. Kolom ini terdiri atas b dan Std. Error. Kolom b
menunjukkan Koefisien b, yaitu nilai yang menjelaskan bahwa Y (variabel terikat) akan
berubah jika X (variabel bebas) diubah 1 unit.

Standardized Coefficients. Pada kolom ini terdapat Beta. Penjelasan sebelumnya


mengenai nilai b punya masalah karena variabel-variabel kerap diukur menggunakan
skala-skala pengukuran yang berbeda. Akibatnya, kita tidak bisa menggunakan nilai b
guna melihat variabel-variabel bebas mana yang punya pengaruh lebih kuat atas
variabel terikat. Misalnya, jika variabel yang diteliti adalah jenis kelamin yang punya
skala minimal 1 dan maksimal 2 dan pengaruhnya terhadap sikap yang skalanya
minimal 1 dan maksimal 6, nilai b diragukan efektivitas prediksinya. Ini akibat nilai yang
diperolehnya rendah atas pengaruh perbedaan skala pengukuran. Untuk memastikan
pengaruh inilah maka nilai Beta dijadikan patokan. Nilai Beta punya kisaran 0 hingga 1,
di mana semakin mendekati 1 maka semakin berdampak besar signifikansinya.

Sig. Kolom ini menjelaskan tentang signifikansi hubungan antar variabel bebas dengan
variabel terikat. Nilai Sig. ini sebaiknya adalah di bawah 0,05 (signifikansi penelitian).

Tolerance. Kolom ini menjelaskan banyaknya varians pada suatu variabel yang tidak
bisa dijelaskan oleh variabel prediktor lainnya. Kisarannya 0 hingga 1, di mana semakin
mendekati 1 maka semakin mengindikasikan prediktor-prediktor lain tidak bisa
menjelaskan varians di variabel termaksud. Nilai yang semakin mendekati 0 artinya
hampir semua varians di dalam variabel bisa dijelaskan oleh variabel prediktor lain.
Nilai Torelance sebaiknya ada di antara 0,10 hingga 1.

Tabel ANOVA
Sig. Tabel ANOVA menunjukkan besarnya angka probabilitas atau signifikansi
pada perhitungan ANOVA. Nilai yang tertera digunakan untuk uji kelayanan Model
Analisis [dimana sejumlah variabel x mempengaruhi variabel y] dengan ketentuan
angka probabilitas yang baik untuk digunakan sebagai model regresi harus < 0,05. Nilai
ini bisa dilihat pada kolom Sig. Jika Sig. < 0,05, maka Model Analisis dianggap layak. Jika
Sig. > 0,05, maka Model Analisis dianggap tidak layak.

Pengambilan Keputusan dengan Tabel ANOVA


Dalam Regresi Berganda, hal utama yang hendak dilihat adalah apakah
serangkaian variabel bebas secara serentak mempengaruhi variabel terikat. Dalam
output SPSS ini bisa ditentukan lewat tabel ANOVA.

Pada tabel ANOVA terdapat kolom F. Nilai yang tertera pada kolom F tersebut disebut
sebagai F hitung. F hitung ini diperbandingkan dengan F tabel. Peraturannya:

Persoalannya, bagaimana menentukan F tabel? F tabel dapat ditentukan dengan cara:


1 Tentukan signifikansi penelitian yaitu 0,05 (uji 2 sisi jadi 0,025.
2 Tentukan df1. Df1 diperoleh dari jumlah variabel bebas
3 Tentukan df2. Df2 diperoleh dari n – k – 1 = 48 – 4 – 1 = 43.
4 Cari angka 43 dan 4 dalam tabel F untuk signifikansi 0,025.
5 Dengan Excel, ketikkan rumus =FINV(0,05;4;43)

Selain perbandingan nilai F, penerimaan atau penolakan Hipotesis juga bisa


menggunakan nilai Sig. pada tabel ANOVA. Peraturannya:

Koefisien Determinasi
Dalam uji Regresi Berganda, Koefisien Determinasi digunakan untuk
mengetahui persentase sumbangan pengaruh serentak variabel-variabel bebas
terhadap variabel terikat. Untuk itu, digunakan angka-angka yang ada pada Tabel
Model Summary.

Cara menentukan Koefisien Determinasi sangatlah mudah. Peneliti tinggal melihat nilai
pada kolom R2 dikalikan 100%. Misalnya nilai R2 adalah 0,7777. Dengan demikian
Koefisien Determinasinya = 0,7777 x 100% = 77,77%. Jadi, secara serentak variabel-
variabel bebas mempengaruhi variabel terikat sebesar 77,77%. Sisanya, yaitu 100 –
77,77% = 22,23% ditentukan oleh variabel-variabel lain yang tidak disertakan di dalam
penelitian.

Koefisien Regresi Parsial

Koefisien Regresi Parsial menunjukkan apakah variabel-variabel bebas punya pengaruh


secara parsial (terpisah atau sendiri-sendiri) terhadap variabel terikat?

Pada Tabel Coefficient, pengujian Hipotesis akan dilakukan. Uji hipotesis dilakukan
dengan menggunakan Uji t. Pernyataan Hipotesis yang hendak diuji sebagai berikut:
Nilai t hitung bisa dilihat pada kolom t bagi masing-masing variabel bebas.

Nilai t tabel bisa dicari dengan cara berikut ini:

1 α = 0,05; untuk uji 2 sisi = 0,025


2 Degree of Freedom (df) = jumlah sampel – jumlah variabel bebas – 1 (angka 1
adalah konstanta) = 48 – 4 – 1 = 43.
3 Cari persilangan antara df = 43 dan 0,025.
4 Pencarian nilai t tabel dengan Excel mudah sekali. Ketik rumus =tinv(0,05;43).

3.4 Studi Kasus


DATA

Y (kg) X1 (cm) X2 (thn)


32 57 8
36 59 10
27 49 6
34 62 11
28 51 8
29 50 7
39 55 10
29 48 9
28 42 10
26 42 6
38 61 12
39 57 9
Data diatas untuk melihat bagaimana Berat badan sebagai Variabel Dependen yang
dinotasikan dengan (Y) bervariasi menurut Tinggi Badan (cm) yang dinotasikan dengan
X1 dan Umur (thn) yang dinotasikan dengan (X2).

Data diatas akan dilakukan analisis regresi berganda dengan bantuan sofware
SPSS 17 menggunakan tingkat signifikansi 0,05 dengan hasil pengolahan data sebagai
berikut:

Variables Entered/Removed

Variables Variables
Model Entered Removed Method

1 x2, x1a . Enter

a. All requested variables entered.

Model Summaryb

Adjusted R Std. Error of


Model R R Square Square the Estimate

1 .843a .711 .647 2.915

a. Predictors: (Constant), x2, x1

b. Dependent Variable: y
Model Summaryb

Change Statistics

R Square Durbin-
Model Change F Change df1 df2 Sig. F Change Watson

1 .711 11.087 2 9 .004 1.536

b. Dependent Variable: y

ANOVAb

Sum of
Model Squares df Mean Square F Sig.

1 Regression 188.434 2 94.217 11.087 .004a

Residual 76.483 9 8.498

Total 264.917 11

a. Predictors: (Constant), x2, x1

b. Dependent Variable: y

Coefficientsa

Unstandardized Standardized
Coefficients Coefficients

Model B Std. Error Beta t Sig.

1 (Constant) 1.939 6.847 .283 .783

x1 .423 .163 .588 2.593 .029

x2 .886 .586 .343 1.511 .165

a. Dependent Variable: y
Residuals Statisticsa

Minimum Maximum Mean Std. Deviation N

Predicted Value 25.02 38.38 32.08 4.139 12

Residual -3.917 4.971 .000 2.637 12

Std. Predicted -1.705 1.521 .000 1.000 12


Value

Std. Residual -1.344 1.705 .000 .905 12

a. Dependent Variable: y

Taksiran parameter diperoleh dari hasil pengolahan SPSS yaitu;

b0 : 1.939

b1 : 0,423

b2 : 0,886

sehingga diperoleh model

Sehingga dapat dilakukan interpretasi sebagai berikut :

1. Nilai F (F Value) adalah 11.087 dengan nilai p (Prob>F) = 0,004 yang memberikan
informasi tentang signifikansi model. Karena nilai p <  maka model signifikan
secara statistic. Karena diolah dengan menggunakan SPSS maka Nilai F tidak
perlu dibandingkan dengan F tabel.
2. Daya ramal model diberikan oleh nilai R2 (R-Square) sebesar 0,711. Hal ini
menunjukkan bahwa sebesar 71,1% variasi dari Y dapat dijelaskan model. Nilai
Adj-R-Sqr sebesar 0,647 menjelaskan bahwa sebesar 64,7% variable independen
X1 dan X2 menjelaskan variable Y.
3. Dengan melihat nilai p pada tabel Coefficients maka untuk X1 dengan nilai p =
0,029 dapat disimpulkan bahwa : Jika tinggi (X1) bertambah satu cm, maka berat
(Y) dapat bertambah 0,423kg untuk anak-anak yang mempunyai umur yang
sama.
BAB IV

PENUTUP

Kesimpulan

1. Regresi linier ganda (Multivariate Linear Regression) adalah analisis yang


dilakukan apabila satu variabel dependen Y perlu dijelaskan oleh lebih dari satu
variabel independen X.
2. Pengujian keberartian persamaan regresi ganda menggunakan F tes dan pengujian
koefisien regresi menggunakan t tes.
3. Untuk mengetahui besarnya kontribusi variabel bebas terhadap variabel terikatnya
diperlukan perhitungan koefisien korelasi.
4. Untuk mengetahui besarnya kontribusi masing-masing variabel bebas terhadap
variabel terikat dengan mempertimbangkan hubungan variabel bebas lainnya, baik
terhadap variabel terikat maupun variabel bebas yang dicari kontribusinya,.

Anda mungkin juga menyukai