Anda di halaman 1dari 35

BAB I

PENDAHULUAN

1.1 Latar belakang

Statistika adalah ilmu yang mempelajari bagaimana


merencanakan, mengumpulkan, menganalisis dan
mempresentasikan data. Singkatnya, statistika adalah ilmu yang
berkenan dengan data. Statistika dibagi menjadi dua, yaitu
Statistika Deskriptif dan Statistika Inferensial. Statistika deskriptif
berkenaan dengan deskripsi data, misalnya dari menghitung rata-
rata dan varians dari data mentah; mendeksripsikan menggunakan
tabel-tabel atau grafik sehingga data mentah lebih mudah dibaca
dan lebih bermakna. Sedangkan statistika inferensial lebih dari itu,
misalnya melakukan pengujian hipotesis,
melakukan prediksi observasi masa depan, atau membuat
model regresi.

Penggunaan statistika dalam segala bidang akan


mempengaruhi tingkat analisis dari hasil penelitian yang sedang
dilakukan. Penelitian yang menggunakaan aspek perhitungan
statistik akan memperoleh data yang hamper mendekati benar atau
dengan memperhatikan dari analisa regresi. Untuk mengukur
besarnya pengaruh variabel bebas terhadap variabel tergantung
dan memprediksi variabel tergantung dengan menggunakan
variabel bebas. Analisis regresi sebagai kajian terhadap hubungan
satu variabel yang disebut sebagai variabel yang di terangkan (the
explained variabel) dengan satu atau dua variabel yang
menerangkan (the explanatory) . Variabel pertama disebut juga
sebagai variabel tergantung dan variabel kedua disebut juga
sebagai variabel bebas. Jika variabel bebas lebih dari satu, maka
analisis regresi disebut regresi linear berganda. Disebut berganda
karena pengaruh bebrapa variabel bebas akan dikenakan variabel
tergantung.

Regresi merupakan suatu teknik statistika yang dapat


digunakan untuk menggambarkan hubungan fungsional antara
suatu variabel tak bebas (respon) dengan satu atau beberapa
variabel bebas (deterministik). Menurut Drapper and Smith (1992)
analisis regresi merupakan metode analisis yang dapat digunakan
untuk menganalisis data dan mengambil kesimpulan yang
bermakna tentang hubungan ketergantungan variabel terhadap
variabel lainnya.

Analisa regresi berganda adalah salah satu metode statistika


yang sering digunakan untuk mengetahui sejauh mana
ketergantungan dan hubungan sebuah variabel tak bebas dengan
sebuah atau lebih variabel bebas, bila dalam analisisnya hanya
melibatkan sebuah variabel bebas maka regresi linier sederhana.
Sedangkan bila dalam analisisnya melibatkan dua atau lebih
variabel bebas maka analisis yang digunakan adalah analisis linear
berganda. Hubungan dan pengaruh dua variabel tersebut
bermanfaat untuk mengetahui kondisi atau dampak yang terjadi
akibat adanya perubahan suatu variabel terhadap variabel lainnya,
sehingga dapat disusun suatu rencana dalam menghadapi dampak
tersebut Seringkali digunakan untuk mengatasi permasalahan
analisis regresi yang melibatkan hubungan dari dua atau lebih
variabel bebas. Maka dari itu, kami membuat makalah ini dengan
judul Analisis Regresi Linear Berganda

1.2 Rumusan Masalah

Berdasarkan latar belakang di atas, dapat di rumuskan sebuah


permasalahan sebagai berikut:

1. Apa pengertian Analisis Regresi Linear Berganda?


2. Bagaimana Taksiran Model Analisis Regresi Linear Berganda
3. Apa Asumsi Kelayakan Model Analisis Regresi Linear
Berganda?

4. Apa Interpretasi Model Analisis Regresi Linear Berganda?

1.3 Tujuan Penulisan

Berikut ini adalah beberapa tujuan penulisan makalah :

1. Untuk mengetahui definisi Analisis Regresi Linear Berganda


2. Untuk mengetahui Taksiran Model Analisis Regresi Linear
Berganda
3. Untuk mengetahui Asumsi Kelayakan Model Analisis Regresi
Linear Berganda
4. Untuk mengetahui Interpretasi Model Analisis Regresi Linear
Berganda

1.4. Metode Penulisan

Dalam penulisan makalah ini kami menggunakan metode study


kepustakaan yaitu proses pencarian dan pengumpulan data dari
buku-buku dan situs-situs yang berhubungan dengan judul makalah
yang kami buat.
BAB II

LANDASAN TEORI

2.1 Pengertian Regresi

Istilah regresi pertama kali diperkenalkan oleh Sir


Francis Galton pada tahun 1886. Galton menemukan adanya
tendensi bahwa orang tua yang memiliki tubuh tinggi memiliki
anak-anak yang tinggi, orang tua yang pendek memiliki anak-
anak yang pendek pula. Kendati demikian. Ia mengamati bahwa
ada kecenderungan tinggi anak cenderung bergerak menuju rata-
rata tinggi populasi secara keseluruhan. Dengan kata lain,
ketinggian anak yang amat tinggi atau orang tua yang amat
pendek cenderung bergerak kearah rata-rata tinggi populasi.
Inilah yang disebut hukum Golton mengenai regresi universal.
Dalam bahasa galton, ia menyebutkan sebagai regresi menuju
mediokritas.
Hukum regresi semesta (law of universal regression) dari
Galton diperkuat oleh temannya Karl Pearson, yang
mengumpulkan lebih dari seribu catatan tinggi anggota kelompok
keluarga. Ia menemukan bahwa rata-rata tinggi anak laki-laki
kelompok ayah (yang) pendek lebih besar dari pada tinggi ayah
mereka, jadi mundurnya (regressing) anak laki-laki yang
tinggi maupun yang pendek serupa kea rah rata-rata tinggi
semua laki-laki. Dengan kata lain Galton, ini adalah kemunduran
kearah sedang.

Secara umum, analisis regresi pada dasarnya adalah studi


mengenai ketergantungan satu variabel dependen (terikat)
dengan satu atau lebih variabel independent (variabel
penjelas/bebas), dengan tujuan untuk mengestimasi dan/ atau
memprediksi rata-rata populasi atau niiai rata-rata variabel
dependen berdasarkan nilai variabe! independen yang diketahui.
Pusat perhatian adalah pada upaya menjelaskan dan mengevalusi
hubungan antara suatu variabel dengan satu atau lebih variabel
independen. Hasil analisis regresi adalah berupa koefisien regresi
untuk masing-masing variable independent. Koefisien ini
diperoleh dengan cara memprediksi nilai variable dependen
dengan suatu persamaan.

Interpretasi modern mengenai regresi agak berlainan


dengan regresi versi Galton. Secara umum. analisis regresi pada
dasarnya adalah studi mengenai ketergantungan variabel
dependen (terikat) dengan satu atau lebih variabel independen
(variabel penjelas/bebas), dengan tujuan untuk mengestimasi
dan/atau memprediksi rata-rata populasi atau nilai rata-rata
variabel dependen berdasarkan nilai variabel independen yang
diketahui (Gujarati, 2003).

Hasil analisis regresi adalah berupa koefisien untuk masing-


masing variabel independen. Koefisien ini diperoleh dengan cara
memprediksi nilai variabel dependen dengan suatu persamaan;
Koefisien regresi dihitung dengan dua tujuan sekaligus: Fertama,
meminimumkan penyimpangan antara nilai aktual dan nilai
estimasi variabel dependen berdasarkan data yang ada
(Tabachnick, 1996).

2.2 Analisis Regresi Linear Berganda

Dalam ilmu sosial (pendidikan) jarang terjadi adanya


hubungan antara dua variabel saja. Sebagian besar satu variabel
mempunyai hubungan dengan banyak variabel sehingga dalam
analisis statistik pun hendaknya digunakan alat statistik yang
bisa mencakup hubungan banyak variabel. Apabila kita jumpai
satu variabel terikat yang dipengaruhi oleh beberapa variabel
bebas dalam mempengaruhi variabel terikat itu bermacam-
macam, sehingga bentuk hubungannyapun berbeda.

Dalam kajian ilmu sosial maupun kependidika sering terjad


sifat hubungan berjenjang. Ini berarti bahwa variabel bebas
dalam mempengaruhi variabel terikat tidak terjadi secara
langsung, tetapi melalui variavel lain. Variabel lain menjembatani
pengaruh variabel bebas terhadap variabel terikat tersebut
dengan variabel antara. Disamping itu, antar variabel bebas itu
sendiri mempunyai pola hubungan yang tidak tetap artinya bisa
benar-benar bebas, berkorelasi tetapi tidak signifikan,
mempunyai hubungan yang tidak erat.

Pola hubungan-hubungan regresi ganda yang akan dibahas


pada makalah ini diantaranya:

1. Masing-masing variabel bebas berdiri sendiri dalam


mempengaruhi variabel terikat. Dalam kondisi ini antar
variabel bebas tidak terdapat hubungan yang signifikan. Jika
kondisi ini yang dijumpai, maka hasil perhitungan kuadrat
koefisien merupakan jumlah sumbangan/kontribusi variabel
bebas terhadap variabel terikat. Besarnya kontribusi total
variabel bebas terhadap variabel terikat merupakan jumlah
kontribusi masing-masing variabel bebas terhadap variabel
terikat.

2. Masing-masing variabel bebas tidak berdiri sendiri-sendir,


tetapi antar mereka mempunyai kebebasan dalam
mempengaruhi variabel terikat. Walaupun unsure
kebersamaan tetapi masih adasifat mandirinya dalam
memberikan kontribusi terhadap variabel terikat. Kalau sifat
mandirinya variabel tersebut tidak ada, maka dengan
menghilangkan variabel bebas tersebut tidak akan
mempengaruhi besarnya kontribusi. Hal ini disebabkan oleh
karena kontribusi variabel bebas yang tidak mempunyai sifat
mandiri telah diwakili oleh variabel bebas lainnya. Jika korelasi
antar variabel bebas sangat besar, maka sifat mandiri variabel
bebas dalam memberikan kontribusi terhadap variabel terikat
sangat kecil, demikian pula sebaliknya.

3. Variabel bebas dalam mempengaruhi variabel terikat tidak


langsung, sehingga ada variabel antara yang menjembatani
hubungan antara variabel bebas dan variabel terikat. Dalam
kasus ini peneliti hendaknya hati-hati, karena tanpa
memperhatikan variabel antara dapat memberikan keputusan
yang salah dan tidak rasional. Kalau variabel antara dilibatkan
dalam analisis, maka analisisnya berjenjang. Mula-mula
menganalisis hubungan antara variabel bebas dengan
variabel antara, baru kemudian mencari hubungan variabel
antara dengan variabel terikatnya.

Apabila yang kita hadapi adala kondisi (pola) pertama,


maka analisisnya akan sederhana. Sebaliknya jika yang kita
hadapi adalah pola yang kedua, maka kita harus melihat
besarnya kontribusi bersama maupun yang benar-benar
terpisah. Lain halnya jika tujuan kita tidak akan melihat
kontribusi variabel bebas terhadap variabel terika, tetapi hanya
sekedar untuk melakukan prediksi atas nilai variabel terikat
dengan dasar variabel bebas. Tujuan yang terakhir ini kurang
mempunyai sumbangan dalam pengambilan kebijakan.
Sebaiknya kita dapat menggunakan analisis statistik (khususnya
regresi ganda) semaksimal mungkin. Semakin banyak variabel
bebas yang dilibatkan dalam perhitungan (tentunya sesuai
dengan teori yang mendasari penelitian) semakin baik
keputusan yang dapat diambil.

Mengingat dewasa ini komputer telah diprogram untuk


membantu peneliti dalam menganalisis data yang melibatkan
banyak variabel, maka analisis statistik tidak perlu ditakuti.
Walaupun demikian pemakai hasil (output) komputer hendaknya
memahami konsep analisis yang diperintahkan. Tanpa
mengetahui konsep dasarnya hasil analisis komputer tidak dapat
membantu pemakai dalam menginterpretasikan serta
mengambilkeputusan. Di samping itu, tanpa pengetahuan
statistik memungkinkan penelitian tidak tahu adanya kesalahan
dalam analisis maupun kelemahan nalisis, padahal kesalahan
serta kelemahan itu masih berkemungkinan muncul. Ingat
bahwa komputer itu bergantung pada orang yang
menjalankannya (dalam hal ini adalah orang yang memerintah),
jika perintahnya tidak sesua dengan tujuan awal maka
hasilnyapun akan menyimpang atau bahkan tidak ada hasil
sama sekali karena komputer tidak dapat mengolah
(memproses).

Regresi linier berganda adalah analisis regresi yang


menjelaskan hubungan antara peubah respon (variabel
dependen) dengan faktor-faktor yang mempengaruhi lebih dari
satu prediktor (variabel independen).
Regresi linier berganda hampir sama dengan regresi linier
sederhana, hanya saja pada regresi linier berganda variabel
bebasnya lebih dari satu variabel penduga. Tujuan analisis
regresi linier berganda adalah untuk mengukur intensitas
hubungan antara dua variabel atau lebih dan membuat prediksi
perkiraan nilai Y atas X
Garis regresi yang baik mempunyai cirri-ciri :
a(Y) = 0
a(Y) 2 = nilai minimum
dimana
Y = nilai actual variable Y
a = nilai taksirn vaiabel Y

setelah kita menentukan bentuk garis regresi maka tindakan


selanjutnya adalah menentukan ketepatan garis regresi
tersebut. Dengan diagram pencar dapat diketahui secara kasar
ketepatan garis regresi dengan memperhatikan luas
penyimpangan terhadap garis regresi yang berupa titik-titik
kordinat. Bila penyebaran titik kordinat tidak luas berarti
semakin tepat garis regresi yang kita buat sebaliknya.

Analisis regresi linear berganda sebenarnya sama dengan


analisis regresi linear sederhana, hanya variabel bebasnya lebih
dari satu buah. Persamaan umumnya adalah:
Y = a + b1 X1 + b2 X2 + .... + bn Xn.
Dengan Y adalah variabel bebas, dan X adalah variabel-
variabel bebas, a adalah konstanta (intersept) dan b adalah
koefisien regresi pada masing-masing variabel bebas.
Interpretasi terhadap persamaan juga relatif sama,
sebagai ilustrasi, pengaruh antara motivasi (X1), kompensasi
(X2) dan kepemimpinan (X3) terhadap kepuasan kerja (Y)
menghasilkan persamaan sebagai berikut:
Y = 0,235 + 0,21 X1 + 0,32 X2 + 0,12 X3
1. Jika variabel motivasi meningkat dengan asumsi variabel
kompensasi dan kepemimpinan tetap, maka kepuasan
kerja juga akan meningkat
2. Jika variabel kompensasi meningkat, dengan asumsi
variabel motivasi dan kepemimpinan tetap, maka
kepuasan kerja juga akan meningkat.
3. Jika variabel kepemimpinan meningkat, dengan asumsi
variabel motivasi dan kompensasi tetap, maka kepuasan
kerja juga akan meningkat.
Interpretasi terhadap konstanta (0,235) juga harus
dilakukan secara hati-hati. Jika pengukuran variabel dengan
menggunakan skala Likert antara 1 sampai dengan 5 maka tidak
boleh diinterpretasikan bahwa jika variabel motivasi, kompensasi
dan kepemimpinan bernilai nol, karena ketiga variabel tersebut
tidak mungkin bernilai nol karena Skala Likert terendah yang
digunakan adalah 1.
Analisis regresi linear berganda memerlukan pengujian
secara serempak dengan menggunakan F hitung. Signifikansi
ditentukan dengan membandingkan F hitung dengan F tabel
atau melihat signifikansi pada output SPSS. Dalam beberapa
kasus dapat terjadi bahwa secara simultan (serempak) beberapa
variabel mempunyai pengaruh yang signifikan, tetapi secara
parsial tidak. Sebagai ilustrasi: seorang penjahat takut terhadap
polisi yang membawa pistol (diasumsikan polisis dan pistol
secara serempak membuat takut penjahat). Akan tetapi secara
parsial, pistol tidak membuat takut seorang penjahat. Contoh
lain: air panas, kopi dan gula menimbulkan kenikmatan, tetapi
secara parsial, kopi saja belum tentu menimbulkan kenikmatan.
Penggunaan metode analisis regresi linear berganda
memerlukan uji asumsi klasik yang secara statistik harus
dipenuhi. Asumsi klasik yang sering digunakan adalah asumsi
normalitas, multikolinearitas, autokorelasi, heteroskedastisitas
dan asumsi linearitas..
Langkah-langkah yang lazim dipergunakan dalam analisis
regresi linear berganda adalah 1) koefisien determinasi; 2) Uji F
dan 3 ) uji t. Persamaan regresi sebaiknya dilakukan di akhir
analisis karena interpretasi terhadap persamaan regresi akan
lebih akurat jika telah diketahui signifikansinya. Koefisien
determinasi sebaiknya menggunakan Adjusted R Square dan
jika bernilai negatif maka uji F dan uji t tidak dapat dilakukan.
Bentuk-bentuk regresi yang juga sering digunakan dalam
penelitian adalah regresi logistik atau regresi ordinal.

BAB III

PEMBAHASAN

3.1 Analisis Regresi


Analisis regresi merupakan studi dalam menjelaskan dan
mengevaluasi hubungan antara suatu peubah bebas (independent
variable) dengan satu peubah tak bebas (dependent variable)
dengan tujuan untuk mengestimasi dan atau meramalkan nilai
peubah tak bebas didasarkan pada nilai peubah bebas yang
diketahui (Widarjono, 2005).

Analisis regresi adalah teknik statistika yang berguna untuk


memeriksa dan memodelkan hubungan diantara variabel-variabel.
Penerapannya dapat dijumpai secara luas di banyak bidang seperti
teknik, ekonomi, manajemen, ilmu-ilmu biologi, ilmu-ilmu sosial, dan
ilmu-ilmu pertanian. Pada saat ini, analisis regresi berguna dalam
menelaah hubungan dua variabel atau lebih, dan terutama untuk
menelusuri pola hubungan yang modelnya belum diketahui dengan
sempurna, sehingga dalam penerapannya lebih bersifat eksploratif.
Analisis regresi dikelompokkan dari mulai yang paling sederhana
sampai yang paling rumit, tergantung tujuan yang berlandaskan
pengetahuan atau teori sementara, bukan asal ditentukan saja. jika
dalam persamaan regresi hanya terdapat satu variabel terikat,maka
disebut sebagai regresi sederhana. Sedangkan jika variabel
bebasnya lebih dari satu, maka disebut sebagai persamaan regresi
berganda

Analisis regresi merupakan analisis data untuk mengetahui


seberapa besar pengaruh suatu variabel independen terhadap
variabel dependen. Analisis regresi terbagi menjadi regresi linear
dan nonlinear. Regresi linear dibagi menjadi dua bagian yaitu,
regresi linear sederhana dan regresi linear berganda. Analisis regresi
adalah salah satu analisis yang paling populer dan luas
pemakaiannya. Hampir semua bidang ilmu yang memerlukan
analisis sebab-akibat boleh dipastikan mengenal analisis ini.

3.2 REGRESI LINEAR BERGANDA

Regresi berganda seringkali digunakan untuk mengatasi


permasalahan analisis regresi yang melibatkan hubungan dari dua
atau lebih variabel bebas. Pada awalnya regresi berganda
dikembangkan oleh ahli ekonometri untuk membantu meramalkan
akibat dari aktivitas-aktivitas ekonomi pada berbagai segmen
ekonomi. Misalnya laporan tentang peramalan masa depan
perekonomian di jurnal-jurnal ekonomi (Business Week, Wal Street
Journal, dll), yang didasarkan pada model-model ekonometrik
dengan analisis berganda sebagai alatnya. Salah satu contoh
penggunaan regresi berganda dibidang pertanian diantaranya
ilmuwan pertanian menggunakan analisis regresi untuk menjajagi
antara hasil pertanian (misal: produksi padi per hektar) dengan jenis
pupuk yang digunakan, kuantitas pupuk yang diberikan, jumlah hari
hujan, suhu, lama penyinaran matahari, dan infeksi serangga.Model
regresi linier berganda merupakan pengembangan signifikan dari
model regresi linier sederhana. Jika regresi sederhana hanya ada
satu variabel dependen (Y) dan satu variabel independen (X), maka
pada kasus regresi berganda, terdapat satu variabel dependen dan
lebih dari satu variabel independen.

Analisis Regresi Linear Berganda digunakan untuk mengukur


pengaruh antara lebih dari satu variabel prediktor (variabel
independen) hingga k-variabel prediktor terhadap variabel
dependen.
Bentuk umum sebuah model regresi untuk k variabel bebas
adalah :

dimana merupakan variabel acak, parameter

adalah koefisien-koefisien regresi yang perlu diduga. Variabel-

variabel mungkin seluruhnya sebagai variabel-variabel

dasar yang berbeda atau diantaranya sebagai fungsi dari variabel


dasar yang lain. Jika kejadian pertama yang terjadi, kita peroleh
model regresi linear berganda, karena semua variabelnya linear dan
tidak ada yang merupakan fungsi dari variabel lainnya. (Tiro, 2006)

Menurut Tiro (2006), asumsi untuk regresi linear berganda


yaitu;

1. Asumsi Eksistensi
Untuk setiap kombinasi khusus nilai-nilai tetap dari variabel bebas

(dasar) (misalnya X1= 57, X2 = 8) adalah variabel acak

(univariate) dengan distribusi peluang tertentu yang mempunyai


nilai rata-rata dan variansi terhingga.
2. Asumsi Kebebasan
Nilai-nilai Y adalah hasil pengamatan yang bebas statistik antara
satu dengan lainnya.

3. Asumsi kelinearan

Nilai rata-rata Y, untuk setiap kombinasi nilai khusus dari

dan ditulis dengan notasi adalah sebuah fungsi linear dari

Atau

4. Asumsi Kehomogenan

Variansi Y sama untuk setiap kombinasi tertentu dari ,

yakni

5. Asumsi Kenormalan

Untuk setiap nilai kombinasi tertentu , Y mempunyai

distribusi normal. Kita gunakan simbol

yang berarti Y berdistribusi normal dengan rata-rata dan

variansi . Asumsi ini tidak diperlukan untuk membuat model

regresi akan tetapi umumnya diperlukan untuk membuat inferensi.

Misalkan banyaknya variabel bebas berjumlah 2 (k=2), nilai data


variabel tersebut, dapat dituliskan sebagai berikut:
(
Untuk menghitung nilai 0, 1, 2 apabila k=2 sebagai taksiran ,

melalui metode OLS (Ordinary Least Square) dengan hasil

sebagai berikut:

3.3 Pengujian Analisis Linear Berganda


Menurut Julie Pallant dan Andy Field, Uji Regresi Berganda
punya sejumlah asumsi yang tidak boleh dilanggar. Asumsi-asumsi
Uji Regresi Berganda adalah:

1. Ukuran Sampel
Masalah berkenaan ukuran sampel di sini adalah
generabilitas. Dengan sampel kecil anda tidak bisa melakukan
generalisasi (tidak bisa diulang) dengan sampel lainnya. Berbeda
penulis berbeda berapa sampel yang seharusnya dalam uji Regresi
Berganda. Stevens (1996, p.72) merekomendasikan bahwa untuk
penelitian ilmu sosial, sekitar 15 sampel per prediktor (variabel
bebas) dibutuhkan untuk mengisi persamaan uji regresi.
Tabachnick and Fidell (1996, p.132) memberi rumus guna
menghitung sampel yang dibutuhkan uji Regresi, berkaitan dengan
jumlah variabel bebas yang digunakan:

n > 50 + 8m

Dimana :
n = Jumlah Sampel
m = Jumlah Variabel Bebas

Jika peneliti menggunakan 5 variabel bebas, maka jumlah sampel


yang dibutuhkan adalah 90 orang, dalam mana 50 ditambah ( 5 x 8)
= 50 + 40 = 90.

2. Outlier
Regresi Berganda sangat sensitif terhadap Outlier (skor terlalu
tinggi atau terlalu rendah). Pengecekan terhadap skor-skor ekstrim
seharusnya dilakukan sebelum melakukan Regresi Berganda.
Pengecekan ini dilakukan baik terhadap variabel bebas maupun
terikat. Outlier bisa dihapus dari data atau diberikan skor untuk
variabel tersebut yang tinggi, tetapi tidak terlampau beda dengan
kelompok skor lainnya. Prosedur tambahan guna mendeteksi outlier
juga terdapat pada program SPSS file mah_1. Outlier pada variabel
terikat dapat diidentifikasi dari Standardised Residual plot yang
dapat disetting. Tabachnick and Fidell (1996, p. 139) menentukan
outlier adalah nilai-nilai Standardised Residual di atas 3,3 (atau < -
3,3).

Outlier juga bisa dicek menggunakan jarak Mahalanobis yang tidak


diproduksi oleh program Regresi Berganda SPSS ini. Ia tidak
terdapat dalam output SPSS. Untuk mengidentifikasi sampel mana
yang merupakan Outlier, anda perlu menentukan nilai kritis Chi
Square, dengan menggunakan jumlah variabel bebas yang
digunakan dalam penelitian sebagai degree of freedom-nya atau
derajat kebebasan. Pallant menggunakan Alpha 0,001 agar lebih
meyakinkan, yang rinciannya sebagai berikut:
Untuk menggunakan tabel kritis Chi Square, lakukan langkah
berikut:

2. Tentukan variabel bebas yang digunakan dalam analisis;


3. Temukan nilai di atas pada salah satu kolom berbayang; dan
4. Baca melintasi kolom untuk menemukan nilai kritis yang
dikehendaki.

3. Normalitas Residu
Normalitas adalah residu yang seharusnya terdistribusi normal
seputar skor-skor variabel terikat. Residu adalah sisa atau
perbedaan hasil antara nilai data pengamatan variabel terikat
terhadap nilai variabel terikat hasil prediksi. Untuk melihat apakah
residu normal atau tidak, dapat dilakukan dengan cara berikut:
Melihat grafik Normal P-P Plot, dan
Uji Kolmogorov-Smirnov
Pada grafik Normal P-P Plot, residu yang normal adalah data
memencar mengikuti fungsi distribusi normal yaitu menyebar
seiring garis z diagonal. Residu normal dari uji Kolmogorov-Smirnov
adalah diperolehnya nilai p > 0,05.
Linieritas adalah residual yang seharusnya punya hubungan dalam
bentuk straight-line dengan skor variabel terikat yang diprediksi.
Homoskedastisitas adalah varians residual seputar skor-skor
variabel terikat yang diprediksi seharusnya sama bagi skor-skor
yang diprediksi secara keseluruhan.

4. Multikolinieritas
Uji Regresi mengasumsikan variabel-variabel bebas tidak
memiliki hubungan linier satu sama lain. Sebab, jika terjadi
hubungan linier antarvariabel bebas akan membuat prediksi atas
variabel terikat menjadi bias karena terjadi masalah hubungan di
antara para variabel bebasnya.
Dalam Regresi Berganda dengan SPSS, masalah
Multikolinieritas ini ditunjukkan lewat tabel Coefficient, yaitu pada
kolom Tolerance dan kolom VIF (Variance Inflated Factors). Tolerance
adalah indikator seberapa banyak variabilitas sebuah variabel bebas
tidak bisa dijelaskan oleh variabel bebas lainnya. Tolerance dihitung
dengan rumus 1 R2 untuk setiap variabel bebas. Jika nilai
Tolerance sangat kecil (< 0,10), maka itu menandakan korelasi
berganda satu variabel bebas sangat tinggi dengan variabel bebas
lainnya dan mengindikasikan Multikolinieritas. Nilai VIF merupakan
invers dari nilai Tolerance (1 dibagi Tolerance). Jika nilai VIF > 10,
maka itu mengindikasikan terjadinya Multikolinieritas.

Hipotesis untuk Multikolinieritas ini adalah:

5. Autokorelasi
Autokorelasi juga disebut Independent Errors. Regresi
Berganda mengasumsikan residu observasi seharusnya tidak
berkorelasi (atau bebas). Asumsi ini bisa diuji dengan teknik statistik
Durbin-Watson, yang menyelidiki korelasi berlanjut antar error
(kesalahan). Durbin-Watson menguji apakah residual yang
berdekatan saling berkorelasi. Statistik pengujian bervariasi antara
0 hingga 4 dengan nilai 2 mengindikasikan residu tidak berkorelasi.
Nilai > 2 mengindikasikan korelasi negatif antar residu, di mana nilai
< 2 mengindikasikan korelasi positif. >

Cara melakukan uji Durbin-Watson adalah, nilai Durbin-Watson


hitung harus lebih besar dari batas atas Durbin-Watson tabel. Syarat
untuk mencari Durbin-Watson tabel adalah Tabel Durbin-Watson.
Untuk mencari nilai Durbin-Watson tabel:

1. tentukan besar n (sampel) dan k (banyaknya variabel bebas).


2. Tentukan taraf signifikansi penelitian yaitu 0,05.

Durbin-Watson hitung dapat dicari dengan SPSS. Nilai Durbin-


Watson hitung terdapat dalam output SPSS, khususnya pada tabel
Model Summary. Hipotesis untuk Autokorelasi ini adalah:

Pengambilan keputusannya adalah:

Dengan kurva normal pengambilan Durbin-Watson:


1. Terima H0 jika Durbin-Watson hitung lebih besar dari ..... dan
Durbin-Watson hitung lebih kecil dari 4 - .....; Artinya tidak ada
Autokorelasi.
2. Tolak H0 jika Durbin-Watson hitung lebih kecil dari ..... atau 4
- ..... lebih kecil dari .....; Artinya ada Autokorelasi.

6. Homoskedastisitas
Uji Regresi bisa dilakukan jika data bersifat Homoskedastisitas
bukan Heteroskedastisitas. Homoskedastisitas adalah kondisi dalam
mana varians dari data adalah sama pada seluruh pengamatan.
Terdapat sejumlah uji guna mendeteksi gejala heteroskedastisitas
misalnya uji Goldfeld-Quandt dan Park. Namun, Wang and Jain
beranggapan bahwa Uji Park dapat lebih teliti dalam memantau
gejala heteroskedastisitas ini. Dengan demikian, penelitian ini akan
menggunakan Uji Park guna menentukan gejala heteroskedastisitas
variabel-variabelnya.

Uji Park dilakukan dengan meregresikan nilai residual (Lne2) dengan


masing-masing variabel independent. The Park test suggests that if
heteroscedasticity is present, the heteroscedastic varianc e_i^2
may be systematically related to one or more of the explanatory
variables. Rumus uji Park sebagai berikut:

Cara melakukan Uji Park adalah sebagai berikut:

1 Dengan SPSS klik Analyze -->Regression --> Linear --> Masukkan


variabel y ke Dependent --> Masukkan variabel x1, x2, x3, x4 ke
Independent(s) --> Klik Save --> Pada Residual klik
Unstandardized --> Continue --> OK
2 Pada SPSS klik Data View --> Cek bahwa ada satu variabel baru
bernama res_1. Ini merupakan nilai _i^ . Nilai ini harus
dikuadratkan dengan cara (pada SPSS) klik Transform -->
Compute --> Isi Target Variable dengan _i^2 --> Pada operasi
hitung kalikan nilai _i^ dengan _i^ . Pada Variable View SPSS
muncul variabel baru bernama _i^2.
3 Dengan SPSS, tepatnya menu Transform --> Compute lakukan
perubahan nilai _i^2, X1, X2, X3, X4 ke dalam bentuk logaritma
natural (Ln) [caranya dengan Klik Ln lalu pindahkan variabel]
Ln(_i^2 ) yaitu regresi unstandardized residual pada Target
Variable dinamai Lnei2; X1 yaitu variabel x1 pada Target Variable
dinamai Lnx1; X2 yaitu variabel x2 pada Target Variable dinamai
Lnx2; x3 yaitu variabel x3 pada Target Variable dinamai Lnx3; x4
yaitu variabel x4 pada Target Variable dinamai Lnx4.
4 Setelah diperoleh nilai variabel-variabel baru Lnei2, LnX1, LnX2,
LnX3, dan LnX4.
5 Lakukan uji regresi kembali secara satu per satu.
6 Pertama, klik Analyze --> Regression>Linear --> Masukkan
variabel Lnei2 ke kotak Dependent --> Masukkan variabel LnX1 ke
Independent(s) --> OK. Sementara hasil belum dihiraukan.
7 Kedua, klik Analyze --> Regression --> Linear --> Variabel Lnei2
masih ada di Dependent, biarkan > Keluarkan LnX1 dan
masukkan LnX2 ke Independent(s) > OK. Sementara hasil belum
dihiraukan.
8 Ketiga, klik Analyze --> Regression --> Linear --> Variabel Lnei2
masih ada di Dependent, biarkan > Keluarkan LnX2 dan
masukkan LnX3 ke Independent(s) > OK. Sementara hasil belum
dihiraukan.
9 Keempat, klik Analyze --> Regression --> Linear --> Variabel Lnei2
masih ada di Dependent, biarkan > Keluarkan LnX3 dan
masukkan LnX4 ke Independent(s) > OK. Sementara hasil belum
dihiraukan.
10 Perhatikan Output SPSS. Pada output, terdapat hasil
perhitungan Park bagi variabel x1, x2, x3 dan x4, tepatnya adalah
hasil uji Lnei2 dengan LnX1, dan uji Lnei2 dengan LnX2, uji Lnei2
dengan LnX3, dan uji Lnei2 dengan LnX4.
11 Peneliti akan memperbandingkan apa yang tertera di tabel
Coefficients, yaitu nilai t.
12 Guna memastikan apakah ada gejala heteroskedastisitas,
peneliti akan memperbandingkan nilai thitung dengan ttabel.
Nilai ttabel dapat dicari pada Tabel t, yaitu dengan menentukan
df = n - 4 . n adalah jumlah sampel dan 4 karena jumlah variabel
independen penelitian adalah 4. Sehingga nilai df = 48 4 = 44.
Dalam taraf 0,05 uji yang dilakukan adalah 2 sisi sehingga
singnifikansi pada tabel adalah 0,025.

Dengan mempertemukan nilai 46 dan 0,025 dan uji 2 sisi pada taraf
95% (0,025) pada Tabel t diperoleh nilai t tabel penelitian
sebesar ......

Hipotesis yang diajukan mengenai masalah homoskedastisitas ini


sebagai berikut:

Alternatif Uji Homoskedastisitas Jika Uji Park dianggap


Terlampau Rumit
Jika uji Park dianggap terlampau rumit, maka pengujian
alternatif dapat ditempuh guna melihat apakah terjadi
Homoskedastisitas atau Heteroskedastisitas.

Caranya dengan melihat grafik persilangan SRESID dengan ZPRED


pada output hasil SPSS. Caranya sebagai berikut:

1 Klik Analyze --> Regression --> Linear


2 Klik Plot.
3 Isikan SRESID pada y-axis dan ZPRED pada x-axis.
4 Klik Continue. Perhatikan grafik scatterplot. Ingat,
Homoskedastisitas terjadi jika varians dari residual satu
pengamatan ke pengamatan lain tetap atau sama.
Heteroskedastisitas terjadi jika varians dari residual satu
pengamatan ke pengamatan lain tidak sama atau tidak tetap.

Homoskedastisitas terjadi jika tidak terdapat pola tertentu yang


jelas, serta titik-titik menyebar di atas dan di bawah angka 0 pada
sumbu Y. Heteroskedastisitas terjadi jika terdapat titik-titik memili
pola tertentu yang teratur seperti bergelombang, melebar kemudian
menyempit.

Interpretasi Hasil Uji Regresi Berganda

Setelah uji Regresi Berganda selesai dilakukan, peneliti harus


melakukan interpretasi. Rumus Regresi Berganda (standar) adalah
sebagai berikut:

Setelah pengujian Regresi Berganda dengan SPSS selesai, hal-hal


penting untuk interpretasi adalah apa yang tercantum pada tabel-
tabel pada output SPSS.

Tabel Descriptives
Pada tabel Descriptive dapat dilihat nilai Standar Deviasi. Nilai
ini terdapat pada kolom Std. Deviation. Nilai ini nanti akan
diperbandingkan dengan nilai Std. Error of the Estimate.

Tabel Model Summary


Tabel ini memberi informasi seberapa baik model analisis kita
secara keseluruhan, yaitu bagaimana 4 variabel bebas mampu
memprediksikan 1 variabel terikat, dengan rincian sebagai berikut
ini:

Kolom Model. Menunjukkan berapa buah model analisis yang kita


bentuk.

Kolom R. Menunjukkan seberapa baik variabel-variabel bebas


memprediksikan hasil (multiple correlation coefficient). Kisaran nilai
R adalah 0 hingga 1. Semakin nilai R mendekati angka 1, maka
semakin kuat variabel-variabel bebas memprediksikan variabel
terikat. Namun, ketepatan nilai R ini lebih disempurnakan oleh
kolom Adjusted R Square yang merupakan koreksi atas nilai R.

Kolom Adjusted R Square. Fungsinya menjelaskan apakah sampel


penelitian mampu mencari jawaban yang dibutuhkan dari
populasinya. Kisaran nilai Adjusted R Square adalah 0 hingga 1.
Pedoman interpretasi atas nilai Adjusted R Square adalah sebagai
berikut:

Kalikan Adjusted R2 dengan 100% maka akan diperoleh berapa %


varians tiap sampel pada variabel terikat bisa diprediksi oleh
variabel-variabel bebas secara bersama-sama (simultan).

Std. Error of the Estimate. Kolom ini menjelaskan seberapa kuat


variabel-variabel bebas bisa memprediksi variabel terikat. Nilai Std.
Error of the Estimate diperbandingkan dengan nilai Std. Deviation
(bisa dilihat pada tabel Descriptives). Jika Std. Error of the Estimate
< Std. Deviation, maka Std. Error of the Estimate baik untuk
dijadikan prediktor dalam menentukan variabel terikat. Jika Std.
Error of the Estimate > Std. Deviation, maka Std. Error of the
Estimate tidak baik untuk dijadikan prediktor dalam mementukan
variabel terikat.

Durbin-Watson. Kolom ini digunakan untuk mengecek uji asumsi


Autokorelasi. Bagaimana variabel bebas yang satu berkorelasi
dengan variabel bebas lainnya. Durbin-Watson ini digunakan dalam
uji asumsi Regresi sebelumnya.

Tabel Coefficients
Pada tabel Coefficient, mohon perhatikan lalu jelaskan nilai-
nilai yang tertera pada kolom-kolom berikut ini:
Model. Kolom ini menjelaskan berapa banyak model analisis yang
dibuat peneliti. Pada kolom ini juga terdapat nama-nama variabel
bebas yang digunakan dalam penelitian. Variabel-variabel tersebut
diberi label Constant yaitu nilai konstanta yang digunakan dalam
persamaan uji Regresi Berganda (a).

Unstandardized Coefficient. Kolom ini terdiri atas b dan Std. Error.


Kolom b menunjukkan Koefisien b, yaitu nilai yang menjelaskan
bahwa Y (variabel terikat) akan berubah jika X (variabel bebas)
diubah 1 unit.

Standardized Coefficients. Pada kolom ini terdapat Beta. Penjelasan


sebelumnya mengenai nilai b punya masalah karena variabel-
variabel kerap diukur menggunakan skala-skala pengukuran yang
berbeda. Akibatnya, kita tidak bisa menggunakan nilai b guna
melihat variabel-variabel bebas mana yang punya pengaruh lebih
kuat atas variabel terikat. Misalnya, jika variabel yang diteliti adalah
jenis kelamin yang punya skala minimal 1 dan maksimal 2 dan
pengaruhnya terhadap sikap yang skalanya minimal 1 dan maksimal
6, nilai b diragukan efektivitas prediksinya. Ini akibat nilai yang
diperolehnya rendah atas pengaruh perbedaan skala pengukuran.
Untuk memastikan pengaruh inilah maka nilai Beta dijadikan
patokan. Nilai Beta punya kisaran 0 hingga 1, di mana semakin
mendekati 1 maka semakin berdampak besar signifikansinya.

Sig. Kolom ini menjelaskan tentang signifikansi hubungan antar


variabel bebas dengan variabel terikat. Nilai Sig. ini sebaiknya
adalah di bawah 0,05 (signifikansi penelitian).

Tolerance. Kolom ini menjelaskan banyaknya varians pada suatu


variabel yang tidak bisa dijelaskan oleh variabel prediktor lainnya.
Kisarannya 0 hingga 1, di mana semakin mendekati 1 maka
semakin mengindikasikan prediktor-prediktor lain tidak bisa
menjelaskan varians di variabel termaksud. Nilai yang semakin
mendekati 0 artinya hampir semua varians di dalam variabel bisa
dijelaskan oleh variabel prediktor lain. Nilai Torelance sebaiknya ada
di antara 0,10 hingga 1.

Tabel ANOVA
Sig. Tabel ANOVA menunjukkan besarnya angka probabilitas
atau signifikansi pada perhitungan ANOVA. Nilai yang tertera
digunakan untuk uji kelayanan Model Analisis [dimana sejumlah
variabel x mempengaruhi variabel y] dengan ketentuan angka
probabilitas yang baik untuk digunakan sebagai model regresi harus
< 0,05. Nilai ini bisa dilihat pada kolom Sig. Jika Sig. < 0,05, maka
Model Analisis dianggap layak. Jika Sig. > 0,05, maka Model Analisis
dianggap tidak layak.

Pengambilan Keputusan dengan Tabel ANOVA


Dalam Regresi Berganda, hal utama yang hendak dilihat
adalah apakah serangkaian variabel bebas secara serentak
mempengaruhi variabel terikat. Dalam output SPSS ini bisa
ditentukan lewat tabel ANOVA.

Pada tabel ANOVA terdapat kolom F. Nilai yang tertera pada kolom F
tersebut disebut sebagai F hitung. F hitung ini diperbandingkan
dengan F tabel. Peraturannya:

Persoalannya, bagaimana menentukan F tabel? F tabel dapat


ditentukan dengan cara:

1 Tentukan signifikansi penelitian yaitu 0,05 (uji 2 sisi jadi 0,025.


2 Tentukan df1. Df1 diperoleh dari jumlah variabel bebas
3 Tentukan df2. Df2 diperoleh dari n k 1 = 48 4 1 = 43.
4 Cari angka 43 dan 4 dalam tabel F untuk signifikansi 0,025.
5 Dengan Excel, ketikkan rumus =FINV(0,05;4;43)

Selain perbandingan nilai F, penerimaan atau penolakan Hipotesis


juga bisa menggunakan nilai Sig. pada tabel ANOVA. Peraturannya:
Koefisien Determinasi
Dalam uji Regresi Berganda, Koefisien Determinasi digunakan
untuk mengetahui persentase sumbangan pengaruh serentak
variabel-variabel bebas terhadap variabel terikat. Untuk itu,
digunakan angka-angka yang ada pada Tabel Model Summary.

Cara menentukan Koefisien Determinasi sangatlah mudah. Peneliti


tinggal melihat nilai pada kolom R2 dikalikan 100%. Misalnya nilai
R2 adalah 0,7777. Dengan demikian Koefisien Determinasinya =
0,7777 x 100% = 77,77%. Jadi, secara serentak variabel-variabel
bebas mempengaruhi variabel terikat sebesar 77,77%. Sisanya,
yaitu 100 77,77% = 22,23% ditentukan oleh variabel-variabel lain
yang tidak disertakan di dalam penelitian.

Koefisien Regresi Parsial

Koefisien Regresi Parsial menunjukkan apakah variabel-variabel


bebas punya pengaruh secara parsial (terpisah atau sendiri-sendiri)
terhadap variabel terikat?

Pada Tabel Coefficient, pengujian Hipotesis akan dilakukan. Uji


hipotesis dilakukan dengan menggunakan Uji t. Pernyataan
Hipotesis yang hendak diuji sebagai berikut:
Nilai t hitung bisa dilihat pada kolom t bagi masing-masing variabel
bebas.

Nilai t tabel bisa dicari dengan cara berikut ini:

1 = 0,05; untuk uji 2 sisi = 0,025


2 Degree of Freedom (df) = jumlah sampel jumlah variabel
bebas 1 (angka 1 adalah konstanta) = 48 4 1 = 43.
3 Cari persilangan antara df = 43 dan 0,025.
4 Pencarian nilai t tabel dengan Excel mudah sekali. Ketik rumus
=tinv(0,05;43).

3.4 Studi Kasus

DATA

Y (kg) X1 (cm) X2 (thn)


32 57 8
36 59 10
27 49 6
34 62 11
28 51 8
29 50 7
39 55 10
29 48 9
28 42 10
26 42 6
38 61 12
39 57 9

Data diatas untuk melihat bagaimana Berat badan sebagai Variabel


Dependen yang dinotasikan dengan (Y) bervariasi menurut Tinggi
Badan (cm) yang dinotasikan dengan X1 dan Umur (thn) yang
dinotasikan dengan (X2).

Data diatas akan dilakukan analisis regresi berganda dengan


bantuan sofware SPSS 17 menggunakan tingkat signifikansi 0,05
dengan hasil pengolahan data sebagai berikut:

Variables Entered/Removed

Mode Variables Variables


l Entered Removed Method

1 x2, x1a . Enter

a. All requested variables entered.


Model Summaryb

Std. Error
Mode R Adjusted R of the
l R Square Square Estimate

1 .843a .711 .647 2.915

a. Predictors: (Constant), x2, x1

b. Dependent Variable: y

Model Summaryb

Change Statistics

Mode R Square F Sig. F Durbin-


l Change Change df1 df2 Change Watson

1 .711 11.087 2 9 .004 1.536

b. Dependent Variable: y
ANOVAb

Sum of Mean
Model Squares df Square F Sig.

1 Regressio 188.434 2 94.217 11.087 .004a


n

Residual 76.483 9 8.498

Total 264.917 11

a. Predictors: (Constant), x2, x1

b. Dependent Variable: y

Coefficientsa

Standardiz
ed
Unstandardized Coefficient
Coefficients s

Model B Std. Error Beta t Sig.

1 (Constan 1.939 6.847 .283 .783


t)

x1 .423 .163 .588 2.593 .029

x2 .886 .586 .343 1.511 .165

a. Dependent Variable: y
Residuals Statisticsa

Minimu Maximu Std.


m m Mean Deviation N

Predicted Value 25.02 38.38 32.08 4.139 12

Residual -3.917 4.971 .000 2.637 12

Std. Predicted -1.705 1.521 .000 1.000 12


Value

Std. Residual -1.344 1.705 .000 .905 12

a. Dependent Variable: y

Taksiran parameter diperoleh dari hasil pengolahan SPSS yaitu;

b0 : 1.939

b1 : 0,423

b2 : 0,886

sehingga diperoleh model

Sehingga dapat dilakukan interpretasi sebagai berikut :

1. Nilai F (F Value) adalah 11.087 dengan nilai p (Prob>F) =


0,004 yang memberikan informasi tentang signifikansi model.
Karena nilai p < maka model signifikan secara statistic.
Karena diolah dengan menggunakan SPSS maka Nilai F tidak
perlu dibandingkan dengan F tabel.
2. Daya ramal model diberikan oleh nilai R 2 (R-Square) sebesar
0,711. Hal ini menunjukkan bahwa sebesar 71,1% variasi dari
Y dapat dijelaskan model. Nilai Adj-R-Sqr sebesar 0,647
menjelaskan bahwa sebesar 64,7% variable independen X1
dan X2 menjelaskan variable Y.
3. Dengan melihat nilai p pada tabel Coefficients maka untuk X1
dengan nilai p = 0,029 dapat disimpulkan bahwa : Jika tinggi
(X1) bertambah satu cm, maka berat (Y) dapat bertambah
0,423kg untuk anak-anak yang mempunyai umur yang sama.

BAB IV

PENUTUP

Kesimpulan

1. Regresi linier ganda (Multivariate Linear Regression) adalah


analisis yang dilakukan apabila satu variabel dependen Y perlu
dijelaskan oleh lebih dari satu variabel independen X.
2. Pengujian keberartian persamaan regresi ganda menggunakan
F tes dan pengujian koefisien regresi menggunakan t tes.
3. Untuk mengetahui besarnya kontribusi variabel bebas terhadap
variabel terikatnya diperlukan perhitungan koefisien korelasi.
4. Untuk mengetahui besarnya kontribusi masing-masing variabel
bebas terhadap variabel terikat dengan mempertimbangkan
hubungan variabel bebas lainnya, baik terhadap variabel terikat
maupun variabel bebas yang dicari kontribusinya,.