Anda di halaman 1dari 31

ANALISIS REGRESI BERGANDA DAN UJI ASUMSI KLASIK

Makalah ini untuk memenuhi tugas Mata Kuliah Ekonometrika


yang diampu oleh Dr. H. Karim, M.Si. Rizki Amalia, M.Pd., dan Taufiq Hidayanto, M.Pd.

Nama Anggota Kelompok:

Achmad Fredi NIM. 1810118310029

Ellina Normarisda NIM. 1810118120017

Rizky Tata Amalia NIM. 1810118320018

PROGRAM STUDI PENDIDIKAN MATEMATIKA


FAKULTAS KEGURUAN DAN ILMU PENDIDIKAN
UNIVERSITAS LAMBUNG MANGKURAT
BANJARMASIN
2021
BAB I
PENDAHULUAN
1.1 Latar belakang

Statistika adalah ilmu yang mempelajari bagaimana merencanakan,


mengumpulkan, menganalisis dan mempresentasikan data. Singkatnya,
statistika adalah ilmu yang berkenan dengan data. Statistika dibagi menjadi
dua, yaitu Statistika Deskriptif dan Statistika Inferensial. Statistika
deskriptif berkenaan dengan deskripsi data, misalnya dari menghitung rata-
rata dan varians dari data mentah; mendeksripsikan menggunakan tabel-
tabel atau grafik sehingga data mentah lebih mudah “dibaca” dan lebih
bermakna. Sedangkan statistika inferensial lebih dari itu, misalnya
melakukan pengujian hipotesis, melakukan prediksi observasi masa
depan, atau membuat model regresi.
Penggunaan statistika dalam segala bidang akan mempengaruhi
tingkat analisis dari hasil penelitian yang sedang dilakukan. Penelitian yang
menggunakaan aspek perhitungan statistik akan memperoleh data yang
hamper mendekati benar atau dengan memperhatikan dari analisa regresi.
Untuk mengukur besarnya pengaruh variabel bebas terhadap variabel
tergantung dan memprediksi variabel tergantung dengan menggunakan
variabel bebas. Analisis regresi sebagai kajian terhadap hubungan satu
variabel yang disebut sebagai variabel yang di terangkan (the explained
variabel) dengan satu atau dua variabel yang menerangkan (the explanatory)
. Variabel pertama disebut juga sebagai variabel tergantung dan variabel
kedua disebut juga sebagai variabel bebas. Jika variabel bebas lebih dari
satu, maka analisis regresi disebut regresi linear berganda. Disebut
berganda karena pengaruh bebrapa variabel bebas akan dikenakan
variabel tergantung.
Regresi merupakan suatu teknik statistika yang dapat digunakan
untuk menggambarkan hubungan fungsional antara suatu variabel tak
bebas (respon) dengan satu atau beberapa variabel bebas (deterministik).
Menurut Drapper and Smith (1992) analisis regresi merupakan metode
analisis yang dapat digunakan untuk menganalisis data dan mengambil
kesimpulan yang bermakna tentang hubungan ketergantungan variabel
terhadap variabel lainnya.
Analisa regresi berganda adalah salah satu metode statistika yang
sering digunakan untuk mengetahui sejauh mana ketergantungan dan
hubungan sebuah variabel tak bebas dengan sebuah atau lebih variabel
bebas, bila dalam analisisnya hanya melibatkan sebuah variabel bebas
maka regresi linier sederhana. Sedangkan bila dalam analisisnya
melibatkan dua atau lebih variabel bebas maka analisis yang digunakan
adalah analisis linear berganda. Hubungan dan pengaruh dua variabel
tersebut bermanfaat untuk mengetahui kondisi atau dampak yang terjadi
akibat adanya perubahan suatu variabel terhadap variabel lainnya,
sehingga dapat disusun suatu rencana dalam menghadapi dampak tersebut
Seringkali digunakan untuk mengatasi permasalahan analisis regresi yang
melibatkan hubungan dari dua atau lebih variabel bebas. Maka dari itu,
kami membuat makalah ini dengan judul “Analisis Regresi Linear
Berganda”

1.2 Rumusan Masalah


Berdasarkan latar belakang di atas, dapat di rumuskan sebuah
permasalahan sebagai berikut:
1.2.1 Apa pengertian Analisis Regresi Linear Berganda?

1.2.2 Bagaimana Taksiran Model Analisis Regresi Linear Berganda

1.2.3 ApaAsumsi Kelayakan Model Analisis Regresi Linear Berganda?

1.2.4 Apa Interpretasi Model Analisis Regresi Linear Berganda?

1.3 Tujuan Penulisan


Berikut ini adalah beberapa tujuan penulisan makalah :
1.3.1 Untuk mengetahui definisi Analisis Regresi Linear Berganda
1.3.2 Untuk mengetahui Taksiran Model Analisis Regresi Linear Berganda
1.3.3 Untuk mengetahui Asumsi Kelayakan Model Analisis Regresi Linear
Berganda
1.3.4 Untuk mengetahui Interpretasi Model Analisis Regresi Linear Berganda

1.4 Metode Penulisan


Dalam penulisan makalah ini kami menggunakan metode study
kepustakaan yaitu proses pencarian dan pengumpulan data dari buku-buku dan
situs-situs yang berhubungan dengan judul makalah yang kami buat.
BAB II
LANDASAN TEORI

2.1 Pengertian Regresi


Istilah regresi pertama kali diperkenalkan oleh Sir Francis Galton pada
tahun 1886. Galton menemukan adanya tendensi bahwa orang tua yang
memiliki tubuh tinggi memiliki anak-anak yang tinggi, orang tua yang pendek
memiliki anak- anak yang pendek pula. Kendati demikian. Ia mengamati
bahwa ada kecenderungan tinggi anak cenderung bergerak menuju rata- rata
tinggi populasi secara keseluruhan. Dengan kata lain, ketinggian anak yang
amat tinggi atau orang tua yang amat pendek cenderung bergerak kearah rata-
rata tinggi populasi. Inilah yang disebut hukum Golton mengenai regresi
universal. Dalam bahasa galton, ia menyebutkan sebagai regresi menuju
mediokritas.
Hukum regresi semesta (law of universal regression) dari Galton diperkuat
oleh temannya Karl Pearson, yang mengumpulkan lebih dari seribu catatan
tinggi anggota kelompok keluarga. Ia menemukan bahwa rata-rata tinggi anak
laki-laki kelompok ayah (yang) pendek lebih besar dari pada tinggi ayah mereka,
jadi “mundurnya” (“regressing”) anak laki-laki yang tinggi maupun yang
pendek serupa kea rah rata-rata tinggi semua laki-laki. Dengan kata lain Galton,
ini adalah “kemunduran kearah sedang”.
Secara umum, analisis regresi pada dasarnya adalah studi mengenai
ketergantungan satu variabel dependen (terikat) dengan satu atau lebih variabel
independent (variabel penjelas/bebas), dengan tujuan untuk mengestimasi
dan/ atau memprediksi rata-rata populasi atau niiai rata-rata variabel dependen
berdasarkan nilai variabe! independen yang diketahui. Pusat perhatian adalah
pada upaya menjelaskan dan mengevalusi hubungan antara suatu variabel
dengan satu atau lebih variabel independen. Hasil analisis regresi adalah
berupa koefisien regresi untuk masing-masing variable independent. Koefisien
ini diperoleh dengan cara memprediksi nilai variable dependen dengan suatu
persamaan.
Interpretasi modern mengenai regresi agak berlainan dengan regresi versi
Galton. Secara umum. analisis regresi pada dasarnya adalah studi mengenai
ketergantungan variabel dependen (terikat) dengan satu atau lebih variabel
independen (variabel penjelas/bebas), dengan tujuan untuk mengestimasi
dan/atau memprediksi rata-rata populasi atau nilai rata-rata variabel dependen
berdasarkan nilai variabel independen yang diketahui (Gujarati, 2003).
Hasil analisis regresi adalah berupa koefisien untuk masing- masing variabel
independen. Koefisien ini diperoleh dengan cara memprediksi nilai variabel
dependen dengan suatu persamaan; Koefisien regresi dihitung dengan dua
tujuan sekaligus: Fertama, meminimumkan penyimpangan antara nilai aktual
dan nilai estimasi variabel dependen berdasarkan data yang ada (Tabachnick,
1996).

2.2 Analisis Regresi Linear Berganda


Dalam ilmu sosial (pendidikan) jarang terjadi adanya hubungan antara
dua variabel saja. Sebagian besar satu variabel mempunyai hubungan dengan
banyak variabel sehingga dalam analisis statistik pun hendaknya digunakan
alat statistik yang bisa mencakup hubungan banyak variabel. Apabila kita
jumpai satu variabel terikat yang dipengaruhi oleh beberapa variabel bebas
dalam mempengaruhi variabel terikat itu bermacam- macam, sehingga bentuk
hubungannyapun berbeda.
Dalam kajian ilmu sosial maupun kependidika sering terjad sifat hubungan
berjenjang. Ini berarti bahwa variabel bebas dalam mempengaruhi variabel
terikat tidak terjadi secara langsung, tetapi melalui variavel lain. Variabel lain
menjembatani pengaruh variabel bebas terhadap variabel terikat tersebut dengan
variabel antara. Disamping itu, antar variabel bebas itu sendiri mempunyai pola
hubungan yang tidak tetap artinya bisa benar-benar bebas, berkorelasi tetapi tidak
signifikan, mempunyai hubungan yang tidak erat.
Pola hubungan-hubungan regresi ganda yang akan dibahas pada makalah
ini diantaranya:
2.2.1 Masing-masing variabel bebas berdiri sendiri dalam mempengaruhi
variabel terikat. Dalam kondisi ini antar variabel bebas tidak terdapat
hubungan yang signifikan. Jika kondisi ini yang dijumpai, maka hasil
perhitungan kuadrat koefisien merupakan jumlah sumbangan/kontribusi
variabel bebas terhadap variabel terikat. Besarnya kontribusi total variabel
bebas terhadap variabel terikat merupakan jumlah kontribusi masing-
masing variabel bebas terhadap variabel terikat.
2.2.2 Masing-masing variabel bebas tidak berdiri sendiri-sendir, tetapi antar
mereka mempunyai kebebasan dalam mempengaruhi variabel terikat.
Walaupun unsure kebersamaan tetapi masih adasifat mandirinya dalam
memberikan kontribusi terhadap variabel terikat. Kalau sifat mandirinya
variabel tersebut tidak ada, maka dengan menghilangkan variabel bebas
tersebut tidak akan mempengaruhi besarnya kontribusi. Hal ini disebabkan
oleh karena kontribusi variabel bebas yang tidak mempunyai sifat mandiri
telah diwakili oleh variabel bebas lainnya. Jika korelasi antar variabel bebas
sangat besar, maka sifat mandiri variabel bebas dalam memberikan
kontribusi terhadap variabel terikat sangat kecil, demikian pula sebaliknya.
2.2.3 Variabel bebas dalam mempengaruhi variabel terikat tidak langsung,
sehingga ada variabel antara yang menjembatani hubungan antara variabel
bebas dan variabel terikat. Dalam kasus ini peneliti hendaknya hati-hati,
karena tanpa memperhatikan variabel antara dapat memberikan keputusan
yang salah dan tidak rasional. Kalau variabel antara dilibatkan dalam
analisis, maka analisisnya berjenjang. Mula-mula menganalisis hubungan
antara variabel bebas dengan variabel antara, baru kemudian mencari
hubungan variabel antara dengan variabel terikatnya.

Apabila yang kita hadapi adala kondisi (pola) pertama, maka analisisnya
akan sederhana. Sebaliknya jika yang kita hadapi adalah pola yang kedua, maka
kita harus melihat besarnya kontribusi bersama maupun yang benar-benar
terpisah. Lain halnya jika tujuan kita tidak akan melihat kontribusi variabel
bebas terhadap variabel terika, tetapi hanya sekedar untuk melakukan prediksi
atas nilai variabel terikat dengan dasar variabel bebas. Tujuan yang terakhir ini
kurang mempunyai sumbangan dalam pengambilan kebijakan. Sebaiknya kita
dapat menggunakan analisis statistik (khususnya regresi ganda) semaksimal
mungkin. Semakin banyak variabel bebas yang dilibatkan dalam perhitungan
(tentunya sesuai dengan teori yang mendasari penelitian) semakin baik
keputusan yang dapat diambil.

Mengingat dewasa ini komputer telah diprogram untuk membantu


peneliti dalam menganalisis data yang melibatkan banyak variabel, maka
analisis statistik tidak perlu ditakuti. Walaupun demikian pemakai hasil
(output) komputer hendaknya memahami konsep analisis yang diperintahkan.
Tanpa mengetahui konsep dasarnya hasil analisis komputer tidak dapat
membantu pemakai dalam menginterpretasikan serta mengambilkeputusan. Di
samping itu, tanpa pengetahuan statistik memungkinkan penelitian tidak tahu
adanya kesalahan dalam analisis maupun kelemahan nalisis, padahal kesalahan
serta kelemahan itu masih berkemungkinan muncul. Ingat bahwa komputer itu
bergantung pada orang yang menjalankannya (dalam hal ini adalah orang yang
memerintah), jika perintahnya tidak sesua dengan tujuan awal maka
hasilnyapun akan menyimpang atau bahkan tidak ada hasil sama sekali karena
komputer tidak dapat mengolah (memproses).

Regresi linier berganda adalah analisis regresi yang menjelaskan


hubungan antara peubah respon (variabel dependen) dengan faktor-faktor yang
mempengaruhi lebih dari satu prediktor (variabel independen).

Regresi linier berganda hampir sama dengan regresi linier sederhana, hanya
saja pada regresi linier berganda variabel bebasnya lebih dari satu variabel
penduga. Tujuan analisis regresi linier berganda adalah untuk mengukur
intensitas hubungan antara dua variabel atau lebih dan membuat prediksi perkiraan
nilai Y atas X
Garis regresi yang baik mempunyai cirri-ciri :
a(Y) = 0
a(Y) 2 = nilai minimum
dimana
Y = nilai actual variable Y
a = nilai taksirn vaiabel Y

Setelah kita menentukan bentuk garis regresi maka tindakan selanjutnya


adalah menentukan ketepatan garis regresi tersebut. Dengan diagram pencar
dapat diketahui secara kasar ketepatan garis regresi dengan memperhatikan luas
penyimpangan terhadap garis regresi yang berupa titik-titik kordinat. Bila
penyebaran titik kordinat tidak luas berarti semakin tepat garis regresi yang kita
buat sebaliknya.
Analisis regresi linear berganda sebenarnya sama dengan analisis regresi
linear sederhana, hanya variabel bebasnya lebih dari satu buah. Persamaan
umumnya adalah:
Y = a + b1 X 1 + b2 X 2 + + bn X n .
Dengan Y adalah variabel bebas, dan X adalah variabel- variabel bebas,
a adalah konstanta (intersept) dan b adalah koefisien regresi pada masing-
masing variabel bebas.

Interpretasi terhadap persamaan juga relatif sama, sebagai ilustrasi,


pengaruh antara motivasi (X1), kompensasi (X2) dan kepemimpinan (X3)
terhadap kepuasan kerja (Y) menghasilkan persamaan sebagai berikut:
Y = 0,235 + 0,21 X1 + 0,32 X2 + 0,12 X3
2.2.3.1 Jika variabel motivasi meningkat dengan asumsi variabel kompensasi
dan kepemimpinan tetap, maka kepuasan kerja juga akan meningkat.
2.2.3.2 Jika variabel kompensasi meningkat, dengan asumsi variabel motivasi
dan kepemimpinan tetap, maka kepuasan kerja juga akan meningkat.
2.2.3.3 Jika variabel kepemimpinan meningkat, dengan asumsi variabel
motivasi dan kompensasi tetap, maka kepuasan kerja juga akan
meningkat.

Interpretasi terhadap konstanta (0,235) juga harus dilakukan secara hati-hati.


Jika pengukuran variabel dengan menggunakan skala Likert antara 1 sampai
dengan 5 maka tidak boleh diinterpretasikan bahwa jika variabel motivasi,
kompensasi dan kepemimpinan bernilai nol, karena ketiga variabel tersebut tidak
mungkin bernilai nol karena Skala Likert terendah yang digunakan adalah 1.
Analisis regresi linear berganda memerlukan pengujian secara serempak
dengan menggunakan F hitung. Signifikansi ditentukan dengan
membandingkan F hitung dengan F tabel atau melihat signifikansi pada output
SPSS. Dalam beberapa kasus dapat terjadi bahwa secara simultan (serempak)
beberapa variabel mempunyai pengaruh yang signifikan, tetapi secara parsial
tidak. Sebagai ilustrasi: seorang penjahat takut terhadap polisi yang membawa
pistol (diasumsikan polisis dan pistol secara serempak membuat takut
penjahat). Akan tetapi secara parsial, pistol tidak membuat takut seorang
penjahat. Contoh lain: air panas, kopi dan gula menimbulkan kenikmatan,
tetapi secara parsial, kopi saja belum tentu menimbulkan kenikmatan.
Penggunaan metode analisis regresi linear berganda memerlukan uji
asumsi klasik yang secara statistik harus dipenuhi. Asumsi klasik yang sering
digunakan adalah asumsi normalitas, multikolinearitas, autokorelasi,
heteroskedastisitas dan asumsi linearitas.
Langkah-langkah yang lazim dipergunakan dalam analisis regresi linear
berganda adalah
1) koefisien determinasi
2) Uji F
3 ) uji t.
Persamaan regresi sebaiknya dilakukan di akhir analisis karena interpretasi
terhadap persamaan regresi akan lebih akurat jika telah diketahui
signifikansinya. Koefisien determinasi sebaiknya menggunakan Adjusted R
Square dan jika bernilai negatif maka uji F dan uji t tidak dapat dilakukan.
Bentuk-bentuk regresi yang juga sering digunakan dalam penelitian adalah
regresi logistik atau regresi ordinal.
BAB III
PEMBAHASAN
3.1 Analisis Regresi
Analisis regresi merupakan studi dalam menjelaskan dan mengevaluasi
hubungan antara suatu peubah bebas (independent variable) dengan satu
peubah tak bebas (dependent variable) dengan tujuan untuk
mengestimasi dan atau meramalkan nilai peubah tak bebas didasarkan
pada nilai peubah bebas yang diketahui (Widarjono, 2005).

Analisis regresi adalah teknik statistika yang berguna untuk memeriksa


dan memodelkan hubungan diantara variabel-variabel. Penerapannya dapat
dijumpai secara luas di banyak bidang seperti teknik, ekonomi, manajemen,
ilmu-ilmu biologi, ilmu-ilmu sosial, dan ilmu-ilmu pertanian. Pada saat ini,
analisis regresi berguna dalam menelaah hubungan dua variabel atau lebih,
dan terutama untuk menelusuri pola hubungan yang modelnya belum
diketahui dengan sempurna, sehingga dalam penerapannya lebih bersifat
eksploratif.

Analisis regresi dikelompokkan dari mulai yang paling sederhana sampai


yang paling rumit, tergantung tujuan yang berlandaskan pengetahuan atau
teori sementara, bukan asal ditentukan saja. jika dalam persamaan regresi
hanya terdapat satu variabel terikat,maka disebut sebagai regresi sederhana.
Sedangkan jika variabel bebasnya lebih dari satu, maka disebut sebagai
persamaan regresi berganda

Analisis regresi merupakan analisis data untuk mengetahui seberapa besar


pengaruh suatu variabel independen terhadap variabel dependen. Analisis
regresi terbagi menjadi regresi linear dan nonlinear. Regresi linear dibagi
menjadi dua bagian yaitu, regresi linear sederhana dan regresi linear
berganda. Analisis regresi adalah salah satu analisis yang paling populer dan
luas pemakaiannya. Hampir semua bidang ilmu yang memerlukan analisis
sebab-akibat boleh dipastikan mengenal analisis ini.

3.2 REGRESI LINEAR BERGANDA

Regresi berganda seringkali digunakan untuk mengatasi permasalahan


analisis regresi yang melibatkan hubungan dari dua atau lebih variabel bebas.
Pada awalnya regresi berganda dikembangkan oleh ahli ekonometri untuk
membantu meramalkan akibat dari aktivitas-aktivitas ekonomi pada berbagai
segmen ekonomi. Misalnya laporan tentang peramalan masa depan
perekonomian di jurnal-jurnal ekonomi (Business Week, Wal Street Journal,
dll), yang didasarkan pada model-model ekonometrik dengan analisis
berganda sebagai alatnya. Salah satu contoh penggunaan regresi berganda
dibidang pertanian diantaranya ilmuwan pertanian menggunakan analisis
regresi untuk menjajagi antara hasil pertanian (misal: produksi padi per
hektar) dengan jenis pupuk yang digunakan, kuantitas pupuk yang diberikan,
jumlah hari hujan, suhu, lama penyinaran matahari, dan infeksi
serangga.Model regresi linier berganda merupakan pengembangan signifikan
dari model regresi linier sederhana. Jika regresi sederhana hanya ada satu
variabel dependen (Y) dan satu variabel independen (X), maka pada kasus
regresi berganda, terdapat satu variabel dependen dan lebih dari satu variabel
independen.

Analisis Regresi Linear Berganda digunakan untuk mengukur


pengaruh antara lebih dari satu variabel prediktor (variabel independen)
hingga k-variabel prediktor terhadap variabel dependen.
Bentuk umum sebuah model regresi untuk k variabel bebas adalah :

dimana merupakan variabel acak, parameter

adalah koefisien-koefisien regresi yang perlu diduga. Variabel-

variabel mungkin seluruhnya sebagai variabel-variabel

dasar yang berbeda atau diantaranya sebagai fungsi dari variabel dasar yang
lain. Jika kejadian pertama yang terjadi, kita peroleh model regresi linear
berganda, karena semua variabelnya linear dan tidak ada yang merupakan
fungsi dari variabel lainnya. (Tiro, 2006)

Menurut Tiro (2006), asumsi untuk regresi linear berganda


yaitu;

1. Asumsi Eksistensi
Untuk setiap kombinasi khusus nilai-nilai tetap dari variabel bebas

(dasar) (misalnya X1= 57, X2 = 8) adalah variabel acak


(univariate) dengan distribusi peluang tertentu yang mempunyai nilai rata-
rata dan variansi terhingga.
2. Asumsi Kebebasan
Nilai-nilai Y adalah hasil pengamatan yang bebas statistik antara satu
dengan lainnya.

3. Asumsi kelinearan

Nilai rata-rata Y, untuk setiap kombinasi nilai khusus dari

dan ditulis dengan notasi adalah sebuah fungsi linear dari

Atau

4. Asumsi Kehomogenan

Variansi Y sama untuk setiap kombinasi tertentu dari ,

yakni

5. Asumsi Kenormalan

Untuk setiap nilai kombinasi tertentu , Y mempunyai

distribusi normal. Kita gunakan simbol

yang berarti Y berdistribusi normal dengan rata-rata dan

variansi . Asumsi ini tidak diperlukan untuk membuat model regresi

akan tetapi umumnya diperlukan untuk membuat inferensi.

Misalkan banyaknya variabel bebas berjumlah 2 (k=2), nilai data variabel


tersebut, dapat dituliskan sebagai berikut:
(
Untuk menghitung nilai 0 , 1, 2 apabila k=2 sebagai taksiran ,

melalui metode OLS (Ordinary Least Square) dengan hasil sebagai

berikut:

3.3 Pengujian Analisis Linear Berganda


Menurut Julie Pallant dan Andy Field, Uji Regresi Berganda punya
sejumlah asumsi yang tidak boleh dilanggar. Asumsi-asumsi Uji Regresi
Berganda adalah:

1. Ukuran Sampel
Masalah berkenaan ukuran sampel di sini adalah generabilitas.
Dengan sampel kecil anda tidak bisa melakukan generalisasi (tidak bisa
diulang) dengan sampel lainnya. Berbeda penulis berbeda berapa sampel
yang seharusnya dalam uji Regresi Berganda. Stevens (1996, p.72)
merekomendasikan bahwa “untuk penelitian ilmu sosial, sekitar 15 sampel
per prediktor (variabel bebas) dibutuhkan untuk mengisi persamaan uji
regresi.” Tabachnick and Fidell (1996, p.132) memberi rumus guna
menghitung sampel yang dibutuhkan uji Regresi, berkaitan dengan jumlah
variabel bebas yang digunakan:

n > 50 + 8m

Dimana :
n = Jumlah Sampel
m = Jumlah Variabel Bebas

Jika peneliti menggunakan 5 variabel bebas, maka jumlah sampel yang


dibutuhkan adalah 90 orang, dalam mana 50 ditambah ( 5 x 8)
= 50 + 40 = 90.

2. Outlier
Regresi Berganda sangat sensitif terhadap Outlier (skor terlalu tinggi
atau terlalu rendah). Pengecekan terhadap skor-skor ekstrim seharusnya
dilakukan sebelum melakukan Regresi Berganda. Pengecekan ini dilakukan
baik terhadap variabel bebas maupun terikat. Outlier bisa dihapus dari data
atau diberikan skor untuk variabel tersebut yang tinggi, tetapi tidak terlampau
beda dengan kelompok skor lainnya. Prosedur tambahan guna mendeteksi
outlier juga terdapat pada program SPSS file mah_1. Outlier pada variabel
terikat dapat diidentifikasi dari Standardised Residual plot yang dapat
disetting. Tabachnick and Fidell (1996, p. 139) menentukan outlier adalah
nilai-nilai Standardised Residual di atas 3,3 (atau < - 3,3).

Outlier juga bisa dicek menggunakan jarak Mahalanobis yang tidak


diproduksi oleh program Regresi Berganda SPSS ini. Ia tidak terdapat
dalam output SPSS. Untuk mengidentifikasi sampel mana yang merupakan
Outlier, anda perlu menentukan nilai kritis Chi Square, dengan menggunakan
jumlah variabel bebas yang digunakan dalam penelitian sebagai “degree of
freedom-nya” atau derajat kebebasan. Pallant menggunakan Alpha 0,001 agar
lebih meyakinkan, yang rinciannya sebagai berikut:
Untuk menggunakan tabel kritis Chi Square, lakukan langkah berikut:

1. Tentukan variabel bebas yang digunakan dalam analisis;


2. Temukan nilai di atas pada salah satu kolom berbayang; dan
3. Baca melintasi kolom untuk menemukan nilai kritis yang dikehendaki.

3. Normalitas Residu
Normalitas adalah residu yang seharusnya terdistribusi normal seputar
skor-skor variabel terikat. Residu adalah sisa atau perbedaan hasil antara
nilai data pengamatan variabel terikat terhadap nilai variabel terikat hasil
prediksi. Untuk melihat apakah residu normal atau tidak, dapat dilakukan
dengan cara berikut:
 Melihat grafik Normal P-P Plot, dan
 Uji Kolmogorov-Smirnov
Pada grafik Normal P-P Plot, residu yang normal adalah data
memencar mengikuti fungsi distribusi normal yaitu menyebar seiring garis
z diagonal. Residu normal dari uji Kolmogorov-Smirnov adalah
diperolehnya nilai p > 0,05.

Linieritas adalah residual yang seharusnya punya hubungan dalam


bentuk “straight-line” dengan skor variabel terikat yang diprediksi.
Homoskedastisitas adalah varians residual seputar skor-skor variabel
terikat yang diprediksi seharusnya sama bagi skor-skor yang diprediksi
secara keseluruhan.

4. Multikolinieritas

Uji Regresi mengasumsikan variabel-variabel bebas tidak memiliki


hubungan linier satu sama lain. Sebab, jika terjadi hubungan linier
antarvariabel bebas akan membuat prediksi atas variabel terikat menjadi bias
karena terjadi masalah hubungan di antara para variabel bebasnya.
Dalam Regresi Berganda dengan SPSS, masalah Multikolinieritas ini
ditunjukkan lewat tabel Coefficient, yaitu pada kolom Tolerance dan kolom
VIF (Variance Inflated Factors). Tolerance adalah indikator seberapa banyak
variabilitas sebuah variabel bebas tidak bisa dijelaskan oleh variabel bebas
lainnya. Tolerance dihitung dengan rumus 1 – R2 untuk setiap variabel bebas.
Jika nilai Tolerance sangat kecil (< 0,10), maka itu menandakan korelasi
berganda satu variabel bebas sangat tinggi dengan variabel bebas lainnya dan
mengindikasikan Multikolinieritas. Nilai VIF merupakan invers dari nilai
Tolerance (1 dibagi Tolerance). Jika nilai VIF > 10, maka itu
mengindikasikan terjadinya Multikolinieritas.

Hipotesis untuk Multikolinieritas ini adalah:

5. Autokorelasi
Autokorelasi juga disebut Independent Errors. Regresi Berganda
mengasumsikan residu observasi seharusnya tidak berkorelasi (atau bebas).
Asumsi ini bisa diuji dengan teknik statistik Durbin-Watson, yang
menyelidiki korelasi berlanjut antar error (kesalahan). Durbin-Watson
menguji apakah residual yang berdekatan saling berkorelasi. Statistik
pengujian bervariasi antara 0 hingga 4 dengan nilai 2 mengindikasikan
residu tidak berkorelasi. Nilai > 2 mengindikasikan korelasi negatif antar
residu, di mana nilai < 2 mengindikasikan korelasi positif. >

Cara melakukan uji Durbin-Watson adalah, nilai Durbin-Watson hitung


harus lebih besar dari batas atas Durbin-Watson tabel. Syarat untuk mencari
Durbin-Watson tabel adalah Tabel Durbin-Watson. Untuk mencari nilai
Durbin-Watson tabel:

1. tentukan besar n (sampel) dan k (banyaknya variabel bebas).


2. Tentukan taraf signifikansi penelitian yaitu 0,05.

Durbin-Watson hitung dapat dicari dengan SPSS. Nilai Durbin- Watson


hitung terdapat dalam output SPSS, khususnya pada tabel Model Summary.
Hipotesis untuk Autokorelasi ini adalah:
Pengambilan keputusannya adalah:

Dengan kurva normal pengambilan Durbin-Watson:

1. Terima H0 jika Durbin-Watson hitung lebih besar dari.................dan


Durbin-Watson hitung lebih kecil dari 4 - .....; Artinya tidak ada
Autokorelasi.
2. Tolak H0 jika Durbin-Watson hitung lebih kecil dari ..... atau 4
- ..... lebih kecil dari............; Artinya ada Autokorelasi.

6. Homoskedastisitas
Uji Regresi bisa dilakukan jika data bersifat Homoskedastisitas bukan
Heteroskedastisitas. Homoskedastisitas adalah kondisi dalam mana varians
dari data adalah sama pada seluruh pengamatan. Terdapat sejumlah uji guna
mendeteksi gejala heteroskedastisitas misalnya uji Goldfeld-Quandt dan Park.
Namun, Wang and Jain beranggapan bahwa Uji Park dapat lebih teliti dalam
memantau gejala heteroskedastisitas ini. Dengan demikian, penelitian ini
akan menggunakan Uji Park guna menentukan gejala heteroskedastisitas
variabel-variabelnya.

Uji Park dilakukan dengan meregresikan nilai residual (Lne2) dengan masing-
masing variabel independent. “The Park test suggests that if heteroscedasticity
is present, the heteroscedastic varianc eσ_i^2 may be systematically related
to one or more of the explanatory variables.” Rumus uji Park sebagai berikut:

Cara melakukan Uji Park adalah sebagai berikut:

1. Dengan SPSS klik Analyze -->Regression --> Linear --> Masukkan


variabel y ke Dependent --> Masukkan variabel x1, x2, x3, x4 ke
Independent(s) --> Klik Save --> Pada Residual klik Unstandardized -->
Continue --> OK
2. Pada SPSS klik Data View --> Cek bahwa ada satu variabel baru bernama
res_1. Ini merupakan nilai ε_i^ . Nilai ini harus dikuadratkan dengan cara
(pada SPSS) klik Transform --> Compute --> Isi Target Variable dengan
ε_i^2 --> Pada operasi hitung kalikan nilai ε_i^ dengan ε_i^ . Pada Variable
View SPSS muncul variabel baru bernama ε_i^2.
3. Dengan SPSS, tepatnya menu Transform --> Compute lakukan perubahan
nilai ε_i^2, X1, X2, X3, X4 ke dalam bentuk logaritma natural (Ln)
[caranya dengan Klik Ln lalu pindahkan variabel] Ln(ε_i^2 ) yaitu regresi
unstandardized residual pada Target Variable dinamai Lnei2; X1 yaitu
variabel x1 pada Target Variable dinamai Lnx1; X2 yaitu variabel x2 pada
Target Variable dinamai Lnx2; x3 yaitu variabel x3 pada Target Variable
dinamai Lnx3; x4 yaitu variabel x4 pada Target Variable dinamai Lnx4.
4. Setelah diperoleh nilai variabel-variabel baru Lnei2, LnX1, LnX2, LnX3,
dan LnX4.
5. Lakukan uji regresi kembali secara satu per satu.

6. Pertama, klik Analyze --> Regression>Linear --> Masukkan variabel


Lnei2 ke kotak Dependent --> Masukkan variabel LnX1 ke
Independent(s) --> OK. Sementara hasil belum dihiraukan.
7. Kedua, klik Analyze --> Regression --> Linear --> Variabel Lnei2
masih ada di Dependent, biarkan > Keluarkan LnX1 dan masukkan
LnX2 ke Independent(s) > OK. Sementara hasil belum dihiraukan.
8. Ketiga, klik Analyze --> Regression --> Linear --> Variabel Lnei2
masih ada di Dependent, biarkan > Keluarkan LnX2 dan masukkan
LnX3 ke Independent(s) > OK. Sementara hasil belum dihiraukan.
9. Keempat, klik Analyze --> Regression --> Linear --> Variabel Lnei2
masih ada di Dependent, biarkan > Keluarkan LnX3 dan masukkan
LnX4 ke Independent(s) > OK. Sementara hasil belum dihiraukan.
10. Perhatikan Output SPSS. Pada output, terdapat hasil perhitungan Park
bagi variabel x1, x2, x3 dan x4, tepatnya adalah hasil uji Lnei2 dengan
LnX1, dan uji Lnei2 dengan LnX2, uji Lnei2 dengan LnX3, dan uji
Lnei2 dengan LnX4.
11. Peneliti akan memperbandingkan apa yang tertera di tabel Coefficients,
yaitu nilai t.
12. Guna memastikan apakah ada gejala heteroskedastisitas, peneliti akan
memperbandingkan nilai thitung dengan ttabel. Nilai ttabel dapat dicari
pada Tabel t, yaitu dengan menentukan df = n - 4 . n adalah jumlah sampel
dan 4 karena jumlah variabel independen penelitian adalah 4. Sehingga
nilai df = 48 – 4 = 44.
Dalam taraf 0,05 uji yang dilakukan adalah 2 sisi sehingga singnifikansi pada
tabel adalah 0,025.

Dengan mempertemukan nilai 46 dan 0,025 dan uji 2 sisi pada taraf 95%
(0,025) pada Tabel t diperoleh nilai t tabel penelitian sebesar ......

Hipotesis yang diajukan mengenai masalah homoskedastisitas ini sebagai


berikut:
Alternatif Uji Homoskedastisitas Jika Uji Park dianggap Terlampau Rumit
jika uji Park dianggap terlampau rumit, maka pengujian alternatif dapat ditempuh
guna melihat apakah terjadi Homoskedastisitas atau Heteroskedastisitas. Caranya
dengan melihat grafik persilangan SRESID dengan ZPRED pada output hasil
SPSS. Caranya sebagai berikut:
1. Klik Analyze --> Regression --> Linear
2. Klik Plot.
3. Isikan SRESID pada y-axis dan ZPRED
pada x-axis.
4. Klik Continue.
5.
Homoskedastisitas terjadi jika tidak terdapat pola tertentu yang jelas, serta
titik-titik menyebar di atas dan di bawah angka 0 pada sumbu Y.
Heteroskedastisitas terjadi jika terdapat titik-titik memili pola tertentu yang
teratur seperti bergelombang, melebar kemudian menyempit. Interpretasi
Hasil Uji Regresi Berganda setelah uji Regresi Berganda selesai dilakukan,
peneliti harus melakukan interpretasi. Rumus Regresi Berganda (standar)
adalah sebagai berikut:

Setelah pengujian Regresi Berganda dengan SPSS selesai, hal-hal penting


untuk interpretasi adalah apa yang tercantum pada tabel- tabel pada output
SPSS.

Tabel Descriptives
Pada tabel Descriptive dapat dilihat nilai Standar Deviasi. Nilai ini
terdapat pada kolom Std. Deviation. Nilai ini nanti akan diperbandingkan
dengan nilai Std. Error of the Estimate.
Tabel Model Summary
Tabel ini memberi informasi seberapa baik model analisis kita secara
keseluruhan, yaitu bagaimana 4 variabel bebas mampu memprediksikan 1
variabel terikat, dengan rincian sebagai berikut ini:
Kolom Model. Menunjukkan berapa buah model analisis yang kita bentuk.

Kolom R. Menunjukkan seberapa baik variabel-variabel bebas


memprediksikan hasil (multiple correlation coefficient). Kisaran nilai R
adalah 0 hingga 1. Semakin nilai R mendekati angka 1, maka semakin kuat
variabel-variabel bebas memprediksikan variabel terikat. Namun, ketepatan
nilai R ini lebih disempurnakan oleh kolom Adjusted R Square yang
merupakan koreksi atas nilai R.
Kolom Adjusted R Square. Fungsinya menjelaskan apakah sampel
penelitian mampu mencari jawaban yang dibutuhkan dari populasinya.
Kisaran nilai Adjusted R Square adalah 0 hingga 1. Pedoman interpretasi
atas nilai Adjusted R Square adalah sebagai berikut:

Kalikan Adjusted R2 dengan 100% maka akan diperoleh berapa %


varians tiap sampel pada variabel terikat bisa diprediksi oleh variabel-
variabel bebas secara bersama-sama (simultan).
Std. Error of the Estimate. Kolom ini menjelaskan seberapa kuat
variabel-variabel bebas bisa memprediksi variabel terikat. Nilai Std. Error of
the Estimate diperbandingkan dengan nilai Std. Deviation (bisa dilihat
pada tabel Descriptives). Jika Std. Error of the Estimate < Std. Deviation,
maka Std. Error of the Estimate baik untuk dijadikan prediktor dalam
menentukan variabel terikat. Jika Std. Error of the Estimate > Std.
Deviation, maka Std. Error of the Estimate tidak baik untuk dijadikan
prediktor dalam mementukan variabel terikat.
Durbin-Watson. Kolom ini digunakan untuk mengecek uji asumsi
Autokorelasi. Bagaimana variabel bebas yang satu berkorelasi dengan
variabel bebas lainnya. Durbin-Watson ini digunakan dalam uji asumsi
Regresi sebelumnya.

Tabel Coefficients
Pada tabel Coefficient, mohon perhatikan lalu jelaskan nilai- nilai yang
tertera pada kolom-kolom berikut ini:
Model. Kolom ini menjelaskan berapa banyak model analisis yang dibuat
peneliti. Pada kolom ini juga terdapat nama-nama variabel bebas yang
digunakan dalam penelitian. Variabel-variabel tersebut diberi label “Constant”
yaitu nilai konstanta yang digunakan dalam persamaan uji Regresi Berganda
(a).
Unstandardized Coefficient. Kolom ini terdiri atas b dan Std. Error.
Kolom b menunjukkan Koefisien b, yaitu nilai yang menjelaskan bahwa Y
(variabel terikat) akan berubah jika X (variabel bebas) diubah 1 unit.
Standardized Coefficients. Pada kolom ini terdapat Beta. Penjelasan
sebelumnya mengenai nilai b punya masalah karena variabel- variabel kerap
diukur menggunakan skala-skala pengukuran yang berbeda. Akibatnya, kita
tidak bisa menggunakan nilai b guna melihat variabel-variabel bebas mana
yang punya pengaruh lebih kuat atas variabel terikat. Misalnya, jika variabel
yang diteliti adalah jenis kelamin yang punya skala minimal 1 dan maksimal
2 dan pengaruhnya terhadap sikap yang skalanya minimal 1 dan maksimal
6, nilai b diragukan efektivitas prediksinya. Ini akibat nilai yang diperolehnya
rendah atas pengaruh perbedaan skala pengukuran. Untuk memastikan
pengaruh inilah maka nilai Beta dijadikan patokan. Nilai Beta punya kisaran
0 hingga 1, di mana semakin mendekati 1 maka semakin berdampak besar
signifikansinya.
Sig. Kolom ini menjelaskan tentang signifikansi hubungan antar
variabel bebas dengan variabel terikat. Nilai Sig. ini sebaiknya adalah di
bawah 0,05 (signifikansi penelitian).
Tolerance. Kolom ini menjelaskan banyaknya varians pada suatu
variabel yang tidak bisa dijelaskan oleh variabel prediktor lainnya. Kisarannya
0 hingga 1, di mana semakin mendekati 1 maka semakin mengindikasikan
prediktor-prediktor lain tidak bisa menjelaskan varians di variabel termaksud.
Nilai yang semakin mendekati 0 artinya hampir semua varians di dalam
variabel bisa dijelaskan oleh variabel prediktor lain. Nilai Torelance
sebaiknya ada di antara 0,10 hingga 1.
Tabel ANOVA
Sig. Tabel ANOVA menunjukkan besarnya angka probabilitas atau
signifikansi pada perhitungan ANOVA. Nilai yang tertera digunakan
untuk uji kelayanan Model Analisis [dimana sejumlah variabel x
mempengaruhi variabel y] dengan ketentuan angka probabilitas yang baik
untuk digunakan sebagai model regresi harus
< 0,05. Nilai ini bisa dilihat pada kolom Sig. Jika Sig. < 0,05, maka Model
Analisis dianggap layak. Jika Sig. > 0,05, maka Model Analisis dianggap
tidak layak.

Pengambilan Keputusan dengan Tabel ANOVA


Dalam Regresi Berganda, hal utama yang hendak dilihat adalah apakah
serangkaian variabel bebas secara serentak mempengaruhi variabel terikat.
Dalam output SPSS ini bisa ditentukan lewat tabel ANOVA.
Pada tabel ANOVA terdapat kolom F. Nilai yang tertera pada kolom F tersebut
disebut sebagai F hitung. F hitung ini diperbandingkan dengan F tabel. Peraturannya:

Persoalannya, bagaimana menentukan F tabel? F tabel dapat


ditentukan dengan cara:

1. Tentukan signifikansi penelitian yaitu 0,05 (uji 2 sisi jadi 0,025.

2. Tentukan df1. Df1 diperoleh dari jumlah variabel bebas

3. Tentukan df2. Df2 diperoleh dari n – k – 1 = 48 – 4 – 1 = 43. 4 Cari


angka 43 dan 4 dalam tabel F untuk signifikansi 0,025. 5 Dengan Excel,
ketikkan rumus =FINV(0,05;4;43)

Selain perbandingan nilai F, penerimaan atau penolakan Hipotesis juga bisa


menggunakan nilai Sig. pada tabel ANOVA. Peraturannya:
Koefisien Determinasi
Dalam uji Regresi Berganda, Koefisien Determinasi digunakan
untuk mengetahui persentase sumbangan pengaruh serentak variabel-
variabel bebas terhadap variabel terikat. Untuk itu, digunakan angka-angka
yang ada pada Tabel Model Summary.

Cara menentukan Koefisien Determinasi sangatlah mudah. Peneliti


tinggal melihat nilai pada kolom R2 dikalikan 100%. Misalnya nilai R2
adalah 0,7777. Dengan demikian Koefisien Determinasinya = 0,7777 x
100% = 77,77%. Jadi, secara serentak variabel-variabel bebas
mempengaruhi variabel terikat sebesar 77,77%. Sisanya, yaitu 100 –
77,77% = 22,23% ditentukan oleh variabel-variabel lain yang tidak
disertakan di dalam penelitian.

Koefisien Regresi Parsial

Koefisien Regresi Parsial menunjukkan apakah variabel-variabel bebas


punya pengaruh secara parsial (terpisah atau sendiri-sendiri) terhadap variabel
terikat?

Pada Tabel Coefficient, pengujian Hipotesis akan dilakukan. Uji hipotesis


dilakukan dengan menggunakan Uji t. Pernyataan Hipotesis yang hendak diuji
sebagai berikut:
Nilai t hitung bisa dilihat pada kolom t bagi masing-masing variabel bebas.

Nilai t tabel bisa dicari dengan cara berikut ini:

1. α = 0,05; untuk uji 2 sisi = 0,025

2. Degree of Freedom (df) = jumlah sampel – jumlah variabel bebas – 1


(angka 1 adalah konstanta) = 48 – 4 – 1 = 43.
3. Cari persilangan antara df = 43 dan 0,025.
4. Pencarian nilai t tabel dengan Excel mudah sekali.
Ketik rumus = tin v (0,05;43).

3.4 Studi Kasus

DATA

Y (kg) X1 (cm) X2 (thn)


32 57 8
36 59 10
27 49 6
34 62 11
28 51 8
29 50 7
39 55 10
29 48 9
28 42 10
26 42 6
38 61 12
39 57 9

Data diatas untuk melihat bagaimana Berat badan sebagai Variabel


Dependen yang dinotasikan dengan (Y) bervariasi menurut Tinggi Badan
(cm) yang dinotasikan dengan X1 dan Umur (thn) yang dinotasikan
dengan (X2).

Data diatas akan dilakukan analisis regresi berganda dengan bantuan


sofware SPSS 17 menggunakan tingkat signifikansi 0,05 dengan hasil
pengolahan data sebagai berikut:

Variables Entered/Removed

Mode Variables Variables


Method
l Entered Removed

1 x2, x1a . Enter

a. All requested variables entered.

Model Summaryb

Std. Error
Mode R Adjusted R
of the
l R Square Square
Estimate

1 .843a .711 .647 2.915

a. Predictors: (Constant), x2, x1

b. Dependent Variable: y

Model Summaryb

Change Statistics

Mode R Square F Sig. F Durbin-


df1 df2
l Change Change Change Watson

1 .711 11.087 2 9 .004 1.536

b. Dependent Variable: y
ANOVAb

Sum of Mean
Model df F Sig.
Squares Square

1 Regressio 188.434 2 94.217 11.087 .004a


n

Residual 76.483 9 8.498

Total 264.917 11

a. Predictors: (Constant), x2, x1

b. Dependent Variable: y

Coefficientsa

Standardiz
ed
Unstandardized Coefficient
Coefficients s
Model
B Std. Error Beta t Sig.

1 (Constan 1.939 6.847 .283 .783


t)

x1 .423 .163 .588 2.593 .029

x2 .886 .586 .343 1.511 .165

a. Dependent Variable: y

Residuals Statisticsa
Minimu Maximu Std.
Mean N
m m Deviation

Predicted Value 25.02 38.38 32.08 4.139 12

Residual -3.917 4.971 .000 2.637 12

Std. Predicted -1.705 1.521 .000 1.000 12


Value

Std. Residual -1.344 1.705 .000 .905 12

a. Dependent Variable: y
Taksiran parameter diperoleh dari hasil pengolahan SPSS yaitu; b0 :

1.939

b1 : 0,423

b2 : 0,886

sehingga diperoleh model

Sehingga dapat dilakukan interpretasi sebagai berikut :

1. Nilai F (F Value) adalah 11.087 dengan nilai p (Prob>F) = 0,004


yang memberikan informasi tentang signifikansi model. Karena nilai
p <  maka model signifikan secara statistic. Karena diolah dengan
menggunakan SPSS maka Nilai F tidak
perlu dibandingkan dengan F tabel.
2. Daya ramal model diberikan oleh nilai R2 (R-Square) sebesar 0,711.
Hal ini menunjukkan bahwa sebesar 71,1% variasi dari Y dapat
dijelaskan model. Nilai Adj-R-Sqr sebesar 0,647 menjelaskan bahwa
sebesar 64,7% variable independen X1 dan X2 menjelaskan variable
Y.
3. Dengan melihat nilai p pada tabel Coefficients maka untuk X1
dengan nilai p = 0,029 dapat disimpulkan bahwa : Jika tinggi (X1)
bertambah satu cm, maka berat (Y) dapat bertambah 0,423kg untuk
anak-anak yang mempunyai umur yang sama.
BAB IV
PENUTUP
Kesimpulan
1. Regresi linier ganda (Multivariate Linear Regression) adalah analisis
yang dilakukan apabila satu variabel dependen Y perlu dijelaskan oleh
lebih dari satu variabel independen X.
2. Pengujian keberartian persamaan regresi ganda menggunakan F tes dan
pengujian koefisien regresi menggunakan t tes.
3. Untuk mengetahui besarnya kontribusi variabel bebas terhadap variabel
terikatnya diperlukan perhitungan koefisien korelasi.
4. Untuk mengetahui besarnya kontribusi masing-masing variabel bebas
terhadap variabel terikat dengan mempertimbangkan hubungan
variabel bebas lainnya, baik terhadap variabel terikat maupun variabel
bebas yang dicari kontribusinya,

Anda mungkin juga menyukai