Anda di halaman 1dari 21

Uji asumsi klasik adalah persyaratan statistik yang harus dipenuhi pada

analisis regresi linear berganda yang berbasis ordinary least square (OLS). Jadi
analisis regresi yang tidak berdasarkan OLS tidak memerlukan persyaratan asumsi
klasik, misalnya regresi logistik atau regresi ordinal. Demikian juga tidak semua
uji asumsi klasik harus dilakukan pada analisis regresi linear, misalnya uji
multikolinearitas tidak dilakukan pada analisis regresi linear sederhana dan uji
autokorelasi tidak perlu diterapkan pada data cross sectional.

Uji asumsi klasik juga tidak perlu dilakukan untuk analisis regresi linear yang
bertujuan untuk menghitung nilai pada variabel tertentu. Misalnya nilai return
saham yang dihitung dengan market model, atau market adjusted model.
Perhitungan nilai return yang diharapkan dapat dilakukan dengan persamaan
regresi, tetapi tidak perlu diuji asumsi klasik.

Uji asumsi klasik yang sering digunakan yaitu uji multikolinearitas, uji
heteroskedastisitas, uji normalitas, uji autokorelasi dan uji linearitas. Tidak ada
ketentuan yang pasti tentang urutan uji mana dulu yang harus dipenuhi. Analisis
dapat dilakukan tergantung pada data yang ada. Sebagai contoh, dilakukan
analisis terhadap semua uji asumsi klasik, lalu dilihat mana yang tidak memenuhi
persyaratan. Kemudian dilakukan perbaikan pada uji tersebut, dan setelah
memenuhi persyaratan, dilakukan pengujian pada uji yang lain.

1. Uji Normalitas
Uji normalitas adalah untuk melihat apakah nilai residual terdistribusi normal
atau tidak. Model regresi yang baik adalah memiliki nilai residual yang
terdistribusi normal. Jadi uji normalitas bukan dilakukan pada masing-masing
variabel tetapi pada nilai residualnya. Sering terjadi kesalahan yang jamak yaitu
bahwa uji normalitas dilakukan pada masing-masing variabel. Hal ini tidak
dilarang tetapi model regresi memerlukan normalitas pada nilai residualnya bukan
pada masing-masing variabel penelitian.
Pengertian normal secara sederhana dapat dianalogikan dengan sebuah kelas.
Dalam kelas siswa yang bodoh sekali dan pandai sekali jumlahnya hanya sedikit
dan sebagian besar berada pada kategori sedang atau rata-rata. Jika kelas tersebut
bodoh semua maka tidak normal, atau sekolah luar biasa. Dan sebaliknya jika
suatu kelas banyak yang pandai maka kelas tersebut tidak normal atau merupakan
kelas unggulan. Pengamatan data yang normal akan memberikan nilai ekstrim
rendah dan ekstrim tinggi yang sedikit dan kebanyakan mengumpul di tengah.
Demikian juga nilai rata-rata, modus dan median relatif dekat.

Uji normalitas dapat dilakukan dengan uji histogram, uji normal P Plot, uji Chi
Square, Skewness dan Kurtosis atau uji Kolmogorov Smirnov. Tidak ada metode
yang paling baik atau paling tepat. Tipsnya adalah bahwa pengujian dengan
metode grafik sering menimbulkan perbedaan persepsi di antara beberapa
pengamat, sehingga penggunaan uji normalitas dengan uji statistik bebas dari
keragu-raguan, meskipun tidak ada jaminan bahwa pengujian dengan uji statistik
lebih baik dari pada pengujian dengan metode grafik.

Jika residual tidak normal tetapi dekat dengan nilai kritis (misalnya
signifikansi Kolmogorov Smirnov sebesar 0,049) maka dapat dicoba dengan
metode lain yang mungkin memberikan justifikasi normal. Tetapi jika jauh dari
nilai normal, maka dapat dilakukan beberapa langkah yaitu: melakukan
transformasi data, melakukan trimming data outliers atau menambah data
observasi. Transformasi dapat dilakukan ke dalam bentuk Logaritma natural, akar
kuadrat, inverse, atau bentuk yang lain tergantung dari bentuk kurva normalnya,
apakah condong ke kiri, ke kanan, mengumpul di tengah atau menyebar ke
samping kanan dan kiri.

2. Uji Multikolinearitas
Uji multikolinearitas adalah untuk melihat ada atau tidaknya korelasi yang
tinggi antara variabel-variabel bebas dalam suatu model regresi linear berganda.
Jika ada korelasi yang tinggi di antara variabel-variabel bebasnya, maka hubungan
antara variabel bebas terhadap variabel terikatnya menjadi terganggu. Sebagai
ilustrasi, adalah model regresi dengan variabel bebasnya motivasi, kepemimpinan
dan kepuasan kerja dengan variabel terikatnya adalah kinerja. Logika
sederhananya adalah bahwa model tersebut untuk mencari pengaruh antara
motivasi, kepemimpinan dan kepuasan kerja terhadap kinerja. Jadi tidak boleh ada
korelasi yang tinggi antara motivasi dengan kepemimpinan, motivasi dengan
kepuasan kerja atau antara kepemimpinan dengan kepuasan kerja.

Alat statistik yang sering dipergunakan untuk menguji gangguan multikolinearitas


adalah dengan variance inflation factor (VIF), korelasi pearson antara variabel-
variabel bebas, atau dengan melihat eigenvalues dan condition index (CI).

Beberapa alternatif cara untuk mengatasi masalah multikolinearitas adalah sebagai


berikut:
1. Mengganti atau mengeluarkan variabel yang mempunyai korelasi yang tinggi.
2. Menambah jumlah observasi.
3. Mentransformasikan data ke dalam bentuk lain, misalnya logaritma natural,
akar kuadrat atau bentuk first difference delta.

3. Uji Heteroskedastisitas
Uji heteroskedastisitas adalah untuk melihat apakah terdapat
ketidaksamaan varians dari residual satu ke pengamatan ke pengamatan yang
lain. Model regresi yang memenuhi persyaratan adalah di mana terdapat kesamaan
varians dari residual satu pengamatan ke pengamatan yang lain tetap atau disebut
homoskedastisitas.

Deteksi heteroskedastisitas dapat dilakukan dengan metode scatter plot dengan


memplotkan nilai ZPRED (nilai prediksi) dengan SRESID (nilai residualnya).
Model yang baik didapatkan jika tidak terdapat pola tertentu pada grafik, seperti
mengumpul di tengah, menyempit kemudian melebar atau sebaliknya melebar
kemudian menyempit. Uji statistik yang dapat digunakan adalah uji Glejser, uji
Park atau uji White.
Beberapa alternatif solusi jika model menyalahi asumsi heteroskedastisitas adalah
dengan mentransformasikan ke dalam bentuk logaritma, yang hanya dapat
dilakukan jika semua data bernilai positif. Atau dapat juga dilakukan dengan
membagi semua variabel dengan variabel yang mengalami gangguan
heteroskedastisitas.

4. Uji Autokorelasi
Uji autokorelasi adalah untuk melihat apakah terjadi korelasi antara suatu
periode t dengan periode sebelumnya (t -1). Secara sederhana adalah bahwa
analisis regresi adalah untuk melihat pengaruh antara variabel bebas terhadap
variabel terikat, jadi tidak boleh ada korelasi antara observasi dengan data
observasi sebelumnya. Sebagai contoh adalah pengaruh antara tingkat inflasi
bulanan terhadap nilai tukar rupiah terhadap dollar. Data tingkat inflasi pada bulan
tertentu, katakanlah bulan Februari, akan dipengaruhi oleh tingkat inflasi bulan
Januari. Berarti terdapat gangguan autokorelasi pada model tersebut. Contoh lain,
pengeluaran rutin dalam suatu rumah tangga. Ketika pada bulan Januari suatu
keluarga mengeluarkan belanja bulanan yang relatif tinggi, maka tanpa ada
pengaruh dari apapun, pengeluaran pada bulan Februari akan rendah.

Uji autokorelasi hanya dilakukan pada data time series (runtut waktu) dan tidak
perlu dilakukan pada data cross section seperti pada kuesioner di mana
pengukuran semua variabel dilakukan secara serempak pada saat yang bersamaan.
Model regresi pada penelitian di Bursa Efek Indonesia di mana periodenya lebih
dari satu tahun biasanya memerlukan uji autokorelasi.

Beberapa uji statistik yang sering dipergunakan adalah uji Durbin-Watson, uji
dengan Run Test dan jika data observasi di atas 100 data sebaiknya menggunakan
uji Lagrange Multiplier. Beberapa cara untuk menanggulangi masalah
autokorelasi adalah dengan mentransformasikan data atau bisa juga dengan
mengubah model regresi ke dalam bentuk persamaan beda umum (generalized
difference equation). Selain itu juga dapat dilakukan dengan memasukkan
variabel lag dari variabel terikatnya menjadi salah satu variabel bebas, sehingga
data observasi menjadi berkurang 1.

5. Uji Linearitas
Uji linearitas dipergunakan untuk melihat apakah model yang dibangun
mempunyai hubungan linear atau tidak. Uji ini jarang digunakan pada berbagai
penelitian, karena biasanya model dibentuk berdasarkan telaah teoretis bahwa
hubungan antara variabel bebas dengan variabel terikatnya adalah linear.
Hubungan antar variabel yang secara teori bukan merupakan hubungan linear
sebenarnya sudah tidak dapat dianalisis dengan regresi linear, misalnya masalah
elastisitas.

Jika ada hubungan antara dua variabel yang belum diketahui apakah linear atau
tidak, uji linearitas tidak dapat digunakan untuk memberikan adjustment bahwa
hubungan tersebut bersifat linear atau tidak. Uji linearitas digunakan untuk
mengkonfirmasikan apakah sifat linear antara dua variabel yang diidentifikasikan
secara teori sesuai atau tidak dengan hasil observasi yang ada. Uji linearitas dapat
menggunakan uji Durbin-Watson, Ramsey Test atau uji Lagrange Multiplier.

Uji asumsi klasik bertujuan untuk mengetahui kondisi data yang dipergunakan
dalam penelitian. Salah satunya adalah dengan cara uji normalitas data.Hal
tersebut dilakukan agar diperoleh model analisis yang tepat.Jadi tujuan dari uji
asumsi klasik adalah untuk mengetahui model analisis yang tepat dalam suatu
penelitian.
PALING BANYAK DI BACA
Gadis berusia 26 tahun menjadi miliarder!

Mulai hasilkan uang online nyata


Anda bisa hasilkan 600 Juta sebulan dengan trik ini

PENGERTIAN UJI ASUMSI KLASIK

Uji asumsi klasik adalah pengujian data dalam penelitian skripsi untuk
mengetahui kondisi data yang di gunakan dalam suatu penelitian.1
UJI ASUMSI KLASIK

Uji asumsi klasik dilakukan dengan 5 macam cara yaitu uji multikolonieritas,uji
normalitas,Uji heteroskedastisitas,Uji normalitas,uji autokorelasi.Tapi kalian tidak
harus menggunakan semuanya cukup melakukan uji nomor 1 sampai nomor 3.Itu
sudah cukup.

Uji asumsi klasik ini di lakukan jika dalam mengerjakan skripsi kalian
menggunakan alat analisis model regresi Berganda.Jadi jika kalian tidak
menggunakan regresi berganda kalian tidak perlu melakukan uji asumsi klasik.

1. UJI MULTIKOLONIERITAS

Uji multikolonieritas bertujuan untuk menguji apakah pada model regresi


ditemukan adanya korelasi antar variabel independen (Ghozali 2006). Jika terjadi
korelasi, maka dinamakan terdapat problem multikolonieritas. Model regresi yang
baik seharusnya tidak terjadi korelasi diantara variabel independen.

Uji multikolonieritas pada penelitian dilakukan dengan matriks korelasi.


Pengujian ada tidaknya gejala multikolonieritas dilakukan dengan memperhatikan
nilai matriks korelasi yang dihasilkan pada saat pengolahan data serta nilai VIF
(Variance Inflation Faktor) dan tolerance-nya. Apabila nilai matriks korelasi tidak
ada yang lebih besar dari 0,5 maka dapat dikatakan data yang akan dianalisis
terlepas dari gejala multikolonieritas.

Kemudian apabila nilai VIF berada dibawah 10 dan nilai Tolerance lebih hari 0,1
maka diambil kesimpulan bahwa model regresi tersebut tidak terdapat problem
multikolonieritas (Ghozali 2006).

2. UJI HETEROSKEDASTISITAS

Uji heteroskedastisitas bertujuan untuk menguji apakah dalam sebuah model


regresi terjadi ketidaksamaan varians dari residual dari satu pengamatan satu ke
pengamatan yang lain (Ghozali 2006). Jika varians dari residu atau dari satu
pengamatan ke pengamatan yang lain tetap, maka disebut homokedastisitas.

Dan jika varians berbeda maka disebut heteroskedastisitas. Model regresi yang
baik adalah yang homoskesdatisitas atau tidak terjadi heteroskedastisitas (Ghozali
2006). Salah satu cara untuk mendeteksi heteroskedastisitas adalah dengan
melihat grafik plot antara nilai prediksi variabel terikat (dependen) yaitu ZPRED
dan nilai residualnya SRESID.

3. UJI NORMALITAS

Uji normalitas data bertujuan untuk menguji apakah dalam model regresi, variabel
residual memiliki distribusi normal (Ghozali 2006). Untuk menguji apakah data-
data yang dikumpulkan berdistribusi normal atau tidak dapat dilakukan dengan
metode sebagai berikut : Uji statistik sederhana yang sering digunakan untuk
menguji asumsi normalitas adalah dengan menggunakan uji normalitas dari
Kolmogorov Smirnov.

Metode pengujian normal tidaknya distribusi data dilakukan dengan melihat nilai
signifikansi variabel jika signifikan lebih besar dari α = 5% maka menunjukkan
distribusi data normal.

jadi uji normalitas adalah uji suatu data untuk mengetahui distribusinya normal
atau tidak.Uji normalitas menggunakan Kolmogorof Smirnof.

4. UJI AUTOKORELASI

Uji autokorelasi menggunakan uji Durbin-Watson Test (DW), dimaksudkan untuk


menguji adanya kesalahan pengganggu periode 1 dengan kesalahan pengganggu
pada periode sebelumnya -1. Keadaan tersebut mengakibatkan pengaruh terhadap
variabel dependen tidak hanya karena variabel independen namun juga variabel
dependen periode lalu (Ghozali 2005). Menurut keputusan ada tidaknya
autokorelasi dilihat dari bila nilai DW terletak diantara nilai du dan 4-du
(du<DW<4-du), maka berarti tidak ada autokorelasi (Ghozali 2005).

5. LINEARITAS

Uji terhadap linieritas berguna untuk mengetahui kebenaran bentuk model empiris
yang digunakan dan menguji variabel yang relevan untuk dimasukkan dalam
model empiris. Dengan kata lain uji linier bermanfaat untuk mengetahui adanya
kesalahan dalam spesifikasi model. Uji linier yang digunakan adalah Ramsey,
dimana kriterianya bila probabilitas F hitung > α (5 %), maka spesifikasi model
sudah benar (Ghozali 2006).

Jika sudah lulus ujian skripsi dan mendapatkan ijasah jangan lupa untuk buat surat
lamaran kerja biar cepat dapat pekerjaan.Atau kalian bisa buka usaha sendiri
sebagai enterpreneur.
Itulah dia 5 cara kalian melakukan uji suatu data jika menggunakan alat analisis
regresi berganda.Jika kalian telah menyelesaikan kelima uji tersebut maka
langkah selanjutnya adalah melakukan analisis data.

1. Uji Asumsi Klasik Multikolinieritas.


Uji asumsi klasik Multikolinieritas ini digunakan untuk mengukur tingkat
asosiasi (keeratan) hubungan/pengaruh antar variabel bebas tersebut melalui
besaran koefisien korelasi (r). Multikolinieritas terjadi jika koefisien korelasi
antar variabel bebas lebih besar dari 0,60 (pendapat lain: 0,50 dan 0,90).
Dikatakan tidak terjadi multikolinieritas jika koefisien korelasi antar variabel
bebas lebih kecil atau sama dengan 0,60 (r < 0,60). Dengan cara lain untuk
menentukan multikolinieritas, yaitu dengan :
1. Nilai tolerance adalah besarnya tingkat kesalahan yang dibenarkan secara
statistik (a).
2. Nilai variance inflation factor (VIF) adalah faktor inflasi penyimpangan
baku kuadarat.
Nilai tolerance (a) dan variance inflation factor (VIF) dapat dicari dengan,
sebagai berikut:

Besar nilai tolerance (a): a = 1 / VIF

Besar nilai variance inflation factor (VIF): VIF = 1 / a


~ Variabel bebas mengalami multikolinieritas jika a hitung VIF.
~ Variabel bebas tidak mengalami multikolinieritas jika a hitung > a dan VIF
hitung < VIF.
Berikut langkah prosesnya:
1. Klik menu analyze.
2. Pilih submenu regresion, klik linier.
3. Box dependent: variabel terikat (Y)
4. Box independent: variabel bebas (X)
5. Klik method, pilih enter
6. Klik tombol statistic, akan muncul linier regression statistic: nonaktifkan
estimates dan model fit, aktifkan: covariance matrix dan collinieritas diagnostics.
7. Klik continue
8. Klik OK.
Contoh bagian output:

Analisis Output:
1. Melihat besaran koefisien korelasi antar variabel bebas, terlihat koefisien
korelasi antar variabel bebas sebesar 0,142 jauh di bawah 0,60.
Disimpulkan bahwa antara variabel bebas tidak terjadi multikolinieritas.
2. Menggunakan besaran tolerance (a) dan variance inflation factor (VIF) jika
menggunakan alpha/tolerance = 10% atau 0,10 maka VIF = 10. Dari hasil
output VIF hitung dari kedua variabel = 1,021 < VIF = 10 dan semua
tolerance variabel bebas 0,980 = 98% diatas 10%, dapat disimpulkan bahwa
antara variabel bebas tidak terjadi multikolinieritas.
2. Uji Asumsi Klasik Heteroskedastisitas.
Dalam persamaan regresi berganda perlu diuji mengenai sama atau tidak varians
dari residual dari observasi yang satu dengan observasi lainnya. Jika residual
mempunyai varians yang sama, disebut homoskedastisitas. dan jika varoansnya
tidak sama disebut terjadi heteoskedastisitas. Persamaan regresi yang baik jika
tidak terjadi heteroskedastisitas.

Analisis uji asumsi heteroskedastisitas hasil output SPSS melalui grafik


scatterplot antara Z prediction (ZPRED) untuk variabel bebas (sumbu X=Y hasil
prediksi) dan nilai residualnya (SRESID) merupakan variabel terikat (sumbu
Y=Y prediksi – Y rill).

Homoskedastisitas terjadi jika titik-titik hasil pengolahan data


antara ZPRED dan SRESID menyebar di bawah ataupun di atas titik origin
(angka 0) pada sumbu Y dan tidak mempunyai pola yang tertentu.

Heteroskedastisitas terjadi jika pada scatterplot titik-titiknya mempunyai pola


yang teratur, baik menyempit, melebar maupun bergelombang-gelombang.
Berikut langkah prosesnya:
1. Klik menu analyze.
2. Pilih submenu regresion, klik linier.
3. Box dependent: variabel terikat (Y)
4. Box independent: variabel bebas (X,…)
5. Klik plots, muncul linier regresion plot dan isikan: variabel SRESID di sumbu
Y dan variabel ZPRED di sumbu X.
6. Klik continue.
7. Klik OK.
Contoh bagian output:
Dari hasil output gambar scatterplot, didapat titik menyebar di bawah serta di atas
sumbu Y, dan tidak mempunyai pola yang teratur. Maka dapat disimpulakan
variabel bebas di atas tidak terjadi heteroskedastisitas atau bersifat
homoskedastisitas.
3. Uji Asumsi Kalsik Normalitas.
Pengujian asumsi normalitas untuk menguji data variabel bebas (X) dan
variabel terikat (Y) pada persamaan regresi yang dihasilkan, apakah berdistribusi
normal atau berdistribusi tidak normal. Jika distribusi data normal, maka analisis
data dan pengujian hipotesis digunakan statistik parametrik. Pengujian normalitas
data menggunakan uji kolmogorov-smirnov one sampel test dengan rumus:

Dimana:
Fo (X) = fungsi distribusi komulatif yang ditentukan.
SN (X) = distribusi frekuensi komulatif yang diobservasi dari suatu sampel
random dengan N observasi.
i = 1,2,…N
Adapun kriteria uji : jika probabilitas signifikan > 0,05 maka data berdistribusi
normal.

4. Uji Asumsi Klasik Autokorelasi


Persamaan regresi yang baik adalah tidak memiliki masalah autokorelasi. Jika
terjadi autokorelasi maka perasamaan tersebut menjadi tidak baik atau tidak
layak dipakai prediksi. Ukuaran dalam menentukan ada tidaknya masalah
autokorelasi dengan uji Durbin-Watson (DW), dengan ketentuan sebagai berikut:
 Terjadi autokorelasi positif jika DW di bawah -2 (DW < -2).
 Tidak terjadi autokorelasi jika DW berada di antara -2 dan +2 atau -2 < DW
+2

analisis regresi berganda memilki lebih dari satu variabel independent (X > 1).

Analsis regresi berganda merupakan analisis yang digunakan untuk menunjukkan


ada tidaknya hubungan kausalitas (sebab-akibat) atau pengaruh antara lebih dari
satu variabel independent (X1, X2, … , Xi) terhadap satu variabel dependent.

 Contoh: Pengaruh antara keaktifan, minat, dan motivasi terhadap IPK. Maka
variabel independenya ada 3, yiatu keaktifan (X1), minat (X2) dan motivasi
(X3), sedangkan variabel dependentnya adalah IPK (Y)
Persamaan Matematis Analisis Regresi Berganda

 Y = a + b1X1 + b2X2 +… + biXi

 Y: Variabel dependent,

 X: Variabel independent,

 a: konstanta,
 b: koefisien regresi,

 i: 1,2,…, i

Pengujian hipotesis secara Parsial (individu), merupakan pengujian hipotesis


secara sendiri-sendiri antara variabel independen terhadap variabel bebas (Xi
terhadap Y , untuk i: 1,2,3,…,i.)

 Langkah-langkah pengujian hipotesis secara parsial

 Hipotesis

 Ho: bi = 0 (Tidak ada pengaruh antara Xi terhadap Y)

 Ha: bi ≠ 0 (Ada pengaruh antara Xi terhadap Y)

 Taraf signifikansi : α
 Statistik Uji: Uji- t: Menentukan nilai t hitung
 Kriteria penolakan (daerah kritis): Ho ditolak jika t hitung > t α n-k);
perhatikan apakah uji satu sisi atau dua sisi atau Ho ditolak jika p-value < taraf
signifikansi (α)
 Kesimpulan; Keputusan (hipotesis yang diterima itulah yang menjadi
kesimpulan) berdasarkan hasil membandingkan antara t hitung dengan tabel,
atau dengan nilai signifikansi p (p-value) dengan taraf signifikansi (α) (sesuai
dengan ketentuan kriteria penolakan
Pengujian hipotesis secara Simultan (besama-sama), merupakan pengujian
hipotesis secara bersama-sama antara variabel independen terhadap variabel bebas
(X1, X2, … dan Xi terhadap Y , untuk i: 1,2,3,…,i.)

 Langkah-langkah pengujian hipotesis secara simultan

 Hipotesis

 Ho: b1 = b2 = … = bi = 0 (Tidak ada pengaruh secara bersama-sama antara


X1, X2, …, Xi terhadap Y)

 Ha: b1 ≠ b2 ≠ … ≠ bi ≠ 0 (Ada pengaruh secara bersama-sama antara X1,


X2, …, Xi terhadap Y

 Taraf signifikansi : α
 Statistik Uji: Uji- F, Menentukan nilai F hitung (Tabel Anova)
 Kriteria penolakan (daerah kritis), Ho ditolak jika F hitung > F α (k-1)(n-k)
atau Ho ditolak jika p-value < taraf signifikansi (α)
 Kesimpulan: Keputusan (hipotesis yang diterima itulah yang menjadi
kesimpulan) berdasarkan hasil membandingkan antara F hitung dengan F tabel,
sesuai dengan ketentuan kriteria penolakan
Koefisien Determinasi (R Square)

 Dalam analisis regresi berganda Koefisien Determinasi (R^2) digunakan untuk


melihat kontribusi yang diberikan oleh keseluruhan variable independen
terhadap variable dependennya.

Analisis determinasi dalam regresi linear berganda digunakan untuk mengetahui


prosentase sumbangan pengaruh variabel independen (X1, X2,……Xn) secara
serentak terhadap variabel dependen (Y). Koefisien ini menunjukkan seberapa
besar prosentase variasi variabel independen yang digunakan dalam model
mampu menjelaskan variasi variabel dependen. R2sama dengan 0, maka tidak ada
sedikitpun prosentase sumbangan pengaruh yang diberikan variabel independen
terhadap variabel dependen, atau variasi variabel independen yang digunakan
dalam model tidak menjelaskan sedikitpun variasi variabel dependen. Sebaliknya
R2 sama dengan 1, maka prosentase sumbangan pengaruh yang diberikan variabel
independen terhadap variabel dependen adalah sempurna, atau variasi variabel
independen yang digunakan dalam model menjelaskan 100% variasi variabel
dependen.

Pengertian Regresi Linear ganda

Untuk mengukur besarnya pengaruh variabel bebas terhadap variabel tergantung


dan memprediksi variabel tergantung dengan menggunakan variabel bebas.
Gujarati (2006) mendefinisikan analisis regresi sebagai kajian terhadap hubungan
satu variabel yang disebut sebagai variabel yang diterangkan (the explained
variabel) dengan satu atau dua variabel yang menerangkan (the explanatory).
Variabel pertama disebut juga sebagai variabel tergantung dan variabel kedua
disebut juga sebagai variabel bebas. Jika variabel bebas lebih dari satu, maka
analisis regresi disebut regresi linear berganda. Disebut berganda karena pengaruh
beberapa variabel bebas akan dikenakan kepada variabel tergantung.

Regresi linear adalah alat statistik yang dipergunakan untuk mengetahui pengaruh
antara satu atau beberapa variabel terhadap satu buah variabel. Variabel yang
mempengaruhi sering disebut variabel bebas, variabel independen atau variabel
penjelas. Variabel yang dipengaruhi sering disebut dengan variabel terikat atau
variabel dependen. Regresi linear hanya dapat digunakan pada skala interval dan
ratio

Secara umum regresi linear terdiri dari dua, yaitu regresi linear sederhana yaitu
dengan satu buah variabel bebas dan satu buah variabel terikat; dan regresi linear
berganda dengan beberapa variabel bebas dan satu buah variabel terikat. Analisis
regresi linear merupakan metode statistik yang paling jamak dipergunakan dalam
penelitian-penelitian sosial. Program komputer yang paling banyak digunakan
adalah SPSS (Statistical Package For Service Solutions).

Regresi Linear Berganda

Analisis regresi linear berganda sebenarnya sama dengan analisis regresi linear
sederhana, hanya variabel bebasnya lebih dari satu buah. Persamaan umumnya
adalah:
Y = a + b1 X1 + b2 X2 + .... + bn Xn.
Dengan Y adalah variabel bebas, dan X adalah variabel-variabel bebas, a adalah
konstanta (intersept) dan b adalah koefisien regresi pada masing-masing variabel
bebas.
Interpretasi terhadap persamaan juga relatif sama, sebagai ilustrasi, pengaruh
antara motivasi (X1), kompensasi (X2) dan kepemimpinan (X3) terhadap
kepuasan kerja (Y) menghasilkan persamaan sebagai berikut:

Y = 0,235 + 0,21 X1 + 0,32 X2 + 0,12 X3

1.Jika variabel motivasi meningkat dengan asumsi variabel kompensasi dan


kepemimpinan tetap, maka kepuasan kerja juga akan meningkat
2.Jika variabel kompensasi meningkat, dengan asumsi variabel motivasi dan
kepemimpinan tetap, maka kepuasan kerja juga akan meningkat.
3.Jika variabel kepemimpinan meningkat, dengan asumsi variabel motivasi dan
kompensasi tetap, maka kepuasan kerja juga akan meningkat.

Interpretasi terhadap konstanta (0,235) juga harus dilakukan secara hati-hati. Jika
pengukuran variabel dengan menggunakan skala Likert antara 1 sampai dengan 5
maka tidak boleh diinterpretasikan bahwa jika variabel motivasi, kompensasi dan
kepemimpinan bernilai nol, sebagai ketiga variabel tersebut tidak mungkin
bernilai nol karena Skala Likert terendah yang digunakan adalah 1.

Analisis regresi linear berganda memerlukan pengujian secara serempak dengan


menggunakan F hitung. Signifikansi ditentukan dengan membandingkan F hitung
dengan F tabel atau melihat signifikansi pada output SPSS. Dalam beberapa kasus
dapat terjadi bahwa secara simultan (serempak) beberapa variabel mempunyai
pengaruh yang signifikan, tetapi secara parsial tidak. Sebagai ilustrasi: seorang
penjahat takut terhadap polisi yang membawa pistol (diasumsikan polisis dan
pistol secara serempak membuat takut penjahat). Akan tetapi secara parsial, pistol
tidak membuat takut seorang penjahat. Contoh lain: air panas, kopi dan gula
menimbulkan kenikmatan, tetapi secara parsial, kopi saja belum tentu
menimbulkan kenikmatan

2.1 Analisis Regresi Linier Ganda


Analisis regresi linier ganda terdiri dari satu variabel dependen dan beberapa
variabel independen. Analisis regresi linier ganda dinyatakan dengan hubungan
persamaan regresi

A s u m s i $ i n e a r % e r g a n d a Tiga asumsi dasar yang tidak b leh dilanggar


leh regresi linier berganda yaitu 5,. Mengikuti sebaran n rmal*. Tidak b leh
ada multik linieritas<ara yang paling mudah untuk menguji ada atau tidaknya
gejala multik linieritas adalahmelihat k relasi 3hubungan4 antar 2ariabel bebas.
Dika nilai k relasi diba=ah angka "F"maka tidak terjadi multik linieritas.

>. Tidak b leh ada


heter keditas.0 e n g a n m e l i h a t g r a ) i k p l t antara nilai 2ariabel ter
i k a t 3 S R E S / 0 4 d e n g a n r e s i d u a l 3 PRE04. Dika ada p la tertentu"
seperti titik'titik yang ada membentuk p la tertentuyang teratur
3bergel mbang" melebar" kemudian menyempit4" maka
mengidenti)ikasikantelah terjadi heter keditas. Dika tidak ada p la yang jelas"
serta titik'titik menyebar diatas dan di ba=ah angka + pada sumbu Y" maka tidak
terjadi heter keditas.

Model regresi linier berganda untuk dua variabel bebas dan satu variabel
terikatadalah sebagai berikut:Model diatas dapat dijelaskan bahwa dalam model
regresi linier bergandamempunyai dua uji pengaruh yaitu :1.

Pengaruh variabel X (bebas) secara simultan terhadap variabel Y (terikat)2.

Pengaruh variabel X (bebas) secara parsial terhadap variabel Y (terikat),


yaitumeliputi:a.

Pengaruh variabel X1 terhadap variabel Yb.


Pengaruh variabel X2 terhadap variabel Y
1.2

Rumusan Masalah
1.

Bagaimana mendapatkan persamaan regresi linear berganda ?2.

Bagaimana menentukan pengaruh signifikansi dari variabel terikat dan


variabelbebas?
1.3

Tujuan
Tujuan dari analisis regresi linear berganda, yaitu :1.

Untuk membuat perkiraan nilai suatu variabel terikat jika nilai variabel bebasyang
berhubungan dengannya sudah ditentukan2.

Untuk menguji hipotesis signifikansi pengaruh dari variabel bebas


terhadapvariabel terikat
1.4

Manfaat
Adapun manfaat analisis regresidalam penelitian antara lain:1.

Model regresi dapat digunakan untuk mengukur keeratan hubungan antaravariabel


dependen (tak bebas) dan variabel independen (bebas).2.

Model regresi dapat digunakan untuk mengetahui pengaruh suatu atau


beberapavariabel independen terhadap variabel dependen (respons).3.
Model regresi berguna untuk memprediksi pengaruh suatu atau beberapavariabel
independen terhadap variabel dependen (respons).
1.5

Kelebihan dan Kelemahan


Kelebihan :

Dengan menggunakan regresi linear berganda maka dapat menganalisis


denganmenggunakan beberapa variabel bebas (X) sehingga hasil prediksi yang
didapatkan

lebih akurat dibandingkan dengan regresi linear sederhana yang


hanyamenggunakan satu variabel bebas (X).Kekurangan:1.

Tidak mampu menunjukkan titik jenuh fungsi yang sedang diselidiki


akibatnyaselalu timbul kemungkinan kesalahan prediski2.

Terdapat kemungkinan terjadinya multikolinearitas pada variabel-variabelbebas.


Akibatnya variabel bebas tidak mampu menjelaskan variabel tak bebas(hubungan
antara X dan Y tidak bermakna)

Anda mungkin juga menyukai