Anda di halaman 1dari 16

MAKALAH FIQH ZAKAT DAN WAKAF

“ AMIL ZAKAT DALAM PERSPEKTIF SYARIAH”

Makalah Ini Disusun sebagai Bahan Diskusi Mata Kuliah Metodologi Penelitian

Dosen Pengampu : Rahmat Hidayat S.E M.T,Ph.D

Disusun Oleh :

Kelompok 4

Muhammad Rifqi Nur Hajidi 11210860000104


Muhammad Djagad Tino S 11210860000044

PROGRAM STUDI EKONOMI SYARIAH 5B

FAKULTAS EKONOMI DAN BISNIS

UNIVERSITAS ISLAM NEGERI SYARIF HIDAYATULLAH JAKARTA

2023
KATA PENGANTAR

Segala puji dan syukur atas segala nikmat dan karunia yang diberikan Allah SWT
sehingga kami bisa menyusun makalah ini yang berjudul “Uji Asumsi Klasik”. Sholawat
serta salam kami panjatkan kepada baginda besar Nabi Muhammad SAW, semoga kita semua
bisa mendapatkan syafaatnya di akhirat nanti. Kami juga mengucapkan terima kasih kepada
Bapak Rahmat Hidayat S.E M.T,Ph.D selaku dosen pengampu mata kuliah Metodologi
Penelitian yang telah memberikan kami tugas membuat makalah, sehingga kami dapat
mengaplikasikan ilmu kami.
Makalah ini telah kami susun bersama dengan kontribusi dari anggota kelompok secara
maksimal dan menurut referensi dari beberapa jurnal dan website yang kami baca, sehingga
dapat membantu kami dalam pembuatan makalah ini. Terlepas dari kata maksimal diatas,
kami dengan senang hati menerima saran dan kritik yang membangun kedepannya. Tentunya
kami mohon bimbingan kepada Bapak agar bisa memberikan kami saran dan kritik yang
membangun.
Akhir kata, kami berharap makalah ini dapat memberikan manfaat terhadap kami
sebagai pemakalah dan juga kepada teman teman sekalian yang telah membacanya.

Jakarta, 30 November 2023

Kelompok 4

i
BAB I
PENDAHULUAN

1.1 Latar Belakang


Pengujian asumsi klasik diperlukan untuk mengetahui apakah hasil estimasi regresi
yang dilakukan benar-benar dai adanya gejala heteroskedastisitas, gejala multikolinearitas,
dan gejala autokorelasi. Model regresi akan dapat dijadikan alat estimasi yang tidak bisa jika
telah memenuhi persyaratan BLUE (Best Linear Unbiased Estimator) yakni tidak terdapat
heteroskedastisitas, tidak terdapat multikolinearitas, dan tidak terdapat autokorelasi.
Jika terdapat heteroskedastisitas, maka varian tidak konstan sehingga dapat
menyebabkan biasnya standar error. Jika terdapat multikolinearitas, maka akan sulit untuk
mengisolasi pengaruh-pengaruh individual dari variabel, sehingga tingkat signifikasi
koefisien regresi menjadi rendah. Dengan adanya autokorelasi mengakibatkan penaksir masih
tetap bias dan masih tetap konsisten dan hanya saja menjadi tidak efisien.
Dalam makalah ini, penulis membahas terkait asumsi klasik, autokorelasi, dan
multikolinearitas. Sebagaimana halnya setiap pengujian hipotesis dalam statistic, kita akan
mencoba mengetahui apakah nilai parameter-parameter yang ditaksir dalam model regresi
cocok dengan nilai yang dihipotesiskan dari parameter-parameter tersebut kita akan
membahas mengapa kita. menggunakan model regresi linear klasik.
Tentang multikolinearitas mencoba menentukan apa yang terjadi jika dua variabel
penjelas atau lebih berkorelasi. Ingat kembali salah satu asumsi CRLM mengenai variabel-
variabel penjelas yang tidak memiliki hubungan- hubungan penjelas tidak berhubungan linear
sempurna, menaksir kuadrat terkecil biasa (OLS) masih menjadi penafsir tak bias linear
terbaik BLUE. Pengujian asumsi klasik diperlukan untuk mengetahui apakah hasil estimasi
regresi yang dilakukan benar-benar dai adanya gejala heteroskedastisitas, gejala
multikolinearitas, dan gejala autokorelasi. Model regresi akan dapat dijadikan alat estimasi
yang tidak bisa jika telah memenuhi persyaratan BLUE (Best Linear Unbiased Estimator)
yakni tidak terdapat heteroskedastisitas, tidak terdapat multikolinearitas, dan tidak terdapat
autokorelasi.
Jika terdapat heteroskedastisitas, maka varian tidak konstan sehingga dapat
menyebabkan biasnya standar error. Jika terdapat multikolinearitas, maka akan sulit untuk
mengisolasi pengaruh-pengaruh individual dari variabel, sehingga tingkat signifikasi

1
koefisien regresi menjadi rendah. Dengan adanya autokorelasi mengakibatkan penaksir masih
tetap bias dan masih tetap konsisten dan hanya saja menjadi tidak efisien.
Dalam makalah ini, penulis membahas terkait asumsi klasik, autokorelasi, dan
multikolinearitas. Sebagaimana halnya setiap pengujian hipotesis dalam statistic, kita akan
mencoba mengetahui apakah nilai parameter-parameter yang ditaksir dalam model regresi
cocok dengan nilai yang dihipotesiskan dari parameter-parameter tersebut kita akan
membahas mengapa kita. menggunakan model regresi linear klasik.
Tentang multikolinearitas mencoba menentukan apa yang terjadi jika dua variabel
penjelas atau lebih berkorelasi. Ingat kembali salah satu asumsi CRLM mengenai variabel-
variabel penjelas yang tidak memiliki hubungan- hubungan penjelas tidak berhubungan linear
sempurna, menaksir kuadrat terkecil biasa (OLS) masih menjadi penafsir tak bias linear
terbaik BLUE.

2
1.2 Rumusan Masalah

Berdasarkan uraian latar belakang diatas maka rumusan masalah pada penulisan ini
adalah, apakah yang dimaksud dengan uji asumsi klasik, apa saja yang menjadi bagian dari
asumsi klasik, apa yang disebut uji normalitas, apa yang dimaksud uji autokorelasi, apa yang
dimaksud uji multikolinearitas, apa yang dimaksud uji heteroksiditas dan apa yang dimaksud
uji linearitas?

1.3 Tujuan Penelitian


1. Untuk mengetahui maksud dari Asumsi Klasik.
2. Untuk mengetahui apa saja yang menjadi bagian dari Asumsi Klasik.
3. Untuk mengetahui apa yang dimaksud dengan uji Normalitas.
4. Untuk mengetahui apa yang dimaksud dengan uji Autokorelas.
5. Untuk mengetahui apa yang dimaksud dengan uji Multikolinearitas.
6. Untuk mengetahui apa yang dimaksud dengan uji Meterokdisitas.
7. Untuk mengetahui apa yang dimaksud dengan uji Linearitas.

3
BAB II
PEMBAHASAN

2.1 Pengertian Uji Asumsi Klasik


Uji asumsi klasik adalah persyaratan statistik yang harus dipenuhi pada analisis
regresi linear berganda yang berbasis ordinary least aquare (OLS). Jadi analisis regresi yang
tidak berdasarkan OLS tidak memerlukan persyaratan asumsi klasik, misalnya regresi logistic
atau regesi ordinal, demikian juga tidak semua uji asumsi klasik harus dilakukan pada analisis
regresi linear, misalnya uji multikolinearitas tidak dilakukan pada analisis regresi linear
sederhana dan uji autokorelasi tidak perlu diterapkan pada cross sectional.
Uji asumsi klasik juga tidak perlu dilakukan untuk analisis regresi linear yang
bertujuan untuk menghitung nilai pada variabel tertentu. Misalnya nilai return saham yang
dihitung dengan market model, atau market adjusted. model. Perhitungan nilai return yang
diharapkan dapat dilakukan dengan pengemasan rgresi, tetapi tidak perlu diuji asumsi klasik,
Uji asumsi klasik merupakan terjemahan dari chlasical linear regressiom model
(CLRM) yang merupakan asumsi yang diperlukan dalam analisis regresi linear dengan
ordinary least square. Sebagai informasi, semua ini berkat kejeniusan seorang
matematikawan Jerman bernama Carl Friedch Gauss.
CLRM juga sering disebut dengan The Gaussian Standard, yang sebenarnya terdiri
dari 10 item. Akan tetapi, yang sering kita jumpai dalam berbagai penelitian, atau berbagai
buku statistic terapan mungkin hanya 4 atau 5 saja. Mengapa? Berikut sedikit uraian tentang
10 item tersebut.
1. Asumsi 1: Linear regression model
Model regresi haruslah linear, meskipun bila saja sebenarnya variabel terikat Y
dengan variabel bebas X tidak linear. Istilah linear ada dua macam, yaitu linearitas pada
variabel dan linearitas pada parameter.
Yang disebut Idengan linearitas pada variabel adalah jika digambarkan dalam grafik
maka akan berbentuk garis lurus. Misalnya persamaan Y = a + bX. Seandainya persamaannya
adalah Yab X2 dapat disebut linear jika koefisien b mempunyai pangkat 1. Asumsi yang
diperlukan dalam regresi linear adalah linearitas pada parameter, bukan. linearitas pada
variabel.

2. Asumsi 2: Values are fixed in repeated sampling

4
Nilai variabel X diasumsikan stokastik atau dianggap tetap dalam sampel yang
berulang. Misalnya ada 7 data yang akan dianalisa dengan regresi (ini hanya contoh saja,
karena regresi dengan 7 data tampaknya terlalu sedikit)
Gaji (Juta) Pengeluaran (Juta)
3 2,5
3 2
3 3
4 3
4 2,5
5 4,5
5 4

Jadi misalnya ambil nilai tetap untuk X, yaitu gaji 3 juta naka sampel pertama
mempunyai pengeluaran 2,5 juta. Lalu ambil lagi kedua dengan gaji 3 juta maka
pengeluarannya adalah 2 juta. Demikian seterusnya untuk sampel dengan gaji 4 juta dan 5
juta. Nilai X dianggap tetap pada sampel yang berulang. (dalam regresi lanjut, dapat
disaumsikan bahwa X tidak stokastik).

3. Asumsi 3: Zero mean value of disturbance ui


Nilai Y hasil prediksi dengan model regresi tentunya mempunya kesalahan atau tidak
tepat sama dengan nilai Y pada data. Selisihnya sering disebut dengan disturbance dan sering
disimbolkan dengan u. nilai ini harus mempunyai rata-rata sama dengan 0 (eksak). Ketika
telah. mendapatkan garis lurus pada model, maka nilai Y yang sebenarnya bisa berada di atas
atau dibawah garis lurus tersebut, akan tetapi jumlahnya akan seimbang sehingga rata-ratanya
sama dengan 0.

4. Asumsi 4: Homoscedasticity or equal variance of ui


Homo berarti sama atau equal, scedasticity berarti disperse atau scatter atau ada yang
mengartikan sebaran. Jadi varians dari error atau disturbance haruslah sama pada masing-
msaing nilai X. sebagai contoh, ada 3 orang dengan gaji 3 juta sehingga memberikan tiga
buah error dan mempunyai varians. Varians ini harus sama (equal) dengan varians error pada
nilai X yang lain misalnya 4 juta. Demikian seterusnya.
5. Asumsi 5: No autocorrelation between the disturbances

5
Asumsi ini masih berkaitan dengan nilai error, yaitu bahwa untuk sembarang 2 buah
nilai X, maka kedua error itu tidak berkorelasi (atau mempunyai korelasi 0). Missalnya error
pada X sebesar 3 juta dengan Y sebesar 2 juta tidak berkorelasi.
Penelitian lain adalah misalnya ada persamaan Y=a+bX+u dengan u adalah error. Jika
ada korelasi antara u dengan u-1 (error sebelumnya) maka model akan gagal, karena Y pada
model harusnya dipengaruhi oleh X saja, akan dipengaruhi oleh u. demikian seterusnya.
6. Asumsi 6: Zero covariance between ui and Xi
Artinya nilai variabel bebas (X) dengan error (ui) tidak berkorelasi. Diasumsikan
bahwa Y adalah dipengaruhi oleh X dan u, sehingga X dan u harus tidak saling berkorelasi.
Jika X atau u berkorelasi, maka tidak mungkin mencari pengaruh masing-masing terhadap Y.
Jika X berkorelasi positif dengan u, maka jika X meningkat u juga meningkat, atau
jika X menurun maka u juga menurun (juga sebaliknya jika berkorelasi negatif). Sehingga
sulit untuk mengisolasi pengaruh X dan u terhadap Y. asumsi ini sebenarnya akan terpenuhi
secara otomatis jika X merupakan stokastik karena untuk X bernilai tetap, u akan berubah.
7. Asumsi 7: The number of observation n must than the number of parameters to be
estimated
Asumsi ini sebenarnya tidak asing bagi matematika sederhana. Jika ada dua parameter
yang akan dicari nilainya maka tidak mungkin diselesaikan dengan satu persamaan
(observasi).
8. Asumsi 8: Variabillity in X values
Harus ada variasi nilai dalam variabel X. jika X nilainya sama untuk semua observasi
maka tentunya tidak dapat diestimasi. Meskipun ini. mudah dimengerti namun sering
dilipakan.
9. Asumsi 9: The regression model is correctly specified
Model regresi yang dibangun haruslah benar dalam arti sesuai dengan teori yang telah
dikembangkan. Seperti telah dijelaskan bahwa statistic hanyalah untuk menguji teori atau
fenomena tertentu. Jadi jika menggunakan variabel yang sembarangan (atau tidak
berdasarkan teori tertentu) maka model regresi yang dihasilkan juga patut dipertanyakan.
10. Asumsi 10: there is no perfect multicollinearity
Tidak ada hubungan linear yang tinggi antara variabel-variabel bebas dalam model
regresi. Jadi asumsi ini tentunya tidak bisa diterapkan pada regresi dengan satu variabel bebas
(regresi linear sederhana).

6
2.2 Uji Normalitas
Uji normalitas adalah untuk melihat apakah nilai tersebut berdistribusi normal atau
tidak. Model regresi yang baik adalah memiliki nilai residual yang berdistribusi normal. Jadi
uji normalitas bukan dilakukan pada masing- masing variabel tetapi pada nilai residualnya.
Sering terjadi kesalahan yang jamak yaitu bahwa uji normalitas dilakukan pada masing-
masing variabel. Hal ini tidak dilarang tetapi model regresi memerlukan normalitas pada nilai
residualnya bukan pada masing-masing variabel penelitian.
Pengertian normal secara sederhana dapat dianalogikan dengan sebuah kelas. Dalam
kelas siswa yang bodoh sekali dan pandai sekali jumlahnya hanya sedikit dan sebagian besar
berada pada kategori sedang atau rata-rata. Jika kelas tersebut bodoh semua maka tidak
normal, atau sekolah luar biasa. Dan sebaliknya jika suatu kelas banyak yang pandai maka
kelas tersebut tidak. normal atau merupakan kelas unggulan. Pengamatan data yang normal
akan memberikan nilai ekstrim rendah dan ekstrim tinggi yang sedikit dan kebanyakan
mengumpul di tengah. Demikian juga nilai rata-rata, modus dan median relative dekat.
Uji normalitas dapat dilakukan dengan uji histogram, uji P Plot, uji Chi Square,
Skewness dan Kurtosis atau uji Kolomogorov Smirnov. Tidak ada metode yang paling baik
atau paling tepat. Tipsnya adalah bahwa pengujian dengan metode grafik sering
menimbulkan perbedaan persepsi diantara beberapa pengamat, sehingga penggunaan uji
normalitas dengan uji statistic bebas dari keragu-raguan, meskipun tidak ada jaminan bahwa
pengujian dengan uji statistic lebih baik dari pada pengujian dengan metode grafik
Jika residual tidak normal tetapi dekat dengan nilai kritis (misalnya signifikasi
Kolomogorov Smirnov sebesar 0,049) maka dapat dicoba dengan metode lain yang mungkin
memberikan justifikasi normal. Tetapi jika jauh dari nilai normal, maka dapat dilakukan
beberapa langkah yaitu: melakukan transformasi data, melakukan trimming data outliers atau
menambah dataobservasi. Transformasi data dapat dilakukan ke dalam bentuk
logaritma.natural, akar kuadrat, inverse, atau bentuk yang lain tergantung dari bentuk kurva
normalnya, apakah condong ke kiri, ke kanan, mengumpul di tengah atau menyebar ke
samping kanan dan kiri.
Uji asumsi normalitas untuk mendeteksi kemungkinan normalitas kesalahan
pengganggu. Uji ini dilakukan dengan cara uji chi square goodness of fit atau dapat dengan
langsung mengamati distribusi yang terbentuk dari output computer untuk data yang
berdistribusi normal. Metode yang digunakan untuk menguji normalitas dalam penelitia ini
adalah kolomogorov- smirnov. Apabila dari hasil pengujian normalitas, terlihat sebaran data

7
variabel X1 X2, X3,X4, dan X5 mengikuti kurva normal maka dapat langsung diadakan
pengujian hipotesis.
Untuk menentukan posisi normal dari sebaran data, langkah awal yang dilakukan
adalah menghitung standar deviasi.

 SD 1 = 68%
 SD 2 = 95%
 SD 3 = 99,7%
Penentuan area ini penting, karena sebaran data yang dikatakan normal apabila sebagai
berikut:
 Sebanyak 68% dari observasi berada pada area SD1
 Sebanyak 95% dari sisanya berada pada area SD
 Sebanyak 99% dari sisanya berada pada area SD3
Sebaran data yang dikatakan normal:
 Apabila data tidak normal, maka diperlukan upaya untuk mengatasi seperti: memotong
data yang out liers, memperbesar sampel, atau melakukan transformasi data.
 Data yang tidak normal juga dapat dibedakan dari tingkat kemencengannya (skewness),
Jika data cenderung menceng ke kiri disebut positif skewness, dan jika data cenderung
menceng ke kanan disebut. negative skewness. Data dikatakan normal jika datanya
simetris

2.3 Uji Autokorelasi


Uji autokorelasi adalah untuk melihat apakah terjadi korelasi antara suatu periode t
dengan periode sebelumnya (t-1). Secara sederhana adalah bahwa analisis regresi adalah
untuk melihat pengaruh antara variabel bebas terhadap variabel terkait, jika tidak boleh ada
korelasi antara observasi dengan observasi sebelumnya.
Sebagai contoh adalah pengaruh antara tingkat inflasi bulanan terhadap nilai tukar
rupiah terhadap dollar. Data tingkat inflasi pada bulan tertentu, katakanlah bulan Februari,
akan dipengaruhi oleh tingkat inflasi bulan. Januari. Berarti terdapat gangguan autokorelasi
pada model tersebut. Contoh lain, pengeluaran rutin dalam suatu rumah tangga. Ketika pada

8
bulan Januari suatu keluarga mengeluarkan belanja bulanan yang relative tinggi, maka tanpa
ada pengaruh dari apapun, pengeluaran pada bulan Februari akan rendah.
Uji autokorelasi hanya dilakukan pada data time series (runtut waktu)dan tidak perlu
dilakukan pada data cross section seperti pada kuisioner dimana pengukuran semua variabel
dilakukan secara serempak pada saat bersamaan. Model regresi pada penelitian di nbursa efek
Indonesia di mana periodenya lebih dari satu tahun biasanya memerlukan uji autokorelasi.
Beberapa uji statistic yang sering dipergunakan adalah uji Durbin- Watson, uji dengan
Run Test dan jika data observasi di atas 100 data sebaiknya menggunakan uji Lagrange
Multiper. Beberapa cara untuk menanggulangi autokorelasi adalah dengan
mentranformasikan data atau bisa. juga dengan mengubah model regresi ke dalam bentuk
persamaan beda umum (generalized difference equation). Selain itu juga dapat dilakukan
dengan memasukkan variabel lagi dengan variabel terkaitnya menjadi salah. satu variabel
bebas, sehingga data observasi menjadi berkurang.
 Sebab-sebab Autokorelasi
1. Interia: data umumnya yang digunakan berbentuk kumulatif bukan individual series.
Sehingga nilai data pada satu titik lebih besar dari data sebelumnya.
2. Manipulasi Data: menggunakan data tahunan menjadi triwulan dengan cara
membagi tiga data tahunan secara langsung.
 Tujuan penerapan Autokorelasi
Uji autokorelasi bertujuan menguji apakah dalam suatu model regresi linear ada
korelasi antara kesalahanpengganggu pada periode (t) dengan kesalahan pada periode t-1
(sebelumnya). Jika terjadi korelasi maka dinamakan ada problem autokorelasi. Model
regresi yang baik adalah. regresi yang bebas dari autokorelasi Uji auto korelasi dilakukan
dengan a=5%, menggunakan uji Durbin-Watson (D-W), dengan tingkat. kepercayaan
apabila D-W terletak antara 2 sampai +2 maka tidak ada autokorelasi.

 Mendeteksi adanya autokorelasi


Dalam praktek secara umum, metode yang sering digunakan adalah: Durbin-Watson
Method. Dalam regresi linier tidak terjadi autokorelasi jika nilai Durbin-Watson: 1,70-
2.30.
 Akibat Autokorelasi
Akibatnya adalah niali (t) hitung akan menjadi bias pula, karena nilai (t) diperoleh
dari hasil bagi Sb terhadap b (t-b/sb). Berhubung nilai Sb bias maka nilai (t) juga akan bias

9
atau bersifat tidak pasti (misleading). Karena adanya masalah korelasi dapat menimbulkan
adanya bias pada hasil regresi.

2.4 Uji Multikolinearitas


Uji multikolinearitas adalah untuk melihat ada atau tidaknya korelasi yang tinggi
antara variabel-variabel bebas dalam suatu model regresi linear berganda. Jika ada korelasi
yang tinggi diantara variabel-variabel bebasnya, maka hubungan antara variabel bebas
terhadap variabel terkaitnya menjadi terganggu. Sebagai ilustrasi, adalah model regresi
dengan variabel bebasnya motivasi, kepemimpinan dan kepuasan kerja dengan variabel
terkainya adalah kinerja.
Logika sederhananya adalah bahwa model tersesbut untuk mencari pengaruh antara
motivasi, kepemimpinan dan kepuasan kerja terhadap kinerja. Jadi tidak boleh ada korelasi
yang tinggi anatara motivasi dengan kepemimpinan, motivasi dengan kepuasan kerja atau
antara kepemimpinan dengan kepuasan kerja.
Alat statistic yang sering dipergunakan untuk menguji gangguan multikolinearitas adalah
dengan variance inflation factor (VIF), korelasi pearson antara variabel-variabel bebas, atau
dengan melihat eigenvalues dan condition index (CI).
Beberapa alternative cara untuk mengatasi masalah multikolinearitas adalah sebagai
berikut:
1. Mengganti atau mengeluarkan variabel yang mempunyai korelasi yang tinggi
2. Menambah jumlah observasi
3. Mentranformasikan data ke dalam bentuk lain, misalnya logaritma natural, akar
kuadrat atau bentuk first difference delta.
Multikolinearitas adalah suatu keadaan dimana terjadi korelasi linear yang "perfect"
atau eksak diantara variabel penjelas yang dimasukkan ke dalam model.
 Konsekuensi Multikolinearitas
Apabila belum terbebas dari masalah multikolinearitas akan menyebabkan nilai
koefisien regresi (b) masing-masing variabel bebas dan nilai standar error-nya (Sb)
cenderung bias, dalam arti tidak dapat ditentukan kepastian nilainya, sehingga akan
berpengaruh pula terhadap nilai (1),
 Pendeteksian Multikolinearitas

10
Terdapat beragam cara untuk menguji multikolinearitas diantaranya: menganalisis
matrix korelasi dengan Pearson Correlation atau Spearman's Rho Correlation, melakukan
regresi partial dengan teknik auxiliary regression.
Pendapat Gujarati (1995) yang mengatakan bahwa bila korelasi antara dua variabel
bebas melebihi 0,8 maka multikolinearitas menjadi masalah yang serius. Gujarati juga
menambahkan bahwa, apabila korelasi antara variabel penjelas tidak lebih besa
disbanding korelasi variabel terkait dengan masing-masing variabel penjelas, maka dapat
dikatakan tidak terdapat masalah yang serius. Engan demikian, dapat dismimpulkan
bahwa apabila angka korelasi lebih kecil dari 0,8 maka dapat dikatakan telah terbebas
dari masalah multikolinearitas.
Dalam kaitan adanya kolinear yang tinggi sehingga menimbulkan tidak terpenuhinya
asumsi terbatas dari masalah multikolinearitas, dengan mempertimbangkan sifat data dari
cross section, maka bila tujuan persamaan hanya sekedar untuk keperluan prediksi, hasil
regresi dapat ditolerir, sepanjang nilai (1) signifikan.
 Tujuan Penerapan Multikolinearitas
Uji multikolinearitas bertujuan untuk menguji apakah dalam model regresi
ditemukan adanya korelasi antar variabel bebas (independen). Dalam model regresi yang
baik seharusnya tidak terjadi korelasi di antara variabel bebas. Uji multikolinearitas
dilakukan dengan melihat nilai tolerance dan variance inflation factor (VIF) dari hasil
analisis dengan menggunakan SPSS. Apabila nilai tolerance value lebih tinggi daripada
0,10 atau VIF lebih kecil daripada 10 maka dapat disimpulkan tidak terjadi
multikolinearitas.

2.5 Uji Heterokedastisitas


Uji heteroskedastisitas adalah untuk melihat apakah terdapat ketidaksamaan varians
dari residual satu ke pengamatan yang lain. Model regresi yang memenuhi persyaratan adalah
di mana terdapat kesamaan varians dari residual satu pengamatan ke pengamatan yang lain
tetap atau disebut heteroskedastisitas.
Deteksi heteroskedastisitas dapat dilakukan dengan metode scatter plot dengan
memplotkan nilai ZPRED (nilai prediksi) dengan SRESID (nilai nresidualnya). Model yang
didapatkan jika tidak terdapat pola tertentu pada grafik, seperti mengumpul di tengah,
menyempit kemudian melebar atau sebaliknya melebar kemudian menyempit. Uji statistic
yang dapat digunakan adalah uji Glejser, uji Park atau uji White.

11
Beberapa alternatif solusi jika model menyalahi asumsi heteroskedastisitas.
Heteroskedastisitas mencul apabila kesalahan (e) atau residual dari model yang diamati tidak
memiliki varians yang konstan dari satu observasi ke observasi lainnya rumus regrensi
diperoleh dengan asumsi bahwa variabel pengganggu (error) atau e, diasumsikan memiliki
variabel yang konstan (rentangan e kurang lebih sama). Apabila terjadi varian e tidak
konstan, maka kondisi tersebut dikatakan tidak heteroskedastisitas atau mengalami
heteroskedastisitas.

2.6 Uji Linearitas


Uji linearitas dipergunakan untuk melihat apakah model yang dibangun mempunyai
hubungan linear atau tidak. Uji ini jarang digunakan pada berbagai penelitian, karena
biasanya model dibenetuk berdasarkan telaah teoretis bahwa hubungan antara variabel bebas
dan variabel terikatnya adalah linear. Hubungan atara variabel yang secara teori buka
merupakan hubungan linear sebenarnya sudah tidak dapat dianalisis dengan regresi linear,
misalnya masalah elastisitas.
Jika ada hubungan antara dua variabel yang belum diketahui apakah linear atau tidak,
uji linearitas tidak dapat digunakan untuk memberikan adjustments bahwa hubungan tersebut
bersifat linear atau tidak. Uji linearitas digunakan untuk untuk mengkonfirmasikan apakah
sifat linear antara dua variabel yang diidentifikasikan secara teori sesuai atau tidak dengan
hasil observasi yang ada. Uji linearitas dapat menggunakan uji Durbin-Watson, Romsey Test
atau uji Lagrange Multiper.

12
BAB III
PENUTUP

3.1 Kesimpulan
Uji asumsi klasik adalah persyaratan statistik yang harus dipenuhi pada analisis
regresi linear berganda yang berbasis ordinary least aquare (OLS). Uji asumsi klasik
merupakan terjemahan dari chlasical linear regressiom model (CLRM) yang merupakan
asumsi yang diperlukan dalam analisis regresi linear dengan ordinary least square.
CLRM juga sering disebut dengan The Gaussian Standard, yang sebenarnya terdiri
dari 10 item. Akan tetapi, yang sering kita jumpai dalam berbagai penelitian, atau berbagai
buku statistic terapan mungkin hanya 4 atau 5 saja. Asumsi 1: Linear regression model,
Asumsi 2: Values are fixed in repeated sampling. Asumsi 3: Zero mean value of disturbance
ui, Asumsi 4: Homoscedasticity or equal variance of ui, Asumsi 5: No autocorrelation.
between the disturbance. Asumsi 6: Zero covariance between ui and Xi. Asumsi 7: The
number of observation n must than tehe number of parameters to be estimated, Asumsi 8:
Variabillity in X values, Asumsi 9: The regression model is correctly specified dan Asumsi
10: there is no perfect multicollineariti. Asumsi Klasik yang sering digunakan yakni: uji
Normalitas, uji Autokorelas, uji Multikolinearitas, uji Meterokdisitas dan uji Linearitas.

13
DAFTAR PUSTAKA

Arikunto. (2003). Dasar-Dasar Evaluasi Pendidikan. Bumi Aksara.


Gujarati. (1995). Basic aEconometrics (3rd ed.). AKM YKPN.
Santoso, S. (2002). SPSS mengolah Data Statistik Secara Profesional. PT Elex Media
Komputindo.
Santoso, S. (2010). Buku Latihan SPSS Statistik Parametrik. PT Elex Media Komputindo.

14

Anda mungkin juga menyukai