Anda di halaman 1dari 3

A.

Pengertian Analisis Regresi


Analisis regresi adalah suatu teknik yang digunakan untuk membangun suatu
persamaan yang menghubungkan antara variabel tidak bebas (Y) dengan variabel
bebas (X) dan sekaligus untuk menentukan nilai ramalan atau dugaannyaDalam
analisis regresi dikembangkan persamaan estimasi untuk mendeskripsikan pola atau
fungsi hubungan antara varibel-variabel. Sesuai dengan namanya, persaman estimasi
atau persamaan regresi itu digunakan untuk mengestimasi nilai dari suatu variabel
berdasarkan nilai variabel lainnya. Variabel yang diestimasi itu disebut variabel
depeden (atau variabel terikat) sedangkan variabel yang diperkirakan mempengaruhi
variabel dependen disebut variabel independen (atau variabel bebas). Variabel
depeden ditulis pada arah sumbu Y (karena diberi simbol Y) sementara variabel
independen di tulis pada arah sumbu X (karena diberi simbol X). Persamaan yang
menyatakan bentuk hubungan antara variabel terikat Y dengan variabel bebasnya X
disebut dengan persamaan regresi. Berdasarkan konsep ini, maka hubungan antara
variabel Y dan X dapat simbol X dapat diwakili dengan sebuah garis regresi.
Disamping untuk mengestimasi, analisis regresi juga digunakan untuk mengukur
tingkat ketergantungan (dependability) dari estimasi itu.
Bentuk sebenarnya dari persamaan regresi pada populasi adalah Y = A + BX.
Oleh karena dalam kenyataannya tidak dapat diketahui nilai sebenarnya dari
parameter A dan B maka dapat diperkirakan dengan menggunakan data ampel yang
ditarik dari populasi, sehinga bentuk persamaan regresinya menjadi Y = a + bX.
Untuk mendapatkan suatu persamaan regresi, pertama-tama dilakukan pengumpulan
data dari variabel yang akan dilihat hubungannya, misalkan variabel Y dan X.
Selanjutnya dibuat gambar titik-titik kombinasi Y dan X dalam sistem koordinat yang
biasa dikenal dengan scatter diagram. Dari scatter diagram dapat dibayangkan bentuk
kurva yang sesuai dengan kombinasi data Y dan X. Dalam kegiatan mencocokkan
persamaan garis dengan titik-titik koordinat kombinasi Y dan X, dapat diperoleh
persamaan garis yang apabila lurus dinamakan hubungan linier, namun apabila
bentuknya tidak lurus dikenal dengan hubungan nonlinier yang dapat berbentuk
kuadrik, hiperbolik, geometrik dan logaritmik.
B. Masalah-masalah dalam Regresi
1. Asumsi-asumsi Dasar Regresi
Asumsi-asumsi dasar itu dikenal sebagai asumsi klasik, yaitu sebagai berikut.
a. Homoskedastisitas, yaitu varians dari variabel merupakan sama atau
konstan untuk setiap nilai dari variabel bebas lainnya atau variasi
residu sama untuk semua pengamatan.
b. Nonautokorelasi, berarti tidak ada pengaruh dari variabel dalam
modelnya melalui selang waktu atau tidak terjadi korelasi diantara
galat randomnya.
c. Nonmultikolinearitas,, berarti antara variabel bebas yang satu dengan
variabel bebas yang lain dalam model regresi tidak terjadi hubungan
yang mendekati sempurna ataupun hubungan yang sempurna.
d. Distribusi kesalahan (error) adlah normal/
e. Nilai rata-rata kesalahan (error) populasi pada model skotastiknya
sama dengan nol.
f. Variabel bebasnya memunyai nilai yang konstan pada setiap kali
percobaan yang dilakukan secara berulang-ulang (variabel
nonstokastik).
2. Penyimpangan Asumsi Dasar
Penyimpangan asumsi dasar terdiri atas:
a. Heteroskedastiditas, berarti variasi tidak sama untuk semua
pengamatan, kesalahan yang tidak terjadi tidak random (acak) tetapi
menunjukan hubungan yang sistematis sesuai dengan besarnya satu
atau lebih variabel bebas. Misalnya, heterosdekastisitas akan muncul
dalam bentuk residu yang semaki besar jika pengamatan semakin
besar. Rata-rata residu akan semakin bear untuk pengamatan variabel
bebas (X) yang semakin besar. Akibat dari adanya heteroskedastisitas
yaitu:
1) Penaksir (estimator) yang diperoleh menjaditidak efisien yang
disebabkan variansnya sudah tidak minim lagi (tidak efisien).
2) Kesalahan baku koefisien regresi akan terpengaruh sehingga
membberikan indikasi yang salah dan koefisien determinasi
memperlihatkan daya penjesan terlalu besar.
b. Autokorelasi, berarti terdapatnya korelasi antaranggota sampel atau
data pengamatan yang diurutkan berdasarkan waktu, sehingga
munculnya suatu datum dipengaruhi oleh datum sebelumnya.
Autokorelasi muncul pada reggresi yang menggunakan data berskala
(time series). Akibat adanya autokorelasi yaitu;
1) Varians sampel tidak dapat meggambarkan varians populasi
2) Model regresi yang dihasilkan tidak dapat dipergunkananuntuk
menduganilai variabel bebas tertentu.
3) Varians dari koefisiennya menjadi tidak minim lagi(tidak
efisien lagi) sehingga koefisien estimasi yang diperoleh kurang
akurat lagi.
4) Uji t tidak berlaku lagi jika uji t tersebut tetap digunakan maka
kesimpulan yang diperoleh salah.
c. Multikolinearitas, berarti antara variabel yang satu dengan variabel
bebas yang lain dalam model regresi saling berkorelaasi linear.
Korelasinya mendekati sempurna atau sempurna (koefisien
korelasinya tinggiatau bahkan satu). Akibat danya multikolinearitas
yaitu:
1) Pengaruh masing-masing variabel bebas tidak dapat dideteksi
atau sulit untuk dibedakan.
2) Kesalahan standar estimasi cenderung meningkat dengan akin
bertambahnya variabel bebas
3) Tingkat sigifikansi yang digunakan untuk menolak hipotesis
nol(Ho) semakin besar.
4) Kesalahan standar bagi masing-masing koefisien yang diduga
sangat besar, akibatnya nilai t menjadi sangat rendah.

Anda mungkin juga menyukai