Analisis regresi adalah suatu teknik yang digunakan untuk membangun suatu persamaan yang menghubungkan antara variabel tidak bebas (Y) dengan variabel bebas (X) dan sekaligus untuk menentukan nilai ramalan atau dugaannyaDalam analisis regresi dikembangkan persamaan estimasi untuk mendeskripsikan pola atau fungsi hubungan antara varibel-variabel. Sesuai dengan namanya, persaman estimasi atau persamaan regresi itu digunakan untuk mengestimasi nilai dari suatu variabel berdasarkan nilai variabel lainnya. Variabel yang diestimasi itu disebut variabel depeden (atau variabel terikat) sedangkan variabel yang diperkirakan mempengaruhi variabel dependen disebut variabel independen (atau variabel bebas). Variabel depeden ditulis pada arah sumbu Y (karena diberi simbol Y) sementara variabel independen di tulis pada arah sumbu X (karena diberi simbol X). Persamaan yang menyatakan bentuk hubungan antara variabel terikat Y dengan variabel bebasnya X disebut dengan persamaan regresi. Berdasarkan konsep ini, maka hubungan antara variabel Y dan X dapat simbol X dapat diwakili dengan sebuah garis regresi. Disamping untuk mengestimasi, analisis regresi juga digunakan untuk mengukur tingkat ketergantungan (dependability) dari estimasi itu. Bentuk sebenarnya dari persamaan regresi pada populasi adalah Y = A + BX. Oleh karena dalam kenyataannya tidak dapat diketahui nilai sebenarnya dari parameter A dan B maka dapat diperkirakan dengan menggunakan data ampel yang ditarik dari populasi, sehinga bentuk persamaan regresinya menjadi Y = a + bX. Untuk mendapatkan suatu persamaan regresi, pertama-tama dilakukan pengumpulan data dari variabel yang akan dilihat hubungannya, misalkan variabel Y dan X. Selanjutnya dibuat gambar titik-titik kombinasi Y dan X dalam sistem koordinat yang biasa dikenal dengan scatter diagram. Dari scatter diagram dapat dibayangkan bentuk kurva yang sesuai dengan kombinasi data Y dan X. Dalam kegiatan mencocokkan persamaan garis dengan titik-titik koordinat kombinasi Y dan X, dapat diperoleh persamaan garis yang apabila lurus dinamakan hubungan linier, namun apabila bentuknya tidak lurus dikenal dengan hubungan nonlinier yang dapat berbentuk kuadrik, hiperbolik, geometrik dan logaritmik. B. Masalah-masalah dalam Regresi 1. Asumsi-asumsi Dasar Regresi Asumsi-asumsi dasar itu dikenal sebagai asumsi klasik, yaitu sebagai berikut. a. Homoskedastisitas, yaitu varians dari variabel merupakan sama atau konstan untuk setiap nilai dari variabel bebas lainnya atau variasi residu sama untuk semua pengamatan. b. Nonautokorelasi, berarti tidak ada pengaruh dari variabel dalam modelnya melalui selang waktu atau tidak terjadi korelasi diantara galat randomnya. c. Nonmultikolinearitas,, berarti antara variabel bebas yang satu dengan variabel bebas yang lain dalam model regresi tidak terjadi hubungan yang mendekati sempurna ataupun hubungan yang sempurna. d. Distribusi kesalahan (error) adlah normal/ e. Nilai rata-rata kesalahan (error) populasi pada model skotastiknya sama dengan nol. f. Variabel bebasnya memunyai nilai yang konstan pada setiap kali percobaan yang dilakukan secara berulang-ulang (variabel nonstokastik). 2. Penyimpangan Asumsi Dasar Penyimpangan asumsi dasar terdiri atas: a. Heteroskedastiditas, berarti variasi tidak sama untuk semua pengamatan, kesalahan yang tidak terjadi tidak random (acak) tetapi menunjukan hubungan yang sistematis sesuai dengan besarnya satu atau lebih variabel bebas. Misalnya, heterosdekastisitas akan muncul dalam bentuk residu yang semaki besar jika pengamatan semakin besar. Rata-rata residu akan semakin bear untuk pengamatan variabel bebas (X) yang semakin besar. Akibat dari adanya heteroskedastisitas yaitu: 1) Penaksir (estimator) yang diperoleh menjaditidak efisien yang disebabkan variansnya sudah tidak minim lagi (tidak efisien). 2) Kesalahan baku koefisien regresi akan terpengaruh sehingga membberikan indikasi yang salah dan koefisien determinasi memperlihatkan daya penjesan terlalu besar. b. Autokorelasi, berarti terdapatnya korelasi antaranggota sampel atau data pengamatan yang diurutkan berdasarkan waktu, sehingga munculnya suatu datum dipengaruhi oleh datum sebelumnya. Autokorelasi muncul pada reggresi yang menggunakan data berskala (time series). Akibat adanya autokorelasi yaitu; 1) Varians sampel tidak dapat meggambarkan varians populasi 2) Model regresi yang dihasilkan tidak dapat dipergunkananuntuk menduganilai variabel bebas tertentu. 3) Varians dari koefisiennya menjadi tidak minim lagi(tidak efisien lagi) sehingga koefisien estimasi yang diperoleh kurang akurat lagi. 4) Uji t tidak berlaku lagi jika uji t tersebut tetap digunakan maka kesimpulan yang diperoleh salah. c. Multikolinearitas, berarti antara variabel yang satu dengan variabel bebas yang lain dalam model regresi saling berkorelaasi linear. Korelasinya mendekati sempurna atau sempurna (koefisien korelasinya tinggiatau bahkan satu). Akibat danya multikolinearitas yaitu: 1) Pengaruh masing-masing variabel bebas tidak dapat dideteksi atau sulit untuk dibedakan. 2) Kesalahan standar estimasi cenderung meningkat dengan akin bertambahnya variabel bebas 3) Tingkat sigifikansi yang digunakan untuk menolak hipotesis nol(Ho) semakin besar. 4) Kesalahan standar bagi masing-masing koefisien yang diduga sangat besar, akibatnya nilai t menjadi sangat rendah.