Anda di halaman 1dari 8

PENDAHULUAN Regresi dalam statistika adalah salah satu metode untuk menentukan hubungan sebab-akibat antara satu variabel

dengan variabel(-variabel) yang lain. Variabel "penyebab" disebut dengan bermacam -macam istilah: variabel penjelas, variabel eksplanatorik, variabel independen , atau secara bebas, variabel X (karena seringkali digambarkan dalam grafik sebagai absis, atau sumbu X). Variabel terkena akibat dikenal sebagai variabel yang dipengaruhi , variabel dependen, variabel terikat, atau variabel Y. Kedua variabel ini dapat merupakan variabel acak (random), namun variabel yang dipengaruhi harus selalu variabel acak.

Analisa regresi merupakan salah satu teknik statistik yang digunakan secara luas dalam ilmu pengetahuan terapan. Regresi di samping digunakan untuk mengetahui bentuk hubungan antar peubah regresi, juga dapat dipergunakan untuk maksud-maksud peramalan. Dengan menggunakan n pengamatan untuk suatu model linier sederhana: Y i = b + b X +e 0 1 dengan Yi adalah peubah tidak bebas Xi adalah peubah bebas dengan i = 1,2,...,n 0 b dan 1 b adalah parameter -parameter yang tidak diketahui diberlakukan asumsi-asumsi model ideal tertentu terhadap galat e yaitu bahwa g alat menyebar NID (0,s2). Dengan pemenuhan terhadap asumsi kenormalan dapat digunakan regresi parametrik untuk mengetahui bentuk hubungan antar peubah regresi pada data contoh yang diamati. Dalam praktek, penyimpangan terhadap asumsi-asumsi itu sering terjadi dan terkadang peubah acak yang diamati tidak dapat dianggap menyebar normal. Dari segi statistika persoalan tersebut harus dapat diselesaikan dengan menggunakan teknik statistika. Dalam statistika parametrik, teknik-teknik yang digunakan berhubungan dengan pendugaan parameter serta pengujian hipotesis yang berhubungan dengan parameter -parameternya. Asumsi-asumsi yang digunakan pada umumnya menspesifikasikan bentuk sebarannya.

Sejarah

Persamaan regresi merupakan persamaan matematis yang memungkinkan kita meramalkan nilai-nilai peubah gayut (Y) dari nilai peubah tak gayut (X). Istilah ini berasal dari telaah kebakaan yang dilakukan oleh Sir Francis Galton (1822-1911) yang membandingkan tinggi badan anak laki -laki dengan tinggi badan ayahny a. Galton menunjukkan bahwa tinggi anak laki -laki dari ayah yang tinggi setelah beberapa generasi cenderung mundur (regressed) mendekati nilai populasi. Dengan kata lain, anak laki -laki dari ayah yang badannya sangat tinggi, cenderung lebih pendak dari ayahnya. Sedangkan anak laki-laki dari ayah yang badannya sangat pendak cenderung lebih tinggi dari ayahnya. Sekarang istilah regresi diterapkan pada semua jenis peramaaln.
PENGERTIAN Untuk mengukur besarnya pengaruh variabel bebas terhadap variabel tergantung dan memprediksi variabel tergantung dengan menggunakan variabel bebas. Gujarati (2006) mendefinisikan analisis regresi sebagai kajian terhadap hubungan satu variabel yang disebut sebagai variabel yang diterangkan (the explained variabel) dengan satu ata u dua variabel yang menerangkan (the explanatory). Variabel pertama disebut juga sebagai variabel tergantung dan variabel kedua disebut juga sebagai variabel bebas. Jika variabel bebas lebih dari satu, maka analisis regresi disebut regresi linear berganda. Disebut berganda karena pengaruh beberapa variabel bebas akan dikenakan kepada variabel tergantung. PENGANTAR REGRESI y Dua variabel numerik ingin diketahui hubungannya y Dua variabel numerik salah satu variabel dianggap sebagai variabel yang mempengaruhi variabel lainnya y Variabel yang mempengaruhi X, variabel bebas, variabel penjelas (Variabel tak gayut) y Variabel yang dipengaruhi Y, variabel tak bebas, variabel respon (Variabel gayut)

TUJUAN

Tujuan menggunakan analisis regresi ialah Membuat estimasi rata-rata dan nilai variabel tergantung dengan didasarkan pada nilai variabel bebas. Menguji hipotesis karakteristik dependensi Untuk meramalkan nilai rata-rata variabel bebas dengan didasarkan pada nilai variabel bebas diluar jangkaun sample.
ASUMSI

Penggunaan regresi linear sederhana didasarkan pada asumsi diantaranya sbb: Model regresi harus linier dalam parameter Variabel bebas tidak berkorelasi dengan disturbance term (Error) . Nilai disturbance term sebesar 0 atau dengan simbol sebagai berikut: (E (U / X) = 0 Varian untuk masing-masing error term (kesalahan) konstan Tidak terjadi otokorelasi Model regresi dispesifikasi secara benar. Tidak terdapat bias spesifikasi dalam model yang digunakan dalam analisis empiris. Jika variabel bebas lebih dari satu, maka antara variabel bebas (explanatory) tidak ada hubungan linier yang nyata

PERSYARATAN PENGGUNAAN MODEL REGRESI

Model kelayakan regresi linear didasarkan pada hal -hal sebagai berikut: a. Model regresi dikatakan layak jika angka signifikansi pada ANOVA sebesar < 0.05 b. Predictor yang digunakan sebagai variabel bebas harus layak. Kelayakan ini diketahui jika angka Standard Error of Estimate < Standard Deviation c. Koefesien regresi harus sign ifikan. Pengujian dilakukan dengan Uji T. Koefesien regresi signifikan jika T hitung > T table (nilai kritis) d. Tidak boleh terjadi multikolinieritas, artinya tidak boleh terjadi korelasi yang sangat tinggi atau sangat rendah antar variabel bebas. Syarat ini hanya berlaku untuk regresi linier berganda dengan variabel bebas lebih dari satu.

e. Tidak terjadi otokorelasi. Terjadi otokorelasi jika angka Durbin dan Watson (DB) sebesar < 1 dan > 3 f. Keselerasan model regresi dapat diterangkan dengan menggunakan nilai r2 semakin besar nilai tersebut maka model semakin baik. Jika nilai mendekati 1 maka model regresi semakin baik. Nilai r 2 mempunyai karakteristik diantaranya: 1) selalu positif, 2) Nilai r 2 maksimal sebesar 1. Jika Nilai r2 sebesar 1 akan mempunyai arti kesesuaian yang sempurna. Maksudnya seluruh variasi dalam variabel Y dapat diterangkan oleh model regresi. Sebaliknya jika r 2 sama dengan 0, maka tidak ada hubungan linier antara X dan Y.

g. Terdapat hubungan linier antara variabel bebas ( X) dan variabel tergantung (Y) h. Data harus berdistribusi normal i. j. Data berskala interval atau rasio Kedua variabel bersifat dependen, artinya s atu variabel merupakan variabel bebas (disebut juga sebagai variabel predictor) sedang variabel lainnya variabel tergantung (disebut juga sebagai variabel response)

LINIERITAS Ada dua macam linieritas dalam analisis regresi, yaitu linieritas dalam variabel dan linieritas dalam parameter. Yang pertama, linier dalam variabel merupakan nilai rata rata kondisional variabel tergantung yang merupakan fungsi linier dari variabel (variabel) bebas. Sedang yang kedua, linier dalam parameter merupakan fungsi linier parameter dan dapat tidak linier dalam variabel. UJI HIPOTESIS

Pengujian hipotesis dapat didasar kan dengan menggunakan dua hal, yaitu: tingkat signifikansi atau probabilitas ( ) dan tingkat kepercayaan atau confidence interval. Didasarkan tingkat signifikansi pada umumnya orang menggunakan 0,05. Kisaran tingkat signifikansi mulai dari 0,01 sampai den gan 0,1. Yang dimaksud dengan tingkat signifikansi adalah probabilitas melakukan kesalahan tipe I, yaitu kesalahan menolak hipotesis ketika hipotesis tersebut benar. Tingkat kepercayaan pada umumnya ialah sebesar 95%, yang dimaksud dengan tingkat kepercaya an ialah tingkat dimana sebesar 95% nilai sample akan mewakili nilai populasi dimana sample berasal. Dalam melakukan uji hipotesis terdapat dua hipotesis, yaitu:
y

H0 (hipotessis nol) dan H1 (hipotesis alternatif)

Contoh uji hipotesis misalnya rata -rata produktivitas pegawai sama dengan 10 ( x= 10), maka bunyi hipotesisnya ialah:
y y

H0: Rata-rata produktivitas pegawai sama dengan 10 H1: Rata-rata produktivitas pegawai tidak sama dengan 10

Hipotesis statistiknya:
y y y y

H0: H1: H1: H1:

x= 10 x > 10 Untuk uji satu sisi (one tailed) atau x < 10 x 10 Untuk uji dua sisi (two tailed)

Beberapa hal yang harus diperhatikan dalam uji hipotesis ialah;


y y

Untuk pengujian hipotesis kita menggunakan data sample. Dalam pengujian akan menghasilkan dua kemungkinan, yaitu pengujian signifikan secara statistik jika kita menolak H0 dan pengujian tidak signifikan secara statistik jika kita menerima H0.

Jika kita menggunakan nilai t, maka jika nilai t yang semakin besar atau menjauhi 0, kita akan cenderung menolak H0; sebalikn ya jika nila t semakin kecil atau mendekati 0 kita akan cenderung menerima H0.
KARAKTERISTIK MODEL YANG BAIK

Model dikatakan baik menurut Gujarati (2006), jika memenuhi beberapa kriteria seperti di bawah ini:
y

y y

Parsimoni: Suatu model tidak akan pernah dapat secara sempurna menangkap realitas; akibatnya kita akan melakukan sedikit abstraksi ataupun penyederhanaan dalam pembuatan model. Mempunyai Identifikasi Tinggi: Artinya dengan data yang ada, parameter parameter yang diestimasi harus mempunyai nilai -nilai yang unik atau dengan kata lain, hanya akan ada satu parameter saja. Keselarasan (Goodness of Fit): Tujuan analisis regresi ialah menerangkan sebanyak mungkin variasi dalam variabel tergantung dengan menggunakan variabel bebas dalam model. Oleh karena itu , suatu model dikatakan baik jika eksplanasi diukur dengan menggunakan nilai adjusted r 2 yang setinggi mungkin. Konsitensi Dalam Teori: Model sebaiknya segaris dengan teori. Pengukuran tanpa teori akan dapat menyesatkan hasilnya. Kekuatan Prediksi: Validit as suatu model berbanding lurus dengan kemampuan prediksi model tersebut. Oleh karena itu, pilihlah suatu model yang prediksi teoritisnya berasal dari pengalaman empiris.

KESIMPULAN
Analisis regresi berbeda dengan analisis korelasi. Jika analisis korelasi digunakan untuk melihat hubungan dua variable; maka analisis regresi digunakan untuk melihat pengaruh variable bebas terhadap variable tergantung serta memprediksi nilai variable tergantung dengan menggunakan variable bebas. Dalam analisis regresi variable bebas berfungsi untuk menerangkan (explanatory) sedang variable tergantung berfungsi sebagai yang diterangkan (the explained). Dalam

analisis regresi data harus berskala interval atau rasio. Hubungan dua variable bersifat dependensi. Untuk menggunakan analisis regresi diperlukan beberapa persyaratan yang harus dipenuhi. Persamaan regresi merupakan persamaan matematis yang memungkinkan kita meramalkan nilai-nilai peubah gayut (Y) dari nilai peubah tak gayut (X). Istilah ini berasal dari telaah kebakaan yang dilakukan oleh Sir Francis Galton (1822-1911).

DAFTAR PUSTAKA
y

Conover,W.J. 1980. Practical Nonparametric Statistics (2-nd edn), John Wiley and Sons, New York. Yitnosumarto, S. 1985. Regresi dan Korelasi Teori dan Penggunaannya, Universitas Brawijaya , Malang. A.S. Fotheringham, C. Brunsdon, and M. Charlton. (2002) Geographically weighted regression: the analysis of spatially varying relationships. Wiley.

y y

Birkes, David and Yadolah Dodge, Alternative Methods of Regre ssion. Montgomery, D.C dan Peck, E.A. 1991. Introduction to Linear Regression Analysis, John Wiley & Sons, New York.