C. Materi Pengantar
1. Pendahuluan
Pada pembahasan sebelumnya telah diketahui bahwa regresi digunakan untuk
mengetahui adanya pengaruh variabel dependen terhadap variabel independen. Melalui
pengujian sebuah persamaan regresi dapat dianalisis apakah pengaruh variabel
independen terhadap perubahan variabel dependen signifikan secara statistik. Pada tahap
selanjutnya, pengaruh antar variabel ini digunakan untuk memprediksi perubahan variabel
dependen melalui perubahan nilai-nilai variabel independennya (prediktornya).
Seperti diketahui bahwa hubungan antara peubah variabel independen terhadap
peubah variabel dependen dalam RLS dapat diketahui dari pola sebaran data melalui
pengamatan (eye balling inspection ). Hal yang paling mendasar dari pengamatan ini
adalah menduga apakah sebaran data berpola linear atau tidak. Selain itu harus dipastikan
pula bahwa simpangan data regresi dari estimatornya (residunya) berdistribusi normal.
Kedua langkah ini menjadi bagian dari penaksiran nilai aktual sebuah model regresi yang
diistilahkan Goodness of Fit (GOF).
GOF suatu model regresi menunjukkan ketepatan fungsi regresi sampel dalam
menaksir nilai aktual parameternya. Untuk menunjukkan bahwa model regresi ini
memenuhi signifikansi secara statistik (memenuhi standar GOF model regresi), paling
tidak uji signifikansi regresi harus terpenuhi. Selain itu, GOF juga ditentukan oleh seberapa
besar kemampuan model dalam menerangkan variasi variabel dependen. Dalam hal ini
dikenal istilah koefisien determinasi (KD). Kofisien Determinasi dinyatakan dalam
persamaan sebagai berikut.
KD=R2 x 100%
Nilai KD ini menunjukkan persentase pengaruh variabel independen (prediktor)
terhadap perubahan variabel dependen (respon). Jika nilai KD ini dominan dan signifikan
secara statistik, maka variabel independen sangat menentukan (berpengaruh besar
terhadap) perubahan variabel dependen. Artinya variabel independen ini memberikan
hampir semua informasi yang dibutuhkan untuk memprediksi variasi variabel dependen.
Dengan demikian semakin tinggi nilai KD, semakin tinggi kemampuan variabel independen
dalam mempengaruhi variabel dependennya. Perhatikan bahwa nilai KD ini hampir tidak
pernah 100% artinya ada faktor lain yang tidak dapat diprediksi mempengaruhi variabel
dependen. Oleh karena itu dalam sebuah model regresi selalu ditambahkan dengan faktor
lain yang biasa dilambangkan sebagai e. Jadi sebuah persamaan regresi linear biasa
ditulis
Y =F ( X 1 , X 2 , X 3 , .. . , X i , e)
Meskipun nilai KD dan uji signifikansi regresi ini cukup menunjukkan GOF sebuah
model regresi, namun untuk mencapai model yang baik perlu pengujian secara
menyeluruh terutama terhadap model persamaan regresi yang dibentuk khusunya pada
regresi linear. Metode yang mendasari pengujian model regresi linear ini adalah metode
Ordinary Least Square (OLS). Metode OLS atau pangkat kuadrat terkecil biasa pertama
kali diperkenalkan oleh Carl Friedrich Gauss, seorang ahli matematika dari Jerman. Inti
dari metode OLS adalah mengestimasi suatu garis regresi dengan jalan meminimalkan
jumlah dari kuadrat kesalahan setiap observasi terhadap garis tersebut.
Menurut Gudjarati (Ghojali, 2001: 82) asumsi utama yang mendasari model
regresi linear klasik dengan model OLS adalah sebagai berikut.
a. Model regresi linear, artinya linear dalam parameter seperti dalam persamaan
Y i=b1 +b 2 X i +u i .
b. Nilai X diasumsikan non-stokastik, artinya nilai X dianggap tetap dalam
sampel yang berulang.
ui
c. Nilai rata-rata kesalahan adalah nol, atau Xi
E
.
( ) =0
g. Jumlah observasi n harus lebih besar daripada jumlah parameter yang diestimasi
(jumlah variabel bebas).
h. Adanya variabilitas dalam nilai X , artinya nilai X harus berbeda.
i. Model regresi telah dispesifikasi secara benar. Dengan kata lain tidak ada bias
(kesalahan) spesifikasi dalam model yang digunakan dalam analisis empirik.
j. Tidak ada multikolinearitas yang sempurna antar variabel bebas.
Kesepuluh asumsi pengujian model regresi linear ini akan membentuk sebuah
model regresi liner yang memenuhi BLUE ( Best Linear Unbias Estimate). Selain itu dikenal
pula istilah uji asumsi klasik yang juga mendasari prinsip OLS ini. Uji asumsi klasik ini
meliputi uji linearitas, uji normalitas residual, uji multikolinearitas, uji autokorelasi dan uji
heteroskedastisitas. Kendatipun demikian dalam modul ini hanya akan diulas mengenai uji
normalitas residual, uji linearitas dan uji signifikansi regresi saja. Uji signifikansi regresi
telah diulas pada bab sebelumnya.
2. Uji Normalitas Residual
Uji normalitas dalam regresi bertujuan untuk menguji apakah dalam model regresi
varibel pengganggu atau residual berdistribusi normal. Seperti diketahui bahwa uji
signifikansi regresi mengasumsikan bahwa nilai residual mengikuti distribusi normal. Kalau
asumsi ini dilanggar maka uji statistik menjadi tidak valid terutama untuk jumlah sampel
kecil.
Untuk melakukan uji normalitas residual, terlebih dahulu dicari data residunya
dengan persamaan:
Re s=e=Y −Y^
Karena dalam residu ini melibatkan persamaan regresi, maka sebelum dicari nilai
residunya terlebih dahulu persamaan regresinya ditentukan. Tentu saja pengujian
linearitas regresi harus diuji terlebih dahulu. Setelah nilai-nilai residu data regresi
ditentukan, selanjutnya dilakukan pengujian normalitas menggunakan analisis statistik
seperti pengujian normalitas biasa.
3. Uji linearitas
Uji ini digunakan untuk melihat apakah spesifikasi model regresi yang digunakan
sudah benar. Apakah fungsi yang digunakan dalam suatu studi empiris sebaiknya
berbentuk linear, kuadrat, kubik atau yang lainnya. Dalam pengujian linearitas regresi
untuk RLS ini akan digunakan uji tuna cocok menggunakan uji F yang dirumuskan sebagai
berikut.
RJK TC
F=
RJK Re s(TC )
di mana:
RJK TC : Rata-rata jumlah kuadrat Tuna Cocok
RJK Re s (TC )
: Rata-rata jumlah kuadrat kekeliruan
Langkah-langkah untuk mendapatkan
RJK TC dan RJK Re s adalah sebagai
berikut.
JK TC
RJK TC =
1) Df TC
di mana:
JK TC : Jumlah kuadrat Tuna Cocok
DF TC : Derajat kebebasan Tuna Cocok yaitu banyaknya nilai data
independen yang berbeda dikurangi 2 ( k −2 )
Sedangkan,
JK Re s ( TC )
RJK Re s (TC )=
Df Re s ( TC )
di mana:
JK Re s (TC )
: Jumlah kuadrat Residu Tuna Cocok
Df Re s ( TC )
: Derajat kebebasan residu Tuna Cocok ( n−k)
2)
JK TC =JK Re s −JK E
di mana:
JK Re s : Jumlah kuadrat Residu regresi
JK E : Jumlah kuadrat eksperimen
dengan
2
JK Re s =JK Tot −JK Re g =∑ (Y i −Y^ ) dan
2
JK E =∑
X
{∑ Y 2−
i
(∑ Y i )
ni }
Untuk memudahkan pengerjaan anova untuk uji tuna cocok, setiap perhitungan
anova dirangkum dalam tabel berikut.
Regresi ( b|a
)
Residu
Tuna Cocok
Kekeliruan
Hipotesis yang diajukan untuk uji linearitas ini adalah sebagai berikut.
H0 : Regresi berpola linear
H1 : Regresi berpola nonlinear
Kriteria pengujiannya adalah terima H 0 jika F-hitung ≤ F-tabel dan tolak H 0 jika
kondisi sebaliknya.
5. Koefisien Korelasi
Koefisien korelasi ditentukan persamaan
∑ ( Y^ −Y )2 = ∑ ( Y −Y )2−∑ ( Y −Y^ )2
r=±
Varians yang dijelaskan
√
Varians total
sehingga
=±
√ ∑ ( Y −Y )2 ∑ ( Y −Y )2
∑ ( Y −Y^ )2
√
2
r=± 1−
N
∑ ( Y −Y )2
N
=± 1−
S YX
SY
2
√
...... (*)
Dari persamaan tersebut selanjutnya dapat diturunkan rumus korelasi product
moment sebagai berikut
r=
∑ xy
√ (∑ x 2)(∑ y2) ....... (**)
untuk x=X −X y=Y −Y , atau
dan
N ∑ XY −( ∑ X )( ∑ Y )
r=
√ {N ∑ X 2−(∑ X )2}{N ∑ Y 2−(∑ Y )2} ..... (***)
di mana:
SY 2
1X : Rata-rata jumlah kuadrat residu
b. Menentukan Batas-batas Nilai Y Apabila Y Apabila
X =X 0
Untuk menentukan batas-batas nilai Y Apabila
X =X 0 digunakan rumus
sebagai berikut.
7. Langkah-langkah Praktikum
Perhatikan kembali data yang digunakan sebagai praktikum pada bab
sebelumnya. Dengan menggunakan data tersebut selanjutnya kita akan melakukan uji
normalitas residual dengan langkah sebagai berikut.
1) Pada SPSS Data Editor klik Analyze Regression Linear sehingga muncul kotak
dialog Linear Regression seperti nampak pada gambar di bawah.
Analisis Output
Pada tabel One-Sample Kolmogorov-Smirnov Test hasil uji normalitas dapat
diketahui dengan melihat nilai signifikansi uji Z (Asymp. Sig) Kolmogorov-Smirnov. Apabila
nilai signifikansi uji Z K-S ini berada di atas 0,05 maka H 0 diterima yang menunjukkan
bahwa residu dari model regresi berdistribusi normal.