2.1
2.1.1
Regresi Populasi
Perhatikan utama regresi pada dasarnya adalah menjelaskan dan mengevaluasi
hubungan antara suatu variabel dependen dengan satu atau lebih variabel independen.
Kita akan memberi ilustrasi tentang regresi sederhana yang terdiri dari satu variabel
independen. Sebagai contoh, diberikan ilustrasi sebagai berikut: menurut model
pendekatan tradisional (traditional approach) yang dikemukakan oleh Dornbusch
(2000), bahwa perubahan harga saham dipengaruhi oleh nilai tukar. Misalkan jika
nilai tukar rupiah terhadap dollar Amerika Serikat mengalami apresiasi (dollar AS
depresiasi) maka harga saham di Bursa Efek Indonesia mengalami penguatan, dan
seblaiknya jika nilai tukar rupiah terhadap dollar AS mengalami depresiasi (dollar AS
apresiasi) maka harga saham di Bursa Efek Indonesia mengalami penurunan dengan
asumsi variabel selain harga tetap.
Kita asumsikan terdapat hubungan yang linier antara harga saham dan nilai
tukar. Hubungan keduannya tidak harus linier, namun untuk penyederhanaan kita
asumsikan linier. Hubungan linier kedua dapat kita tulis dalam persamaan regresi
berikut:
Yi = 0 + 1X1
1 < 0
(1)
E(Y1) = 0 + 1X1
(2)
(3)
(4)
Tanda subskrip i menunjukkan observasi untuk data cross section sedangkan untuk observasi data
time series diberi tanda subskrip t
memasukan
variabel
harga
saja
sebagai
satu-satunya
faktor
yang
0
E(Yi) = 0 + IXI
0
0
Gambar 1 Garis Regresi Populasi
2.1.2
Regresi Sampel
Persamaan regresi populasi persamaan (1) sulit diketahui. Regresi populasi ini
hanya dapat diestimasi dengan menggunakan data sampel. Kembali ke dalam regresi
populasi tentang jumlah permintaan barang. Persamaan regresi sampel untuk
menjelaskan hubugan antara jumlah permintaan barang dengan tingkat harganya
dapat dinyatakan dalam persamaan sbb:
Y1 = 0 + 1Xi
1<0
(5)
Persamaan (5) ini kalau kita gambarkan dalam bentuk grafik merupakan garis lurus
dengan intersep sebesar 0 dan slope 1. Garis lurus kita dapatkan regresi sampel
dimana 0 dan 1 merupakan estimasi parameter dari populasi 0 dan 1. Y1 di dalam
persamaan (5) tersebut disebut nilai prediksi (predicted value) dari nilai aktual Y. Y1
disebut nilai prediksi (predicted value) dari kita dapat memprediksi jumlah
permintaan barang untuk setiap harganya. Nilai prediksi jumlah permintaan barang
tentu tidak harus sama dengan nilai jumlah permintaan aktualnya. Perbedaan antara
jumlah permintaan yang diprediksi dengan jumlah permintaan aktual disebut residual
(residual). Dengan demikian, jumlah perminaan barang aktual dapat ditulis dalam
bentuk persamaan sbb:
Yi = Yi + ei
(6)
Y1 = 0 + 1X1 + ei
(7)
Y
Y1
e1
E(Y1)
Y1
E(Yi) = 0 + IXI
E(Yi) = 0 + IXI
X1
X
Gambar 2 Garis Regresi Populasi dan Sampel
Perbedaan antara garis regresi populasi dan sampel dapat dilihat dalam gambar
2. Di dalam gambar 2. tersebut, untuk obeservasi i (Xi) nilai Yi aktualnya adalah Y
sedangkan nilai harapan regresi populasi adalah E (Yi). Perbedaan antara Yi dengan
E(Y) adalah gangguan (ei). Sedangkan nilai prediksi dari regresi sampel adalah Yi dan
pembedaan antara Yi dengan Yi disebut residual (ei). Pada obeservasi i tersebut nilai
prediksi regresi sampel terlalu tinggi (overestimate) terhadap nilai harapan E(Y)
regresi populasi. Dalam gambar tersebut semua titik disebelah kiri titik A
menghasilkan prediksi regresi sampel terlalu tinggi sedangkan pada sebelah kanan A
2.2
kita bisa mendapatkan garis regresi yang baik. Garis regresi sampel yang baik ini
terjadi jika nilai prediksinya sedekat mungkin dengan data aktualnya. Dengan kata
lain kita mencari nilai 0 dan 1 yang menyebabkan residual sekecil mungkin. Pada
sub-bab ini akan dibahas metode klasik yang disebut metode metode kuadrat terkecil
(ordinary least squares = OLS).
Y1 = 0 + 1X1 + ei
(8)
(9)
Persamaan (9) tersebut bisa kita tulis dalam bentuk persamaan yang lain sbb:
e1 = Y1 - Y1
(10)
e1 = Y1 - 0 - 1X1
(11)
Berdasarkan persamaan (11) tersebut, jika nilai residual adalah kecil maka
perbedaan antara aktual dan prediksi adalah kecil. Artinya, jika kita ingin
mendapatkan garis regresi yang baik residualnya harus sekecil mungkin. Misalkan
kita mempunyai 6 data sampel jumlah permintaan barang (Y) dan harganya (X). Kita
plot data tersebut dalam bentuk diagram pancar atau sketergram (scattergram), lihat
gambar 3.
Y
2
3
X1
X2
X
X4
X3
X6
X5
Gambar 2.3. Berbagai Garis Regresi Sampel
Dari diagram pencar ini kemudian kita bisa menarik sebanyak mungkin garis
regresi sampel, misalnya kita ambil 3 garis regresi. Sebuah garis regresi dikatakan
garis regresi yang baik jika garis tersebut bisa sedekat mungkin dengan data
aktualnya. Atau dengan kata lain garis regresi yang baik terjadi jika residualnya
sekecil mungkin. Pertanyaan yang muncul, bagaimana caranya kita mendapatkan
residual sekecil mungkin sehingga bisa mendapatkan garis regresi yang terbaik.
Jika kita menjumlahkan semua residual ini kita memang bisa mendapatkan
jumlah residual ei yang sedikit mungkin. Namun, kemungkinan kita mendapatkan
jumlah residual ei sebesar nol bisa juga terjadi. Padahal faktanya ada beberapa
residual ei yang jaraknya jauh dari garis regresi baik dibawahnya maupun diatasnya.
Hal ini terjadi karena kita memberi timbangan yang sama kepada setiap residual ei
tanpa melihat jauh dekat jaraknya. Misalnya e1, e2, e3, e4, e5, dan e6 masing-masing
jaraknya -1, +1, -4, +4, -2 dan +2. Jumlah nilai dari residual ei adalah nol meskipun e3
dan e4 mempunyai jarak yang lebih jauh dari garis regresi dibandingkan dengan e1
dan e2.
Kita bisa menghindari permsalahan kemungkinan terjadinya jumlah nilai
residual ei sebesar nol dengan memberi timbangan kepada masing-masing residual ei.
Salah satu caranya adalah dengan mengkuadratkan masing-masing residual ei.
Dengan mengkuadratkannya maka kita memberi timbangan yang lebih besar kepada
residualnya ei. Yang mempunyai jarak yang lebar seperti residual e3 maupun e4.
Metode mencari nilai residual sekecil mungkin dengan menjumlahkan kuadrat
residual ini disebut dengan metode kuadrat terkecil (ordinary least squares).
Metode Ordinary Least Square (OLS) yang akan menjamin jumlah residual
kuadrat sekecil mungkin dapat dijelaskan sbb:
e2i = (Yi Yi)2
(12)
(13)
= nXiYi XiYi
(14)
nX2i (Xi)2
= (Xi X) (Yi-Y)
(Xi X)2
= xiyi
x2i
0
= X2i Yi Xi xiYi
(15)
nX2i (Xi)2
= Yi _ 1 Xi
n
= Y - iX
2.3
utama di dalam teori ekonometrika. Metode OLS ini dibangun dengan menggunakan
asumsi-asumsi tertentu. Misalkan kita mempunyai model regresi populasi sederhana
sbb:
Y1 = 0 + 1X1 + ei
(16)
Asumsi yang berkaitan dengan model garis regresi linier dua variabel tersebut adalah
sbb:
1. Asumsi 1
Hubungan antara Y (variabel dependen) dan X (variabel independen) adalah linier
dalam parameter. Model regresi yang linier dalam parameter dapat dilihat dalam
persamaan (16). Dalam hal ini berhubungan 1 linier terhadap Y.
2. Asumsi 2
Variabel X adalah variabel tidak stokastik yang nilainya tetap. Nilai X adalah tetap
untuk berbagai observasi yang berulang-ulang. Kembali dalam kasus hubungan
jumlah permintaan barang dengan tingkat harganya, untuk mengetahui tingkat
variasi jumlah permintaan barang maka kita melakukan berbagai observasi pada
tingkat harga tertentu. Jadi dengan sampel yang berulang-ulang nilai variabel
independen (X) adalah tetap atau dengan kata lain variabel independen (X) adalah
variabel yang dikontrol.
3. Asumsi 3
Nilai harapan (expected value) atau rata-rata dan variabel gangguan ei adalah nol
atau dapat dinyatakan sbb:
E(ei/Xi)=0
(17)
Karena kita mengasumsikan bahwa nilai harapan dan Y hanya dipengaruhi oleh
variabel independen yang ada atau dapat dinyatakan sbb:
E(Y) =0 + 1Xi)
(18)
4. Asumsi 4
Varian dari variabel gangguan ei adalah sama (homoskedastisitas) atau dapat
dinyatakan sbb:
5. Asumsi 5
Tidak ada serial korelasi antara gangguan ei atau gangguan ei tidak saling
berhubungan dengan ej yang lain atau dapat dinyatakan sbb:
Cov (ei, ej ) = 0; i j
6. Asumsi 6
Variabel gangguan ei berdistribusi normal
e ~ N(0,2)
Asumsi 1 sampai 5 dikenal dengan model regresi linier klasik (Classical Linear
Regression Model).
Dengan asumsi-asumsi di atas pada model regresi linier klasik, model kuadrat
terkecil (OLS) memiliki sifat ideal dikenal dengan teorema Gauss-Markov (GaussMarkov Theorem). Metode kuadrat terkecil akan menghasilkan estimator yang
mempunyai sifat tidak bias, linier dan mempunyai varian yang minimum (best linear
unbiased estimators = BLUE). Suatu estimator 1 dikatakan mempunyai sifat yang
BLUE jika memenuhi kriteria sbb:
1. Estimator 1 adalah linier (linear), yaitu linier terhadap variabel stokastik Y
sebagai variabel dependen
2. Estimator 1 tidak bias, yaitu nilai rata rata atau nilai harapan E(1) sama
dengan nilai 1 yang sebenarnya.
3. Estimator 1 mempunyai varian yang minimum. Estimator yang tidak bias
dengan varian minimum disebut estimator yang efisien (efficient estimator)
Dengan demikian jika persamaan (16) memenuhi asumsi-asumsi tersebut di
atas maka nilai koefisien 1 dalam persamaan tersebut dapat diartikan sebagai nilai
harapan (expected value) atau rata-rata dan nilal Y pada nilai tertentu variabel
independen X. Catatan penting dalam teorema Gauss-Markov adalah bahwa teorema
ini tidak berlaku kepada estimator yang tidak linier (nonlinear). Estimator yang tidak
linier mungkin juga mempunyai varian yang lebih kecil dan model regresi linier
klasik.
2.4
Regresi sampel yang kita lakukan merupakan cara untuk mengestimasi regresi
populasi. Karena itu, estimator 0 dan 1 yang diperoleh dan metode OLS adalah
variabel yang sifatnya acak atau random yaitu nilainya berubah dari satu sampel ke
sampel yang lain. Adanya variabilitas estimator ini maka kita membutuhkan
ketepatan dari estimator 0 dan 1. Di dalam statistika untuk mengetahui ketepatan
estimator OLS ni diukur dengan menggunakan kesalahan standar (Standard error).
Semua variabel dalam perhitungan standard error di atas dapat diestimasi dari
data yang ada kecuali 2. e2i adalah jumlah residual kuadrat (residual sum of squares
= RSS). n-k dikenal dengan jumlah derajat kebebasan (number of degree of freedom)
disingkat sebagai df. df Ini berarti jumlah observasi (n) dikurangi dengan jumlah
parameter estimasi. Semakin kecil standard error dan estimator maka semakin kecil
variabilitas dan angka estimator dan berarti semakin dipercaya nilai estimator yang
didapat.
2.5
regresi, standard error dan estimator. Sekarang tibalah pembahasan tentang seberapa
baik garis regresi menjelaskan datanya (goodness of fit). Artinya bagaimana garis
regresi yang dibentuk sesuai dengan data. Jika semua data terletak pada garis regresi
atau dengan kata lain semua nilai residual adalah nol maka kita mempunyai garis
regresi yang sempurna. Tetapi garis regresi yang sempurna ini jarang terjadi. Pada
umumnya yang terjadi adalah ei bisa positif maupun negatif Jika in terjadi berarti
merupakan garis regresi yang tidak seratus persen sempurna. Namun yang kita
harapkan adalah bahwa kita mencoba mendapatkan garis regresi yang menyebabkan
ei sekecil mungkin. Dalam mengukur seberapa baik garis regresi cocok dengan
datanya atau mengukur persentase total variasi Y yang dijelaskan oleh garis regresi
digunakan konsep koefisien determinasi (R2).
2.6
variabel dependen (Y) dengan variabel independen (Y) dalam suatu model.
Sedangkan koefisien korelasi (r) mengukur derajat keeratan antara dua variabel. Nilai
koefisien korelasi (r) ini mempunyai nilai antar -1 dan 1. Nilai positif berarti
mempunyai korelasi searah sedangkan negatif berarti mempunyai korelasi yang
berlawanan arah.
IHSGi = 0 + 1 KURSi + ei
Coefficient
Std. Error
t-Statistic
Prob.
C
KURS
34.46993
-2.930811
4.739034
0.517650
7.273621
-5.661766
0.0000
0.0000
R-squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likelihood
Durbin-Watson stat
0.311051
0.301348
0.320971
7.314582
-19.61099
0.077023
7.639475
0.384003
0.592082
0.654834
32.05560
0.000000
8.4
8.0
7.6
.8
7.2
.4
6.8
.0
-.4
-.8
2006
2007
Residual
2008
2009
Actual
2010
Fitted
2011
Coefficient
Std. Error
t-Statistic
Prob.
C
KURS
5508.523
-0.366675
872.9456
0.090323
6.310271
-4.059578
0.0000
0.0001
R-squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likelihood
Durbin-Watson stat
0.215483
0.202408
541.8628
17616920
-477.2485
0.058467
1975.761
606.7348
15.45963
15.52825
16.48017
0.000144
Coefficient
Std. Error
t-Statistic
Prob.
C
KURS
SBI
8071.793
-0.409795
-242.0085
412.3610
0.039426
15.08479
19.57458
-10.39410
-16.04321
0.0000
0.0000
0.0000
R-squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likelihood
Durbin-Watson stat
0.853702
0.848742
235.9703
3285238.
-425.1865
0.397930
1975.761
606.7348
13.81247
13.91539
172.1428
0.000000
Estimation Command:
=====================
LS IHSG C KURS SBI
Estimation Equation:
=====================
IHSG = C(1) + C(2)*KURS + C(3)*SBI
Substituted Coefficients:
=====================
IHSG = 8071.792837 - 0.4097954024*KURS - 242.0084526*SBI
Coefficient
Std. Error
t-Statistic
Prob.
C
DJIA
SBI
KURS
35.32114
-0.153888
-0.133611
-2.758970
2.016671
0.049106
0.008158
0.209257
17.51458
-3.133810
-16.37816
-13.18462
0.0000
0.0025
0.0000
0.0000
R-squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likelihood
Durbin-Watson stat
0.894755
0.890179
0.127256
1.117387
48.96801
0.576247
7.639475
0.384003
-1.232000
-1.106496
195.5380
0.000000
Estimation Command:
=====================
LS IHSG C DJIA SBI KURS
Estimation Equation:
=====================
IHSG = C(1) + C(2)*DJIA + C(3)*SBI + C(4)*KURS
Substituted Coefficients:
=====================
IHSG = 35.32114316 - 0.1538882084*DJIA - 0.1336108444*SBI - 2.758970034*KURS
8.4
8.0
7.6
7.2
.4
6.8
.2
.0
-.2
-.4
2006
2007
Residual
DESKRIPTIF STATISTIK
DJIA
Mean
8.341239
Median
8.313232
Maximum
9.293289
Minimum
7.797587
Std. Dev.
0.337361
2008
2009
Actual
IHSG
7.639475
7.742623
8.271027
6.956631
0.384003
2010
2011
Fitted
KURS
9.154621
9.127470
9.386160
9.057752
0.073074
SBI
8.537671
8.250000
12.75000
6.500000
2.016715
Skewness
Kurtosis
1.805001
6.044454
-0.122698
1.903486
1.654533
5.337166
0.840114
2.621422
Jarque-Bera
Probability
67.83165
0.000000
3.840296
0.146585
49.92063
0.000000
9.023073
0.010982
Sum
Sum Sq. Dev.
608.9104
8.194490
557.6817
10.61702
668.2873
0.384467
623.2500
292.8339
Observations
73
73
73
73
DJIA
DJIA
IHSG
KURS
SBI
IHSG
KURS
SBI
0.3368614392 0.1379551973 0.3906150038
1
36805
81872
34591
0.3368614392
0.5577198989 0.7929307621
36805
1
30713
35818
0.0731816627
0.1379551973 0.5577198989
30713
1
917925
81872
0.3906150038 0.7929307621 0.0731816627
35818
917925
1
34591
Uji Heteroskedastisitas
White Heteroskedasticity Test:
F-statistic
Obs*R-squared
1.537887
7.485466
Probability
Probability
0.192926
0.186965
Test Equation:
Dependent Variable: RESID^2
Method: Least Squares
Date: 10/02/10 Time: 21:06
Sample: 2005M07 2010M08
Included observations: 62
Variable
Coefficient
Std. Error
t-Statistic
Prob.
C
KURS
KURS^2
KURS*SBI
SBI
SBI^2
-1633662.
311.0399
-0.020799
14.37513
1363.175
-7338.578
2528323.
430.8780
0.019654
14.75326
162939.8
3541.340
-0.646144
0.721875
-1.058242
0.974369
0.008366
-2.072260
0.5208
0.4734
0.2945
0.3341
0.9934
0.0429
R-squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likelihood
Durbin-Watson stat
0.120733
0.042227
104250.0
6.09E+11
-801.2008
0.673808
52987.71
106523.3
26.03874
26.24459
1.537887
0.192926