Skripsi
disajikan sebagai salah satu syarat
untuk memperoleh gelar Sarjana Sains
Program Studi Matematika
Oleh
Layyinatus Syifa
4150404021
JURUSAN MATEMATIKA
FAKULTAS MATEMATIKA DAN ILMU PENGETAHUAN ALAM
UNIVERSITAS NEGERI SEMARANG
2009
i
SURAT PERNYATAAN KEASLIAN TULISAN
Dengan ini saya menyatakan bahwa isi skripsi ini tidak terdapat karya
Tinggi, dan sepanjang pengetahuan saya tidak terdapat karya yang diterbitkan
oleh orang lain, kecuali yang secara tertulis dirujuk dalam skripsi ini dan
Layyinatus Syifa
NIM 4150404021
ii
ABSTRAK
iii
diketahui atau dengan melakukan transformasi jika σ i2 tidak diketahui. Setelah
diperoleh model regresi yang baru harus diperiksa kembali apakah masih terjadi
heteroskedastisitas atau tidak.
Dari hasil penelitian diperoleh saran bahwa jika pada suatu model regresi
terjadi penyimpangan asumsi heteroskedastisitas, maka harus dilakukan tindakan
perbaikan untuk menghilangkan heteroskedastisitas tersebut. Setelah dilakukan
tindakan perbaikan harus dideteksi kembali apakah masih terjadi
heteroskedastisitas atau tidak.
iv
PENGESAHAN
Skripsi ini telah dipertahankan di hadapan sidang Panitia Ujian Skripsi FMIPA
Unnes pada tanggal 16 Maret 2009.
Panitia:
Ketua Sekretaris
Penguji
Penguji/Pembimbing I Penguji/Pembimbing II
v
MOTTO DAN PERSEMBAHAN
Motto :
Jika kita bangun dengan mengingat Tuhan dan tidur setelah memastikan bahwa seharian
ini tak ada sedetikpun yang terlewatkan tanpa mengingat Tuhan, maka apapun bentuk
“a better human”.
Persembahan
vi
KATA PENGANTAR
Puji syukur dipanjatkan ke hadirat Allah SWT atas limpahan rahmat dan
memperoleh bantuan dari berbagai pihak. Oleh karena itu, dalam kesempatan ini
kepada:
Semarang;
2. Drs. Kasmadi Imam S., M.S., Dekan Fakultas Matematika dan Ilmu
dan motivasinya.
vii
7. Bapak, Ibu, kakak dan adik, semua keluarga besar yang tak henti-hentinya
11. Semua pihak yang turut membantu dalam penyusunan skripsi ini, yang tidak
berkenan membaca skripsi ini. Semoga skripsi ini dapat bermanfaat bagi
Penulis
viii
DAFTAR ISI
HALAMAN JUDUL........................................................................................ i
PENGESAHAN ............................................................................................... v
DAFTAR ISI.................................................................................................... ix
2.1 Matriks............................................................................................. 6
ix
2.7 Rank................................................................................................. 28
BAB 5 PENUTUP.......................................................................................... 58
LAMPIRAN-LAMPIRAN
x
DAFTAR GAMBAR
xi
DAFTAR LAMPIRAN
Lampiran 1. Data jumlah tenaga kerja dan output yang dihasilkan industri
Lampiran 2. Hasil output spss data jumlah tenaga kerja dan output yang
transformasi ................................................................................ 70
xii
1
BAB 1
PENDAHULUAN
satu variabel yang disebut variabel tak bebas dengan satu atau lebih variabel yang
disebut variabel bebas. Misalnya perubahan harga suatu barang akan bepengaruh
terhadap jumlah yang diminta bagi barang tersebut, tekanan semacam gas
bergantung pada temperatur, hasil produksi padi tergantung pada jumlah pupuk
peramalan nilai rata-rata hitung atau nilai rata-rata (populasi) variabel tak bebas
atas dasar nilai variabel bebas yang tetap (fixed) atau diketahui.
Model regresi linear yang paling sederhana berupa garis lurus antara
variabel tak bebas dengan satu variabel bebas. Apabila model tersebut
dikenal dengan model regresi linear berganda. Secara umum, model regresi dapat
(error). Dari model regresi ini dapat diestimasi besarnya pengaruh secara
kuantitatif dari masing-masing variabel bebas terhadap variabel tak bebas. Selain
1
2
itu juga dapat diestimasi nilai variabel tak bebas bila nilai variabel bebas telah
diketahui.
menyangkut analisis regresi, metode yang paling luas digunakan adalah metode
kuadrat terkecil biasa (method of ordinary least square, OLS). Estimasi parameter
model regresi yang diperoleh dengan OLS merupakan estimator yang baik bila
Satu asumsi kritis dari model regresi linear klasik adalah bahwa
konsistensi dari penaksir OLS. Tetapi penaksir ini tidak lagi mempunyai varians
minimum atau efisien. Dengan perkataan lain, mereka tidak lagi BLUE (Best
meningkatnya ukuran sampel sampai tak terhingga, penaksir tadi mengarah pada
nilai sebenarnya (sifat konsistensi) tetapi variansnya tidak lagi minimum bahkan
jika besarnya sampel meningkat secara tak terbatas. Ketiadaan efisiensi ini
heteroskedastisitas tersebut.
Spearman?
(2) Secara praktis dapat memberikan jalan keluar bagi data yang tidak memenuhi
Secara garis besar skripsi ini terdiri dari tiga bagian yaitu bagian awal,
BAB 1 : PENDAHULUAN
teori dan analisis data. Pada bagian ini terdiri dari matriks, model regresi
Metode penelitian berisi tentang proses atau langkah penelitian. Bab ini
Pada bab ini berisi pembahasan dari permasalahan yang disajikan yang
BAB 5 : PENUTUP
Bab ini berisi tentang simpulan dan saran yang diperoleh dari penelitian.
BAB 2
LANDASAN TEORI
2.1 Matriks
agar suatu model regresi layak digunakan. Dalam menentukan model regresi
tersebut, notasi matriks banyak digunakan dalam menaksir nilai parameter. Oleh
karena itu perlu adanya definisi matriks dan operasi dalam matriks.
Definisi 2.1
⎡ a11 L a1n ⎤
Contoh : Am×n = ⎢⎢ M O M ⎥⎥
⎢⎣a m1 L a mn ⎥⎦
Indeks pertama dari elemen menunjukkan baris dan indeks kedua menunjukkan
kolom dimana elemen itu berada. Ukuran (ordo) sebuah matriks ditentukan oleh
banyaknya baris dan kolom, karena matriks A tersebut mempunyai m baris dan n
6
7
Definisi 2.2
Jika A adalah suatu matriks dan c adalah suatu skalar, maka hasil kali
⎡ 2 − 1 5⎤
Contoh : A = ⎢⎢4 3 9⎥⎥ dan c = 2
⎢⎣6 − 4 5⎥⎦
⎡2 × 2 2 × (−1) 2 × 5⎤ ⎡ 4 − 2 10⎤
Maka cA = ⎢⎢2 × 4 2×3 2 × 9⎥⎥ = ⎢⎢ 8 6 18⎥⎥
⎢⎣2 × 6 2 × (−4) 2 × 5⎥⎦ ⎢⎣12 − 8 10⎥⎦
Definisi 2.3
mencari entri dalam baris i dan kolom j dari matriks AB, pilih baris i dari matriks
A dan kolom j dari matriks B. Kalikanlah entri-entri yang bersesuaian dari baris
dan kolom tersebut bersama-sama dan kemudian tambahkan hasil kali yang
⎡5 − 1⎤
⎡2 − 3 1⎤
Contoh : A = ⎢ ⎥ dan B = ⎢⎢2 0 ⎥⎥ , maka :
⎣ 6 7 4⎦ ⎢⎣6 3 ⎥⎦
8
⎡5 − 1⎤
⎡2 − 3 1⎤ ⎢
AB = ⎢ ⎥ ⎢ 2 0 ⎥⎥
⎣6 7 4⎦ ⎢ 6 3 ⎥
⎣ ⎦
⎡10 1⎤
=⎢ ⎥
⎣68 6⎦
Definisi 2.4
kolom pertamanya adalah baris pertama dari A dan kolom kedua adalah baris
kedua dari A dan seterusnya (Anton, 1992:27). Sifat dari matriks transpose:
⎡1 6 ⎤
⎡1 2 5⎤
Contoh : A = ⎢⎢2 − 3⎥⎥ maka AT = ⎢ ⎥
⎢⎣5 4 ⎥⎦ ⎣6 − 3 4 ⎦
Definisi 2.5
a11 , a 22 , a 33 ,K , a nn serta semua unsur di atas dan di bawah diagonal utamanya nol
Definisi 2.6
dan B dikatakan invers dari A atau dapat dinyatakan B=A-1. (Anton, 1992:34)
Definisi 2.7
Jika kita mempunyai data yang terdiri dari atas dua atau lebih variabel,
variabel. Studi yang menyangkut masalah ini dikenal dengan analisis regresi.
(Sudjana, 2001:310)
Dalam analisis regresi dibedakan dua jenis variabel yaitu variabel bebas
(independent) dan variabel tak bebas (dependent). Penentuan variabel mana yang
bebas dan mana yang tak bebas dalam beberapa hal tidak mudah dapat
Y = β 0 + β 1 x1 + β 2 x 2 + L + β k x k + ε
simultan berikut:
Y=Xβ+ε
dengan
(1) Nilai rata-rata dari error random sama dengan nol, yaitu E (ε i ) = 0 untuk
setiap i = 1,2, L , n .
(2) Tidak ada korelasi antara error yang satu dengan error yang lain, berarti
Kov (ε i , ε j ) = E (ε i , ε j ) = 0, i ≠ j .
(
ei = Yi − αˆ + βˆX i )
dan
( ).
n n
∑ ei2 = ∑ Yi − αˆ − βˆX i
2
i =1 i =1
12
∂ ∑ ei2
∂α
ˆ
(
= −2∑ Yi − αˆ − βˆX i = 0 )
∂ ∑ ei2
∂βˆ
= −2∑ X i Yi − αˆ − βˆX i = 0( )
atau
(2.1) ∑ Y − nαˆ − β ∑ X
i i =0 ⇔ ∑Y i =nαˆ + βˆ ∑ X i
(2.3) αˆ =
∑Y i
−
βˆ ∑ X i
= Y − βˆX
n n
∑X Y i i (
= Y − βˆX )∑ X i + βˆ ∑ X i2
⎛ ∑ Yi ∑ Xi ⎞
⇔ ∑ X i Yi = ⎜ − βˆ ⎟∑ X i + βˆ ∑ X i2
⎜ n n ⎟
⎝ ⎠
∑Y ∑ X ⎛
⎜ (∑ X i )2 ⎞
⎟=0
⇔ ∑ X i Yi − − β ∑ Xi −
ˆ
i i 2
n ⎜ n ⎟
⎝ ⎠
∑Y ∑ X
∑X Y −
i i
i i
(2.4) ⇔ β̂ = n
(∑ X i )2
∑X i
2
−
n
13
βˆ =
∑ X Y − nYX
i i
∑ X − nXi
2 2
=
∑ X Y − nYX − nYX + nY X
i i
∑ X − 2 nX + nX i
2 2 2
=
∑ X Y − X ∑ Y − Y ∑ X + nYX
i i i i
⎛∑X ⎞
2
∑ − ⎜ ⎟ + nX
2 2
i
X 2 n
⎜ n ⎟
i
⎝ ⎠
=
∑ X iYi − ∑ XYi − ∑ Y X i + ∑ YX
∑X i
2
− 2 X ∑ X i + nX 2
(2.5) βˆ =
∑ (X − X )(Y − Y )
i i
∑ (X − X )
2
i
Telah diketahui bahwa bentuk umum model regresi linear dalam bentuk
Y = Xβˆ + e .
Diperoleh : e = Y − Xβˆ .
Perhatikan bahwa βˆ ' X' Y = Y' Xβˆ karena keduanya skalar. Ada dua cara
∂JKS
= −2 X' Y + 2 X' Xβˆ = 0
∂βˆ
⇔ 2 X' Xβˆ = 2 X' Y
⇔ X' Xβˆ = X' Y .
X' Xβˆ = X' Y mempunyai penyelesaian tunggal, maka diperoleh nilai estimasi β :
βˆ = (X' X ) X' Y
−1
(2.6)
cara ini disebut pemfaktoran QR. Suatu matriks sebarang, misal A, berukuran
terkecil dan dengan ketelitian yang sangat tinggi. Lihat kembali peminimuman
persamaan:
pada persamaan diatas kemudian tambahkan dan kurangi dengan Y’QQ’Y, maka
kita peroleh:
Q' Y − Rβˆ = 0 ,
atau
Q' Y = Rβ .
βˆ = R −1 Q' Y .
βˆ = R −1Q' Y
(
= R −1 XR −1 ' Y )
Karena dari X=QR diperoleh Q = XR −1 , maka
( )
βˆ = R −1 XR −1 ' Y
= R −1 (R )' X' Y
−1
= (R' R ) X' Y .
−1
βˆ = (X' X ) X' Y .
−1
terkecil, yaitu :
16
βˆ =
∑ (X − X )(Y − Y )
i i
∑ (X − X )
2
i
∑Y ( X − X ) − Y ∑ (X i − X )
βˆ = i i
∑ (X − X)
2
i
Karena Y ∑ (X i − X ) = 0 , maka βˆ =
∑Y ( X − X ) .
i i
∑ (X − X )
2
i
Misalkan xi = X i − X , diperoleh : βˆ =
∑Y x i i
∑x 2
i
(2.7) ⇔ β̂ = ∑ k i Yi
xi
dimana k i = . Persamaan (2.7) menunjukkan bahwa βˆ adalah penaksir
∑ i
x 2
αˆ = Y − βˆX
=
∑Y i
− X ∑ k i Yi
n
⎛1 ⎞
(2.8) = ∑ ⎜ − Xk i ⎟Yi
⎝n ⎠
βˆ = ∑ k i (α + βX i + ε i )
(2.9) = α ∑ ki + β ∑ k i X i + ∑ k i ε i
xi ∑x
Karena k i = ∑k = = 0 , maka :
i
dan
∑ xi2 ∑x 2
i
i
∑ k X = ∑ k (x + X )
i i i i
= ∑k x +∑k Xi i i
=
∑x 2
i
+ X ∑ ki
∑x 2
i
=
∑x 2
i
(karena ∑ ki = 0)
∑x 2
i
∑k X
i i =1
(2.10) βˆ = β + ∑ k i ε i
[]
E β̂ = E [β ] + ∑ k i (E [ε i ])
[]
E βˆ = β .
⎛1 ⎞
αˆ = ∑ ⎜ − Xk i ⎟Yi
⎝n ⎠
⎛1 ⎞
= ∑ ⎜ − Xk i ⎟(α + βX i + ε i )
⎝n ⎠
1 1
= α + β ∑ X i + ∑ ε i − αX ∑ k i − β X ∑ k i X i − X ∑ k i ε i
n n
1
= α + βX + ∑ ε i − βX − X ∑ k i ε i
n
1
(2.10) αˆ = α +
n
∑ ε i − X ∑ kiε i
1
Sehingga : E [αˆ ] = α + ∑ E[ε i ] − X ∑ k i E[ε i ]
n
E[αˆ ] = α
() (
Var βˆ = E ⎡ βˆ − β ⎤
⎢⎣
2
⎥⎦
)
[
= E (∑ kiε i )
2
] (dari persamaan 2.10)
[
= E k12ε 12 + k 22ε 22 + L + k n2ε n2 + 2k1k 2ε 1ε 2 + L + 2k n −1k nε n −1ε n ]
= E [k ε + k ε + L + k ε ]+ E [2k k ε ε + L + 2k
2 2
1 1
2 2
2 2
2 2
n n 1 2 1 2 kε ε
n −1 n n −1 n ]
= E [∑ (k ε )]+ 2 E [∑ k k ε ε ]i ≠ j
2 2
i i i j i j
= ∑ k E [ε ]+ 2∑ k k E [ε ε ]
i
2
i
2
i j i j
=σ ∑k2
i
2
(karena E[ε ε ] = 0) i j
xi ∑x = 1 2
Karena k i = ∑ k i2 =
i
dan , maka :
∑ i
x 2
(∑ x ) ∑ x 2 2
i
2
i
19
(2.12) ()
Var βˆ = σ 2 ∑ k i2 =
σ2
∑ xi2
[
Sedangkan Var (αˆ ) = E (αˆ − α )
2
]
2
⎡ ⎛1 ⎞ ⎤
= E ⎢∑ ⎜ − Xk i ⎟ε i ⎥ (dari persamaan (2.11)
⎣ ⎝n ⎠ ⎦
2
⎛1 ⎞
= σ ∑ ⎜ − Xk i ⎟
2
⎝n ⎠
⎛ 1 2 ⎞
= σ 2 ∑ ⎜ 2 − Xk i + X 2 k i2 ⎟
⎝n n ⎠
⎛ 1 2X ⎞
= σ 2 ⎜⎜ − ∑ k i + X 2 ∑ k i2 ⎟⎟
⎝n n ⎠
⎛1 X 2 ⎞⎟ ⎛ 1 ⎞⎟
=σ ⎜2
+ ⎜ karena ∑ ki = 0 dan ∑k 2
=
⎜ n ∑ x2 ⎟ ⎜ i
∑ xi2 ⎟⎠
⎝ i ⎠ ⎝
⎛ ∑ xi2 + nX 2 ⎞
= σ 2⎜ ⎟
⎜ n∑ x 2 ⎟
⎝ i ⎠
2⎜ ∑
⎛ X i2 ⎞
(2.13) Var (αˆ ) = σ ⎟
⎜ n∑ x 2 ⎟
⎝ i ⎠
tidak bias.
sehingga :
β ∗ = ∑ wi (α + βX i + ε i )
(2.14) = α ∑ wi + β ∑ wi X i + ∑ wi ε i
[ ]
dan E β ∗ = α ∑ wi + β ∑ wi X i (karena E[ε i ] = 0)
20
diatas ∑w i = 0 dan ∑w X i i = 1.
Tetapi ∑ w = ∑ (ki i + c i ) = ∑ k i + ∑ ci
karena ∑c i =0 dan ∑k = ∑w i i =0
Maka ∑ w X = ∑ (k
i i i + ci ) X i = ∑ k i X i + ∑ ci X i
karena ∑c X i i =0 , ∑w X i i = 1 dan ∑k X = ∑k x
i i i i =1
Juga ∑c x = ∑c X
i i i i + X ∑ ci = 0
berikut berlaku :
(2.15) ∑w i =0, ∑w X i i = 1, ∑c i = 0, ∑c X = ∑c x
i i i i =0
Var (β ∗ ) = E (β ∗ − β ) [ ] 2
= E [(∑ w ε ) ]
2
i i (dari 2.14)
∑w = ∑ (k i + ci ) = ∑ k i2 + 2∑ k i ci + ∑ ci2 .
2 2
Akan tetapi i
xi ∑c x
∑k c = ∑c = =0
i i
Sedangkan (dengan 2.15)
∑ xi2 ∑x 2
i i i
i
∑w 2
i = ∑ k i2 + ∑ ci2
Sehingga : Var β ∗ = σ 2 ( ) (∑ k +∑ c ) = σ ∑ k
i
2 2
i
2
i
2
+ σ 2 ∑ ci2
21
( )
Var β ∗ = Var (β ) + σ 2 ∑ ci2
Karena ∑c 2
i ()
selalu positif, maka Var (β ∗ ) > Var βˆ . Kecuali jika
∑c 2
i = 0 (tapi tidak mungkin), maka Var (β ∗ ) akan sama dengan Var βˆ . ()
Hal ini menunjukkkan βˆ memiliki sifat varians minimum.
Dengan cara yang sama dapat ditunjukkan bahwa konstanta intercept (α̂ )
sebuah penaksir baru yang diasumsikan fungsi linear dari Yi dengan bobot
wi = k i + ci seperti sebelumnya.
⎛1 ⎞
Kuadrat terkecil α̂ adalah : α̂ = ∑ ⎜ − Xk i ⎟Yi (dari 2.8)
⎝n ⎠
⎛1 ⎞
Dengan analogi, α ∗ = ∑ ⎜ − Xk i ⎟Yi = f (Y )
⎝n ⎠
[ ]
E α ∗ = α . Substitusikan α ∗ ke dalam persamaan Yi = α + βX i + ε i tetapi
α ∗ = α (1 − X ∑ wi ) + β (X − X ∑ wi X i ) + ∑ ⎜ − Xwi ⎟ε i
⎛1 ⎞
⎝n ⎠
[ ]
E α ∗ = α (1 − X ∑ E [wi ]) + β (X − X ∑ E [wi X i ]) + ∑ E ⎢ − Xwi ⎥ε i
⎡1 ⎤
⎣n ⎦
[ ]
Sekarang, E α ∗ = α jika dan hanya jika E [wi ] = 0 , E [wi X i ] =
1
n
dan
( )
Var α ∗
[ ]
⎛1
= E α − α = σ ∑ ⎜ − Xwi ⎟
∗ 2 ⎞2
⎝n ⎠
⎛ 1 1 ⎞
= σ 2 ∑ ⎜ 2 + X 2 wi2 − 2 Xwi ⎟
⎝n n ⎠
⎛ n 1 ⎞
= σ 2 ⎜ 2 + X 2 ∑ wi2 − 2 X ∑ wi ⎟
⎝n n ⎠
⎛ 1 2 ⎞
= σ 2 ⎜ + X 2 ∑ wi2 − X ∑ wi ⎟
⎝n n ⎠
Karena ∑w i = 0 dan ∑w 2
i = ∑ k i2 + ∑ ci2 , maka :
( ) ⎛1
Var α ∗ = σ 2 ⎜ + X 2 (∑ k + ∑ c )⎞⎟
i
2 2
i
⎝n ⎠
⎛1 ⎞
Var (α ) = σ ⎟ + (σ 2 X 2 ∑ ci2 )
∗ ⎜ X2
+ 2
⎜ n ∑ x2 ⎟
⎝ i ⎠
Komponen pertama di sebelah kanan tanda sama dengan adalah varians dari
α̂ , sehingga :
( )
Var α ∗ = Var (αˆ ) + σ 2 X 2 ∑ ci2
Akan tetapi ∑c 2
i > 0 karena tidak semua ci adalah nol. Oleh karena itu,
Var (α ∗ ) > Var (αˆ ) . Sehingga terbukti bahwa penaksir-penaksir kuadrat terkecil
Model regresi yang diperoleh dari OLS merupakan model regresi yang
menghasilkan estimator linear tidak bias yang terbaik (Best Linear Unbias
Estimator). Kondisi ini akan terjadi jika dipenuhi beberapa asumsi yang disebut
independent yang lain dalam model regresi tidak saling berhubungan secara
(3) Nonautokorelasi. Artinya, tidak terdapat pengaruh dari variabel dalam model
melalui tenggang waktu. Misalnya nilai suatu variabel saat ini akan
berpengaruh terhadap nilai variabel lain pada masa yang akan datang.
(4) Nilai rata-rata kesalahan (error) populasi pada model stokastiknya sama
dengan nol.
(5) Variabel independent adalah nonstokastik (nilainya konstan pada setiap kali
dilihat dari besar nilai koefisien determinasi, yang dinotasikan R2. Nilai R2
(goodness of fit) garis regresi. Secara verbal, R2 mengukur proporsi (bagian) atau
pembagian jumlah kuadrat regresi dengan jumlah kuadrat total, yang dapat ditulis
sebagai berikut:
∑ (Yˆ − Y )
n 2
i
JKR
(2.16) R2 = = i =1
∑ (Y −Y )
n
JKT 2
i
i =1
dengan JKR = Jumlah Kuadrat Regresi dan JKT = Jumlah Kuadrat Total.
2.6 Heteroskedastisitas
asumsi yang menyatakan bahwa varian setiap ε i di sekitar rerata nolnya tidak
tergantung pada nilai variabel bebas. Varian setiap ε i masih tetap sama baik
2002:261). Dengan kata lain, varian tiap unsur error merupakan suatu bilangan
terhadap asumsi ini, maka model regresinya dikatakan berada dalam keadaan
( )
var (ε i ) = E ε i2 = σ i2 , i = 1,2,3, L , n .
heteroskedastisitas, lihat gambar 2.1 dan gambar 2.2. Jika varians dari ε sama
25
pada setiap titik atau untuk seluruh nilai X, maka pola yang tertentu akan
terbentuk bila sebaran Y diplot dengan sebaran X. Bila digambarkan dalam tiga
dimensi, polanya akan mendekati pola pada gambar 2.1. Sebaliknya, pada gambar
heteroskedastisitas .
Densitas
E(Y)
E(Y)
X
Gambar 2.2 Ilustrasi Heteroskedastisitas
26
data yang diambil pada satu waktu saja tetapi dengan responden yang besar,
misalnya jika kita melakukan survey. Sebagai contohnya, kita akan menganalisis
Variabel gangguan (error terms) akan sangat terkait dengan besar kecilnya
akan mempunyai varian variabel gangguan yang lebih kecil. Hal ini dikarenakan
perusahaan yang lebih besar lebih fluktuatif daripada penjualan perusahaan kecil.
penaksir (estimator) yang diperoleh tidak efisien, baik dalam sampel yang besar
Ini disebabkan oleh variansnya yang tidak minimum (tidak efisien) (Algifari,
error metode OLS tidak lagi bisa dipercaya kebenarannya dalam pengujian
hipotesis.
27
ε i = N (0, σ i2 )
[ ]
E ε i2 = σ i2 = f ( X i )
tidak mungkin mendapatkan bentuk pasti dari hubungan ini, maka yang dapat
(1) Asumsi 1
[ ]
dengan X i2 , yaitu Var (ε i X i ) = E ε i2 = σ 2 X i2 .
(2) Asumsi 2
[ ]
dengan X i , yaitu Var (ε i X i ) = E ε i2 = σ 2 X i .
(3) Asumsi 3
terhadap rerata hitung kuadrat dari variabel terikat (E[Yi ])2 , yaitu
[ ]
Var (ε i X i ) = E ε i2 = σ 2 (E [Yi ]) .
2
2.7 Rank
Pandang peubah acak X1, X2, …,Xn yang masing-masing mempunyai nilai
hingga yang terbesar kemudian diberi nomor 1, nomor 2, dan seterusnya yang
terbesar diberi nilai n. Nomor-nomor urut tersebut adalah rank, yaitu bilamana
yang diberikan pada setiap pengamatan sesuai dengan urutan besarnya peubah
memiliki nilai rank (Widiastuti, 2005:19). Misal diambil data sebagai berikut 8, 2,
rank 5 = 8.
observasi-observasi yang berangka sama diberi ranking rata-rata dari posisi yang
diberikan rank sehingga diperoleh rank 1 = 2, rank ke-2 dan rank ke-3 nilainya
sama yaitu 5, sehingga untuk untuk rank 3 dan rank 4 kita jumlahkan ranknya
2+3
kemudian kita bagi 2, sehingga diperoleh rank rata-rata yaitu = 2,5 sebanyak
2
dua kali. Jadi rank 2,5 = 5, rank 2,5 = 5, rank 4 = 7 dan rank 5 = 9.
29
random bivariat berukuran n yaitu (X1, Y1), (X2, Y2), … , (Xn, Yn), maka ukuran
(2) Jika harga X makin besar berpasangan dengan Y yang juga semakin besar (dan
sebaliknya), maka korelasi dikatakan positif atau korelasi ukuran positif. Hal
(3) Jika harga X makin besar berpasangan dengan Y yang semakin kecil (dan
sebaliknya), maka korelasi dikatakan negatif atau korelasi ukuran negatif. Hal
(4) Jika harga X tampak berpasangan secara acak dengan Y maka korelasi
mendekati nol. Hal ini terjadi bila X dan Y independent, sehingga dapat
∑ (X − X )(Yi − Y )
n
i
(2.17) r= i =1
1
⎡ 2⎤
⎢∑ ( X i − X ) ∑ (Yi − Y ) ⎥
n n 2
2
⎣ i =1 i =1 ⎦
fungsi distribusi. Fungsi distribusi r sangat bergantung pada distribusi (X,Y), maka
korelasi ini masuk dalam kawasan statistik nonparametrik. Ukuran korelasi yang
dicari mendasarkan pada rank pengamatan atau dengan kata lain ukuran korelasi
pengamatan sekurang-kurangnya dua kali jumlah variabel bebas dalam model dan
Uji Goldfeld-Quandt ini hanya untuk sample-sampel besar, dan meliputi langkah-
langkah berikut:
1
bagian terdiri dari (n − c ) jumlah pengamatan. Satu bagian terdiri dari nilai-
2
31
besar.
Taksirlah regresi secara terpisah dengan prosedur OLS untuk setiap bagian,
∑e 2
1 menunjukkan jumlah residu kuadrat dari sampel yang mengandung
Hitunglah F=
(∑ e ) ;
2
2
yang akan mempunyai distribusi F dengan derajat
(∑ e )
2
1
⎡1 ⎤
bebas ⎢ (n − c ) − k ⎥ baik untuk pembilang maupun untuk penyebut dari ratio
⎣2 ⎦
seharusnya sama, karena itu F akan cenderung sama dengan satu. F besar
σ i2 = σ 2 X iβ e v i
ln σ i2 = ln σ 2 + β ln X i + vi
32
1978:86):
ln ei2 = ln σ 2 + β ln X i + vi
= α + β ln X i + vi
Langkah 2 : lakukan regresi log-linear antara ei2 dan X i dan ujilah apakah β
Glejser menyarankan tujuh bentuk fungsi sebagai ganti dari hanya satu bentuk
fungsi yang disarankan oleh Park. Bentuk-bentuk fungsi yang disarankan Glejser
(Sumodiningrat, 2002:271) :
33
ei = βX i + vi
ei = β X i + v i
β
ei = + vi
Xi
β
ei = + vi
Xi
ei = α + βX i + vi
ei = (α + βX i ) + vi
ei = (α + βX ) + vi
2
i
bahwa unsur kesalahan vi mempunyai beberapa masalah dalam hal nilai yang
diharapkan (expected value) tidak sama dengan nol, berkorelasi secara parsial dan
N3 − N
dimana d i = perbedaan dalam rank yang ditepatkan untuk dua karakteristik yang
berbeda dari individual atau fenomena ke-i dan N= banyaknya individual atau
34
fenomena yang di rank. Koefisien rank korelasi tadi dapat digunakan untuk
galat ( ε ).
e , ranking harga mutlak e dan X sesuai dengan urutan yang meningkat atau
dan N > 8 , tingkat signifikan dari rs yang disampel dapat diuji dengan
rs N − 2
(2.19) t=
1 − rs2
dengan derajat kebebasan = N-2 . jika nilai t yang dihitung melebihi nilai
regresi meliputi lebih dari satu variabel X, rs dapat dihitung antara e dan
tiap-tiap variabel X secara terpisah dan dapat diuji dengan pengujian t yang
diberikan di atas.
35
timbangan.
∑ ε i2 = ∑i =1 Yi − Yˆi
k
( )
2
∑w ε i i
2
(
= ∑i =1 wi Yi − Yˆi
k
)
2
= ∑i =1 wi [Yi − (b0 + b1 x1 + L + bk xk )]
k 2
(2.20)
1
timbangannya wi dengan wi = .
σ i2
(method of ordinary least square, OLS) merupakan metode yang paling luas
merupakan estimator yang baik bila model regresi memenuhi asumsi model
regresi linear klasik, salah satunya adalah asumsi homoskedastisitas. Jika terjadi
penaksir yang diperoleh tidak lagi mempunyai varian yang minimum sehingga
besar, sedangkan untuk pengujian Park dan Glejser, Goldfeld dan Quandt telah
kesalahan vi . Oleh karena itu, pada penelitian ini pengujian yang digunakan untuk
bagi mereka yang tidak mempunyai keahlian khusus di bidang matematika. Dalam
nilai t kritis. Jika ternyata terjadi heteroskedastisitas, maka ada dua pendekatan
Model Regresi
Linear
Y
T
Normalitas
Y
E (ε i ) = 0
T
Y
T
Nonautokorelasi
Y
T
Nonmultikolinearitas
Y
T
Variabel independent adalah nonstokastik
Y
Homoskedastisitas
Memperbaiki
heteroskedastisitas dengan :
1. Metode kuadrat terkecil
tertimbang jika σ i2
diketahui.
Gambar 2.3 : Kerangka Berfikir 2. Melakukan transformasi
jika σ i2 tidak diketahui.
BAB 3
METODE PENELITIAN
dengan metode penelitian dapat mencapai tujuan penelitian yang telah ditetapkan.
Melalui metode penelitian, masalah yang dihadapi dapat diatasi dan dipecahkan
bagian dalam sumber pustaka tersebut yang dapat dijadikan permasalahan yang
diperoleh kajian yang jelas. Sehingga akan lebih mudah untuk menentukan
38
39
Studi pustaka diawali dengan mengumpulkan sumber pustaka yang berupa buku
dengan pemahaman isi sumber pustaka tersebut yang pada akhirnya sumber
sebagai berikut:
cara :
diketahui.
40
konsekuensi serius pada estimator metode kuadrat terkecil / ordinary least square
(OLS) karena tidak lagi BLUE (Best Linear Unbiased Estimator). Oleh karena itu
sangat penting bagi kita untuk mengetahui apakah suatu model regresi
mengandung unsur heteroskedastisitas atau tidak. Pada bab ini akan dibahas
contoh kasus.
Spearman
41
42
sekelompok siswa dalam urutan berdasarkan skor-skor mereka pada tes masuk
perguruan tinggi, dan juga dalam urutan berdasarkan indeks prestasi mereka pada
akhir tahun pertama. Jika ranking pada skor tes masuk itu dinyatakan sebagai
maka kita dapat menggunakan suatu ukuran korelasi rank untuk menetapkan
Dapat kita lihat bahwa korelasi antara rank skor tes masuk perguruan
tinggi dan indeks prestasi akan sempurna jika dan hanya jika X i = Yi untuk semua
perbedaan antara kedua himpunan ranking itu. Ukuran besar berbagai d i ini
berkenaan mengenai seberapa erat hubungan antara skor ujian masuk dengan
indeks prestasi. Jika hubungan antara kedua himpunan rank itu sempurna, setiap
(4.1) r=
∑ xy
∑x ∑y 2 2
N ( N + 1)
∑X = 2
43
sebagai:
N (N + 1)(2 N + 1)
∑X 2
=
6
.
(∑ X ) 2
∑x = ∑ (X − X ) = ∑ X
2
Oleh sebab itu 2 2
−
N
⎛ N ( N + 1) ⎞
2
⎜ ⎟
N (N + 1)(2 N + 1) ⎝ 2 ⎠
= −
6 N
N ( N + 1)(2 N + 1) N ( N + 1) N3 − N
2
= − =
6 4 12
N3 − N
demikian pula ∑ y2 = 12
.
Diketahui bahwa d = x − y .
Maka d 2 = ( x − y ) = x 2 − 2 xy + y 2 dan ∑d = ∑ x 2 + ∑ y 2 − 2∑ xy
2 2
r=
∑ xy = rs
∑x ∑y
2 2
∑d 2
= ∑ x 2 + ∑ y 2 − 2rs ∑x ∑ y 2 2
(4.2) rs =
∑ x + ∑ y − ∑d
2 2 2
2 ∑x ∑y 2 2
44
N3 − N
∑ x2 = 12
= ∑ y 2 ke dalam persamaan (4.2) dan diperoleh :
N3 − N N3 − N
+ − ∑d 2
rs = 12 12
⎛ N − N ⎞⎛ N 3 − N ⎞
3
2 ⎜⎜ ⎟⎟⎜⎜ ⎟⎟
⎝ 12 ⎠⎝ 12 ⎠
⎛ N3 − N ⎞
2⎜⎜ ⎟⎟ − ∑ d 2
= ⎝
12 ⎠
⎛ N3 − N ⎞
2⎜⎜ ⎟⎟
⎝ 12 ⎠
= 1−
∑d 2
N3 − N
6
6∑ d 2
rs = 1 −
N3 − N
Jadi diperoleh persamaan korelasi rank Spearman
N
6∑ d i2
(4.3) rs = 1 − i =1
N −N
3
koefisien korelasi rank Spearmannya adalah variabel bebas dan nilai mutlak e .
galat ( ε ).
(2) Cari nilai absolut residu, e , kemudian diranking dari nilai yang paling besar
atau dari nilai yang paling kecil. Lakukan hal yang sama untuk variabel bebas
H 1 = terjadi heteroskedastisitas
rs N − 2
t= dengan derajat kebebasan db = N-2.
1 − rs2
Jika model regresi meliputi lebih dari satu variabel X, rs dapat dihitung antara e
dan tiap-tiap variabel X secara terpisah dan dapat diuji dengan pengujian t yang
diberikan di atas.
konsistensi dari penaksir OLS, tetapi penaksir tadi tidak lagi efisien yang
membuat prosedur pengujian hipotesis yang biasa nilainya diragukan. Oleh karena
itu diperlukan suatu tindakan perbaikan pada model regresi untuk menghilangkan
46
tergantung dari pengetahuan kita tentang varian dari variabel gangguan. Ada dua
pendekatan untuk melakukan tindakan perbaikan, yaitu jika σ i2 diketahui dan jika
σ i2 tidak diketahui.
∑ε i
2
untuk mendapatkan taksiran, sedangkan pada metode kuadrat terkecil
(
∑ wi ε i2 = ∑i =1 wi Yi − Yˆi
k
)2
= ∑i =1 wi [Yi − (b0 + b1 x1 + L + bk xk )]
k 2
1
timbangannya wi dengan wi = .
σ i2
variabel berikut :
Yi = α + βX i + ei
(4.4) ∑w e 2
i i (
= ∑ wi Yi − α * − β * X i )2
∂ ∑ wi ei2
(
= −2∑ wi Yi − α * − β * X i )
∂α *
∂ ∑ wi ei2
∂β *
(
= 2∑ wi Yi − α * − β * X i (− X i ) )
(
− 2∑ wi Yi − α * − β * X i = 0 )
⇔ ∑ wi Yi − α * ∑ wi − β * ∑ wi X i = 0
(4.5) ⇔ ∑ wi Yi = α * ∑ wi + β * ∑ X i
(
2∑ wi Yi − α * − β * X i (− X i ) = 0 )
⇔ −∑ wi X i Yi + α * ∑ wi X i + β * ∑ wi X i2 = 0
(4.6) ⇔ ∑ wi X i Yi = α * ∑ wi X i + β * ∑ wi X i2
Nyatakan X * =
∑w X
i i
dan Y * =
∑w Y i i
, maka persamaan (4.5) memberikan :
∑w i ∑w i
α *
=
∑wY i i
−
β * ∑ wi X i
∑w i ∑w i
⇔ α* = Y * − β*X *
∑ w X Y = (Y
i i i
*
− β*X * )∑ w X i i + β * ∑ wi X i2
⎛ ∑ wi Yi ∑ w X ⎞⎟ w X
⇔ ∑ wi X i Yi = ⎜ −β* ∑ + β * ∑ wi X i2
i i
⎜ ∑w ∑ w ⎟⎠
i i
⎝ i i
48
∑wY ∑w X ⎛
⎜ (∑ wi X i )2 ⎞
⎟=0
⇔ ∑ wi X i Yi − − β ∑ wi X i −
i i i i 2 *
∑w i
⎜
⎝ ∑ wi ⎟
⎠
∑wY ∑w X
∑w X Y −
i i i i
∑w
i i i
⇔ β* =
i
(4.7)
(∑ w X ) 2
∑w X −
2 i i
∑w
i i
i
β* =
∑ w X Y − (∑ w )Y X
i i i i
* *
∑ w X − (∑ w )X
i i
2
i
*2
=
∑ w X Y − (∑ w )Y X − (∑ w )Y X + (∑ w )Y
i i i i
* *
i
* *
i
*
X*
∑ w X − 2(∑ w )X + (∑ w )X
i i
2
i
*2
i
*2
∑w X Y − X * (∑ wi Yi ) − Y * (∑ wi X i ) + (∑ wi )Y * X *
=
i i i
⎛ ∑ wi X i
2
⎞
∑ i
w X − 2( w )
∑ i ⎜⎜ w 2 ⎟ + (∑ wi )X * 2
⎝ ∑ i
i ⎟
⎠
=
∑w X Y − ∑w X Y − ∑wY X + ∑wY
i i i i
*
i i
*
i i
*
X*
∑ w X − 2 X ∑ w X + (∑ w )X
i i
2 *
i i i
*2
(4.8) β* =
∑ w (X − X )(Y − Y )
i i
*
i
*
∑ w (X − X ) i i
* 2
gangguan. Jika hal itu terjadi, maka tindakan perbaikan yang dapat dilakukan
(1) Asumsi 1
[ ]
Heteroskedastisitas berbentuk : Var (ε i X i ) = E ε i2 = σ 2 X i2 .
Dalam kasus ini diasumsikan bahwa pola varians variabel gangguan adalah
Yi 1 ε
=α +β + i
Xi Xi Xi
1
=α + β + vi
Xi
εi
dimana vi = adalah faktor gangguan baru yang telah ditransformasi. Untuk
Xi
⎛ε ⎞
harus diperoleh varians dari ⎜⎜ i ⎟⎟ .
⎝ Xi ⎠
2
⎛ε ⎞ ⎡ε ⎤
Var ⎜⎜ i
1
⎟⎟ = E ⎢ i ⎥ = 2 E ε i2 . [ ]
⎝ Xi ⎠ ⎣ Xi ⎦ Xi
[ ]
Karena telah diasumsikan bahwa E ε i2 = σ 2 X i2 , maka :
⎛ε ⎞ 1
Var ⎜⎜ i ⎟⎟ = 2 σ 2 X i2 = σ 2
⎝ Xi ⎠ Xi
Terbukti bahwa faktor gangguan yang baru di dalam model memiliki sebuah
varians konstan tertentu. Oleh karena itu, OLS dapat diterapkan pada model
Yi 1 ε
=α +β + i
Xi Xi Xi
50
⎛ 1 ⎞
Parameter variabel ⎜⎜ ⎟⎟ dalam model transformasi merupakan intercept
⎝ Xi ⎠
merupakan parameter dari variabel bebas X pada model aslinya. Oleh karena
dengan X i .
(2) Asumsi 2
[ ]
Heteroskedastisitas berbentuk : Var (ε i X i ) = E ε i2 = σ 2 X i .
Dalam kasus ini diasumsikan bahwa pola varians variabel gangguan adalah
adalah :
Yi α βX i εi
= + +
Xi Xi Xi Xi
atau :
Yi 1
=α + β X i + vi
Xi Xi
εi
dimana vi = adalah faktor gangguan baru yang telah ditransformasi dan
Xi
⎛ εi ⎞
⎜ ⎟.
⎜ X ⎟
⎝ i ⎠
51
2
⎛ ε ⎞ ⎡ ⎤
Var ⎜ i ⎟ = E ⎢ ε i ⎥ = 1 E ε i2 [ ]
⎜ X ⎟
⎝ i ⎠ ⎣⎢ X i ⎥⎦ Xi
[ ]
Karena telah diasumsikan bahwa E ε i2 = σ 2 X i , maka :
⎛ε ⎞ 1 2
Var ⎜⎜ i ⎟⎟ = σ Xi = σ 2 .
⎝ Xi ⎠ Xi
Yi α ε
= + β Xi + i
Xi Xi Xi
.
1
=α + β X i + vi
Xi
Tidak ada faktor intercept dalam model transformasi ini. Oleh karena itu,
harus digunakan model regresi yang melalui titik nol dalam menaksir α dan
(3) Asumsi 3
[ ]
Heteroskedastisitas berbentuk : Var (ε i X i ) = E ε i2 = σ 2 (E [Yi ]) .
2
Dalam kasus ini diiasumsikan bahwa pola varians variabel gangguan adalah
proporsional terhadap rerata hitung kuadrat dari variabel terikat (E[Yi ])2 ,
dimana E [Yi ] = α + β X i , maka transformasi yang dibutuhkan adalah :
Yi α βX i εi
(4.9) = + +
α + βX i α + βX i α + βX i α + βX i
52
α βX i
= + + vi
α + βX i α + βX i
εi
dimana vi = adalah faktor gangguan baru yang telah ditransformasi
α + βX i
εi
.
α + βX i
2
⎛ εi ⎞ ⎡ εi ⎤
Var ⎜⎜ ⎟⎟ = E ⎢ ⎥
⎝ α + βX i ⎠ ⎣α + βX i ⎦
2
⎛ ⎞
= ⎜⎜
1
[ ]
⎟⎟ E ε i2
⎝ α + βX i ⎠
2
⎛ ⎞ 2
⎟⎟ σ (α + β X i )2
1
= ⎜⎜
⎝ α + βX i ⎠
=σ 2
kasus ini. Hal ini disebabkan nilai-nilai α dan β tidak diketahui. Tetapi
karena regresi Yˆi = αˆ + βˆX i bisa diperoleh, maka transformasi dapat dilakukan
Yi ⎛1 ⎞ ⎛X ⎞ εi
(4.10) = α⎜ ⎟ + β⎜ i ⎟+ .
Yˆi ⎜ Yˆ ⎟ ⎜ Yˆ ⎟ Yˆ
⎝ i ⎠ ⎝ i ⎠ i
53
[ ]
umum, jika heteroskedastisitas berbentuk E ε i2 = σ i2 = σ 2 f ( X i ) , maka versi
4.2 Pembahasan
serius pada estimator OLS karena estimator yang diperoleh dengan metode OLS
standard error metode OLS tidak lagi bisa dipercaya kebenarannya dalam
pengujian hipotesis. Oleh karena itu sangat penting untuk mengetahui ada
tidaknya heteroskedastisitas pada suatu data dan pendeteksian ini dapat dilakukan
dalam contoh kasus ini berikut ini, yaitu data jumlah tenaga kerja dan output yang
dihasilkan industri ISIC 3 digit tahun 1993 (Widarjono, 2007:151). Data ini
merupakan data cross-section karena data ini terdiri dari 30 jenis industri dan
bumbu rokok
321 Tekstil 580519 14182392561
322 Pakaian jadi, kecuali alas kaki 350039 6300671710
323 Kulit dan barang dari kulit 23296 510143485
324 Alas kaki 230901 4415114453
331 Kayu, bambu, rotan, rumput 378093 11626808024
332 Perabotan dan perlengkapan 123428 1420820377
rumah tangga
341 Kertas, barang dari kertas 74060 3663693185
342 Percetakan dan penerbitan 48757 1287837008
351 Bahan kimia industri 60112 5637636226
352 Kimia lain 100194 5433798845
354 Barang-barang hasil kilang 772 49824840
minyak bumi dan batu bara
355 Karet dan barang-barang dari 121505 3557350068
karet
356 Barang plastik 119574 2779130487
361 Porselin 38691 803480230
362 Gelas dan barang-barang dari 20121 878305620
gelas
363 Semen, kapur dan barang-barang 42102 2292618803
dari semen dan kapur
364 Pengolahan tanah liat 29226 123058917
369 Barang galian lain bukan logam 18222 419136783
371 Logam dasar besi dan baja 31465 6163470615
372 Logam dasar bukan besi 12047 1241100474
381 Barang dari logam kecuali mesin 117748 3821375468
dan peralatannya
382 Mesin dan perlengkapannya 36158 1522240396
kecuali mesin listrik
383 Mesin, peralatan dan 107172 5689820639
55
Dari data diatas, akan diselidiki apakah terjadi heteroskedastisitas atau tidak. Jika
Penyelesaian :
Yˆ = 12258,693 + 0,000026 X .
pada lampiran 3) :
N
6∑ d i2
rs = 1 − i =1
N3 − N
6 × 822
= 1−
30 3 − 30
= 0,817
56
rs N − 2
t=
1 − rs2
=
(
0,817 30 − 2 )
1 − (0,817 )
2
= 7,501
t kritis = t (1−α ,df ) = t (0,95; 28 ) = 1,70 . Karena nilai t hitung = 7,501 > t kritis = 1,70 maka
[ ]
Var (ε i X i ) = E ε i2 = σ 2 X i2 , maka transformasi yang sesuai adalah :
Yi 1 ε
=α +β + i .
Xi Xi Xi
⎛Y 1⎞
Variabel-variabel yang telah ditransformasikan ⎜ dan ⎟ disajikan pada
⎝X X⎠
diperoleh model regresi baru sebagai berikut (lihat lampiran 2 pada tabel
Y 1
Coefficientsa) : = 7,68E-10 + 2,17E-05.
X X
Untuk mendapatkan model aslinya, maka taksiran model regresi diatas harus
pada lampiran 6) :
N
6∑ d i2
rs = 1 − i =1
N3 − N
6 × 4788
= 1−
30 3 − 30
= −0,0652
rs N − 2
t=
1 − rs2
=
(
(−0,0652) 30 − 2 )
1 − (− 0,0652)
2
= −0,346
t kritis = t (1−α ,df ) = t (0,95; 28 ) = 1,70 . Karena nilai t hitung = -0,346 < t kritis = 1,70 maka
PENUTUP
5.1 Simpulan
diambil adalah:
yaitu dengan mencari nilai koefisien korelasi rank Spearman ( rs ) untuk setiap
rs N − 2
t= dengan kriteria uji terjadi heteroskedastisitas jika nilai t hitung
1 − rs2
lebih dari nilai t kritis. Kasus heteroskedastisitas ini sering terjadi pada data
cross-section.
dengan dua cara yaitu dengan mencari model regresi baru melalui prosedur
tidak.
58
59
5.2 Saran
atau tidak.
berbeda.
DAFTAR PUSTAKA
Algifari. 2000. Analisis Regresi Teori, Kasus dan Solusi. Yogyakarta : BPFE.
60
61
Lampiran 1
Data Jumlah Tenaga Kerja dan Output Yang Dihasilkan Industri Isic 3 Digit
Tahun 1993
Jumlah
Jumlah output
Klasifikasi industri besar dan sedang ISIC tenaga
yang dihasilkan
3 digit kerja
(rupiah)
(orang)
311 Makanan 369248 18740153851
312 Makanan 143493 3488229886
313 Minuman 21127 829310486
314 Pengolahan tembakau dan 184304 8215641238
bumbu rokok 580519 14182392561
321 Tekstil 350039 6300671710
322 Pakaian jadi, kecuali alas kaki 23296 510143485
323 Kulit dan barang dari kulit 230901 4415114453
324 Alas kaki 378093 11626808024
331 Kayu, bambu, rotan, rumput 123428 1420820377
332 Perabotan dan perlengkapan 74060 3663693185
rumah tangga 48757 1287837008
341 Kertas, barang dari kertas 60112 5637636226
342 Percetakan dan penerbitan 100194 5433798845
351 Bahan kimia industri 772 49824840
352 Kimia lain
354 Barang-barang hasil kilang minyak 121505 3557350068
bumi dan batu bara 119574 2779130487
355 Karet dan barang-barang dari 38691 803480230
karet 20121 878305620
356 Barang plastik 42102 2292618803
361 Porselin
362 Gelas dan barang-barang dari 29226 123058917
gelas 18222 419136783
363 Semen, kapur dan barang-barang 31465 6163470615
dari semen dan kapur 12047 1241100474
364 Pengolahan tanah liat 117748 3821375468
369 Barang galian lain bukan logam
371 Logam dasar besi dan baja 36158 1522240396
372 Logam dasar bukan besi
381 Barang dari logam kecuali mesin 107172 5689820639
dan peralatannya
382 Mesin dan perlengkapannya 100226 6495988172
kecuali mesin listrik 6278 199302084
383 Mesin, peralatan dan
perlengkapan listrik serta bahan 70500 1043723314
62
keperluan listrik
384 Alat angkutan
385 Peralatan profesional, ilmu
pengetahuan, pengukuran dan
pengatur
390 Pengolahan lainnya
Lampiran 2
Hasil Output SPSS Data Jumlah Tenaga Kerja dan Output Yang Dihasilkan
Industri Isic 3 Digit Tahun 1993
Variables Entered/Removedb
Variables Variables
Model Entered Removed Method
1 Xa . Enter
a. All requested variables entered.
b. Dependent Variable: Y
Model Summaryb
ANOVAb
Sum of
Model Squares df Mean Square F Sig.
1 Regression 3,8E+011 1 3,796E+011 66,700 ,000a
Residual 1,6E+011 28 5690644369
Total 5,4E+011 29
a. Predictors: (Constant), X
b. Dependent Variable: Y
Coefficientsa
Unstandardized Standardized
Coefficients Coefficients Collinearity Statistics
Model B Std. Error Beta t Sig. Tolerance VIF
1 (Constant) 12258,693 18957,238 ,647 ,523
X 2,60E-005 ,000 ,839 8,167 ,000 1,000 1,000
a. Dependent Variable: Y
Collinearity Diagnosticsa
Residuals Statisticsa
Charts
Dependent Variable: Y
1.0
0.8
Expected Cum Prob
0.6
0.4
0.2
0.0
0.0 0.2 0.4 0.6 0.8 1.0
Observed Cum Prob
__
65
Scatterplot
Dependent Variable: Y
4
Regression Standardized Predicted
2
Value
-1
Lampiran 3
rank
No Y X e rank X d d2
Lampiran 4
Y 1
No Y X
X X
1 369248 18740153851 1,97036E-05 5,33614E-11
2 143493 3488229886 4,11363E-05 2,86678E-10
3 21127 829310486 2,54754E-05 1,20582E-09
4 184304 8215641238 2,24333E-05 1,21719E-10
5 580519 14182392561 4,09324E-05 7,051E-11
6 350039 6300671710 5,55558E-05 1,58713E-10
7 23296 510143485 4,56656E-05 1,96023E-09
8 230901 4415114453 5,22979E-05 2,26495E-10
9 378093 11626808024 3,25191E-05 8,60081E-11
10 123428 1420820377 8,68709E-05 7,03819E-10
11 74060 3663693185 2,02146E-05 2,72949E-10
67
Lampiran 5
Regression
Variables Entered/Removedb
Variables Variables
Model Entered Removed Method
1 Xa . Enter
a. All requested variables entered.
b. Dependent Variable: Y
68
Model Summaryb
ANOVAb
Sum of
Model Squares df Mean Square F Sig.
1 Regression ,000 1 ,000 1,609 ,215a
Residual ,000 28 ,000
Total ,000 29
a. Predictors: (Constant), X
b. Dependent Variable: Y
Coefficientsa
Unstandardized Standardized
Coefficients Coefficients Collinearity Statistics
Model B Std. Error Beta t Sig. Tolerance VIF
1 (Constant) 7,68E-010 ,000 ,794 ,434
X 2,17E-005 ,000 ,233 1,268 ,215 1,000 1,000
a. Dependent Variable: Y
Collinearity Diagnosticsa
Residuals Statisticsa
Charts
Dependent Variable: Y
1.0
0.8
Expected Cum Prob
0.6
0.4
0.2
0.0
0.0 0.2 0.4 0.6 0.8 1.0
Observed Cum Prob
__
Scatterplot
Dependent Variable: Y
5
Regression Standardized Predicted
3
Value
-1
Y
__
70
Lampiran 6
rank
No Y X e rank X d d2