Anda di halaman 1dari 336

EKONOMETRIKA

(Suatu pendekatan Kuantitatif)

Muh. Saleh Mire

MAKASSAR
2019

1
DAFTAR ISI

Pengantar ................................................................................................................. 6

BAB 1 KONSEP DASAR EKONOMETRIKA

1.1. Ekonometrika Sebagai Suatu Ilmu .................................................................... 7


1.2. Sejarah Perkembangan .................................................................................... 10
1.3. Tujuan Ekonometrika ........................................................................................ 11
1.4. Metodologi Ekonometrika ................................................................................. 12
1.5. Hubungan Ekonometrika dengan Ilmu Lain ..................................................... 13

BAB II. KORELASI

2.1. Pendahuluan ...................................................................................................... 15


2.2. Jenis Korelasi .................................................................................................. 18
2.2.1. Korelasi Spearman ................................................................................ 18
2.2.2. Korelasi Kendall’Tau ............................................................................ 20
2.2.3. Korelasi Biserial Titik .......................................................................... 23
2.2.4. Korelasi Bivariat ................................................................................... 24
2.2.5. Korelasi Ganda ..................................................................................... 24
2.2.6. Korelasi Parsial .................................................................................... 25
2.2.7. Korelasi Kanonikal ............................................................................... 26
2.3. Korelasi Bivariat ............................................................................................... 27
2.3. Korelasi Kanonik ............................................................................................... 34

BAB III REGRESI LINEAR SEDERHANA

3.1. Pendahuluan ...................................................................................................... 57


3.2. Regresi Linear Sederhana ................................................................................. 59
3.2.1. Metode Kuadrat Terkecil ........................................................................ 61
3.2.1. Metode Kemungkinan Maksimum ......................................................... 65
3.3. Analisis Varians ............................................................................................... 70
3.4. Koefisien Determinasi ..................................................................................... 73
3.5. Penaksiran Parameter Populasi ....................................................................... 74
3.4. Peramalan ....................................................................................................... 78
3.4. 1. Peramalan Nilai Rata-rata .................................................................... 78
3.4.2. Peramalan Nilai Aktual ......................................................................... 82

BAB IV ASUMSI KLASIK

4.1. Pendahuluan ...................................................................................................... 86


4.2. Heterokedastisiti ............................................................................................... 89
4.3. Autokorelasi ..................................................................................................... 108
4.4. Normalitas ....................................................................................................... 117

2
BAB V REGRESI LINEAR BERGANDA

4.1. Teori Regresi ..................................................................................................... 122


4.2. Metode Kuadrat Terkecil Regresi Berganda .................................................... 124
4.3. Metode Regresi Terbakukan .............................................................................. 139

BAB VI REGRESI NON LINEAR

6.1. Pendahuluan ...................................................................................................... 143


6.2. Beberapa Model Regresi Non Linear ............................................................. 145
6.2.1. Sederhana (satu variable bebas) ............................................................ 143
6.2.2. Ganda (Lebih dari satu variabel bebas) ............................................... 149
6.3. Regresi non linear dengan Fungsi Bentuk Geometrik ...................................... 151
6.4. Regresi non linear dengan Fungsi Bentuk Kuadrat .......................................... 153
6.5. Regresi Exponensial ......................................................................................... 156
6.5. Regresi dengan Fungsi Cobb-Douglas ............................................................ 159

BAB VII REGRESI DATA PANEL

7.1. Pendahuluan ...................................................................................................... 167


7.2. Model Regresi Data Panel ................................................................................ 168
7.2.1. Common Effect Model (CEM) ................................................................. 169
7.2.1. Fixed Effect Model (FEM) ..................................................................... 170
7.2.1. Random Effect Model (REM) .................................................................. 171
7.3. Generalized Least Square (GLS) ....................................................................... 172
7.4. Teknik Estimasi Regresi Data Panel ................................................................ 174
7.4.1. Memilih antara Model Common Effect dan Fixed Effect ....................... 175
7.4.2. Memilih antara Model Common Effect dan Random Effect .................. 178
7.4.3. Memilih antara Model Fixed Effect dan Random Effect ....................... 179

BAB VIII REGRESI DENGAN VARIABEL DUMMY

8.1. Pendahuluan ..................................................................................................... 185


8.1.1. Variabel Bebas yang Dikotomi................................................................ 187
8.1.2. Prinsip Marginalitas ............................................................................... 188
8.2. Regresi Linear dengan Variabel Dummy .......................................................... 192
8.2.1. Regresi Variabel Dummy tanpa Interaksi ............................................. 192
8.2.2. Regresi Variabel Dummy dengan Interaksi ......................................... 193
8.3. Regresi Non Linear dengan Variabel Dummy .................................................. 200
8.4. Pengembangan Regresi dengan Variabel Dummy .......................................... 204
8.4.1. Persamaan Regresi lebih dari satu Variabel Dummy .............................. 204
8.4.2. Persamaan Regresi dua Variabel bebas lebih dari satu Variabel
Dummy....................................................................................................... 205

BAB IX REGRESI DENGAN VARIABEL TERIKAT KUALITATIF

3
9.1. Pendahuluan ..................................................................................................... 213
9.2. Linear Probability ............................................................................................ 214
9.3. Model Logit ..................................................................................................... 217
9.3.1. Estimasi parameter dari Model Logit .................................................. 228
9.3.2. Penjelasan Koefisien Model ................................................................... 229
9.3.3. Uji Kesesuaian Model ............................................................................ 230
9.3.4. Contoh Estimasi Model Logit ................................................................. 231

BAB X REGRESI LINEAR MULTIVARIAT

10.1. Pendahuluan ................................................................................................... 237


10.2. Model Liner Multivariat ................................................................................. 238
10.3. Hubungan antara Variabel Respon dan Variabel Prediktor ....................... 241
10.3.1. Uji hipotesis ........................................................................................... 241
10.3.2. Uji Asumsi Residual Identik ................................................................... 243
10.3.3. Pengujian Kebebasan antar Variabel Respon .................................... 245

BAB XI ANALISIS JALUR

11.1. Pendahuluan ................................................................................................... 257


11.2. Beberapa Konsep dalam Analisis Jalur ......................................................... 258
11.2.1. Variabel Endogen dan Eksogen ......................................................... 258
11.2.2. Variabel Eksogen berkorelasi ........................................................... 258
11.2.3. Koefisien Jalur .................................................................................. 258
11.2.4. Model Rekursif .................................................................................. 261
11.3. Tipe Analisis Jalur .......................................................................................... 262
11.4. Dekomposisi Korelasi .................................................................................... 264
11.5. Model Analisis Jalur ..................................................................................... 266
11.6. Analisis Regresi dan Korelasi Melalui Diagram Jalur .................................. 270
11.7. Menghitung Koefisien Jalur ........................................................................... 270
11.6.1. Menentukan Koefisien Jalur Melalui Regresi ...................................... 270
11.6.2. Menentukan Koefisien Jalur Melalui Korelasi .................................... 272

BAB XII ANALISIS FAKTOR

12.1. Teori Faktor ................................................................................................... 283


12.2. Estimasi Faktor .............................................................................................. 285
12.3. contoh Aplikasi .............................................................................................. 293

BAB XIII PERSAMAAN SIMULTAN

13.1. Teori Persamaan Simultan ............................................................................. 303


13.2. Sifat Dasar Model Persamaan Simultan ......................................................... 307
13.3. Variabel dalam Persamaan Simultan ........................................................... 309
13.4. Persamaan Bentuk Tereduksi ....................................................................... 309

4
13.5. Masalah Identifikasi ........................................................................................ 310
13.5.1. Kondisi Identifikasi ............................................................................... 311
13.5.2. Kondisi Rank ........................................................................................ 313
13.5. Estimasi Persamaan Simultan ........................................................................ 316
13.5.1. Indirect Least Squares (ILS) ................................................................. 317
13.5.2. Two State Least Squares (2SLS) ......................................................... 321
13.5.3. Three State Least Squares (3SLS) ..................................................... 321
13.6. Soal ................................................................................................................ 331

5
KATA PENGANTAR

BISMILLAHIRROHMANIRROHIM

Sebagaimana diketahui bahwa ekonometrika adalah gabungan tiga ilmu


yaritu: Teori ekonomi, matematika dan statistika. Sehingga mahasiswa
atau pembanca yang berminat dan memanfaatkan buku ini diharapkan
dapat memberikan petunjuk, kejelasan dalam peneyelesian maslah
ekonomi dan bisnis, khususnya bagi mahasiswa yang mengambil mata
kuliah Ekonometrika.

Materi buku ini sesuai dengan nama Ekonometrika, membahas baik


secara teoritis maupun secara teknis atau applikasi. Secara teoritis
telah diuraikan teori-teori baik berupa matematik, ekonomi dan
statistik, edang dari segi aplikasi diberikan contoh-contoh setelah
pembahasan agar materi yang dibahas dengan mudah dapat dicerna dan
diaplikasikan oleh pengguna.

Salah satu perbedaan dari buku-buku lainnya adalah buku ini menyajikan
Analisis Korelasi Kanonik, suatu jenis korelasi yang jarang didapat
dalam buku-buku ekonometrika lainnya. Selain dari pada Regresi
dengan varaibel dummy juga dibahas secara rinci baik dari segi teori
maupun dari aplikasinya dengan berbagai contoh yang menarik.

Akhirnya, penulis senang tiasa membuka pintu seluasnya untuk


menerima masukan baik berupa keritikan yang membangun maupun
berupa saran perbaikan, karena penulis yakin buku ini masih belum
memenuhi harapan bagi masyarakat pemnbaca, khususnya di kalangan
mahasiswa dari strata S1 sampai denga S3. Tapi Penulis yakin jika
mampu menguasai isi buku ini maka akan mendapat dasar yang
mendalam untuk analisis baik dalam perencanaan maupun dalam
operasional dalam ekonomi dan bisnis.

Semoga Allah SWT senantiasa melimpahkan rahmat dan hidayah-Nya.


Amin, Yaa Rabba ‘Aalamin.

Makassar, Nopember 2019

Muhammad Saleh Mire

6
BAB I
KONSEP DASAR EKONOMETRIKA

1.1. Ekonometrika sebagai suatu Ilmu

Ekonometrika adalah ilmu yang membahas masalah pengukuran


hubungan ekonomi. Dengan demikian, Ekonometrika adalah ilmu yang
mencakup teori ekonomi, matematika, dan statistika dalam satu kesatuan
sistem yang bulat, menjadi suatu ilmu yang berdiri sendiri dan berlainan
dengan ilmu ekonomi; matematika; maupun statistika, Wikipedia, 2018.
Ekonometrika digunakan sebagai alat analisis ekonomi yang bertujuan
untuk menguji kebenaran teorema-teorema teori ekonomi yang berupa
hubungan antar variabel ekonomi dengan data empirik.
Teorama-teorama yang persifat apriori pada ilmu ekonomi
dinyatakan terlebih dahulu dalam bentuk matematik sehingga dapat
dilakukan pengujian terhadap teorama-teorama itu. Bentuk matematik
teorama ekonomi ini disebut model. Pembuatan model ekonometri
merupakan salah satu sumbangan ekonometrika di samping pembuatan
prediksi (peramalan atau forecasting) dan pembuatan berbagai keputusan
alternatif yang bersifat kuantitatif sehingga dapat mempermudah para
pengambil keputusan untuk menentukan pilihan.
Ekonometrika sebagai suatu hasil dari suatu hasil tinjauan tertentu
tentang peran ilmu ekonomi, mencakup aplikasi statistic matematika data
ekonomi guna memberikan dukungan empiris terhadap model yang disusun
berdasarkan matematika ekonomi serta memperoleh hasil berupa angka-
angka. Salah satu bagian paling penting dari ekonometri adalah analisis
regresi. Analisis ini digunakan untuk mengetahui kaitan antara satu variabel
dengan variabel yang lain. Berdasarkan data yang digunakan, ekonometri
dibagi menjadi tiga analisis, yaitu analisis runtun waktu (time series), antar-
wilayah (cross section), dan analisis data panel. Analisis runtun waktu
menjelaskan mengenai perilaku suatu variabel sepanjang beberapa waktu
berturut-turut, berbeda dengan analisis antar-wilayah yang menjelaskan
antara beberapa daerah dalam satu waktu tertentu (snapshot). Sementara itu
analisis data panel menggabungkan antara data runtun waktu dengan data
antar-wilayah.
Berdasarkan data yang digunakan, ekonometri dibagi menjadi tiga
analisis, yaitu analisis runtun waktu (time series), antar-wilayah (cross
section), dan analisis data panel. Analisis runtun waktu menjelaskan

7
mengenai perilaku suatu variabel sepanjang beberapa waktu berturut-turut,
berbeda dengan analisis antar-wilayah yang menjelaskan antara beberapa
daerah dalam satu waktu tertentu (snapshot). Sementara itu analisis data
panel menggabungkan antara data runtun waktu dengan data antar-wilayah.
Dalam definisi yang sederhana, ekonometri adalah suatu aplikasi dari
metode statistika pada ekonomi. Namun, tidak seperti pada ilmu statistika,
yang hanya terfokus kepada data statistik, ilmu ekonometri merupakan
gabungan dari teori ekonomi, matematika, dan statistika. Istilah ekonometri
pertama kali diperkenalkan oleh Ragnar Frisch (1933), seorang pakar
ekonomi dan statistika berkebangsaan Norwegia. Ia menjelaskan definisi
ekonometri sebagai berikut: “Terdapat banyak metode kuantitatif sewaktu
menganalisis ilmu ekonomi, tetapi tiada satu pun di antara metode
kuantitatif tersebut dapat berdiri sendiri tanpa bantuan dari yang lain untuk
menerangkan ekonometri. Oleh karena itu, ketiga faktor yaitu teori
ekonomi, matematika dan statistika sama-sama penting untuk menerangkan
hubungan kuantitatif dalam mempelajari ilmu ekonomi.

Definisi Ekonometrika

Banyak ahli yang telah mengemukakan pengertian ekonometrika.


Diantara beberapa ahli tersebut
a. Gerhard Tintner, Ekonometrika adalah hasil dari suatu pandangan
khusus atas peranan ilmu ekonomi, terdiri dari penerapan statistika
matematika atas data ekonomi untuk memberi dukungan empiris
untuk model yang disusun dengan ilmu ekonomi matematis dan
untuk memperoleh hasil dalam angka (numerical results).
b. Thad W. Mirer (1990:vii), Ekonometrika: “Is designed for courses in
economic statistics and introductory econometrics that aim to mix
the development of technique with its application to real economic
analysis.
c. Syahrul (2000:150), Ekonometrika adalah penggunaan analisis
komputer serta teknik pembuatan model untuk menjelaskan
hubungan antara kekuatan-kekuatan ekonomi utama seperti
ketenagakerjaan, modal, suku bunga, dan kebijakan pemerintah
dalam pengertian matematis, kemudian menguji pengaruh dari
perubahan dalam skenario ekonomi.
d. Arthur S.Goldberger (1964.p.1), Ekonometrika adalah ilmu sosial
yang menggunakan alat berupa teori ekonomi, matematika, dan
statistika inferensi yang digunakan untuk menganalisis kejadian-
kejadian ekonomi.
Berdasarkan pada uraian dan ketentuan di atas, maka Ekonometrika
merupakan campuran dari teori-teori ekonomi, ekonomi matematika,
ekonomi dan statistika, serta campuran ekonomi dengan matematika dan
statistika.Teori ekonomi menentukan pernyataan atau hipotesis yang pada
hakekatnya harus lebih bersifat kuantitatif. Misalnya dalam ekonomi mikro
dengan ketentuan barang lain tetap, pengurangan harga suatu komoditi

8
diharapkan akan dapat meningkatkan kuantitas komoditi yang diminta. Jadi
menurut hukum ekonomi terjadi hubungan yang terbalik antara harga dan
kuantitas komoditi yang diminta. Akan tetapi, teori ekonomi sendiri tidak
menyajikan pengukuran numerik, sampai seberapa jauh kuantitas suatu
komoditi akan meningkat atau menurun karena perubahan harganya.
Fenomena tersebut di muka adalah tugas ekonometrika untuk menentukan
nilai dan duga numeriknya. Haruslah dapat dibedakan antara ekonometrika
yang berisikan hasil empirik dengan teori ekonomi secara umum.
Peranan utama dari matematika ekonomi adalah mengekspresikan
teori ekonomi dalam bentuk matematika seperti persamaan, tanpa
memandang verifikasi pengukuran dan empirik dari teorinya. Seperti yang
akan diuraikan, bahwa ekonometrika sering menggunakan persamaan
matematika yang diajukan para ahli matematika ekonomi, tetapi bentuk
tersebut selanjutnya harus diuji secara empiris. Konversi dari matematika ke
dalam persamaan ekonometrika menghendaki kejujuran ilmiah dan
keterampilan praktis dalam memaknainya. Statistika ekonomi menyangkut
tentang pengumpulan, pengolahan, dan pengujian data ekonomi dalam
bentuk grafik atau tabel. Tugas ini merupakan bagian dari para ahli statistika
ekonomi. Akan tetapi, para ahli statistika ekonomi tidaklah bertindak lebih
jauh dengan mengumpulkan data tersebut untuk menguji teori ekonomi, dan
tentu saja bagian tersebut harus merupakan tugas para ekonometrikan.
Walaupun demikian matematika-statistika menyajikan banyak alat yang
dapat dipergunakan dalam perdagangan. Para ekonometrikan seringkali
menghendaki metode tertentu dalam membahas data ekonomi yang unik,
misalkan karena data yang dihasilkan tidak merupakan hasil penelitian yang
terkontrol. Ekonometrikan, seperti juga ahli klimatologi umumnya
bergantung pada data yang tidak dapat dikontrol secara langsung. Misalnya
data konsumsi, pendapatan, investasi, tabungan, harga, dan sebagainya,
yang dikumpulkan dari masyarakat atau dan perusahaan swasta merupakan
data yang bukan hasil percobaan atau eksperimen. Ekonometrikan
mengambil data tersebut dari apa yang telah tersedia. Data tersebut
menimbulkan masalah yang secara normal tidak berasal dari matematika-
statistika ekonomi. Selanjutnya, data yang dikumpulkan mungkin
mengandung kekeliruan atau kesalahan dalam pengukurannya dan
ekonometrikan dituntut untuk mengembangkan metode tertentu untuk
menganalisis kekeliruan pengukuran tersebut.

1.2. Sejarah Perkembangan

Metode kuantitatif dalam ilmu ekonomi sebenarnya telah lama


dikembangkan sejak abad ke-18. Vilfredo Pareto (Paris, 15 Juli 1848-
Jenewa, 19 Agustus 1923) berkontribusi dalam menjelaskan distribusi
pendapatan dan pilihan individu melalui pendekatan matematis yang

9
berdasarkan atas teori ekonomi. Selain Pareto, Marie-Esprit-Léon Walras
dari Perancis pada abad ke-18 mengembangkan teori keseimbangan umum
yang menjelaskan mengenai aliran barang dan jasa dalam perekonomian.
Pada awal tahun 1950-an ekonometri dikembangkan sebagai satu cabang
sendiri dari ilmu ekonomi. Jan Tinbergen dari Belanda, yang kini namanya
diabadikan sebagai salah satu institusi akademik besar di Eropa (Tinbergen
Institute), merupakan salah tokoh utama yang mengembangkan ilmu ini.
Saat ini ekonometri telah berkembang sedemikian pesat sehingga banyak
jurnal ilmiah yang didedikasikan untuk ilmu ini, seperti Econometrica,
Journal of Econometrics, Journal of Applied Econometrics, dan Journal of
the Operational Research. Penggunaan ekonometri telah sedemikian luas
sehingga hampir semua jurnal, tesis, disertasi, dan bahkan skripsi dalam
ilmu ekonomi memakai ekonometri sebagai salah satu alat yang digunakan.
Sementara itu dalam prakteknya, ekonometri terutama dipakai di bank
sentral, oleh tim ekonomi pemerintah untuk melakukan perencanaan dan
analisis kebijakan ekonomi, dan juga oleh dunia usaha untuk
mengoptimalkan kinerja perusahaan. Selain di bidang moneter, ekonometri
juga sudah banyak dipakai di berbagai bidang ekonomi yang lain dan juga
bisnis dan manajemen, seperti mikroekonomi, marketing, dan finance.
Di Indonesia, penerapan ekonometri masih terbatas dan pengembangan
ilmu ini hanya pada lembaga/universitas tertentu. Dua dari sedikit akademisi
di bidang ekonometri di Indonesia adalah Profesor Insukindro dari
Universitas Gadjah Mada terutama berkat penerapan ekonometri untuk
ekonomi moneter dan Dr. Ari Kuncoro dari Universitas Indonesia karena
pekerjaannya di bidang mikroekonometri. Selanjutnya tokoh yang
bersejarah dalam Ekonometrika:
a. Jan Tinbergen dan Ragnar Anton Kittil Frisch, mendapat Hadiah Nobel
Ekonomi tahun 1969 (tahun pertama Hadiah Nobel Ekonomi
diberikan) karena mengembangkan dan menerapkan model dinamik
untuk analisis ekonomi.
b. Lawrence Robert Klein, profesor ekonomi di University of
Pennsylvania, mendapat Nobel tahun 1980 berkat pekerjaannya di
pemodelan ekonomi melalui komputer.
c. Trygve Magnus Haavelmo dihadiahi hadial nobel pada tahun 1989.
Kontribusi utamanya pada artikel yang ditulisnya tahun 1944 di jurnal
Econometrica yang berjudul "The Probability Approach to
Econometrics"
d. Daniel Little McFadden dan James Joseph Heckman berbagai
penghargaan untuk tahun 2000 untuk pekerjaannya di bidang
mikroekonometri. McFadden mendirikan laboratorium ekonometri di
University of California, Berkeley, Amerika Serikat.
e. Robert Fry Engle dan Clive William John Granger pada tahun2003
karena kontribusi mereka pada pengembangan analisis runtun waktu.
Engle menjadi pionir metode autoregressive conditional
heteroskedasticity (ARCH) sedangkan Granger atas metode
kointegrasi.

10
1.3.Tujuan Ekonometrika

Ekonometri memberikan muatan empiris (yaitu berdasarkan


observasi atau eksperimen) terhadap hampir semua ilmu ekonomi. Jika
dalam suatu studi atau eksperimen kita menemukan bahwa ketika harga satu
unit barang/jasa naik sebesar satu dolar dan jumlah permintaan turun,
katakanlah, 100 unit, maka kita bukan hanya menegaskan kaidah tentang
permintaan, melainkan dalam proses tersebut kita juga memberikan taksiran
angka-angka mengenai hubungan antara kedua variable (harga dan jumlah
permintaan atau kuantitas).Bagi mahasiswa jurusan Administrasi Niaga
(Bisnis), Ekonomi Syariah, akuntansi dan manajemen, ada alasan pragmatis
dalam mempelajari ekonometrika. Sesudah lulus, dalam melakukan
pekerjaannya, mungkin saja mereka diminta untuk meramalkan penjualan,
tingkat suku bunga, dan jumlah uang beredar atau menaksir fungsi
permintaan dan penawaran ataupun elastisitas harga suatu produk. Pakar
ekonomi sering diminta menjadi konsultan oleh lembaga legislasi pusat
(DPR) maupun daerah (DPRD) untuk kepentingan klien mereka ataupun
kepentingan sebagian besar masyarakat. Jadi, pakar ekonomi yang menjadi
konsultan bagi komisi DPRD yang bertugas mengendalikan harga BBM dan
listrik mungkin diminta untuk menilai dampak kenaikan harga yang
diusulkan terhadap jumlah permintaan akan listrik sebelum komisi tersebut
menyetujui kenaikan harga BBM dan listrik. Dalam situasi semacam ini,
para ekonom mungkin perlu mengembangkan fungsi permintaan akan
listrik, yang akan memungkinkannya untuk menaksir elastisitas harga atas
permintaan ; dalam hal ini, persentase perubahan jumlah yang diminta untuk
setiap persentase perubahan harga. Pengetahuan tentang ekonometrika akan
sangat membantu di dalam menaksir fungsi permintaan semacam itu.

1.4. Metodologi Ekonometrika

Sebagai ilmu yang tersendiri, ekonometrika pada umumnya dapat


dibagi ke dalam dua kategori besar, yaitu: a. Ekonometrika teori (theoretical
econometrics), yang berkaitan dengan pengembangan metode yang tepat
untuk mengukur hubungan variabel ekonomi yang ditetapkan oleh model
ekonometrika. Dalam pembahasannya lebih pada statistika matematis.
Contohnya, metode kuadrat terkecil (least square method) yang merupakan
salah satu fokus dari ekonometrika teoritis yang menguraikan asumsi
metode ini, sifat-sifatnya dan apa yang terjadi pada sifat-sifat ini jika satu
atau lebih asumsi dalam metode ini tidak terpenuhi. b. Ekonometrika
terapan (applied econometrics), yaitu menerapkan alat ekonometrika teoritis
untuk mempelajari beberapa bidang khusus dalam ilmu ekonomi, seperti
fungsi produksi, fungsi konsumsi dan lainnya. Pada umumnya, analisis
ekonometrika mengikuti metodologi berikut.
1. Membuat pernyataan teori atau hipotesis;
2. Mengumpulkan data;

11
3. Menentukan model matematis dari teori tersebut;
4. Menentukan model statistic, atau ekonometri, dari teori tersebut;
5. Menaksir parameter-parameter dari model ekonometri yang dipilih;
6. Memeriksa kecocokan model: pengujian spesifikasi model;
7. Menguji hipotesis yang didasarkan dari model;
8. Menggunakan model untuk melakukan prediksi atau peramalan.
Membuat pernyataan teoritis atau hipotesis merupakan langkah awal
dalam metodologi ekonometrika, karena teori merupakan dasar atau
hipotesis yang akan diuji kebenarannya secara empiris. Dalam pelaksanaan
selanjutnya melakukan pengumpulan data di lapangan untuk menjelaskan,
membantah atau menerima teori teori yang akan diuji. Langkah selanjutnya
adalah pembuatan model matematis untuk meringkas atau
menyederhanakan konsep dari hipotesis yang akan diuji, sehingga
tergambar dengan jelas hubungan antara variabel, seperti hubungan antara
variabel bebas dan variabel tak bebas, misalnya menggunakan model
regresi. Langkah terakhir dalam analisis ekonometrika adalah melakukan
prediksi dari hasil pengujian yang diperoleh. Misalnya jika hipotesis
diterima maka dapat dikejutkan dengan prediksi, sebaliknya jika ditolak,
maka akan dilakukan perbaikan sebelum dilakukan prediksi.

1.5. Hubungan Ekonometrika dengan Ilmu Lain

Matematika ekonomi menyatakan teori ekonomi dalam terminologi


simbol matematis. Tidak ada perbedaan esensial antara matematika ekonomi
dengan teori ekonomi. Masing–masing menyatakan hubungan yang sama,
namun teori ekonomi menggunakan pernyataan verbal, sedangkan
matematika ekonomi menggunakan simbol matematis. Masing-masing
menyatakan hubungan ekonomi dalam bentuk eksak. Lebih dari itu,
keduanya tidak menyajikan nilai numerik untuk koefisien dari setiap
hubungan.
Ekonometrika berbeda dari matematika ekonomi. Meskipun
ekonometrika menyatakan hubungan ekonomi dalam bentuk matematis.
Matematika ekonomi menyatakan hubungan secara eksak, sedangkan
ekonometrika menyatakan hubungan yang tidak eksak. Metode
ekonometrika didesain untuk memasukan perhitungan gangguan acak yang
menciptakan deviasi dari pola perilaku eksak yang ditentukan oleh teori
ekonomi dan matematika ekonomi. Lebih dari itu, Metode ekonometrika
menyajikan nilai numerik koefisien dari suatu fenomena ekonomi. Sebagai
contoh, teori ekonomi menyatakan bahwa permintaan sebuah produk yang
dihadapi oleh kebutuhan dasar manusia adalah inelastis, menunjukkan
bahwa produk tersebut tidak mempunyai substitusinya. Informasi ini
sedikitnya membantu pembuat kebijakan, sebab koefisien dari elastisitas
dapat menganggap beberapa nilai antara 0 dan 1. Ekonometrika dapat
memberikan pendugaan dari elastisitas dan parameter lainnya dari teori
ekonomi.

12
Ekonometrika berbeda dengan matematika statistik dan statistik
ekonomi. Sebuah statistik ekonomi berperan dalam membangun data,
merekamnya, mentabulasinya atau menggambarkannya, yang
menggambarkan pola perkembangannya sepanjang waktu dan mungkin
mendeteksi beberapa hubungan antara berbagai besaran ekonomi. Statistik
ekonomi secara khusus menggambarkan aspek ekonomi. Statistik ekonomi
tidak menyajikan penjelasan dari perkembangan berbagai variabel dan tidak
menyajikan pengukuran dari parameter hubungan ekonomi. Ekonometrika
menggunakan metode statistika setelah menyesuaikannya dengan masalah
dari kehidupan ekonomi. Penyesuaian metode statistika ini disebut dengan
metode ekonometrika. Secara terpisah, metode ekonometrika diadjust
sehingga menjadi tepat untuk pengukuran hubungan ekonomi yang bersifat
stokastik yang mencakup elemen acak. Penyesuaian terkait secara utama
dalam menspesifikasi elemen acak itu yang dihadap dalam dunia nyata dan
masuk ke dalam penentuan data yang diamati, kemudian terakhir dapat
diinterpretasikan sebagai sampel acak yang mana metode statistika dapat
diterapkan.

13
Soal :

1. Apa yang dimaksud dengan Ekonemtrika dan bagaimana


hubungannya dengan pembangunan ekonomi
2. Jelaskan konsep dasar dari ilmu ekonometrik dan hubungannya
dengan teori dan analisis data
3. Uraikan metotologi dalam Ekonometrika
4. Ekonemetrika erat kaitannya dengan Matematika dan Statistika.
Jelasksn secara rinci
5. Ekonometrika digolongkan menjadi 2 yaitu sebagai berikut,
Ekonometrika Teoritik Ekonometrika Terapan. Jealakan kedua
konsep tersebut sehingga jelas perbedaannya
6. Uraikan sejarah perkembangan Ekonometrika sampai menjadi ilmu
yang sangat diperlukan dalam ekonomi dan bisnis
7. Coba Anda uraikan hubungan ekonometrika dengan ilmu lain dan
peranannya dalam penelitian ilmiah

14
BAB II
KORELASI

2.1. Pendahuluan

Teknik analisis korelasi merupakan bagian dari teknik pengukuran


asosiasi (measure of association) yang berguna untuk mengukur kekuatan
hubungan dua variabel atau lebih. Terdapat beberapa teknik analisis
korelasi, diantaranya yang paling terkenal dan digunakan secara luas di
seluruh dunia ialah teknik analisis korelasi Pearson dan Spearman. Dalam
bab ini akan dibahas korelasi Pearson dulu, menggunakan data interval dan
atau data rasio, yaitu untuk menghormati Karl Pearson (1911) sebagai
pengembang ukuran korelasi ini, dengan symbol r. Ukuran ini juga disebut
koefisien korelasi linear (linear coefficient correlation) yang mengukur
keeratan dan arah hubungan linear antara dua variabel, dan tidak mengukur
kemiringan sebagaimana pada regresi, walaupun garis korelasi tersebut
memiliki kemiringan, tetapi bukan itu yang dipentingkan (diukur).
Dikatakan menunjukkan arah artinya korelasi ini dapat bersifat negatif atau
positif.
Korelasi merupakan teknik analisis yang digunakan untuk mengukur
kekuatan hubungan dua variabel. Korelasi tidak secara otomatis
menunjukkan hubungan kausalitas antar variabel. Hubungan dalam korelasi
dapat berupa hubungan linier positif dan negatif. Interpretasi koefisien
korelasi akan menghasilkan makna kekuatan, signifikansi dan arah
hubungan kedua variabel yang diteliti. Korelasi yang paling sederhana
adalah korelasi bivariat atau disebut juga korelasi sederhana, yang terdiri
dari dua variabel. Melakukan atau menggunakan teknik korelasi tidak
terlepas dari beberapa asumsi yang harus dipenuhi dalam analisis ini.

Asumsi:
a. Data terdistribusi Normal
b. Variabel yang dihubungkan mempunyai hubungan linear
c. Variabel yang dihubungkan mempunyai data yang dipilih secara acak.
d. Variabel yang dihubungkan mempunyai pasangan yang sama dari subjek
yang sama pula (variasi skor variabel yang dihubungkan harus sama).
e. Variabel yang dihubungkan mempunyai data interval atau rasio.
Korelasi moment Produk Pearson (person Product Moment), dapat
dikatakan sebagai koefisien korelasi sederhana yang dinyatakan dengan r
dengan nilai antara -1 dan 1 atau -1 < r < +1, dapat direpresentasikan
sebagai hubungan asosiasi yang menyatakan kekuatan hubungan antara

15
dua variabel, misalkan X dan Y. Nilai positif (+) menunjukkan hubungan
korelasi yang bersifat positif dan nilai negatif (-) menunjukkan hubungan
yang bersifat negatif. Jika nilai korelasi r mendekati satu berarti
hubungan yang terjadi adalah sangat kuat dan jika sama persis dengan 1
maka terjadi hubungan sempurna antar dua variabel. Demikian juga terjadi
sebaliknya, pada saat bertanda negatif. Korelasi bertanda positif
menunjukkan hubungan antara dua variabel adalah searah, yakni jika satu
variabel mengalami kenaikan maka variabel lain juga mengalami kenaikan.
Sedangkan korelasi negatif menunjukkan arah yang berlawanan, yakni jika
satu variabel mengalami peningkatan maka variabel lainnya mengalami
penurunan. Nilai korelasi sama dengan 0 menunjukkan tidak adanya
hubungan dan mendekati nol berarti hubungan sangat lemah. Nilai-nilai
yang mendekati 0 bersifat acak, menujukkan hubungan tidak linear antara
dua variabel. Dapat dimengerti bahwa korelasi ini tidak memiliki satuan
(dimensionless), artinya tidak bergantung pada satuan.
Derajat korelasi menggambarkan tingkat hubungan antara dua
variabel. Korelasi sempurna ± 1 terjadi jika diagram pencar data membentuk
tepat satu garis lurus, artinya seluruh pasangan titik (x dan y) misalnya,
terletak persis pada garis lurus. Jika sama dengan 1 berarti kemiringan
garis sama dengan satu dan jika sama dengan -1 berarti memiliki
kemiringan sama dengan -1. Selanjutnya jika korelasi di 0,8 dikatakan
memiliki hubungan sangat kuat dan jika lebih kecil dari pada 0,5 umumnya
keeratan hubungan dipandang lemah, lebih jelasnya dapat dilihat pada
Gambar 2.1. Gambar a dan b menunjukkan korelasi sempurna, karena
nilai r = -1 dan r = 1. Gambar a menunjukkan arah yang berlawanan
sementara b) memiliki hubungan yang searah.
Memplotkan pasangan sampel data tersebut pada diagram kartesian
yang disebut dengan scatter plot atau diagram pencar. Setiap pasangan data
(x, y) diplotkan sebagai titik tunggal. Manfaat langsung yang diperoleh
dengan menggunakan diagram tersebut adalah menggambarkan hubungan
secara sederhana dan non matematis dimana ukuran tidak dipengaruhi oleh
besarnya unit.

16
a) b) c)
x x x

r = -1 r=1 r=0

y y y

d) e)
x x
r=0 r  0,6

y y
Hubungan yang tidak linear

x f) g) x x c)

r = 0,80 r = 0,60 r =-0,20

y y y
Gambar 2.1. Nilai-nilai korelasi pada bidang XY

Pada gambar 2.1 juga terlihat hubungan arah yang ditunjukkan atau
dinyatakan dengan nilai positif dan nilai negatif. Tanda positif berarti
memiliki hubungan yang searah, seperti hubungan antara harga dan
penawaran sedang negatif berarti memiliki hubungan yang berlawanan,
seperti hubungan antara harga dengan permintaan. Jadi pada gambar 2.1.f,
misalnya jika x naik maka juga y juga naik dan pada gambar dan pada
gambar 2.1,f misalnya, jika X tersebut naik maka Y menurun dan terjadi
sebaliknya. Selanjutnya gambar yang tidak memiliki arah, seperti gambar
2.1.c, berarti bubungan tersebut bernilai nol (tidak ada hubungan atau bebas
sama sekali antara x dan y) dan tidak memiliki arah atau memilki arah yang
tak terhingga banyaknya.

17
Angka korelasi dipandang sebagai harga mutlak, yaitu jika minus
hanya menunjukkan arah yang berlawanan, sehingga dapat ditulis:

o 0 : Tidak ada hubungan antara dua variabel


o 0 – 0,25 : Korelasi sangat lemah
o 0,25 – 0,5 : Korelasi cukup
o 0,5 – 0,75 : Korelasi kuat
o 0,75 – 0,99 : Korelasi sangat kuat
o 1 : Korelasi sempurna

2.2. Jenis Korelasi

Ada berbagai jenis korelasi yang ada dalam statistika, ditinjau dari segi
jumlah atau banyaknya variabel yang dimasukkan dalam model, maka
korelasi dapat dikelompokkan menjadi dua bagian utama. Pertama korelasi
dikelompokkan berdasarkan jenis variabel yang digunakan

1. Korelasi Product momen dari Pearson, yang mengukur kekuatan


hubungan antara dua variabel yang kontinu
2. Korelasi Spearman, mengukur kesamaan antara dua variabel dari
ranking yang berasal dari suatu himpunan data
3. Korelasi titik Biserial mengukur kekuatan hubungan antara variabel
kontinu dan satu variabel dikotomis
4. Korelasi Phi (φ) yang mengukur keeratan hubungan antara dua
variabel dikotomis.
Selanjutnya kelompok kedua, adalah korelasi jika ditinjau dari jumlah
variabel yang digunakan. Dalam hal ini korelasi dapat dikelompokkan
menjadi 4 tipe:

1. Korelasi bivariat
2. Korelasi ganda
3. Korelasi parsial
4. Korelasi kanonikal

2.2.1. Korelasi Spearman

Korelasi spearman atau disebut korelasi ranking spearmen


(Spearman rank correlation) merupakan suatu tes yang non parakmetrik
yang digunakan untuk mengukur tingkat asosiasi antara dua variabel. Alat
analisis ini dikembangkan oleh Spearman. Uji Korelasi Spearman atau
rank correlation test adalah satu uji yang tidak sama sekali
mempersyaratkan asumsi, termasuk asumsi data terdistribusi normal.
Skala variabel yang digunakan memiliki tingkat minimal ordinal. Simbol

18
ukuran populasinya yang biasa digunakan adalah  sedang untuk sampel
ditulis rs , namun demikian yang sering digunakan adalah  .

Adapun formula yang digunakan untuk menghitung koefisien


korelasi spearmen:

6 di2
  1
n(n 2  1)

Where:

𝜌 = koefisien korelasi rank Spearman

di= perbedaan antara kedua variabel yang sudah diranking

n= jumlah nilai pada masing-masing himpunan data

Contoh:

Penilai dua juri X dan Y terhadap sorang atlet:

1 2 3 4 5 6 7 8 9

X 1 4 3 4 5 6 7 8 9

Y 2 2 5 4 5 6 8 8 7

No X Y Rank Rank
d d2
X
Y

1 1 1 9 9 0 0

2 2 3 8 7 1 1

3 3 2 7 8 1 1

4 4 4 4.5 6 1.5 2.25

5 4 5 4.5 5 0.5 0.25

6 6 6 4 4 0 0

19
7 7 8 3 2.5 0.5 0.25

8 8 8 2 2.5 0.5 0.25

9 9 9 1 1 0 0

Jumlah 5

d i
2
5

6(5) 30 30
  1 ;   1 ;   1  0,96
9(9 2  1) 720 720

Jadi diperoleh nilai   0,96 yang menunjukkan bawa terdapat


hubungan yang erat antar penilaian dua juri. Jadi semakin tinggi nilai yang
diberikan juri yang satu semakin tinggi pula nilai dari juri yang kedua dan
juga terjadi sebaliknya.

2.2.2. Korelasi Kendall's Tau

Korelasi Kendall Tau termasuk dalam golongan statistik


nonparametrik yang tidak mempersyaratkan data terdistribusi normal.
Korelasi ini digunakan pada data sama seperti data yang digunakan pada
korelasi spearman yaitu sekurang-kurangnya data ordinal. Simbol yang
biasa digunakan adalah  (sebagian penulis memberi simbol  untuk
populasi dan T untuk sampel). Korelasi Kendal mengukur kekuatan
kebebasan dari dua variabel. Formula yang digunakan untuk menghitung
nilai korelasi rank Kendal adalah

20
nc  nd

n
( n  1)
2
Where:

𝜏 = koefisien korelasi Rank Kendal

𝑛𝑐 = jumlah rank yang bersesuaian

𝑛𝑑 = jumlah rank yang tidak bersesuaian.


Kriteria:

Bersesuaian (C); jika (xi > xj dan yi > yj) atau (xi < xj dan yi <
yj)

Tidak bersesuaian (D); jika (xi > xj dan yi < yj) atau (xi < xj dan yi >
yj)

Jika ada xi = xj atau yi = yj , maka pasangan diabaikan

contoh:

Tabel 2.1 Nilai dua juri X dan Y terhadap seorang atlet:

1 2 3 4 5 6 7 8 9

X 1 4 3 4 5 6 7 8 9

Y 2 2 5 4 5 6 8 8 7

No X Y Rank Rank Susun Kembali


X
Y Rang X Rank Y

1 1 1 9 9 1 1

2 2 3 8 7 2 2.5

3 3 2 7 8 3 2.5

4 4 4 4.5 6 4 4

21
5 4 5 4.5 5 4.5 5

6 6 6 4 4 4.5 6

7 7 8 3 2.5 7 8

8 8 8 2 2.5 8 7

9 9 9 1 1 9 9

Tabel 2.2 . Menghitung jumlah yang bersesuaian (C) dan tidak Bersesuaian (D)

1 2 3 4 5 6 7 8 9

1 C D

2 + 1

3 + 1 0

4 + + + 3

4.5 + + + 3 0

4.5 + + + + + 5

7 + + + + + + 6

8 + + + + + + + 7

9 + + + + + + + + 8

Jumlah 34 0

nc  nd 34  0 34
  ;    0,94
n 9 36
(n  1) (9  1)
2 2

22
2.2.3. Korelasi Biserial Titik

Korelasi Biserial Titik atau point biserial correlation coefficient, rpb


adalah suatu hubungan khusus dari koefisien korelasi. Jenis korelasi ini
mengukur hubungan antara dua variabel yang bersifat kontinu (skala ratio
atau interval) dan satunya lagi terdiri dari variabel dikotomis atau biner.
Data yang digunakan untuk variabel biner harus berupa data nominal asli,
buka hasil transformasi. Misalnya korelasi antara pendapatan dan jenis
kelamin, korelasi antara gender dan nilai statistik. Sebenarnya korelasi
banyak digunakan dalam pendidikan untuk mengukur validitas bandingan
(concurrent validity) dari soal yang diujikan .

Formula yang digunakan dengan menggunakan koefisien korelasi


biserial titik adalah

M1  M 0
rpbi  pq
sn

Dimana:

rpbi = koefisien korelasi point biserial titik ke-i

M 1 = mean kelompok dengan variabel biner positif (katakan, 1)

M 0 = mean kelompok dengan variabel biner negatif (katakan, 0)

Sn = standar deviasi dari tes tersebut

p = proporsi kelompok 0

q = proporsi kelompok 1 (1-p)

Korelasi biserial

Korelasi serial adalah suatu teknik yang digunakan untuk menguji


hubungan antara dua variabel, yang satu berskala pengukuran ordinal dan
yang lain berskala pengukuran interval. Sebenarnya Korelasi biserial adalah
korelasi Pearson juga karena terdistribusi normal, hanya saja satu dari

23
sampelnya memiliki ukuran dikotomis. Misalnya, hubungan pendapatan dan
gender, hubungan antara IQ dengan dengan kelulusan dan sebagainya.

M1  M 0
rb  pq
Zs y

Dimana:

rbis = koefisien korelasi point biserial


M 1 = mean kelompok dengan variabel biner positif (katakan, 1)
M 0 = mean kelompok dengan variabel biner negatif (katakan, 0)
Z = Nilai z tabel distribusi nor untuk p dan q

p = proporsi kelompok 0
q = proporsi kelompok 1 (1-p)

2.2.4. Korelasi Bivariat

Korelasi bivariat merupakan hubungan atau relasi antara dua


variabel. Kedua variabel tersebut bisa dalam bentuk kuantitatif atau
kualitatif. Hubungan yang berbentuk kualitatif, pada umumnya
dipresentasikan dengan menggunakan data kualitatif pula. Sedangkan data
yang bersifat kuantitatif banyak ditemukan dalam mencari hubungan antara
dua variabel yang diukur secara kuantitatif. Contoh seperti ini adalah
korelasi product moment Pearson, yang telah dibahas di atas.

2.2.5.Korelasi Ganda

Korelasi ganda atau berganda merupakan hubungan antara satu


variable dependent dengan beberapa variabel bebas atau predictor. Korelasi
ini muncul pada umumnya dalam analisis regresi linear berganda, yang
biasan dinyatakan dengan R ( huruf besar). Simbol digunakan untuk
membedakan antara korelasi bivariate, r yang hanya terdiri dari dua
variabel saja. Korelasi berganda banyak digunakan dalam mencari atau
menentukan keeratan hubungan antara satu variabel dependen dengan
beberapa variabel independen, sebagai contoh hubungan antara produksi

24
dengan modal dan tenaga kerja. Korelasi ini akan dibahas secara rinci pada
Bab yang membahas regresi liner berganda.

2.2.6. Korelasi Partial

Korelasi parsial digunakan untuk menguji hubungan dua atau lebih


variabel independen dengan satu variabel dependen dengan melakukan
pengendalian pada salah satu variabel bebasnya. Korelasi parsial digunakan
untuk menganalisis bila peneliti bermaksud mengetahui pengaruh atau
mengetahui hubungan antara variabel independen dan dependen, dimana
salah satu variabel bebasnya dibuat tetap/dikendalikan. Jadi korelasi parsial
merupakan angka yang menunjukkan arah dan kuatnya hubungan antara dua
variabel setelah satu variabel yang diduga dapat mempengaruhi hubungan
variabel tersebut dikendalikan untuk dibuat tetap keberadaannya.

Untuk memudahkan membuat rumus baru, bila variabel kontrolnya dirubah,


maka dapat dipandu dengan Gambar 2.1 berikut:

rYX 2
X2
Y

rX 1 X 2

X1

Gambar 2.1: Korelasi parsial dimana X1 dikendalikan

Bila X1 dikendalikan, digunakan rumus

ryx2  ryx1 rx1x2


ryx2 . x1  (2.7)
(1  rx21x2 )(1  ryx2 1 )

25
ryx2 .x1 adalah korelasi antara y dan x2 dimana x1 dikendalikan.

Uji koefisien korelasi parsial dapat dihitung dengan rumus (2.8)

rp n  3
t ……..(2.8)
1  rp2

Dimana:

rp adalah koefisien korelasi parsial

t tabel dicari dengan dk = n -1

Harga t hitung tersebut selanjutnya dibandingkan dengan harga t tabel.


Untuk kesalahan 5% uji dua fihak, dan dengan dk = 9, maka diperoleh t
tabel = 2,306. Penjelasan secara rinci dengan menggunakan contoh dapat
dilihat pada Bab V, muncul di saat membicarakan Regresi Linear Berganda.

5.2.7. Korelasi Kanonikal

Analisis korelasi kanonik merupakan salah satu metode dalam


analisis multivariat yang tujuannya mengetahui hubungan antara himpunan
variabel dependen dan himpunan variabel independen. Prinsip dasarnya
adalah mencari fungsi kanonik, yaitu pasangan variat kanonik (𝑈𝑚 , 𝑉𝑚 )
yang memaksimalkan korelasi antar keduanya. Korelasi kanonikal akan
dibahas secara panjang lebar dalam bab ini.

Selain dari pada itu, korelasi dapat dilihat dari bentuk hubungan
antara variabel. Dalam hal terdapat tiga macam bentuk hubungan antar
variabel, yaitu hubungan simetris, hubungan sebab akibat (kausal) dan
hubungan interaktif (saling mempengaruhi).

Macam-macam Teknik Korelasi

26
a. Product Moment Pearson : Kedua variabelnya minimal berskala
interval
b. Rank Spearman : Kedua variabelnya berskala ordinal
c. Point Serial : Satu berskala nominal sebenarnya dan satu berskala
interval
d. Biserial : Satu berskala nominal buatan dan satu berskala interval
e. Koefisien kontingensi : Kedua variabelnya berskala nominal
Berbagai jenis korelasi yang telah disebutkan dapat digunakan sesuai
topik dan masalah penelitian yang akan dipecahkan dalam berbagai bidang
ilmu atau aktivitas ekonomi, yang dapat digunakan sebagai salah satu alat
dalam menentukan kebijakan bisnis atau lainnya.

2.2. Korelasi Bivariat

Korelasi yang telah dijelaskan sebelumnya pada sub Bab 2.1,


sebenarnya adalah korelasi bivariat, karena menghubungkan dan mengukur
kekuatan atau keeratan hubungan antara dua variabel, namun tidak bearti
hubungan antar 2 variabel semuanya korelasi bivariat, sebagaimana telah
disinggung berbagai jenis korelasi, bahkan ada yang diberi contoh. Dalam
kesempatan ini akan dibahas lagi secara matematis dan statistik, sehingga
pengertian korelasi semakin mendalam.

Korelasi bivariat termasuk dalam statistik paramatrik, berbeda


dengan korelasi lainnya seperti korelasi spearman (statistik non parametrik).
Korelasi bevariat mengukur kekuatan arah hubungan antara dua variabel.
Kekuatan hubungan terletak antara 0 dan 1 (karena diambil dari harga
mutlaknya) sedang arah hubungan dapat besifat negatif atau positif. Jika
positif berarti terjadi hubungan serah sedang jika negatif terjadi hubungan
yang berlawanan, perhatikan kembali gambar 2.1.

Korelasi itu tidak dapat dipisahkan dari kovariansi, karena korelasi


ditemukan atau diturunkan dari kovariansi. Namun demikian sebelum
dilanjutkan kepada pembahasan kovariansi dan korelasi terlebih dahulu
dijelaskan simbol-simbol yang digunakan dalam pembahasan ini:

27
Obs Variabel variabel Deviasi
eva
si Respons (Y) Prediktor (X) Y x

1 Y1 X1 Y1  Y X1  X

2 Y2 X2 Y2  Y X2  X

. .

. .

. .

n Yn Xn Yn  Y Xn  X

Dimana :
n n

Y i X i
Y  i 1
dan X  i 1
merupakan rata-rata sampel dari masing-
n n
masing populasi Y dan X.

Sebelum dibahas korelasi, perlu dijelaskan terlebih dahulu kovarinas


yang menunjukkan seberapa besar perubahan dari dua random variabel
secara bersama-sama, atau hubungan linier antar dua variabel. Rumusnya
dapat ditulis sebagai berikut:

 (x i  x )( yi  y )
Cov( X , Y )  i 1
n 1

Koefisien korelasi (correlation coefficient) atau (Product moment


correlation coefficient,  untuk populasi dan r untuk sampel, menjelaskan
kekuatan hubungan antara dua random variabel secara linear, dapat
diformulasikan sebagai

28
Cov( X , Y )
r( X ,Y ) 
S X SY

Varians mengukur keberagaman dari nilai x dan nilai y di sekitar


nilai rata- rata sampel yang mewakilinya ( x, y ) secara terpisah, sementara
kovariansi adalah mengukur keberagaman nilai-nilai pasangan x dan y
secara simultan. Sehingga untuk menghitung koefisien korelasi sampel,
terlebih dahulu harus dihitung kovariansi dan varians sebagaimana yang
tertera pada rumus tersebut. Misalkan Sx dan Sy adalah masing-masing
varians untuk X dan Y, maka varians dan kovarians untuk X dan Y
dapat dihitung dengan formula tersendiri. Untuk varians X digunakan
rumus:

Sx 
 ( X i  X )2
n 1

Sedang kovarians, digunakan rumus:

Cov( X , Y )
rXY 
n 1

Atau

(X i  X )(Yi  Y )
Cov( X , Y )  i 1
n 1

 ( X Y  X Y  Y X  XY )
i i i i
 i 1
n 1

29
n n n

 X iYi  Y  X i  X  Yi  nXY )
 i 1 i 1 i 1
n 1

 X Y  YnX  XnY  nXY )


i i
 i 1
n 1
n

 X Y  nXY i i
Cov( X , Y )  i 1
n 1

Dengan demikian diperoleh rumus korelasi sebagai berikut:

(X i  X )(Yi  Y )
r i 1
n n

(X
i 1
i  X ) 2  (Y j  Y ) 2
j 1

Atau

n n n
n X iYi   X i  Yi
r i 1 i 1 i 1
…. (2.9)
n n n n
[n X i  ( X i ) ][n Yi  ( Yi ) ]
2 2 2 2

i 1 i 1 i 1 i 1

Kadang-kadang pula digunakan rumus

30
n

x y i i
r i 1
…. (2.10)
n n

x y
i 1
2
i
i 1
2
i

Dimana:

xi  X i  X

yi  Yi  Y

Menguji Signifikansi Koefisien Korelasi

Menguji hipotesis dilakukan dengan membandingkan r dan t tabel.


Nilai  menunjukkan koefisien korelasi populasi, sebagaimana telah
disebutkan, yang diharapkan sangat mendekati dengan nilai r korelasi
sampel.

Hipotesis statistik

H0 :   0

H1 :   0

Setelah memperoleh nilai r akan diuji dengan menggunakan uji t atau


lainnya, dengan statistik uji t yang digunakan:

r n2 (2.10)
t
1 r2

Hipotesis:

Jika diterapkan dalam aplikasi, maka dimisalkan hipotesis penelitian


sebagai berikut:

Ho : Tidak terdapat hubungan antara kecelakaan dan kendaraan


bermotor

31
H1 : Terdapat hubungan antara kecelakaan dan kendaraan bermotor

Nilai t hitung ini akan dibandingkan dengan t tabel pada tingkat kesalahan
α atau pada taraf signifikansi (1-α) . Biasanya diambil α = 0,05.

Kriteria pengujian:

Ho ditolak jika nilai t hitung lebih besar dari pada t tabel dengan
derajat bebas atau degree of freedom (df) n-2, demikian pula
sebaliknya.

Contoh:

Misalkan X menunjukkan jumlah kecelakaan lalu lintas dan Y


menunjukkan jumlah kendaraan bermotor di suatu kota:

X Y XY X^2 Y^2

1 49 48 2352 2401 2304

2 86 67 5762 7396 4489

3 97 61 5917 9409 3721

4 99 82 8118 9801 6724

5 74 71 5254 5476 5041

6 53 51 2703 2809 2601

7 62 45 2790 3844 2025

8 69 58 4002 4761 3364

9 80 48 3840 6400 2304

10 43 45 1935 1849 2025

Σ 712 576 42673 54146 34598

Ditanyakan:

a. Hitunglah koefisien korelasi antara x dan y


b. Uji keberartian dari hubungan x dan y.

32
Jawab:

Dengan menggunakan rumus (2.9)

Dari data diperoleh


n n n n
n= 10 ; Xi 1
i  712 ;  Y  576 ;  X Y  42673 ;  X
i 1
i
i 1
i i
i 1
i
2
 54146

Y
i 1
i
2
 34598

Tentukan r atau rhitung.

n n n
n X iYi   X i  Yi
r i 1 i 1 i 1
n n n n
[n X i  ( X j ) ][ n Yi  ( Yi ) 2 ]
2 2 2

i 1 i 1 i 1 i 1

10(42673 )  (712)(576)
r
[10(54146 )  (712)2 ][(10)(34598 )  (576)2 ]

16618 16618
r 
(34516 )(14204 ) 22141,93

r  0,75

Hipotesis:

Ho: Tidak terdapat hubungan antara jumlah kecelakaan dan truk

H1: Terdapat hubungan antara kecelakaan dan truk

33
Melalui perhitungan tersebut, diperoleh r hitung sebesar, r  0,75 . Nilai ini
akan dibandingkan dengan t tabel pada tingkat kesalahan α = 0,05 atau
pada taraf signifikansi (1-α) = 0,95.

Dengan menggunakan persamaan 2.10

r n2
t
1 r2

0,75 10  2 2,121
t 
1  (0,75) 2 0,661

t  3,209

t tabel dengan dk = 10-2 = 8 adalah 2,306 (lihat Tabel distribusi t


pada lampiran Tabel A2)
Bandingkan t hitung dengan t tabel. Dari hasil perhitungan diketahui t
hitung =3,210 > t tabel=2,306, jadi Ho ditolak.
Kesimpulan:
Terdapat hubungan antara jumlah kecelakaan lalu lintas dan jumlah
truk pada tingkat kesalahan yang bersifat positif dan signifikan pada α
=0,05.

2.4. Korelasi Kanonik


Analisis korelasi kanonik pertama kali diperkenalkan oleh
Hotelling pada tahun 1936. Analisis korelasi ini masuk ke dalam
kategori Analisis Multivariat (multi variabel). Analisis korelasi Kanonik
merupakan suatu teknik analisis statistik yang digunakan untuk
mengetahui suatu hubungan dan tingkat keeratan suatu hubungan antara
kelompok variabel dependen dengan kelompok variabel bebas.
Berbeda dengan korelasi bivariate yang memiliki keterbatasan,
hanya menjelaskan hubungan antara dua variabel, korelasi kanonikal
menjelaskan hubungan dua group data yang dapat dianalogikan sebagai
variabel bebas dan variabel tak bebas. Ini juga yang membedakan dengan
regresi ganda univariat (satu variabel tak bebas). Dengan demikian analisis
korelasi ini memiliki jangkauan analisis jang lebih umum dan lebih luas
dibanding dengan analisis korelasi bivariat dan regresi liner berganda.
Asumsi yang harus dipenahui dari analisis kolelasi kanonik adalah sebagai
batikut:

34
a. Multikollinearity
b. Normality
c. Linerity
d. Homokedasitucity
Kempat asumsi akan dijelaskan secara rinci pada paada Bab IV
dikala membahas asumsi klasik. Analisis korelasi kanonik dapat juga
digunakan untuk mengurai hubungan dari sekelompok variabel
independen. Dalam analisis korelasi ini ada tiga metode yang dapat
digunakan, yaitu:
a. Canonical Weight (Bobot Kanonikal).
Variabel yang memiliki angka weight relative besar (di atas 0,5)
dianggap memberikan kontribusi lebih pada variat.
b. Canonical Loading (Muatan Kanonikal).
Muatan kanonikal mengatur korelasi linear sederhana antara variabel
awal (original) dalam variabel dependen atau independen dan set
canonical variate. Metode ini juga menyatakan korelasi variabel
terhadap variat dimana variabel bergabung dalam setiap
fungsi kanonikal.
c. Canonical Cross Loading (Muatan Silang Kanonikal).
Muatan silang kanonikal dapat dianggap sebagai alternative
canonical loading. Metode ini menyatakan korelasi variabel dalam
suatu variat terhadap variat kanonik lainnya.
Pembahasan yang telah dipaparkan di atas menunjukkan hubungan
antara individu dengan individu lain, tanpa melihat kekuatan hubungan
kelompoknya. Dalam analisis kali ini akan diuraikan hubungan antara satu
kelompok dengan kelompok lain yang terdiri dari beberapa variabel, yang
disebut korelasi kanonik (Canonical correlation). Prinsipnya adalah
mempelajari korelasi antara suatu kombinasi linear dari himpunan beberapa
variabel dengan kombinasi liner dari himpunan yang lain. Kombinasi liner
tersebut disebut variabel kanonik, sementara pasangan variabel kanonik itu
disebut korelasi kanonik.
Korelasi kanonik yang pertama diperkenalkan oleh Hotelling pada
tahun 1936, termasuk analisis korelasi multivariate. Dalam analisis
statistik, korelasi kanonik menunjukkan analisis variabel laten (variabel
yang tidak langsung diteliti) yang secara implisit merepresentasikan
variabel ganda (multiple variable) yang secara langsung dapat diteliti.
Konsep korelasi kanonik dapat juga dijumpai dalam analisis diskriminan.
Analisis korelasi kanonikal adalah model statistika multivariat yang
memungkinkan identifikasi dan kuantifikasi hubungan antara dua himpunan
variabel. Karena titik perhatian analisis ini adalah korelasi (hubungan) maka
kedua himpunan tidak perlu dibedakan menjadi kelompok variabel tidak
bebas dan variabel bebas. Pemberian label Y dan X kepada kedua variat
kanonikal hanya untuk membedakan kedua himpunan variabel. Fokus

35
analisis korelasi kanonikal terletak pada korelasi antara kombinasi linier satu
set variabel dengan kombinasi linier set variabel yang lain. Langkah pertama
adalah mencari kombinasi linier yang memiliki korelasi terbesar.
Selanjutnya, akan dicari pasangan kombinasi linier dengan nilai korelasi
terbesar di antara semua pasangan lain yang tidak berkorelasi. Proses terjadi
secara berulang, hingga korelasi maksimum teridentifikasi. Pasangan
kombinasi linier disebut sebagai variat kanonikal sedangkan hubungan di
antara pasangan tersebut disebut korelasi kanonikal
Analisis korelasi kanonikal digunakan untuk identifikasi dan
kuantifikasi hubungan antara dua himpunan variabel. Analisis ini dapat
digunakan baik untuk data kuantitatif atau metrik maupun data kualitatif
atau non metrik. Kekuatan korelasi antara variabel yang tergabung dalam
variat kanonikal yang sama dinyatakan dalam varians bersama (shared
variance), sedangkan hubungan antara variat kanonik yang berbeda
dinyatakan dalam indeks redundansi (redundancy index). Interpretasi
koefisien variat kanonikal, mencakup tiga besaran, 1. Bobot kanonikal
(canonical weights), 2. Muatan kanonikal (canonical loadings) dan 3.
Muatan-silang kanonikal (canonical cross-loadings).
Misalkan U (X) adalah suatu variat yang merupakan kombinasi
linear dari 3 variabel (X1,X2 dan X3) dan V(Y) adalah variat lain yang
merupakan kombinasi linear dari variabel Y1, Y2 dan Y3 maka korelasi
kanonik dapat ditulis sebagai:

X1
Y1

X2
U Y2
V
(X)
(Y)
Y3
X3

Gambar….: Korelasi Kanonik

36
Gambar panah satu arah menunjukkan ukuran variabel terhadap
variat kanonik. Sedang panah dua ujung menunjukkan korelasi
kanonik.

Beberapa alat analisistermasul korelasi kanonik yang sering


dipakai untuk menguhungam antara bebepara varaiabel bebas, dapat
dilihat dilihat pada Gambar 2.2.

Gambar 2.2. Representasi Hubungan Teknik Analisis


Sumber: Laessig dan Duckett, 1979.

Analisis korelasi kanonik merupakan salah satu metode dalam


analisis multivariat yang tujuannya mengetahui hubungan antara himpunan
variabel dependen dan himpunan variabel independen. Prinsip dasarnya
adalah mencari fungsi kanonik, yaitu pasangan variat kanonik (𝑈𝑚 , 𝑉𝑚 )
yang memaksimalkan korelasi antar keduanya.
1. Bobot kanonik (canonical weight)
2. Struktur kanonik (canonical loading)
3. Struktur silang kanonik (canonical cross-loading)

37
Sebagaimana diketahui bahwa korelasi kanonik adalah suatu
analisis yang dibangun dari regresi berganda dari kedua sisi persamaan.
Dalam korelasi matriks X dab Y dinyatakan

 x1   y1 
x  y 
X   2 Y   2
   
   
 xn   yn 

Sedang dalam analisis kanonikal dinyatakan:

 x11 x12  x1 p   x11 x12  x1 p 


x x22  x2 p  x x22  x2 p 
X   21
21
Y 
      dan       …(2.1)
   
 xn1 xn 2  xnp   xn1 xn 2  xnp 

Kelihatannya korelasi kanonik dibangun dari variabel


independen dan variabel dependen. Hanya saja ini merupakan suatu
persamaan saja karena fokus utama adalah mencari hubungan antara kedua
kelompok variabel, yaitu korelasi antara kombinasi linear satu variabel
dengan variabel lainnya. Jadi langkah pertama yang dilakukan dalam
analisis kanonik adalah mencari kombinasi linear yang memiliki korelasi
terbesar. Selanjutnya akan ditentukan kombinasi linear dengan nilai korelasi
terbesar di antara semua pasangan yang tidak berkorelasi. Dalam proses ini
akan teridentifikasi korelasi maksimum. Pasangan kombinasi liner disebut
variat kanonik sedangkan hubungan antara pasangan tersebut disebut
korelasi kanonik.

Persamaan (2.1) dapat dipandang sebagai variabel-variabel bebas


yang terdiri atas X1,X2,X3……Xp dan variable tak bebas Y1, Y2, Y3 … Yq.
Sehingga persamaan linear yang dapat dibentuk masing-masing untuk
variat U dan V adalah

38
U1  a11 X 1  a12 X 2  ...  a1 p X p
U 2  a21 X 1  a22 X 2  ...  a2 p X p
     …..(2.2)
U q  a p1 X 1  a p 2 X 2  ...  aqp X p

dan

V1  b11Y1  b12Y2  ...  b1qYq


V2  b21Y1  b22Y2  ...  b2 pYp
     p ≤ q, ……(2.3)
V p  bp1Y1  bp 2Y2  ...  bpqYq

Perhatikan bahwa persamaan (2.2) dan persamaan (2.3) dapat ditulis


secara perpasangan sehingga terjadi sebanyak p pasangan kombinasi linear
Uq,Vp. Pasangan U1,V1 adalah pasangan kombinsi liner ke satu dan
seterusnya sampai Up,Vq.
Dari kedua persamaan tersebut di atas dapat dinyatakan sebagai:

p
Ux  aj X j
i 1

q
Vy   bhYh
h 1

Atau dalam bentuk matriks:

39
U x  aT X dan

V y  bT Y

Dimna a dan b adalah vektor koefsien yang akan memakimumkan korelasi


antara dua variasi kanonik. Metode dikembangkan oleh Hotelling (1935-
1936).

Ambil dan perhatikan:

U1  a11X1  a12 X 2  ... a1 p X p

V1  b11X1  b12 X 2  ... b1 p X p

Atau dalam bentuk matriks:

U1  a1T X
V1  b1T Y

Permasalahannya sekarang adalah menentukan a1 dan b1 agar diperoleh


korelasi U 1V 1 yang maksimum. Sudah umum diketahui bahwa

Cov(U1 ,V1 ) a1S XY b1


U 1V 1  
Var(U1 )Var(V1 ) a1S XX a1 b1SYY b1

Dimana:

Cov (U1 ,V1 )  Cov (a1 X , b1Y )  a1Cov ( X , Y )b1  a1S XY b1

Var(U1 )  Var(a1 X )  a1TVar( X )a1  a1T S XX a1

Var(V1 )  Var(b1Y )  b1TVar(Y )b1  b1T SYY b1

Agar diperoleh a1 dan b1 maksimum, maka diperlukan pembatas


atau kendala bahwa

40
Var(U1 )  a1T S XX a1  1
Var(V1 )  b1T S XX b1  1

Dengan menggunakan fungsi Lagrange diperoleh:

L  a1S XY b1   (a1S XX a1  1)   (b1SYY b1  1)

L
 S XY b1  2S XX a1  0 (a)
a1
L
 S XY
T
a1  2SYY b1  0 (b)
b1
L
 a1S XX a1  1  0 (c)


L
 b1S XX b1  1  0 (d)


Persamaan (a) jika dikalikan aT


a1T S XY b1  2a1T S XX a1  0

a1T S XY b1  2  *  0 (e)

Dengan cara yang sama juga diperoleh:

T
S XY a1  2SYY b1  0 T
kalikan dengan b1 diperoleh

b1T S XY
T
a1  2b1T SYY b1  0
b1T S XY
T
a1  2  0
b1 S XY a1  2 =  *
T T
(f)
a S b  2
T
1
T
XY 1

Jadi dari persamaan (e) dan (f) diperoleh bahwa


   atau *   * (g) (* menunjukkan maksimum)
Sehingga

41
*   * = Corr(U,V)
Karena   

T
S XY a1   * SYY b1  0 , atau

T
S XY a1   * SYY b1  0
S XY a1   * SYY b1 (9)
T

Dari persamaan (1)

1
S XY b1   * S XX a1  0 kalikan ruas kiri dan kanan dengan SYX S XX

1
SYX S XX S XY b1   * SYX S XX
1
S XX a1
1
SYX S XX S XY b1   * SYX a1
SYX S XX S XY b1   * S XY
1 T
a1 (10)

Substitusikan persamaan (9) ke 10 diperoleh


1
SYX S XX S XY b1   *2 SYY b1 kalikan persamaan ini dengan SSYY
1

Sehingga diperoleh
1
SYY 1
SYX S XX S XY b1   *2 SYY
1
SYY b1
atau
1
SYY 1
SYX S XX S XY b1   *2 Ib1

1
SYY 1
SYX S XX S XY b1   *2 Ib1  0

1
( SYY 1
SYX S XX S XY   *2 I )b1  0

Dimana

1 1
 *2 adalah akar karakteristik dari SYY SYX S XX S XY
1 1
b1 adalah vektor karakteristik dari SYY SYX S XX S XY
 * adalah korelasi kanonik antara antara U1 dan V1
1 1
a1 adalah vektor karakteristik dari S XX S XY SYY SYX
atau

42
a1   *1 S XX
1
S XY b1
Untuk menentukan akar dan vektor karakteristik lain diperoleh dengan cara
yang sama.
Sama saja dengan analisis faktor, hasil utama yang akan diperoleh
adalah korelasi kanonik, faktor loading kanonik dan timbangan kanonik
(canonical weight). Analisis juga dapat digunakan untuk menentukan
Proporsi Varians Terekstraksi dan mengukur redundansi (redundancy).
Pengukuran Redundans sangat penting untuk menganalisis, menguji dan
mendesain questioner dan skala pengembangan. Redundans juga dapat
digunakan untuk menjawab atau menjejaskan pertanyaan seperti, kapan
mengukur suatu pertanyaan 5 item atau 3 item, dapatkah dikeluarkan satu
item, dua item untuk keperluan questioner yang ringkas.

Koefisien korelasi kanonik mengetes eksistensi dari hubungan


overall antara dua himpunan variabel dan redundans mengukur besarnya
dari hubungan tersebut. Secara statistik ukuran ini menunjukkan proporsi
varians dari suatu himpunan variabel yang dijelaskan oleh variant dari
himpunan variabel lain. Selain dari pada itu Wilk's lambda digunakan untuk
mengukur signifikansi dari koefisien korelasi kanonik pertama sedangkan
Bartlett's V digunakan untuk mengetes siginifikansi dari semua koefisien
korelasi kanonik.

Proses Perhitungan

Menghitung korelasi kanonik harus menggunakan matriks kovarians


atau matriks korelasi, sebagai mana akan dijelaskan. Pertama ditetapkan
matriks kovarians yang terdiri dari 4 sub matriks baru, dimana akan
dihitung korelasi.

Misalkan matriks varians kovarians dengan sub-matrices, sebagai


berikut

Matriks Varians Kovarians

43
Misalkan terdapat dua kelompok variabel sebagai berikut:

Permasalahan adalah penyelesaian persamaan kanonikal sebagai berikut:

1
( S XX 1
S XY SYY SYX   I ) A  0

dan

1
( SYY 1
SYX S XX S XY   I ) B  0

Dimana I adalah matriks identity.

Menyelesaikan tersebut terlebih dahulu ditentukan akar


karakteristik χ dengan menghitung determinan

1
S XX 1
S XY SYY SYX   I  0 dan

1
SYY 1
SYX S XX S XY   I  0

44
Eigenvalue terbesar dari matriks perkalian

1 1 1 1
S XX S XY SYY SYX atau SYY SYX S XX S XY

Merupakan koefisien korelasi kanonikal kuadrat (the squared


canonical correlation coefficient)

Selanjutnya dapat ditunjukkan bahwa

1
S XX S XY B
A

dan

1
SYY SYX A
B

 1 1
adalah akar karakteristik SYY SYX S XX S XY

1 1
A adalah vektor karakteristik S XX S XY SYY SYX
1 1
B adalah vektor karakteristik SYY SYX S XX S XY

Penyelesaian dapat juga dilakukan dengan menggunakan Korelasi


dengan syarat data yang digunakan sudah distandarisasi, dengan
kerangka input korelasi:

45
 R pp  R pq 
 
Z   
 Rqp  Rqq 
 

Mendapatkan nilai korelasi kanonikal, yang pertama dilakukan


adalah menyusun matriks R

1 1 '
R  RXX RXY RYY RYX atau

1 1
R  RXX RYX RYY RXY

Selanjutnya hitung eigenvalues of R dan ambil akar kuadratnya, yaitu

rci  i

Dalam konteks ini, eigenvalue menunjukkan persentase varian yang


overlapping yang ada dalam semua varaibael dengan dua variat
kanonik.

Akar ciri (𝜆1 , 𝜆2 , … , 𝜆𝑟 ) menggambarkan keragaman yang


dapat diterangkan peubah atau variabel kanonik, misalkan Ui yang
diterangkan oleh peubah kanonik Vi. Koefisien Ui untuk peubah
kanonik ke-i untuk peubah X diperoleh dari elemen vektor

ai  i1RXX
1
RXY bi , i  1, 2, 3...r

Pasangan peubah kanonik pertama dapat diperoleh dari perkalian


berikut:

46
Ui  aiT X

Vi  biT Y

Uji Hipotesis

Dalam pengujian hipotesis, disusun suatu hipotesis statistik, yang


sederajat dengan uji F, sehingga

H0: 1   2  3  ...   r  0

H1: Ada  i  0

Statistik Uji

 1 r
   n  ( p  q  1) ln(1   i )
 2  i 1

Titik kritis

 2tabel   2 ( ,df )   2 ( , pq)

Contoh:

47
No. X1 X2 Y1 Y2 Zx1 Zx2 Zy1 Zy2

1 22 40 11 14 -1.59317 -0.4871 0.017607 -1.54067

2 23 41 2 15 -1.42478 -0.40153 -2.04297 -1.28389

3 24 45 12 16 -1.2564 -0.05924 0.24656 -1.02712

4 25 15 9 17 -1.08801 -2.62639 -0.4403 -0.77034

5 35 47 5 18 0.595827 0.111902 -1.35611 -0.51356

6 38 48 18 19 1.10098 0.197474 1.620281 -0.25678

7 39 49 17 20 1.269364 0.283046 1.391327 0

8 34 49 15 21 0.427443 0.283046 0.93342 0.256779

9 32 50 9 22 0.090675 0.368617 -0.4403 0.513558

10 33 35 10 23 0.259059 -0.91496 -0.21135 0.770337

11 35 58 11 24 0.595827 1.053191 0.017607 1.027116

12 37 58 12 25 0.932596 1.053191 0.24656 1.283895

13 32 59 11 26 0.090675 1.138763 0.017607 1.540674

X adalah tingkat kesehatan

Y adalah tingkat kecerdasan

Korelasi

X1 X2 Y1 Y2

X1 1.000 0.546 0.528 0.677

X2 0.546 1.000 0.259 0.582

Y1 0.528 0.528 1.000 0.265

Y2 0.6677 0.582 0.265 1.000

48
Dengan menggunakan rumus:

1 1 '
R  RXX RXY RYY RYX

1  1.4251  0.7783 
R XX  
 0.7783 1.4251 

1  1.0753  0.2845 
RYY  
 0.2845 1.0753 

0.5280 0.6770 
R XY   
0.2590 0.5820 

'  0.5280 0.2590 


R XY 0.6770 0.5820 
 

Sehingga eigenvalue dari

1 1 T 0.5030 0.3452 
R  RXX RXY RYY RYX   
 0.1591 0.1624 

RV  V

49
( R  I )V  0 …… (2.4)

Eigenvalue dari R

0,0430 
ai   
0,6223 
Dengan demikian diperoleh korelasi kanonikal (1)

c1  0,0430  0,2074

dan

c2  0,6233  0,7889

Setelah mendapatkan eigenvaluenya, dari persamaan (2.4) dapat


diperoleh eigenvektornya

 2,8912 
V1   
 1 

  0,7544 
V2   
 1 

50
Analisis korelasi kanonik dapat dianalogikan dengan persamaan
regresi, sehingga koefisinnnya dapat dituliskan dalam bentuk regresi
berganda dengan formula:

1 / 2 T
BY  ( RYY ) Vy

2.9989  0.6139 
BY   
1.3775 0.8901 
Sedang

 1 
B x  R xx1 R xy  B y ,
 rc 
 
 rc1 rcm 
 
where rc   
r rcm 
 c1 

 1 
1
Bx  RXX RXY  By
 rc 

Dimana

r r 
rc   c1 c 2 
r c1 rc 2 

11,3651 0,1488 
Bx   
 1,4022 1,1284 
51
Dengan demikian diperoleh Persamaan kanonikal yang pertama
adalah

 U  2,9989 x1  1,776 x2

V  0,6139 x1  0,8902 x2

Corr (U ,V )  0,2074

Persamaan kanonikal yang kedua adalah

U  11,3651 x1  0,1488 x2

V  1,4020 x1  1,1284 x2

Corr(U ,V )  0,2768

Uji Hipotesis

H0: 1   2  3  ...   r  0

H1: Ada  i  0

Statistik Uji

 1 r
   n  ( p  q  1) ln(1   i )
 2  i 1

52
 1 
   13  (2  2  1)[ln(1  0.3679 )  ln(1  0.0733)]
 2 

  (10,50)(0,535)

  5,618

Titik kritis

 2 , pq   2 0,05;4  9,488
df = (kx) (ky)

Karena   5,618<  2 0,05;4  9,488 . berarti tidak menolak Ho.


Jadi pada taraf keyakinan (1- 0,05) tidak terdapat korelasi yang nyata dari
kedua peubah kanonik). Artinya tidak terdapat korelasi yang nyata antara
tingkat kecerdasan dan tingkat pendidikan.

Besarnya korelasi kanonik tidak selalu menunjukkan adanya hubungan


yang kuat antara dua himpunan, sebab korelasi kanonik memaksimalkan
korelasi antara kombinasi linear variabel dalam dua kelompok tetapi tidak
memaksimalkan jumlah variasi yang dihitung dari himpunan beberapa
variabel dengan himpunan lain. Dengan demikian disarankan untuk
menghitung redundancy measure untuk setiap korelasi kanonik untuk
menentukan besarnya variasi dalam suatu variabel yang dihitung dengan
himpunan lain dari beberapa varaibel (Sharma, 1996). Untuk analisis
lebih lanjut, dalam tulisan ini tidak dijelaskan, bagi yang ada yang ingin
memperdalam kaninikal silakan mencari dari beberapa sumber.

Matriks Loading

53
Matriks loading (Loading Matrix) adalah matriks korelasi yang
menggambarkan hubungan antara variabel dan koefisien kanonik dengan
formulasi:

A R B
x xx x

dan

A R B
y yy y

Matriks
Variabel
set Koefisien Koefisien Loading

kanonik 1 kanonik 2

X1 12.131749 0.35296629 Ax

X2 7.6095342 0.45514524

Y1 3.3640004 -0.378027 Ay

Y2 2.1722949 0.72750855

a.
X1 Y1
12,13 3,36

0,21 CC1
CC1

X Y
X2 7,61 2,17 Y2

54
b.

X1 0,35 -0,37 Y1

CC1
0,78 CC1

X Y

X2 0,45 0,73 Y2

Gambar:

Proporsi Varians Terekstraksi

Proporsi Varians Terekstraksi (Proportion of variance extracted)


mengambarkan seberapa besar setiap variat kanonik diekstak dari suatu
variabel dalam suatu persamaan dengan formulasi

p 2
a2 q
aryc
pvxc   rxc pvxc  
i 1 p i 1 q

Redundansi

Redundansi atau Redundancy adalah seberapa besar keragaman suatu


variat kanonik mampu dibentuk dari variabel bebas terekstrak dari
variabel tak bebas atau sebaliknya.

rd  ( pv)rc2

55
Ringkasan:

No

pvx pvy rdxy Pvyx


1 102,54 0,17 4,52 0,009

2 8,02 0,33 4,88 0,204

Total 110,56 0,50 9,40 0,21

Soal-soal:
1. Mengapa pengukuran asosiasi penting dalam kehidupan manusia
sampai saat ini?
2. Apa yang dimaksud dengan asosiasi itu?
3. Sebutkan contoh-contoh teknik analisis yang termasuk dalam
pengukuran asosiasi!
4. Apa kegunaan pokok teknik analisis korelasi?
5. Bagaimana kedudukan variabel dalam korelasi?
6. Apa maksud korelasi sama dengan 0?
7. Apa maksud korelasi tidak sama dengan 0?
8. Apa maksud korelasi sama dengan + 1 dan juga sama dengan -1
9. Kapan kita dapat menggunakan teknik korelasi?
10. Apa perbedaan antara korelasi dan kausalitas?
11. Apa perbedaan antara korelasi dan linearitas?
12. Apa saja asumsi dalam menggunakan korelasi dan terangkan
maksudnya?
13. Sebutkan karakteristik korelasi!
14. Apa yang dimaksud dengan koefisien korelasi? Berikan contohnya!
15. Apa makna signifikansi dalam korelasi? Terangkan dengan jelas!
16. Apa saja hasil interpretasi dalam analisis korelasi?
17. Bagaimana melakukan pengujian hipotesis dalam korelasi?
18. Apa itu koefisien determinasi?
20. Perlukah kita menghitung koefisien determinasi dalam korelasi?
Berikan penjelasannya.
21. Apa yang dimaksud dengan korelasi kanonik, jelaskan perbedaannya
dengan korelasi product momen

56
BAB III
REGRESI LINEAR SEDERHANA

3.1. Pendahuluan

Analisis regresi dalam statistika adalah salah satu metode untuk


menentukan hubungan sebab-akibat antara satu variabel dengan variabel
yang lain. Variabel penyebab disebut dengan bermacam istilah, seperti
variabel penjelas, variabel prediktor, variabel independen atau variabel X
(karena seringkali digambarkan dalam grafik sebagai absis atau sumbu X).
Variabel terkena akibat dikenal sebagai variabel yang dipengaruhi, variabel
dependen, variabel terikat, variabel respons atau variabel Y. Kedua variabel
ini dapat merupakan variabel acak, namun variabel yang dipengaruhi harus
selalu variabel acak. Model regresi adalah salah satu analisis yang paling
populer dan luas pemakaiannya. Hampir semua bidang ilmu yang
memerlukan analisis sebab-akibat boleh dipastikan mengenal analisis ini.
Regresi dan korelasi keduanya mempunyai hubungan yang sangat
erat. Setiap regresi pasti ada korelasinya, tetapi korelasi belum tentu
dilanjutkan dengan regresi. Korelasi atau hubungan yang tidak dilanjutkan
dengan regresi, adalah korelasi antara dua variabel yang tidak mempunyai
hubungan kasual/sebab akibat atau hubungan fungsional. Untuk
menetapkan kedua variabel mempunyai hubungan kusal atau tidak, maka
harus didasarkan pada teori atau konsep-konsep tentang dua variabel
tersebut.
Analisis regresi pertama kali diperkenalkan oleh Sir Francis Galton
(1822-1911), seorang antropolog dan ahli meteorologi terkenal dari Inggris.
Galton menemukan adanya tendensi bahwa orang tua yang memiliki tubuh
tinggi, memiliki anak yang tinggi pula dan begitu juga sebaliknya. Galton
mengamati ada kecenderungan bahwa anak tinggi anak bergerak menuju
rata-rata tinggi populasi secara keseluruhan. Dengan kata lain, ketinggian
anak yang amat tinggi atau orang tua yang aman pendek cenderung bergerak
kearah rata-rata tinggi populasi. Akhirnya semua hal ini dikenal dengan
hukum Galton mengenai regresi universal. Galton menyebutnya sebagai
regresi menuju medikritas (Maddala, 1992).
Analisis regresi setidak-tidaknya memiliki 3 kegunaan, yaitu untuk
tujuan deskripsi dari fenomena data atau kasus yang sedang diteliti, untuk
tujuan kontrol serta sebagai prediksi (Gujarati, 2007). Regresi mampu

57
mendeskripsikan fenomena data melalui terbentuknya suatu model
hubungan yang bersifat numerik. Regresi juga dapat digunakan untuk
melakukan pengendalian (kontrol) terhadap suatu kasus atau hal-hal yang
sedang diamati melalui penggunaan model regresi yang diperoleh. Selain
itu, model regresi juga dapat dimanfaatkan untuk melakukan prediksi
variabel terikat
Hubungan antara panas dengan tingkat muai panjang, dapat
dikatakan sebagai hubungan yang kausal, hubungan antara kepemimpinan
dengan kepuasan kerja pegawai dapat dikatakan hubungan yang fungsional,
hubungan antara kupu-kupu yang datang dengan banyaknya tamu di rumah
bukan merupakan hubungan kausal maupun fungsional. Kita gunakan
analisis regresi bila kita ingin mengetahui bagaimana variabel
dependen/kriteria dapat diprediksikan melalui variabel independen atu
variabel prediktor, secara individual. Dampak dari penggunaan analisis
regresi dapat digunakan untuk memutuskan apakah naik dan menurunnya
variabel dependen dapat dilakukan melalui menaikan dan menurunkan
keadaan variabel independen, atau meningkatkan keadaan variabel
dependen dapat dilakukan dengan meningkatkan variabel independen/dan
sebaliknya.
Diketahui bahwa alasan utama dari peneliti sosial menggunakan
analisis regresi adalah prediksi, deskripsi dan kontrol. Dengan prediksi
diharapkan peneliti mendapatkan respons yang didasarkan pada nilai-nilai
variabel bebas atau prediktor yang telah diketahui. Deskripsi
menggambarkan fenomena data melalui terbentuknya suatu model
hubungan yang bersifat numerik, menjelaskan efek dari perubahan
variable yang dikontrol pada nilai rata-ratanya dari variabel responsnya.
Sedang kontrol adalah melakukan konfirmasi bahwa suatu proses betul-
betul dilakukan dalam kondisi tertentu yang diukur dari tingkatan
variabel-variabel predictor (bebas).
Asumsi Ordinary Least Squares Menurut Gujarati (2003) asumsi utama
yang mendasari model regresi linear klasik dengan menggunakan model
OLS adalah:
a. Model regresi linear, artinya linear dalam parameter seperti dalam
persamaan ini Yi = bl+b2Xi+εi
b. Nilai X diasumsikan non-stokastik, artinya nilai X dianggap tetap
dalam sampel yang berulang.
c. Nilai rata-rata kesalahan adalah nol, atau E ( i / X i )  0
d. Homoskedastisitas, artinya variance kesalahan sama untuk setiap
periode (Homo = sama, Skedastisitas = sebaran) dan dinyatakan
dalam bentuk matematis Var( i / X i )  2 .
e. Tidak ada autokorelasi antar kesalahan (antara  i dan  j tidak ada
korelasi) atau secara matematis Cov( i ,  j )  0 , i  j
f. Antara kesalahan atau error  i dan Xi saling bebas, sehingga
Cov( i , X j )  0 Commented [MSM1]:

58
g. Jumlah observasi n lebih besar daripada jumlah parameter yang
diestimasi (jumlah variabel bebas).
h. Adanya variabilitas dalam nilai X, artinya nilai X harus berbeda.
i. Model regresi telah dispesifikasi secara benar. Dengan kata lain tidak
ada bias (kesalahan) spesifikasi dalam model yang digunakan dalam
analisis empiris.
j. Tidak ada multikolinearitas yang sempurna antar variabel bebas, untuk
regresi dengan 2 variabel bebas atau lebih

3.2. Regresi Linear Sederhana

Model regresi yang direpresentasikan dengan regresi liner


sederhana dapat digolongkan menjadi dua bagian, model hubungan linear
dengan deterministic (linear deterministic model) dan model linear
probabilistik ( linear probabilistic model). Model deterministic secara
matematis dapat dinyatakan misalnya,
Y = b0 + b1 X dimana Y adalah permintaan barang sedang X adalah
harga barang yang diminta. Persamaan ini merupakan persamaan untuk
sampel sedang persamaan populasi adalah Y =  0  1 X.
Bertentangan dengan persamaan linear deterministik, model liner
probabilistik adalah model yang memasukkan dalam persamaan linear
suku kesalahan random atau unsur yang dapat ditolerir dalam analisis
gejala sosial dalam alam. Permanen demikian dapat ditulis dengan:
Y =  0  1 X   jadi suatu persamaan dinyatakan dengan 3 suku
kiri,  0 , 1 X dan  .
(  0  1 X ) adalah bagian sistematik dan  bagian yang random.

Nilai harapan dari regresi populasi


E (Y )   0  1 X . Dimana E (Y ) adalah ekspektasi dari variabel
respon yang ditentukan nilai-nilai dari Xi. Hal ini dapat dibuktikan sebagai
E (Y )  E ( 0  1 X   ) = 0  1 X  E ( ) , sadang diketahui bahwa
E ( )  0 , Perlu diketahui bahwa E ( 1 X )  1 X karena X adalah variabel
yang ditentukan nilinya terlebih dahulu atau dianggap konstan, sehingga
ekspektasinya sama dengan dirinya sendiri.
Misalkan dalam penelitian di bidang produksi pertanian yang
mengambil data dari suatu populasi, dengan mengambil data beberapa
sampel pengamatan. Hasil-hasil yang diperoleh dengan memberikan
kuantitas pupuk yang berbeda-beda kepada hasil produksi, menunjukkan
bahwa hasil tersebut terpencar mendekati nilai rata-rata atau mengikuti
pencaran probabilitas bersyarat f(Yi /xi ) dengan nilai rata- rata  i
dengan x (huruf kecil) menunjukkan nilai X tertentu. Diasumsikan bahwa
fungsi probabilitas f(Yi /Xi ), Gambar 3.1 :
1. Memiliki varians yang sama pada semua nilai Xi

59
2. Memiliki nilai rata-rata hitung  i = E(Yi) yang terletak pada
garis lurus atau  i = E(Yi)=    X i yang terletak pada bidang
XY.
3. Variabel-variabel random Yi adalah bebas secara statistik satu
sama lain.

f(Y/x) Y

1
2 3

Y=    x
X
Gambar 3.1. Hubungan Variabel Bebas dengan Probabilitas Bersyarat

Y adalah variabel tak bebas atau variabel respons ( nama lain


banyak lagi) sedang X adalah variabel bebas atau variabel predictor
sedang  0 dan 1 adalah parameter parameter yang tidak diketahui atau
akan ditentukan nilainya dari data sampel. Sedang  adalah suku
kesalahan random (random error) yang terdistribusi secara normal dengan
rata-rata nol dan varian  2 yang dapat disimbolkan N(0,  2 ) dengan
asumsi  adalah bebas antara satu sama lain dengan Y
Regresi linier sederhana digunakan untuk mendapatkan hubungan
matematis dalam bentuk suatu persamaan antara variabel tak bebas tunggal
dengan variabel bebas tunggal. Regresi linier sederhana hanya memiliki satu
peubah yang dihubungkan dengan satu peubah tidak bebas . Bentuk umum
dari persamaan regresi linier untuk populasi adalah

Y   0  1 X  
Dimana:
Y adalah variabel tak bebas (dependent variable)
X adalah variabel tak bebes (independent variable)
 adalah suku kesalahan random

60
Y


+e Y  b0  b1 X

-e

X
Gambar 3.2. Garis Regresi Sampel

3.2.1. Metode Kuadrat Terkecil

Penentuan garis regresi dapat digunakan dengan dua metode, yaitu


metode kuadrat terkecil, the method of ordinary least square (OLS) dan
metode kemungkinan maksimum (maksimum likelihood Method). Metode
OLS yang digunakan dalam regresi linear sederhana dapat dijelaskan
dengan langkah berikut:

1. ei  Yi  Yˆ , pangkat duakan bagian kiri dan kanan dari


persamaan sehingga

2. ei2  (Yi  Yˆ ) 2 berikan sigma ruas kiri dan kanan, sehingga

n n
3.  e   (Y  Yˆ )
i 1
2
i
i 1
i
2

ambil K   ei2 , sehingga

n n
4. K   ei2   (Yi  b0  b1 X i ) 2 …..(3.1)
i 1 i 1

Syarat perlu (necessary condition),

61
K K
 0
b0 b1

K
 2 (Yi  b0  b1 X )(1)  0
b0

K
 2 (Yi  b0  b1 X )( X i )  0
b1
atau

Y  nb
i 1
i 0  b1  X i  0

……(3.3)

n n n

X Y b X
i 1
i i 0
i 1
i  b1  X i2  0
i 1

n n
b0 n  b1  X i   Yi
i 1 i 1

……(3.4)

n n n
b0  X i  b1  X i2   X iYi
i 1 i 1 i 1

62
Penyelesaian secara simultan diperoleh:

n
n Y
i 1
i

n n

X XY
i 1
i
i 1
i i
b1  n
n X
i 1
i

n n

X X
i 1
i
i 1
i
2

atau

n n
n X iYi   X iYi
b1  i 1 i 1
……(3.5)
n X i2  ( X i ) 2

atau

x y i i
b1  i 1
n

Xi 1
i
2

dimana

xi  X i  X i

yi  Yi  Yi

63
1 n n
b0  ( Yi   X i )
n i 1 i 1

b0  Y  bX

Sebagaimana yang telah dijelaskan bahwa penentuan parameter


atau koefisien regresi pada persamaan (3.1) baru memenuhi syarat perlu
(necessary condition), sehingga diperlukan syarat cukup (Sufficient
condition) untuk menunjukkan bahwa  minimum

2K n

a 2
  2 
i 1
(1)  2n

2K n

b 2
 2 
i 1
X i2

2K 2K
  2 nX
ba ab

Matriks Hessian

2n 2nX
H 
2nX
n
2 X 1
H1  2n  0
i 1
n n
H 2  2 n X i  n 2 X i2  2 n ( X i  X ) 2  0
i 1 i 1

64
H1 H1  0; H 2  0 menunjukkan bahwa fungsi atau persamaan (3.1)
adalah minimum dengan nilai parameter populasi  0 dan  1 , sebagaimana
telah dibuktikan b0 dan b1 masing-masing adalah menduga yang tidak
bias, yaitu E (b0 )   0 dan E (b1 )  1 .

3.2.2. Metode Kemungkinan Maksimum

OLS adalah salah satu metode yang telah digunakan untuk


menentukan atau mendapatkan parameter populasi yang tidak bias,
sebagaimana telah ditunjukkan, Namun demikian terdapat metode lain
untuk mendapatkan estimator atau penduga populasi, sebagai alternatif,
digunakan metode kemungkinan maksimum (maximum likelihood
method). Metode estimasi tersebut adalah metode atau estimasi
kemungkinan maksimum untuk regresi linear sederhana dapat dinyatakan

1
 (Yi   0  1 X ) 2
n 2 2
e
L(  0 , 1 ,  2 )   …. (3.6)
i 1 2 2

Atau persamaan (3.6) dapat ditulis lagi sebagai

n
1 n
ln L(  0 , 1 , 2 )  
2 2  (Y  
i 1
i 0  1 X ) 2  ln( 2 2 ) ….(3.7)
2

Dengan mendiferensialkan persamaan (3.7) terhadap  0 diperoleh

 (ln L(  0 , 1 ,  2 ) 1 n
  2  (Yi   0  1 X i )2 (1)  0 ….(3.8)
(0 )  i 1

Selanjutnya Dengan mendiferensialkan persamaan (3.7) terhadap  1


diperoleh

65
 (ln L(  0 , 1 , 2 ) 1 n
  2  (Yi   0  1 X 1 ) 2 ( X )  0 ….….(3.9)
 ( 1 )  i 1

Dan juga tehadap  , diperoleh


2

(ln L(  0 , 1,  2 ) 1 n 1
 4  (Yi  0  1 X )2  2  0 ….(3.10)
 ( 2 )  i 1 

Dengan menyelesaikan ketiga persamaan tersebut diperoleh estimasi


kemungkinan dari 0 , 1 ,  2 sebagai berikut:

Persamaan (3.8) dan (3.9) dapat diselesaikan sebagai mana telah


dilakukan pembahasan (dalam metode OLS) yaitu

(X i  X )(Yi  X )
b1  i 1
n

(X  X )
i 1
2

bo  Y  b1 X

dan

Selanjutnya dengan menyelesaikan persamaan 3 diperoleh

(y b i 0  b1 x) 2
s 
2 i 1
n

Jadi b1 sebagai estimator untuk 1 , b0 sebagai estimator untuk  0 dan s 2


sebagai estimator untuk varians populasi  2 . Selanjutnya dapat juga
ditentukan bahwa matriks Hessian dengan orde kedia sebagaimana

66
dilakukan pada OLS dapat dibuktikan bahwa fungsi likelihood adalah
maksimum

Contoh:

Misalkan tenaga kerja (X) adalah satu-satunya variabel bebas yang


mempengaruhi produksi (Y) dengan data sebagaimana yang tertera pada
Tabel 3.1.

Teladan:

Tabel 3.1. Data Produksi dan Tenaga Kerka


Y X XY X^2 (Yi  Yˆ )^ 2
1 16 19 304 361 8,5790
2 47 66 3102 4356 28,0794
3 41 47 1927 2209 4,8005
4 62 79 4898 6241 0,2218
5 51 54 2754 2916 52,1428
6 31 33 1023 1089 4,5412
7 25 42 1050 1764 105,2471
8 38 39 1482 1521 23,7266
9 28 30 840 900 1,5901
10 25 27 675 729 0,1529
Σ 364 436 18055 22086 229,0815
Catatan:
Produksi dalam kg diberi label X
Tenaga Kerja dalam jam kerja Y

Penyelesaian:

Menggunakan formula (3.5):

n n
n X iYi   X iYi
b1  i 1 i 1
n X i2  ( X i ) 2

67
10(18055 )  (436)(364)
b1 
10(22086 )  (436)2

b1  21846 / 30764

b1  0.71

Dari data diketahui

436 364
X   43.6 dan Y   36.4
10 10

Sehingga

b0  Y  bX

b0  36.4  0.71(43.6)  5.44

Jadi persamaan regresi yang diperoleh:

Yˆi  5,44  0,71 X i

Dengan menggunakan X kecil dan Y kecil

68
X-Xbar= Y-Ybar=

x y xy x^2

-24.6 -20.4 501.84 605.16

22.4 10.6 237.44 501.76

3.4 4.6 15.64 11.56

35.4 25.6 906.24 1253.16

10.4 14.6 151.84 108.16

-10.6 -5.4 57.24 112.36

-1.6 -11.4 18.24 2.56

-4.6 1.6 -7.36 21.16

-13.6 -8.4 114.24 184.96

-16.6 -11.4 189.24 275.56

Σ 2184.6 3076.4

436 364
X   43.6 Y   36.4
10 10

2184 .6
b  0.71
3076

a  36.4  0.71(43.6)  5.44

Yˆi  5,44  0,71 X i

69
Misalkan diambil X= 55, maka

Yˆ  5,44  0.71(55)  44.49

3.3. Analisis Varians

Teknik analisis varians digunakan untuk mengetes hipotesis yang


berhubungan dengan beberapa parameter, terutama digunakan dalam
menguji pengaruh variabel prediktor atau bebas secara simultan terhadap
variabel tak bebas atau respons.

Sumber JK df RK Fhitung

Variasi

Regresi n 1 JKR RKR


JKR   (Yˆi  Y ) 2 RKR  RKS
i 1
1

Kesalahan n n-(k+1) JKS


JKS   (Yi  Yˆi ) 2 RKS 
i 1
n  k 1

Total n n-1 JKT


JKT   (Yi  Y ) 2 RKT 
n 1
i 1

Dengan memsukkan nilai-nilai yang telah diperoleh, sehingga


Sumber JK df RK Fhitung

Variasi

Regresi JKR= 1550.813 1 RKR  1550.813

54.054

Kesalahan JKS= 229.587 8 RKS= 28.698

Total JKT= 1780.400 9 RKT  197.822

70
Uji F untuk

Hipotesis Statistik:

H 0 : 1  0;
H1 :  2  0

RKR
F* 
RKS

Uji Hipotesis:

Jika F *  F (1   ;1, n  2) terima Ho

Jika F *  F (1   ;1, n  2) terima H1

Uji F dan Uji t adalah Ekuivalen

2
2  b 
t*   1   F *
 s (b1 ) 

b0 b1
t1  ; t2 
* *

se(b0 ) se(b1 )

71
1 X2
se(b0 )  ˆ 
n  ( X i  X )2

Sedang

ˆ 2  e 2
i

 (Y  Y ) 2


JKS
n2 n2 n2

ˆ
se(b1 ) 
(X i  X )2

atau

JKS
s(b1 ) 
( X i  X )2

Menggunakan distribusi sampling dari b0 dan b1, dapatlah


digunakan variabel bebas (misalnya X) sebagai peramal untuk variabel
tak bebas ( respons). Dalam kondisi ini, uji statistik yang dapat digunakan
untuk menguji hipotesis nol, H0 yang dilawankan dengan hipotesis
alternatif H1 sebagai:

Hipotesis Statistik:

H 0 : 1  0;
H1 :  2  0

72
1 X2
se(b0 )  ˆ 
n  ( X i  X )2

1 1900,96
 5,351  =4,534
10 3076,4

b0 5,44
t1    1,1998
*

se(b0 ) 4,534

b1 0,71
t2    7,359
*

se(b1 ) 0,0965

Kriteria:

Jika t *  t (1   / 2; n  2) terima Ho

Jika t *  t (1   / 2; n  2) terima H1

Koefisien t1hitung = 1,1998 lebih kecil tabel, t *  t (1   / 2; n  2) =3,182


maka Ho diterima, berarti intercept tidak signifikan

Koefisien t2hitung = 7,359 lebih besar tabel, t *  t (1   / 2; n  2) =3,182


maka Ho ditolak, berarti koefisien regresi signifikan, berarti terdapat
pengaruh yang berarti pendapatan terhadap konsumsi.

3.4. Koefisien Determinasi

Koefisien determinasi sering disebut sebagai kecocokan regresi


(goodness of fit of regression) jika residual kecil karena sebetulnya
didasarkan dari kesalahan (error) (Shalabh, 2018). Koefisien ini

73
dilambangkan dengan (R2) adalah satu ukuran yang digunakan untuk
mengetahui pengaruh variabel independen terhadap varians variabel
dependen, dengan 0 < R2 < 1. Besaran ini sering disebut ukuran ketepatan
model, semakin mendekati satu berarti model yang dibangun sedemikian
dapat menggambarkan hubungan antara dua variabel (bebas dan tak
bebas). Ukuran ini juga menunjukkan besarnya kontribusi pengaruh
terhadap variabel tak bebas, sedangkan 1- R2 menujukkan pengaruh sisa
dari variabel bebas yang tidak dimasukkan dalam model. Dalam regresi
sederhana koefisien determinasi dinyatakan berhubungan erat dengan
koefisien korelasi sebagai:

R 2  r 2 atau R r

Dimana, r adalah koefisien korelasi sederhana.

Model regresi kadang kala tidak dimasukkan intercept (garis regresi


linear melalui titik nol) , namun pada umumnya menggunakan intercept
(tidak melalui titik asal), sehingga R 2 dapat dinyatakan sebagai

R2 
JKT  JKS
1
JKS
  (Yˆ  Y )
i
…..(3.6)
JKT JKT  (Y  Y )
i

Atau

JKS
Berdasarkan pada persamaan (3.6) diketahui bahwa 0   1 , sehingga
JKT

0  R2  1

3.5. Penaksiran Parameter Populasi

Tujuan utama menggunakan regresi adalah melakukan peramalahan


dalam hal ini adalah penentuan nilai atau interval keyakinan bagi nilai
variabel independen Y0 yang diharapkan, yaitu E(Yo) atau satu nilai Yo
yang akan diamati pada Xo tertentu. Estimasi yang akan dilakukan dalam
menggunakan regresi dapat berupa eatimasi titik atau Estimasi Interval.
Estimasi interval memungkinkan nilai estimasi jatuh pada atau dalam
interval. Sedangkan estimasi titik hanya berkenaan untuk satu titik saja.

74
Selanjutnya persamaan regresi yang diperoleh ( fitted regression equation)
dapat dibedakan dalam dua tipe. Tipe pertama adalah memprediksi nilai
variabel respons Y dengan menentukan suatu nilai xo dari variabel
predictor atau variabel bebas. Dengan demikian dapat ditentukan nilai-nilai
ramalan variabel respons Y. Tipe estimasi kedua adalah estimasi nilai
mean variabel respon 0 pada saat X  x0

Nilai rata-rata hitung Penaksir

Jika diambil b1  0 , maka

b0  Y

Atau

1
b0  (Y1  Y2  Y3  ...  Yn )
n

Sehingga

1
E (b0 )  ( E (Y1 )  E (Y2 )  E (Y3 )  ...  E (Yn ))
n

E (b0 ) 
 E (Y ) i

1
E (b0 ) 
n
 (0  1 X i ) =  0
Dengan cara yang sama diperoleh

2
var(b0 )  (variance bilangan konstan)
n

75
Jadi a dapat dipakai sebagai penaksir bagi 

Sekarang tunjukkan bahwa

1. E (b1 )   dan

2
2. Var (b1 )  ; xX X
x 2
1

Bukti:

Bukti nomor 1

E (b1 )  E (
 x y )   xE ( y)   xx    x 2


x 2
x 2
x2
x2

Dengan

y  Y Y dan x  X  X

Jadi jelas bahwa b adalah penduga untuk 

Bukti nomor 2:

Var(b1 )  Var(
 xy )
x 2

76
Var(b)  Var(
 xy )   x var( y ) 2

x  x 
2 2 2


x  2 2

 x  2 2

2
Var(b1 )  ,
x 2

dimana x  X  X

Interval Keyakinan bagi Parameter-parameter Regresi

f(b1)

2
95% var(b)= 
x 2
1

2,5% 2,5%
-t0,025 t0,025

E (b1 )  

Pemakaian dilakukan dengan mentrasformasikan variabel rambang b


kepada variabel

b b
z 
b 
x 2
i

77
Probabilitas bahwa nilai t berada pada interval antar -t0,025 dan t0,025
adalah 95% atau

P( -t0,025 < t < t0,025) = 0,95

b
P( -t0,025 < < t0,025) =0,95
s
x 2
i

s s
P( b1 - t0,025 <  < b1 + t0,025 ) =0,95
x 2
i x 2
i

Interval keyakinan 95% bagi 1 dan 0 adalah masing-masing

s
1 = b1  t0,025
x 2
i

s
0 = b0  t0,025
n

3.6. Peramalan

Peramalan dalam regresi dapat dilakukan dengan peramalan nilai rata-


rata dan permalan nilai aktual.

3.6. Peramalan Nilai Rata-rata



Definisikan nilai rata-rata populasi adalah  y 0  E (Y0 ) , persamaan
regresi populasi adalah Y    X   dan persamaan penduga populasi

untuk titik tertentu X  X 0 adalah Y0  a  bX 0 sehingga nilai rata-rata

penaksir Y0

E (Y0 )  E (a  bX 0 )


E (Y0 )  E (a)  X 0 E (b)    X 0 

78
Diketahui bahwa

  X 0   E (Y0 )

Sehingga

E(Y0 )  E(Y0 ) (tak bias)

Dari sifat varians:

Var(aX  b)  a 2 Var( X ) ; a, b konstan, sehingga



Var(Y0 )  Var(a  bX 0 )  Var(a)  X 02 Var(b) , karena X 0 dipandang
konstan

Dengan demikian diperoleh:

 2 2 1 x02
Var(Y0 )  ( 2 / n)  X 02   (  ) , dimana x  X  X
 x2 n  x2

 2 umumnya tidak diketahui sehingga ditaksir dengan varians sampel

1 n
s2   (Yi  a  bXi )2
n  2 i 1

Jadi Interval ramalan

79
1 ( X 0  X )2
E (Y0 )  Yˆ0  t 0,025.s 
n  ( X  X )2

atau dapat ditulis

1 ( X 0  X )2 ˆ  t .s 1  ( X 0  X )
2
Yˆ0  t0, 025.s   E (Y )  Y
n  ( X  X )2 n  ( X  X )2
0 0 0 , 025

Dalam hal ini  2 umumnya tidak diketahui, prediksi mengikuti distribusi


t dengan derajat kebebasan n-2. Prediksi interval (1   )100 % adalah y0
dalam hal ini dapat ditulis dengan probabilitas

 
 
 Yˆ0  Y0 
P  t, / 2, n  2   t, / 2, n  2   1  
 1 ( X 0  X )2 
 s 1   
 n (X  X ) 2

Sehingga interval prediksi diperoleh

 1 ( X 0  X )2 1 ( X 0  X )2 
 t 
, / 2 , n  2 s 1   , t, / 2, n  2 s 1  

 n (X  X ) 2
n  ( X  X )2 

Contoh:

Meramalkan konsumsi pada jumlah pendapatan 75 berarti


diketahui x0 = 75

Yˆ0  5,44  0.71 X 0

80
Untuk point estimator:

Yˆ0  5,44  0.71 (75 )  58,69

 (Y  a  bX )
1 JKS
s2  i i
2

n2 i 1
n2

 (Y  a  bX )
1
s i i
2
n2 i 1

1
s (229,587)  28.6984  5.357
10  2

436 364
X   43.6 Y   36.4
10 10

1 ( X 0  X )2
E (Y0 )  Yˆ0  t 0,95 .s 
n  ( X  X )2

1 (75  43,6) 2
E (Y0 )  (1,812)(5,357) 
10 3076,4

58,69  6,2944  E (Y0 )  58,69  6,2944

81
52 ,3956  E (Y0 )  64 ,9844

3.2.2. Peramalan Nilai Aktual

Dibanding kedua jenis peramalan peramalan , akan terjadi


kesalahan atau perbedaan dari kedua jenis peramalan, prediksi nilai aktual
ini untuk ŷ 0 memiliki interval yang lebih luas dibanding dengan prediksi
dengan menggunakan nilai rata-rata variabel respons.

Anggaplah bahwa X 0 adalah nilai variabel bebas dari X sehingga


nilai aktual dari predictor Y adalah Yˆ0  a  bX 0 . Jika Varian prediksi

disimbolkan Var( y0 ) dan yˆ0  Y0  Y0 , sehingga


Var( yˆ 0 )  Var(Y0  Y0 )

 Var(b0  b1 X 0  0  1 X 0  b1 X  b1 X   0 )

 Var[(b0  0 )  ( X 0  X )(b1  1 )  (b1  1 ) X   0 ]

 Var(b0 )  [( X 0  X )2  X 2  2 X 0  X )]Var(b1)  Var( )  2[( X 0  X )  2 X ]Cov(b0 , b1 )

 Var(b0 )  X 02 Var(b1 )  Var( 0 )  2 X 0 Cov(b0 , b1 )

1 X2  2  2X
  2    X 02  2X0  2
 n  ( X  X )2  (X  X ) 2
(X  X ) 2
 

1 ( X 0  X )2
var( yˆ0 )   2 (1  
n  ( X  X )2

1 ( X 0  X )2
SE( yˆ 0 )   1  
n  ( X  X )2

82
Dalam hal ini  2 umumnya tidak diketahui, prediksi mengikuti distribusi
t dengan derajat kebebasan n-2. Prediksi interval (1   )100 % adalah y0
dalam hal ini dapat ditulis dengan probabilitas

 
 
 Yˆ0  Y0 
P  t, / 2, n  2   t, / 2, n  2   1  
 1 ( X 0  X )2 
 s 1   
 n (X  X ) 2

Sehingga interval prediksi diperoleh

 1 ( X 0  X )2 1 ( X 0  X )2 
Y  t 
, / 2 , n  2 s 1   , Y0  t, / 2, n  2 s 1  
 n (X  X ) n  ( X  X )2 
0 2
 

atau

1 ( X 0  X )2 1 ( X 0  X )2
Y0  t, / 2, n  2 s 1    ˆ
y  Y  t s 1    yˆ 0
n  ( X  X )2 n  ( X  X )2
0 0 , / 2 , n  2

Sehingga prediksi Y0 adalah

1 (75  43,6)2
E ( yˆ0 )  58.69  1,812 (5,357 ) 1  
10 3076 .4

E (Y0 )  58 .69  11,5691

83
atau

.....47 .1209  Yˆ0  70 ,2591

Soal

1. Ada berapa jenis Regresi Linear. Jelaskan dan berikan contoh


2. Ada berapa jenis Regresi Nonlinear. Jelaskan dan berikan contoh
3. Tunjukkan bahwa
  (Yi  Y ) 
2
Sy
b  r atau b  r dimana, b adalah koefisien regresi
  ( X i  X )  Sx
dan Sy dan Sx masing-masing standar deviasi y dan standar deviasi x
dan r adalah koefisien korelasi. Jika

r = 0 dihubungkan dengan garis regresi, apa artinya.


 
4. Bauktikan bahwa  (Yi  Y ) 2 =  (Yi  Y ) 2 +  (Yi  Yi ) 2 , (JKT =
JKR+ JKS).
1
5. Tunjukkan E (a)   (  xi ) =  dan
n
2
var( a ) 
n
6. Apa yang dimaksud (berikan contoh):
a. OLS
b. BLUE
c. Maksimun Likelihood
d. Parameter
e. Kesalahan pengganggu
f. Asumsi Klasik pada Regresi
g. Regresi Linear dan Non Linear
7. Diketahui fungsi linear
a. Y  ln A  a ln P
b. ln Y  ln A  a ln P  bD  cD ln P
Dimana:
Y = permintaan sepatu
P = Harga
a. Ubalah fungsi tersebut dengan fungsi nonlinear
b. Tentukan nilai A, a, b dan C dengan membuat data sendiri (Data
Hipotetis) sebelumnya. Ingat setiap mahsiswa harus berbeda datanya.
c. Dari soal b Apa arti dari masing-masing nilai atau angka dalam
persamaan yang dipeoleh.

84
d. Sebutkan dan jelaskan kelebihan dan kekurangan fungsi NonLinear
tersebut.
8. Diketahui data berikut:
PDRB Kapital
(Milyar Rp) (Milyar RP)
74.72 1477.80
84.45 41268.40
88.31 40412.90
95.59 1554.20
103.33 56815.20
120.32 111413.3
138.29 74903.80
164.96 128525.0
189.54 155023.9
199.45 135232.5
209.45 145211.5
a. Buat judul dari data tersebut di atas
b. Buat kerangka fikir dan hipótesis dari data tersebut
c. Buat persamaan regresi sesuai dengan hasil pengolahan data Anda
dengan menggunakan Regresi Linear Berganda dengan variabel
Dummy. Regresi Linear dengan variabel dummy. Bandingkan
kedua persamaan Regresi yang diperoleh dan berikan arti dari
setiap parameter yang diperoleh.
d. Tentukan 3 nilai PDRB dengan mengambil nilai kapital masing-
masing: 175211.5; 187211.5 dan 265211.9

85
BAB IV
ASUMSI KLASIK

4.1. Pendahuluan

Dari makna kata, asumsi (assumption) berarti a statement accepted


true without proof (Encarta 97 Encyclopedia) atau something taken for
granted (Random House Webster's Unabridged Dictionary). Kedua makna
kata itu tentu berlaku juga bagi pengertian asumsi statistika. Oleh karena itu
dalam inferensi statistika, data yang akan dianalisis dianggap memenuhi
asumsi-asumsi yang disyaratkan bagi formula komputasinya. Analisis dapat
dilakukan tanpa harus melakukan pemeriksaan terlebih dahulu terhadap
terpenuhi tidaknya asumsi yang bersangkutan. Kalaupun ternyata kemudian
bahwa data yang digunakan tidak sesuai dengan asumsi-asumsinya, maka
kesimpulan hasil analisisnya tidak selalu invalid.
Berbeda dari statistika nonparametrik yang disebut dengan
distribution-free statistics atau disebut juga statistika sampel kecil, statistika
parametrik diderivasi dari model distribusi normal atau distribusi-distribusi
skor populasi tertentu. Di samping itu, rumusan tehnik-tehnik komputasi
guna pengambilan kesimpulan (inferensi) lewat uji statistika parametrik
didasarkan pada model distribusi yang diketahui, sehingga penggunaannya
pun dilandasi oleh berlakunya asumsi bahwa ada kesesuaian antara data
sampel dengan model distribusi yang bersangkutan (data-model fit).
Dalam situasi aplikasi, asumsi-asumsi bagi distribusi sampling
dibuat sebagai dasar legitimasi pemilihan tehnik komputasi tertentu guna
pengujian suatu hipotesis. Asumsi ini jarang atau bahkan tidak pernah
benar-benar diuji terhadap data sampel melainkan langsung dianggap benar
(Hays & Winkler, 1971). Asumsi bahwa sampel diambil secara random dan
bahwa distribusi populasi adalah normal merupakan dua contoh asumsi yang
merupakan formalitas dalam analisis, seperti regresi.
Asumsi utama dan pertama pada persamaan regresi yang
menyebutkan bahwa kesalahan eij bagi setiap populasi perlakuan j
terdistribusi secara normal adalah identik dengan mengatakan bahwa skor
variabel dependen Yij bagi masing-masing populasi perlakuan terdistribusi
normal. Ternyata bahwa inferensi terhadap mean yang valid pada distribusi
skor normal juga akan valid pada distribusi yang tidak normal, asalkan n
pada masing-masing sampel cukup besar. Hal ini antara lain dikarenakan

86
distribusi sampling dari sampel random berukuran n dari suatu distribusi
populasi yang memiliki μ tertentu dan σ2 tertentu, akan berbentuk normal
N(0,1) apabila n → ∞ (central limit theorem; Hogg & Tanis, 1977). Oleh
karena itu, kita tidak perlu terlalu mengkhawatirkan asumsi normalitas ini
sepanjang kita memiliki cukup banyak subjek bagi masing-masing sampel
perlakuan. Di mana kita merasa bahwa normalitas distribusi skor tidak
terpenuhi maka kita hanya perlu mengambil subjek dalam jumlah yang lebih
banyak.
Uji normalitas distribusi Yij pada sampel seperti yang biasanya
dilakukan lewat uji χ2 goodness of fit, tidak perlu dilakukan dikarenakan
distribusi harga F tidak banyak terpengaruh oleh penyimpangan normalitas
distribusi. Pernyataan ini didukung oleh bukti-bukti matematis (Scheffé,
1959 dalam Myers, 1979) dan bukti studi empiris (Boneau, 1960; Bradley,
1964; Donaldson, 1968; Lindquist, 1953 dalam Myers, 1979).
Asumsi Model Regresi Linear:
(Asumsi yang mendasari OLS)

1. Linear dalam Parameter


Asumsi model regresi linear klasik atau classical linearity of regression
model (CLRM) yang mensyaratkan bahwa variabel Y adalah
kombinasi linear dari variabel penjelasan X dan suku kesalahan random.
Asumsi juga mensyaratkan bahwa regresi linear memenuhi bahwa
parameter bersifat linear dan tidak diharuskan untuk liner dalam
variabel dalam suatu persamaan regresi. Pandanglah 3 (tiga) persamaan
berikut:
Y =  0 + 1 X1 +  2 X2 +  3 X3 + … +  n Xn + ε (3.1)
Y =  0 + 1 X1 +  2 X12 +  3 X3 + … +  n Xn + ε (3.2)
Y =  0 + ( 1 ) X1 +  2 X2 +  3 X3 + … +  n Xn + ε
2
(3.3)

Jadi persamaan (3.3) tidak dapat diterapkan metode OLS karena


parameternya 1 adalah pangkat dua atau tidak linear. Sementara
persamaan (3.1) dan (3.2) dapat diterapkan metode OLS karena semua
parameter atau koefisien (pangkat satu), walaupun ada variabel bebas
yang tidak linear.
Pengujian Linearitas dapat dilakukan dengan menggunakan Program
SPSS dengan prosedur : Analyze → Compare Means → Means,
masukkan Variabel Dependen ke kotak Dependent List dan beberapa
Variabel Independen ke kotak Independent List Æ klik Options Æ Beri
tanda centang pada pilihan Test for linearity → Continue → OK. Pada
Output, jika signifikansi F pada ANOVA lebih besar dari 0,05, maka
hipotesis tentang hubungan linear dapat diterima.
2. Nilai harapan suku kesalahan sama dengan nol
Nilai harapan suku kesalahan random sama dengan nol, secara
matematis dapat dinyatakan,

87
E ( i / X )  0 (3.4)
Persamaan (3.4) tersebut menunjukkan bahwa semua data dalam
matriks adalah bebas secara stokastik X dari  i untuk semua i. Hal ini
dapat ditulis:

E( )  0 , sebab E( )  E[ E( / X )]  E(0)  0 (3.5)

Asumsi atau persamaan (3.5) ini mensyaratkan bahwa suku kesalahan


(error term) adalah bebas secara stokastik dari semua nilai Xj,k terhadap
kebasaan dari karakteristik nilai Xi,k. Untuk data silang tempat (cross
section), hal ini berarti bahwa kesalahan penggangu observasi ke-i
secara stokastik haruslah tidak bergantung dari kebebasan dari variabel
penjelas dari semua observasi i. Demikian juga kesalahan pengganggu
dari observasi i haruslah bebas dari semua variabel penjelas dari semua
observasi j. Sedang untuk data runtun waktu (time series)
mensyaratkan adanya kebebasan inter-temporal. Hal ini berarti bahwa
kesalahan penggangu pada periode t haruslah bebas secara stokastik
dari semua variabel bebas X yang lampau, waktu sekarang dan waktu
mendatang.
3. Tidak terdapat korelasi serial diantara disturbance term
Persyaratan selanjutnya yang harus dipenuhi adalah tidak terdapatnya
korelasi serial (serial correlation)
Cov( i ,  j )  0 , atau E ( i  j )  0 untuk semua i  j (3.6)
Menggunakan data time series, berbeda ketika menggunakan data
silang tempat yang mensyaratkan suku kesalahan random memiliki
variasi yang konstan, harus ditambahkan lagi persyaratan kebebasan
suku kesalahan tersebut secara stokastik sepanjang waktu,
sebagaimana pada persamaan (3.6), dengan kata lain asumsi ini
mensyaratkan bebas atau tidak terjadi autokotelasi. Secara stokastik X,
kovarian bersyarat sama dengan nol, yang dapat ditulis Cov( i  j / X )  0

4. Sifat homoscedasticity dari disturbance term


Jadi Asumsi homoscedasticity mengatakan bahwa varian kesalahan di
antara masing-masing populasi perlakuan adalah setara (homogen), atau
ditulis Var (ei) =  2 .
5. Tidak terjadi Multicollinearity
Tidak ada hubungan linear yang tinggi antara variabel-variabel bebas
dalam model regresi. Jadi asumsi ini tidak berlaku pada regresi linear
sederhana (akan dibahas secara mendalam).

6. Covariance antara ei dan setiap variabel bebas (X) adalah nol

Cov (ei , Xki) = Cov (ei , X(k+1)i) = 0 , k = 1,2,3, …..n


i adalah observasi ke-i, i=1,2,3….. m

88
Peubah bebas dan galat saling bebas

7. Tidak terdapat bias dalam spesifikasi model


8. Jumlah pengamatan harus lebih besar daripada jumlah parameter yang
akan diduga
9. Nilai peubah bebas harus bervariasi
10. Normality, Error menyebar normal dengan rata-rata nol dan suatu
ragam (variance) tertentu. Penulisan matematis dari asumsi kedua ini
adalah: ε ~ N (0,σ2) ε merupakan lambang untuk error. Sedangkan ~
adalah lambang matematis untuk kalimat “menyebar mengikuti
distribusi” dan notasi N (0,σ2) menyatakan distribusi/sebaran normal
dengan rata-rata nol dan ragam σ2. Statistik uji yang paling sering
digunakan untuk menguji asumsi kenormalan error dengan
menggunakan data residual adalah Kolmogorov-Smirnov normality test.
Kolmogorov-Smirnov test bekerja dengan cara membandingkan 2 buah
distribusi/sebaran data, yaitu distribusi yang dihipotesiskan dan
distribusi yang teramati. Distribusi yang dihipotesiskan dalam kasus ini
adalah distribusi normal. Sedangkan distribusi yang teramati adalah
distribusi yang dimiliki oleh data yang sedang kita uji. Apabila distribusi
yang teramati mirip dengan distribusi yang dihipotesiskan (distribusi
normal), maka kita bisa menyimpulkan bahwa data yang kita amati
memiliki distribusi/sebaran normal.

4.2. Heterocedasticity
Konsep Heterocedasticity adalah lawan dari homocedasticity.
Ditinjau dari etimologi, homo berarti sama atau equal, scedasticity berarti
disperse atau scatter atau ada yang mengartikan sebaran. Jadi varians dari
error atau disturbance haruslah sama pada masing-masing nilai X. Sebagai
contoh, ada 3 orang dengan gaji 3 juta sehingga memberikan tiga buah error
dan mempunyai varians. Varians ini harus sama (equal) dengan varians error
pada nilai X yang lain misalnya 4 juta, demikian seterusnya. Implikasi dari
asumsi ini adalah bahwa varian skor Yij pada masing-masing kelompok j
adalah homogen (yaitu σ12 = σ22 = σ32 = . . . = σj2 ). Banyak praktisi yang
melakukan uji heterogenitas varian pada data sampel dan menggunakan
hasilnya sebagai dasar untuk menyatakan sah-tidaknya penggunaan analisis
varian. Untuk itu memang terdapat beberapa metode pengujian
heterogenitas varian seperti tes Hartley, tes Bartlett, tes Levene, dan lain-
lain. Namun kegunaan berbagai tes ini mendahului analisis varian adalah
tidak jelas. Isunya bukanlah apakah varian-varian populasi itu berbeda akan
tetapi apakah perbedaan yang ada cukup besar sehingga mengakibatkan
rasio mean kuadrat pada analisis varian menjadi tidak lagi terdistribusi
sebagai F (Myers, 1979). Di samping itu, tes heterogenitas varian yang
biasanya digunakan ternyata sangat sensitif terhadap ketidaknormalan
distribusi populasi sehingga para ahli statistik menganggap prosedur uji
homogenitas ini tidak robust. Dengan demikian uji heterogenitas varian

89
sebelum melakukan analisis varian tidak banyak memiliki nilai praktis, dan
pendapat mutakhir mengatakan bahwa analisis varian dapat dan seharusnya
dilakukan tanpa melakukan uji heterogenitas varian lebih dahulu, terutama
apabila besarnya dalam setiap kelompok sampel adalah sama (Box, 1953,
1954 dalam Hays, 1973).
Asumsi homogenitas varian ini dapat diabaikan tanpa resiko yang
besar selama kita memiliki jumlah n yang sama dalam setiap sampel
perlakuan. Sebaliknya, apabila jumlah n dalam masing-masing sampel
perlakuan tidak sama maka pelanggaran asumsi homogenitas varian dapat
membawa konsekuensi serius terhadap validitas inferensi/kesimpulan
analisis akhir akibat terjadinya distorsi kesalahan tipe I. Dalam kasus n pada
kelompok sampel tidak sama atau kasus perbedaan varian yang sangat besar
di antara kelompok perlakuan, uji signifikansi F masih dapat dilakukan
sesuai dengan level α yang dikehendaki asalkan distribusi populasi
perlakuan masih mendekati normal. Dengan demikian, selama kita memiliki
alasan yang cukup layak untuk menganggap bahwa varian-varian di antara
kelompok perlakuan adalah setara, kita dapat terus melakukan uji F tanpa
kekhawatiran, namun bila kita merasa sangsi akan homogenitas varian yang
terlibat maka gunakanlah n yang setara bagi setiap kelompok sampel.
Uji asumsi klasik berikutnya adalah uji heteroskedastisitas. Dalam
analisis regresi, salah satu asumsi yang harus dipenuhi adalah varians error
masing-masing variabel bebas harus konstan. Hal ini dikenal dengan istilah
Homoskedastisitas. Selain itu dikenal istilah Heteroskedasitas lawan dari
Homoskedastisitas, yaitu keadaan dimana terjadinya ketidaksamaan varian
dari error untuk semua pengamatan setiap variabel bebas pada model regresi
Heteroskedastisitas (heteroscedasticity) menunjukkan arti varians
yang tidak sama), yang berarti melanggar asumsi homoskedastisitas dari
CLRM (classical linear regression model) yaitu suku kesalahan  i
terdistribusi secara random dengan mean nol dan varians tetap sama
dengan  2 atau secara matematika statistik ditulis:
E ( i \ X i )  0 dan Var ( i \ X i )   2 ini disebut homoscedasticity. Sedang
lawannya, Heteroskedastisitas, tentu dinyatakan Var( i \ X i )   i 2
dimana X i adalah mean dari { X i 2 ,....., X ik } untuk i=1,2,…n.
Sebenarnya, OLS dapat diterapkan pada data homoskedastik dan data
heteroskedastik hanya saja jika diterapkan pada heteroskedastik maka akan
menghasilkan parameter atau estimasi yang tidak efisien.

90
Gamar 4.1

f(Y/x) Y

1
2 3

Y=    x
x

Gambar 4.2.
Gambar 4.1 dan gambar 4.2 menunjukkan terjadinya dua situasi yang
saling bertentangan, pada yang disebutkan pertama berarti terjadi
homoskedastisitas dan yang terakhir terjadi heteroskedastisitas. Selanjutnya
dapat di diberikan contoh secara rafik hubungan antara pendapatan
(diurutkan datanya) dengan kesalahan pengganggu sebagai berikut:

91
Gambar ….
Telah disebutkan di atas bahwa, suatu asumsi pokok dalam model
regresi linear klasik adalah bahwa varians setiap disturbance term yang
dibatasi oleh nilai tertentu mengenai variabel-variabel bebas adalah
berbentuk suatu nilai konstan yang sama dengan  2 . Jika tidak dapat
dipenuhi maka terjadi heteroskedastisitas (heteroscedusticity) pada model yang
disebut model heteroskedastik (heteroscedastic models), sebagai contoh:

1. Data agregat atau pooling


Observasi dalam kelompok s (yang mungkin dapat berupa negara,
wilayah, periode waktu) dapat dinyatakan sebagai:

Y is   X is   is dengan Var ( is )   2 dan seterusnya sebagaimana


persyaratan dalam aplikasi OLS.

Namun demikian, hanya diobservasi sebagian dari rata-rata kelompok sehingga:

ns ns

 X
1 1 1
Ys  Yis dan X s  dengan Var( s )   ( )   2 hs
2
is
ns i 1
ns i 1
ns

Konsekuensinya menghasilkan persamaan atau model

Ys     X s   s

2. Koefisien random

92
Intercept dan kemiringan sangat random sepanjang I sehingga
persamaannya ditulis:

Yi   i   i X i dimana

E ( i )  

E ( i )  

Var ( i )   2

Var (  i )   2 dan

Cov ( i ,  i )   , jadi

Yi     X i  i

Dengan

 i  ( i   )  (  i   ) X i

Sehingga diperoleh E ( i)  0 dan

Var ( i )   2  2X i   2 X i2

  2 (1  1 X i   2 X i2

  2 h1

3. Varians priporsional terhadap rata-rata

Yi     X i  i

Var ( i )   2 (   X i ) 2   2 hi

Situasi ini, menunjukkan bahwa semakin besar varians semakin besar


pula rata-rata.

93
Konsekuensi terjadinya heteroskedastisiti
Situasi heteroskedastisiti akan menyebabkan penaksiran
koefisien –koefisien menjadi tidak efisien. Hasil taksiran dapat menjadi
kurang atau melebihi dari semestinya sehingga akan menyesatkan.
(Arief, 2002). Adapun konsekuensi yang ditimbulkan menurut Dimitrios
Asteriou and Stephen G. Hall (2015) adalah:
1. Estimator OLS masih tidak bias dan konsisten. Hal ini disebabkan
karena tidak satu pun dari variabel explanatory yang berhubungan
dengan kesalahan penganggu. Sehingga persamaan tertentu akan
memberikan nilai koefisien yang sangat mendekati dengan
parameter sebenarnya.
2. Mempengaruhi distribusi koefisien estimasi yang membuat
peningkatan variance distribusi sehingga membuat estimator OLS
tidak efisien
3. Mengecilkan dari varians estimator menyebabkan nilai t dan F
menjadi lebih tinggi dari sebenarnya atau varians dan covarians
estimasi dari regresi akan menjadi bias, sehingga uji F dan uji t
tidak valid.

Cara Mendeteksi

Ada beberapa cara yang dapat dilakukan untuk mendeteksi terjadinya suatu
heteroskedastisity dalam suatu model regresi, diantaranya:

1. Uji Korelasi Rank Spearman : Korelasikan variabel bebas X dengan


variabel galat e, selanjutnya gunakan Uji t. Homoskedastisitas dapat
diterima jika −t0,025(n-2) < t < t0,025(n-2) .
2. Dengan metode Park (1966) dibuat fungsi
3. Pengujian Homoskedastisitas menggunakan Program SPSS dilakukan
melalui prosedur :

Analyze → Regression → Linear, masukkan Variabel Dependen ke


kotak Dependent dan beberapa Variabel Independen ke kotak
Independent(s) → klik Plot → masukan *ZPRED ke kotak X dan
*SRESID ke kotak Y → OK.

Pada output akan terlihat Diagram Pencar (sumbu X = Regression


Standardized Predicted Value, sumbu Y = Regression Standardized
Residual). Jika Diagram Pencar tidak menunjukkan pola tertentu
maka asumsi homoskedastisitas dapat diterima, jika menunjukkan
pola tertentu, seperti corong, berarti terjadi heteroskedastisitas.

94
Contoh menggunakan Metode Park dengan dua variabel bebas (predictor)

 i 2  AX  X i 

Atau

ln( i )  ln A   ln X 1   ln X 2
2

X1 X2 Y ei ei^2 LN(ei^2) ln(X1) ln(X2)

10.21 11.89 6.14 8.73206 76.24887 4.3340026 2.32337 2.4756977

11.59 11.22 6.22 8.62067 74.31595 4.3083256 2.45014 2.4176979

5 9.18 6.26 8.50814 72.38845 4.2820467 1.60944 2.2170272

11.25 10.97 6.3 8.59706 73.90944 4.3028406 2.42037 2.3951643

8 9.48 6.36 8.48204 71.945 4.275902 2.07944 2.2491843

12 9.69 6.44 8.42387 70.96159 4.2621387 2.48491 2.2710944

10.3 8.3 6.52 8.2886 68.70089 4.2297622 2.33214 2.1162555

9.95 9.49 6.6 8.44232 71.27277 4.2665143 2.29757 2.2502386

9.6 8 6.69 8.2664 68.33337 4.2243982 2.26176 2.0794415

5 10.39 6.75 8.65697 74.94313 4.3167296 1.60944 2.3408438

11.23 9 6.81 8.35517 69.80887 4.245761 2.41859 2.1972246

10.1 8 6.87 8.2559 68.15988 4.2218562 2.31254 2.0794415

11.16 10.17 6.92 8.50055 72.25935 4.2802617 2.41234 2.3194422

8 9.61 6.12 8.49803 72.21651 4.2796687 2.07944 2.2628042

95
Coefficientsa

Unstandardized Standardized
Coefficients Coefficients

Model B Std. Error Beta t Sig.

1 (Constant) -13.383 .335 -39.993 .000

VAR00001 3.593 .077 1.028 46.687 .000

VAR00002 .132 .009 .310 14.071 .000

a. Dependent Variable: VAR00003

 i 2 didekati dengan ei 2

Jika  ternyata secara statistic signifikan maka terjadi


heteroscedasticity dalam data yang digunakan

Sebelum transformasi

Coefficientsa

Standardized
Unstandardized Coefficients Coefficients

Model B Std. Error Beta t Sig.

1 (Constant) 7.484 .629 11.892 .000

VAR00001 .021 .031 .172 .671 .516

VAR00002 -.123 .060 -.522 -2.032 .067

a. Dependent Variable: VAR00003

96
Y= 7,484 + 0.021X1 + 0.123X2

Setelah transformasi:

Coefficientsa

Standardized
Unstandardized Coefficients Coefficients

Model B Std. Error Beta t Sig.

1 (Constant) .006 .029 .207 .839

VAR00002 .929 .107 1.072 8.698 .000

VAR00003 .434 .638 .084 .680 .511

a. Dependent Variable: VAR00001

Y*= 0,006+0.929X1*+0.434X2*

Y 7.484 0.123 X 2
Y*  ; X 1*  ; X 2* 
X1 X1 X1

Atau

Y 7.484 (0.123)
 0.006  0.929  0.432
X1 X1 X1

Y  0.006 X 1  0.929  0.432 X 2

Y  6.952  0.006 X 1  0.053 X 2

97
Mengatasi heteroskedastisitas

Sebagaimana masalah lainnya, heteroskedastisitas ini dapat dipandang


sebagai suatu penyakit, yang diobati dan siembuhkan. Langkah
penyembuhan perlu segera dilakukan. berikut merupakan beberapa cara
penyembuhan yang dapat dilakukan:

1. Menambah atau mengganti data dengan melakukan sampling baru

2. Mentransformasi data menjadi bentuk logariitma (log) atau logaritma


natural (ln), terutama untuk data-data yang tumbuh secara
eksponensial seiring dengan berjalannya waktu, seperti data jumlah
penduduk dan data kredit atas bunga majemuk.

3. Membuat atau dapat juga dilakukan dengan membuat model lag


(lagged model), maksudnya adalah model selisih antara t dengan t-1.
cara ini juga biasanya sekaligus dapat mengatasi masalah
multikolinieritas.
4. Mengganti model penaksiran dari ols menjadi wls (weighted least
square). prinsip sederhana adalah kita membuat pembobotan atas
nilai pada variabel atau menggunakan metode estimasi yang lebih
Advance seperti GLS (Generalized Least Squares)
5. Membagi model persamaan asal dengan salah satu variabel
bebas dengan kata lain melakukan transformasi variabel bebas X
terhadap variabel tidak bebas Y.

Y   0  1 X 1   2 X 2  ........   k X k  

Y  X X 
 0  1   2 2  ........   k k 
X1 X1 X1 X1 X1

6. Jika cara-cara di atas masih belum ampuh juga, kita dapat


menempuh cara heteroscedasticity-consistent standard
errors (HCSE), cara ini biasanya lebih ampuh, karena alur
berpikirnya diubah, mencoba-coba model yang memiliki varian error
yang tetap, kita mulai dengan menetapkan error varians yang
konsisten.

4.3. Multikolinearitas

Multikolineritas (multicollinearity) atau disebut juga kolineritas


ganda adalah situasi terjadinya interkorelasi antar variabel-variabel
bebas di antara satu dengan lainnya. Dengan kata lain variabel-variabel
bebas adalah tidak orthogonal. Pemakaian regresi ganda mengharuskan
memperhatikan masalah multikolinearitas (banyak variabel bebas) dan
kolinearitas ( dua variabel bebas), yaitu bilamana interkorelasi di antara
98
variabel-variabel bebas atau prediktor-prediktor yang ada cukup tinggi,
karena jika terjadi multikolinearitas sempurna, maka tidak terdapat
persamaan regresi, karena penyelesaian diperoleh hasil tak hingga (  ). Bila
prediktor-prediktor saling berkorelasi tinggi maka varian estimatornya juga
akan meningkat dan dapat menghasilkan korelasi ganda (R2) yang
signifikan, sekalipun dalam persamaan regresinya masing-masing prediktor
yang bersangkutan sebetulnya tidak memiliki koefisien yang signifikan. Hal
itu tentu akan memberikan kesimpulan yang keliru mengenai fungsi prediksi
variabel-variabel yang bersangkutan.

X2
Y Y

X2 X1

X1
a. Tidak terdapat b. Terdapat multikoli
Multikolineritas neritas

Gambar 2.1. Kemultikolineritas antara X1 dan X2

Kemultikolinieritasan dapat dideteksi dengan menghitung


interkorelasi antar variabel bebas dan menyajikannya dalam bentuk matriks
korelasi. Koefisien korelasi yang besar dalam matriks selalu merupakan
pertanda adanya multikolinearitas, sekalipun multikolinearitas itu sendiri
masih dapat terjadi tanpa adanya koefisien korelasi yang besar di antara
prediktor-prediktor (Saifuddin Azwar, 2010).
Masalah kolinearitas berganda yang sempurna terdapat pada
analisis regresi sederhana jika nilai-nilai X yang terdapat dalam
sampel adalah sana untuk semua nilai Y.

( X ,Y )
Y

X
X

99
Masalah kolineritas berganda terdapat juga apabila titik
pengamatan dalam diagram sebaran sangat terpusat sekitar nilai
tertentu walaupun tidak terletak pada suatu garis vertikal

Yˆ  a  bx
 
Y   

Yˆ    x

X
X

Secara matematis dapat ditunjukkan, diketahui bahwa


2
Var(b)   b 
 x2
Jika titik pengamatan berkisar pada nilai X tertentu maka nilai

 x  (X  X )
2 2

Sangat kecil sementara nilai  2 tetap, maka nilai Var (b) adalah
sangat besar

Ambil contoh regresi linear berganda dengan dua buah variabel


bebas.

E (Y )   0  1 X 1   2 X 2

Telah diketahui bahwa penaksir parameter-parameter 1 dan  2 adalah


b1 dan b2
n n
b1  xi21  b2  xi1 xi 2   xi1 yi
i 1 i 1
n n
b1  xi1 xi 2  b2  xi22   xi 2 yi
i 1 i 1

Andaikan terjadi hubungan linear antara X1 dan X2 yang dapat


dinyatakan sebagai

100
X1 = k1 + k2 X2

Yang berarti

x1 = k2 x2

n n
b1k22  xi22  b2 k2  x22  k2  x2 yi
i 1 i 1
n n
b1k2  x22  b2  xi22   xi 2 yi **
i 1 i 1

Dengan demikian

k22 k2
D  k22  k22  0
k2 1

Hal ini menunjukkan bahwa persamaan (**) tidak memiliki penyelesaian


yang tunggal untuk b1 dan b2.

Sebagai contoh

Yˆi  10,0  2,0 X i


Jika

X= 0,01 Z

Maka kemungkinan

Yˆi  10,0  2,0 X i  0Z


Atau mungkin juga

Yˆi  10,0  0 X  200 Z


Secara umum dapat dituliskan
Yˆi  10,0  2[tX  (1  t ) X ]
Yˆ  10,0  2[tX  (1  t )0,01Z ]
i

Atau

Yˆi  10,0  2tX  0,01(1  t )]Z

Konsekuensinya:
a. Koefisien-koefisien menjadi tidak dapat ditaksir

101
b. Nilai standard error setiap koefisien regresi menjadi tak terhingga.
c. Seandainya variabel-variabel tidak mengandung korelasi yang sempurna
di antara sesamanya dan diperoleh nilai-nilai koefisien, maka
pengaruh setiap variabel bebas tidak signifikan secara statistik

Dengan demikian dapat disimpulkan:


1. Adanya multicollinearity, menyebabkan koefisien regresi masing-
masing tidak signifikan sehingga tidak dapat mnegathui varaibek
bebas yang mempengaruhi dependent variable
2. Muticollinearity dapat menyebabkan tanda koefisien regresi yang
berlawanan dari yang diharapkan
3. Jika salah satu variabel bebas dihilangkan dari model ditaksir,
mengakibatkan koefisien regresi yang signifikan secara statistik

Cara mendeteksi:
Cara lain untuk mendeteksi adanya multikolinieritas adalah dengan melihat
besar kecilnya angka tolerance. Tolerance didefinisikan sebagai proporsi
variabilitas suatu variabel yang tidak dijelaskan oleh variabel-variabel lain,
yaitu (1–R2). Harga tolerance yang kecil menandakan adanya
interdependensi antara variabel yang bersangkutan dengan variabel variabel
prediktor lainnya, dan merupakan pertanda adanya multikolinearitas.
Selain dari pada itu juga dapat menggunakan rumus variance inflation
factor (VIF) dengan rumus :

1
VIF (  j ) 
1 R j2
Rj2 adalah koefisien determinasi Xj dengan variabel predictor lainnya.
Jika lebih kecil 10 maka tidak ada korelasi dan jika di atas 10 terjadi
multikolineritas.

Cara Mengatasi:
1. Mentrasformasikan variabel-variabel menjadi bentuk first difference
2. Menambah jumlah data/sampel
3. Mengurangi atau menghilangkan variabel penjelas yang terindikasi
memiliki hubungan dengan variavel penjelas yang lain
4. Memilih model regresi terbaik dengan variabel penjelas yang bebas
multikolinearitas menggunakan metode elimination procedure (forward,
backward dsb)
5. Menggunakan analisis lanjutan yaitu Principal Component Analysis
(PCA) atau Factor Analysis (FA)
6. Mengganti analisis regresi linier berganda dengan SEM atau path analysis
7. Menggunakan pendekatan analisis modern seperti bayesian, NN dsb

Contoh:

102
Periksa data dan jika ternyata terdapat multocolineritas maka berikan proses
mengatasinya

T.
Tahun Profit Promosi Sales

2001 39 49 4.5

2002 41 45 4

2003 44 47 4.5

2004 47 55 7

2005 51 60 7.5

2006 52 67 8.38

2007 54 61 7.63

2008 57 72 9

2009 58 68 8.5

2010 60 74 9.25

2011 62 76 9.5

2012 63 77 10

2013 65 78 10.5

2014 63 82 11

2015 60 84 12

2016 55 85 12

Jika dianalisis dengan menggunakan regresi Linear Berganda diperoleh


persamaan:

103
Coefficientsa

Unstandardized Standardized
Coefficients Coefficients Collinearity Statistics

Model B Std. Error Beta t Sig. Tolerance VIF

1 (Constant) 11.388 11.573 .984 .343

Promosi .815 .471 1.328 1.732 .107 .025 39.764

T.Sales -1.419 2.486 -.438 -.571 .578 .025 39.764

a. Dependent Variable: Profit

Yˆi  11,388  0,815 X 1  1,4199 X 2

t: 0,984 1,732 -0,571

Sig: 0,343 0,107 0,578

R2 = 0,808

Memperhatikan persamaan regresi tersebut di atas diketahui bahwa


jelas terdapat masalah multikolrinitas yang ditandai oleh tingginya nilai
R2 = 0,808 dan rendahnya nilai t hitung dan bahkan tidak satu koefisien
variabel bebas yang memberikan pengaruh yang signifikan terhadap
variabel respons. Dengan demikian persamaan regresi tersebut tidak dapat
dipakai untuk proyeksi atau lainnya, karena jelas menyesatkan jika langsung
diterapkan dalam prediksi. Sebagaimana telah disebutkan bahwa masalah
multicillineriatas dapat diatasi dengan beberapa cara seusia dengan prinsip
regresi yakni untuk mendapatkan garis regresi yang paling tepat sesuai
dengan orientasinya, baik dalam prediksi atau penentuan parameter. Dalam
hal ini akan digunakan pencarian atau penemuan fungsi regresi yang
paling tepat atau ayang memberikan signifikasi dari koefisien regresi serta
R2 yang dapat dipakai dalam ketepatan model (model fit) dalam regresi
linear berganda

Data yang telah dipaparkan atau disajikan tersebut diatas dapat


ditransormasi untuk mendapatkan Persamaan Regresi yang paling tepat.
Dengan menggunakan beberapa cara, akhirnya yang digunakan cara:

104
1. Variabel respons dibiarkan tanpa transformasi
2. Variabel bebas promosi (X1) diakarkan sedang varaibel X2
dipangkat tigakan, yang sebelumnya telah dilakukan beberapa
kemungkinan, tetapi inilah transformasi yang dipandang tepat:
X 1*  X 1 dan X 2  X 2
* 3

Setelah diberlakukan transformasi data diperoleh persamaan Regresi baru


sebagai:

Proses yang sudah dilakukan adalah first difference, betul diapata


persamaan dengan bebas dari multicoillneraitas, tapai tidak satupun
koesifeisn dari dua variabel bebas yang signifikan, sehingga dicari cara
lain sebagai mana yang diperlakuan dalam pada yang dimaksud.

Tahun Profit Promosi T. Sales

2001 39 49 4.5 7 91.125

2002 41 45 4 6.7082 64

2003 44 47 4.5 6.85565 91.125

2004 47 55 7 7.4162 343

2005 51 60 7.5 7.74597 421.875

2006 52 67 8.38 8.18535 588.48047

2007 54 61 7.63 7.81025 444.19495

2008 57 72 9 8.48528 729

2009 58 68 8.5 8.24621 614.125

2010 60 74 9.25 8.60233 791.45313

2011 62 76 9.5 8.7178 857.375

2012 63 77 10 8.77496 1000

2013 65 78 10.5 8.83176 1157.625

2014 63 82 11 9.05539 1331

2015 60 84 12 9.16515 1728

2016 55 85 12 9.21954 1728

105
Coefficientsa

Standardized
Unstandardized Coefficients Coefficients

Model B Std. Error Beta t Sig.

1 (Constant) -62.984 18.136 -3.473 .004

VAR00005 15.358 2.553 1.566 6.015 .000

VAR00006 -.011 .004 -.710 -2.724 .017

a. Dependent Variable: VAR00002

Yˆi  11,388  0,815 X 1  1,4199 X 2

t: -3,473 6,015 -2,724

Sig: 0,004 0,000 0,017

R2 = 0,885

Sebagai penjelasan lebih lanjut, misalkan ingin diketahui pengaruh inflasi


dan pendidikan terhadap pengangguran dan kemiskinan. Dalam hal ini
inflasi diambil komulatif, sebagai berikut

106
Contoh lain:

Tahun Pendikan Pengaggur komulatif


Miskin
Inflasi (X2) (Y1) (Y2) Inflasi (X1)

2005 16.64 26061 39071 5.78 16.64

2006 6.50 25975 31280 6.05 23.14

2007 9.18 25586 31977 6.60 32.32

2008 12.69 26387 26193 4.67 45.01

2009 4.06 27847 27163 4.84 49.07

2010 7.00 29382 31186 5.21 56.07

2011 6.23 31324 39835 4.31 62.3

2012 4.81 32851 34918 4.19 67.11

2013 10.37 33371 30504 4.63 77.48

2014 10.37 33371 27055 4.56 87.85

Sumber: Statistik Kota Samarinda

Pengujian Multikolinearitas menggunakan Program SPSS dilakukan


melalui prosedur : Analyze → Regression → Linear, masukkan Variabel
Dependen ke kotak Dependent dan beberapa Variabel Independen ke kotak
Independent(s) → klik Statistics → Beri tanda centang pada pilihan
Collinearity diagnostics → Continue → OK. Pada Output, akan muncul
nilai Collinearity Statistics Tolerance (T) dan VIF (Variance Inflation
Factor). Nilai t = 1/VIF, jadi nilai Tolerance merupakan kebalikan dari nilai
VIF. Diantara variabel bebas X tidak terjadi multikolinearitas jika nilai VIF
mendekati nilai 10. Cara lain untuk mendeteksi ada tidaknya
multikolinearitas yaitu dengan mengkorelasikan seluruh variabel bebas.
Apabila nilai Koefisien Korelasi R ≥ 0,80, diindikasikan adanya
multikolinearitas. Indikator lainnya yang menunjukkan adanya
multikolinearitas adalah nilai F yang tinggi (sangat signifikan) pada

107
ANOVA, tetapi nilai t pada setiap variabel bebas X tidak ada yang
signifikan.

4.4. Autokorelasi

Autokorelasi atau korelasi antar kesalahan random pada umumnya


terjadi pada data time series, jadi tidak menutup kemungkinan akan terjadi
pada jenis data cross section (silang tempat), walaupun sangat jarang terjadi.
Peristiwa Autokorelasi terjadi pada interkorelasi antara anggota observasi-
observasi yang diurutkan berdasarkan waktu. Dalam kaitannya dengan
asumsi OLS, autokorelasi merupakan korelasi antara satu variabel gangguan
dengan variabel gangguan lain. Autokorelasi umumnya terjadi pada data
time series. Hal ini karena observasi-observasi pada data time series
mengikuti urutan alamiah antar waktu sehingga observasi-observasi secara
berturut-turut mengandung interkorelasi, khususnya jika rentang waktu
diantara observasi yang berurutan adalah rentang waktu yang pendek,
seperti hari, minggu atau bulan, Gujarati (2012). Secara matematis, jika
model regresi linear y     , maka diasumsikan

 2 jika s  0
E ( t ,  t  s )   
 0 jika s  0

Korelasi antara kesalahan berurut(successive disturbances) adalah nol.

jika asumsi E ( t ,  t s )  0, s  0 dilanggar maka terjadi autokorelasi,


artinya variance of disturbance term remains constant though the
successive disturbance terms are correlated, sehingga terjadi
autokorelasi yang dapat dinyatakan Cov( t ,  s )  0, t  s

demikian pula jika asumsi E ( t ,  t s )   2 , s  0

Dalam asumsi ini variansi dari suku kesalahan (variance of disturbance


term) tidak tetap konstan, sehaingga maslah heterokedastis menaik.

Terjadi karena beberapa faktor antara lain:

1. Data observasi dimulai dari suatu kelesuan sehingga data observasi


selanjutnya terpengaruh oleh data sebelumnya

108
2. Tidak memasukkan variabel tertentu yang sebetulnya turut
mempengaruhi dependent variable.

Yt  0  1P1t   2Ct  3 P2t  t

Misalkan seorang peneliti tidak memasukkan variabel P2 sehingga


model menjadi

Yt  0  1P1t   2Ct  vt

Sehingga memenuhi

vt  3 P2t  t
Jelas terjadi relasi diantara error term

3. Bentuk model yang tidak tepat

Misalnya fungsi Marginal

MC

Y   0  1 X   2 X 2  e
Y = Marginal Cost
X = jumlah output

Model regresi yang dipakai

Y  0  1 X  w

Jadi berlaku hubungan

109
w  2 X 2  e

4. Terjadinya fenomena Cobweb terutama dalam penawaran fungsi


komoditas pertanian.

St  0  1Pt 1  et

Hasilnya:
et tidak lagi bersifat random tetapi mengikuti suatu pola sarang laba-
laba.

5. Time lags

6. Manipulasi data

Jenis Auto korelasi :

Auto korelasi Positif:

t t

waktu waktu
0 0

Auto korelasi Negatif

t t

waktu waktu

Sumber: J. Supranto, 1995.

110
Akibat Adanya Korelasi Serial diantara Error term:

1. Varian residual (error terms) akan diperoleh lebih rendah dari pada
semestinya sehingga R2 menjadi lebih tinggi dari pada seharusnya
2. Pengujian hipotesis statistik dengan menggunakan t-ststistics dan F-
ststistics akan menyesatkan.
3. Estimator yang dihasilkan masih unbiased, konsisten, dan asymptotical
normally distributed. Tetapi tidak lagi efisien->varians tidak minimum
(tidak BLUE)
4. Pemerikasaan terhadap residualnya akan menemui permasalahan.
5. Autokorelasi yang kuat dapat pula menyebabkan dua variabel yang tidak
berhubungan menjadi berhubungan. Biasa disebut spourious regression.
Hal ini terlihat dari R2.

Cara mendeteksi (lihat uji Durbin Watson)

1. Uji Kai Kuadrat


Kesalahan-kesalahan pengganggu  i  (Yi  Yˆ ) dari setiap observasi
pada setiap variabel bebas X dapat bersifat bebas atau tak
bebas. Dalam hal ini hipotesis yang diuji adalah:
H0 : tidak terjadi auotokelasi
H1 : terjadi auotokelasi

2. Durbin-Watson (DW) statistics

Uji yang digunakan adalah Durbin-Watson (DW) statistics yang


positif, karena pada umumnya kesalahan pengganggu dalam aplikasi dalam
bisnis dan ekonomi cenderung memiliki hubungan yang bersifat positif
sehingga hipotesis yang digunakan:
111
H 0 :   0 , suku kesalahan random  t =  t adalah bebas satu sama lain

H1 :   0

et  Yt  Yˆt

 (e t  et 1 ) 2
DW  t 2
n

e
t 1
2
t

Kriteria

D E
A B C

0 dL du 2 4- du 4- dL 4

A= Totak H0, berarti ada oto korelasi positif


B = Daerah tanpa keputusan
C = Terima H0 atau H0* atau keduanya

D= Daerah tanpa keputusan


E = Tolak Ha , berati ada oto korelasi negatif

H0 = tak ada oto korelasi positif


H0*= tak ada oto korelasi negatif.

Contoh:

112
Nilai DW adalah sebesar 1.338. Nilai DW hitung ini kemudian akan
dibandingkan dengan DW Tabel. Dengan signifikansi 5%, jumlah sampel
84, dan jumlah variabel independen adalah 2, maka diperoleh DW hitung
sebesar dl 1.600 dan du 1.696

Perhatikan :

Cara mengatasi:

Diatasi dengan menggunakan metode Durbin Watson dengan formulasi


regresi sebagai berikut:

Yt= o + 1X1t + 2X2t +……+ kXkt +  t

Dalam konteks first-order autoregressive, scheme mengenai error


terms, dapat dinyatakan dalam persamaan berikut:

 t =  t 1 + v t

Berdasarkan  sebagai faktor transformasi persamaan di atas dapat


ditulis dalam bentuk first difference, yaitu:

113
(Yt - Yt 1 )= o (1-  )+ 1(X1t -  X1(t-1) ) + ……+ k(Xkt -  Xk(t-1) ) + (
 t -   t 1 )

Atau

(Yt = o (1-  )+ 1(X1t -  X1(t-1) ) + Yt 1 ) +……+ k(Xkt -  Xk(t-1) ) + (


 t -   t 1 )

Penyelesaian persamaan di atas dapat diperoleh nilai  , yaitu  * ,


sehingga dilakukan transformasi model awal sebagai:

Yt =  0 +  1 X t* + ……+  1 X k*
*

Dimana:

Yt = (Yt -  * Yt-1 )
*

X 1 = (X1t -  * X1(t-1) )
*

Yt*  24,24  1,104 X t*


X k = (Xkt -  * Xk(t-1) )
*

Untuk satu variabel predictor dari tabel …. diperoleh

et = 0,679 et 1 + v t

Dan
*
Yt = 11,351 + 0,060 X t*

Dimana
*
Yt = (Yt -0,679Yt-1 )

*
X 1 = (X1t -0,679X1(t-1) )

114
Pola Autokorelasi

,e ,e

waktu
waktu
0 0

,e ,e

waktu
waktu

Keempat gambar menujukkan terjadi autokorelasi


,e

waktu

Gambar menunjukkan tidak terjadi autokorelasi

Ilustrasi terjadinya autokorelasi


Y 
   Yˆ = a + bX


 

Yˆ = b + cX Regresi sebenarnya

115
Contoh:

Perhatikan data berikut:

Gambar: Autokorelasi positif dari suku kesalahan random

Cochrane-Orcutt Procedure

Tabel ….
X Y X t'  X t  Yt '  Yt 

T et et-1 (et-et-1)^2 et^2 et-1*et et-1^2 0,661 X t 1 0,661Yt 1

1 19 16 -7.355 _ _ 54.0960 _ _ _ _

2 30 17 -10.43 -7.36 9.4249 108.6806 76.6759 54.09603 17.4334 6.4176

3 47 19 -14.72 -10.4 18.4041 216.5312 153.4039 108.6806 27.158 7.7562

4 26 21 -4.945 -14.7 95.4529 24.4530 72.7657 216.5312 -5.0858 8.4334

5 27 24 -2.315 -4.95 6.9169 5.3592 11.4477 24.45303 9.8036 10.1106

6 53 27 -8.935 -2.32 43.8244 79.8342 20.6845 5.359225 35.1422 11.1264

7 38 31 0.615 -8.94 91.2025 0.3782 -5.4950 79.83423 2.9458 13.1422

8 32 32 3.835 0.615 10.3684 14.7072 2.3585 0.378225 6.8668 11.4966

9 51 34 -1.195 3.835 25.3009 1.4280 -4.5828 14.70723 29.8352 12.8352

116
10 54 37 0.695 -1.2 3.5721 0.4830 -0.8305 1.428025 20.2686 14.5124

11 33 38 9.465 0.695 76.9129 89.5862 6.5782 0.483025 -2.7156 13.5282

12 42 40 8.135 9.465 1.7689 66.1782 76.9978 89.58623 20.1738 14.8668

13 23 42 17.165 8.135 81.5409 294.6372 139.6373 66.17823 -4.7788 15.544

14 54 43 6.695 17.17 109.6209 44.8230 114.9197 294.6372 38.7878 15.2212

15 79 45 -0.555 6.695 52.5625 0.3080 -3.7157 44.82303 43.2844 16.5598

16 81 47 0.705 -0.56 1.5876 0.4970 -0.3913 0.308025 28.7494 17.237

17 82 50 3.335 0.705 6.9169 11.1222 2.3512 0.497025 28.4266 18.9142

∑ 635.3777 1013.1028 662.8049 1001.981 17.4334 6.4176

d 0.6272 r 0.661495 27.158 7.7562

Regresi Y atas X diperoleh Yt  16,325  0,37 X t

Regresi Yt ' atas X t'diperoleh Yt '  11.749  0,067 X t'

Dimana: Yt '  Yt  0,6614 Yt 1

X t'  X t  0,6614 X t 1

4.5. Uji Normalitas

Uji normalitas berguna untuk menentukan data yang telah dikumpulkan


berdistribusi normal atau diambil dari populasi normal. Metode klasik dalam
pengujian normalitas suatu data tidak begitu rumit. Berdasarkan pengalaman
empiris beberapa pakar statistik, data yang banyaknya lebih dari 30 angka (n
> 30), maka sudah dapat diasumsikan berdistribusi normal. Biasa dikatakan
sebagai sampel besar.

Namun untuk memberikan kepastian, data yang dimiliki berdistribusi


normal atau tidak, sebaiknya digunakan uji statistik normalitas. Karena
belum tentu data yang lebih dari 30 bisa dipastikan berdistribusi normal,
demikian sebaliknya data yang banyaknya kurang dari 30 belum tentu tidak
berdistribusi normal, untuk itu perlu suatu pembuktian. uji statistik
117
normalitas yang dapat digunakan diantaranya Chi-Square, Kolmogorov
Smirnov, Lilliefors, Shapiro Wilk dan sebagainya.

Pengujian Normalitas menggunakan Program SPSS dilakukan


melalui prosedur : (1) Untuk Uji Kolmogorov-Smirnov : Analyze →
Nonparametric Test → 1-Sample K-S. Pada Output, jika Signifikansi hasil
Uji Kolmogorov-Smirnov (Uji KS) nilainya lebih besar dari 0,05 berarti
data berdistribusi normal. (2) Untuk Uji Liliefors dan Saphiro-Wilks :
Analyze → Descriptive Statistics → Explore. Pada Output, jika Signifikansi
pada Uji Liliefors dan Saphiro-Wilks lebih besar dari 0,05 berarti data
berdistribusi normal. Disamping itu, jika pada Grafik Normal Q-Q Plot dan
Detrended Normal Q-Q Plot, nilai-nilai pengamatan menyebar pada garis
tersebut, berarti data pengamatan berdistribusi normal.

Jadi sepanjang tidak ada alasan kuat untuk meragukan kesesuaian


antara model analisis dengan data yang dimiliki, tehnik-tehnik analisis
statistika untuk pengambilan kesimpulan dapat digunakan tanpa
mendahuluinya dengan uji asumsi. Sebaliknya, bilamana ada keraguan
mengenai datanya, maka cara aman dalam menggunakan analisis varian
adalah dengan mengambil sampel yang cukup besar dan menggunakan
jumlah n yang kurang-lebih sama dalam setiap kelompok perlakuan;
sedangkan dalam analisis regresi lakukanlah analisis residual bilamana
diperoleh R2 yang tidak signifikan atau gunakan model regresi yang lebih
sesuai dengan data yang dimiliki.

Uji Validitas dan Reliabilitas

Kedua konsep berehubungan dengan prengumpulan data. Validitas


berkenaan dengan instrumen atau alat yang sedang reliabilitas berkenaan
dengan kesamaan dari hasil ukuran. Hasil pengumpulan data (primer)
selayaknya dilakukan dengan kedua uji ini sebelum melakukan analisis
data.

Validitas

Validitas Instrument secara garis besar ada dua macam Validitas,


yaitu (1) Validitas Logis, menunjuk pada kondisi bagi sebuah instrumen

118
evaluasi yang memenuhi persyaratan valid berdasarkan hasil penalaran.
Validitas Logis terdiri dari Validitas Isi dan Validitas Konstruk,

(2) Validitas Empiris, yaitu apabila instrumen tersebut telah teruji dari
pengalaman. Validitas Empiris terdiri dari validitas “ada sekarang” dan
validitas predictive. Uji validitas atau kesahihan digunakan untuk
mengetahui seberapa tepat suatu instrument (alat ukur) mampu melakukan
fungsinya. Alat ukur yang dapat digunakan dalam pengujian validitas suatu
instrument adalah angka hasil korelasi antara skor pernyataan (baik berupa
item atau butir setiap pertanyaan maupun skor dari faktor atau variabel)
dengan total skor seluruh pertanyaan. Uji Validitas yang sering dipakai
adalah uji korelasi Pearson (product moment) yang telah dibahas secara
detail dalam bab 2.

Reliabilitas

Reliabilitas Instrument Reliabilitas instrumen berhubungan dengan


tingkat kepercayaan (keyakinan) terhadap instrument atau sebuah tes. Suatu
instrument atau tes dikatakan mempunyai tingkat kepercayaan yang tinggi
jika instrument atau tes tersebut dapat memberikan hasil yang tetap (ajeg).
Jadi reliabilitas adalah ketetapan (keajegan) suatu instrument atau tes
apabila diberikan kepada subjek yang sama. Cara menentukan besarnya
reliabilitas instrument atau tes dalam bentuk jawaban Pilihan Ganda atau
Benar-Salah dapat dilakukan dengan beberapa metode, yaitu : (a) Metode
Paralel (Equivalent) Dua buah instrument atau tes yang mempunyai tujuan,
tingkat kesukaran, dan susunan yang sama tetapi soal (item) berbeda
diberikan kepada subjek yang sama pada dua waktu yang berbeda.
Reliabilitas diukur dengan menghitung besarnya nilai Koefisien Korelasi
Pearson terhadap kedua hasil pengamatan tersebut. (b) Metode Ulang
Sebuah instrument atau tes diberikan kepada subjek yang sama pada dua
waktu yang berbeda (berulang). Reliabilitas diukur dengan menghitung
besarnya nilai Koefisien Korelasi Pearson pada kedua waktu tersebut.

Cara menentukan besarnya reliabilitas instrumen atau tes dalam


bentuk jawaban uraian dilakukan dengan metode Alpha-Cronbach, yaitu:

n
S
i 1
i
2

R (1  )
n 1 S i2

119
Dimana:

R = koefisien reliabilitas
n

S
i 1
i
2
 jumlah ragam tiap-tiap item

S i2  ragam total

Pengujian Validitas menggunakan Program SPSS dilakukan melalui


prosedur : Analyze → Scale → Reliability Analysis, masukkan data Skor
tiap Butir pertanyaan ke kotak Items → Pilih Model Alpha atau Split-Half
→ OK. Jika sebelum klik OK, kita meng-klik kotak “Statistics” kemudian
kita centang pilihan Scale dan Scale if Item Delete, maka pada Output Item
Total Statistics akan diperoleh nilai Koefisien Korelasi Pearson Terkoreksi
(pada kolom Corrected Item -Total Correlation) yang menggambarkan
Validitas item.

Soal:

1. Jelaskan asumsi-asumsi yang berlaku dari regresi linear pada ummnya.


2. Apa yang dimaksud dengan CLRM. Jelaskan singkatan ini dan juga
berikan contoh
3. Diketahui data berikut sebagai:

a. Buat Regresi dari data di atas


b. Apakah X1 dan X2 berpengaruh terhadap Y. Jelaskan dengan
uji F dan uji t
c. Uji kemungkinan adanya Multicollinearity, jelaskan
penyebabnya

120
d. Uji kemungkinan terjadinya korelasi serial (autocorrelation),
jelaskan penyebabnya
e. Uji kemungkinan adanya heterosdusticity,
f. Uji normalitas dari data
4. Jelaskan akibat dari pelanggaran asumsi klasik ( Berikan cara untuk
mengatasinya).

121
BAB V
REGRESI LINEAR BERGANDA

5.1. Teori Regresi

Regresi linier berganda adalah analisis regresi yang menjelaskan


hubungan antara variabel respon (variabel dependen) dengan faktor-faktor
yang mempengaruhi lebih dari satu prediktor (variabel independen). Regresi
linier berganda hampir sama dengan regresi linier sederhana, hanya saja
pada regresi linier berganda variabel bebasnya lebih dari satu. Tujuan
analisis regresi linier berganda adalah untuk mengukur intensitas hubungan
antara dua variabel atau lebih dan membuat prediksi perkiraan nilai variabel
bebas atas variabel tak bebas. Pada dasarnya sama halnya dengan regresi
linear sederhana, regresi linear berganda memiliki asumsi dari semua
regresi linear sederhana ditambah asumsi multikolinearitas
(multicollinearity), karena asumsi berhubungan dengan banyaknya variabel
bebas. Menurut Gujarati (2003) asumsi-asumsi pada model regresi linier
berganda adalah sebagai berikut: 1. Model regresinya adalah linier dalam
parameter, 2. Nilai rata-rata dari error adalah nol, 3. Varians dari error
adalah konstan (homoskedastik), 4. Tidak terjadi autokorelasi pada error, 5.
Tidak terjadi multikolinieritas pada variabel bebas. 6. Error berdistribusi
normal

Analisis Regresi Linear Berganda digunakan untuk mengukur


pengaruh antara lebih dari satu variabel predictor (variabel bebas) terhadap
variabel terikat. Secara umum model regresi linier berganda untuk populasi
adalah sebagai berikut:

Y =  0 + 1 X1 +  2 X2 +  3 X3 + … +  n Xn + ε (5.1)

atau

122
n
Yi   0  X
j 1
ij  i  i

(5.2)

Persamaan (5.1) menunjukkan linear dalam variabel yang terdiri dari satu
variabel respon dan beberapa variabel prediktor atau bebas. Dengan asumsi
 i  0, sebagaimana yang telah dikemukakan maka persamaan (5.2) dapat
dinyatakan dengan fungsi regresi atau probabilitas sebagai:

E (Y )  0 + 1 X1 +  2 X2 +  3 X3 + … +  n Xn (5.3)

Misalkan untuk dua variabel bebas (paling sederhana), maka dapat


dilihat gambar

Bidang Regresi

X2 Bidang X1 dan X2
X1

Persamaan regresi sebenarnya adalah

123
E (Yi )   0  1 X i1   2 X i 2 , i  1,2,3...n (5.4)

5.2. Metode Kuadrat Terkecil Regresi Berganda

Regresi linear berganda adalah pengembangan dari pada regresi


linear sederhana, yaitu satu variabel respon atau dependen dihubunungkan
dua atau lebih dari pada variabel prediktor atau varaibel bebas. Dengan
demkian pada regresi liner berganda juga akan digunakan metode kuadrat
terkecil untuk estimasi atau menentukan besarnya parameter-paeremter
yang ada. Anggaplah bahwa suatu regresi linear berganda yang memeliki
hanya dua varibek bebas, persamaaan regresi dapat ditulis sebagai berikut:

Persamaan regresi untuk populasi

Yi   0  1 X i1   2 X i 2   i …..(5.5)

Sedang Persamaan regresi untuk sampel

Yi  b0  b1 X i1  b2 X i 2  ei …..(5.5)

Misalkan persamaan regresi yang telah estimasi:

Yˆi  b0  b1 X i1  b2 X i 2

Diketahui bahwa

ei  Yi  Yˆi  Yi  b0  b1 X i1  b2 X i 2

Nyatakan
n
K  e   (Y  b
2
i
i 1
i 0  b1 X i1  b2 X i 2 ) 2

Jadi
n
K   (Yi  b0  b1 X i1  b2 X i 2 ) 2 …..(5.5).
i 1

124
Persamaan (5.5) dapat diminumkan dengan mendiferensialkannya terhadap
n
K   (Yi  b0  b1 X i1  b2 X i 2 ) 2
i 1

K n
 2 (Yi  a0  b1 X i1  b2 X i 2 ) (1)  0
a i 1

K n
 2 (Yi  a0  b1 X i1  b2 X i 2 ) ( X i1 )  0
b1 i 1

K n
 2 (Yi  a0  b1 X i1  b2 X i 2 ) ( X i 2 )  0
b2 i 1

Dengan demikian diperoleh


n n
na0  b1  X i1  b2  X i 2   Yi
i 1 i 1

n n n
a0  X i1  b1  X i21  b2  X i1 X i 2   X i1Yi
i 1 i 1 i 1

n n n
a0  X i 2  b1  X i1 X i 2  b2  X i22   X i 2Yi
i 1 i 1 i 1

…..

Dengan menyelesaikan persamaan tersebut secara serentak dapatlah


ditentukan

a0 ,b1 dan b2

125
n Y X 2

X 1 X Y 1 X X
1 2

X X Y X
2
2 2 2
b1 
n X 1 X 2

X1 X 1
2
X X
1 2

X X X X
2
2 1 2 2

n X 1 Y
X 1 X 1
2
X Y 1

b2 
X 2 X X 1 2 X Y 2

n X 1 X 2

 X1 X 1
2
X X 1 2

X X X X
2
2 1 2 2

Jika sebuah persamaan regresi linear berganda dengan variabel tak


bebas Y dijelaskan dengan k variabel bebas sebagai

Yˆi  a0  b1 X i1  b2 X i 2  ...  bk X ik

Seperti pada persamaan regresi berganda dengan dua variabel bebas


dengan menerapkan metode kuadrat terkecil atau OLS (ordinary least
square) menghasilkan sistem persamaan normal

n n n
na0  b1  X i1  b2  X i 2  ... X ik   Yi
i 1 i 1 i 1
n n n n
a0  X i1  b1  X  b2  X i1 X i 2  ...   X i1 X ik   X i1Yi
2
i1
i 1 i 1 i 1 i 1
n n n n
a0  X i 2  b1  X i1 X i 2  b2  X i22  ...   X ik2   X i 2Yi
i 1 i 1 i 1 i 1
………………………………………………………..

n n n n
a0  X ik  b1  X i1 X ik  b2  X i 2 X ik  ...   X ik2   X ikYi
i 1 i 1 i 1 i 1
…….(5.4)

126
Atau secara matriks dapat ditulis

 n

X 1i X 2i  X ki b0   1
  
1 1  1  Y1 
  X 1i X 2
1i X X 1i 2i  X X
1i ki   b1   X 11 X 12 X 13  X 1n  Y2 
 X 2 i X X X 2
 X X   b   X 21 X 22 X 23  X 2 n  Y3 
    
1i 2i 2i 2i ki 2
 
               
               
     
  X ki X 1i X ki X 3i X ki   X ki2  bk   X k1 X k2 X k3  X kn  Yn 

Penterjemahan sumbu-sumbu koordinat lebih sederhana, definisikan:

yi  (Yi  Y )
xi  ( X i  X )

Yˆi  a0  b1 X i1  b2 X i 2  ...  bk X ik
Y  a0  b1 X 1  b2 X 2  ...  bk X k Kurangkan

Yˆi  Y  b1 ( X i1  X 1 )  b2 ( X i 2  X 2 )  ...  bk ( X ik  X k )
Atau

yˆi  b1 xi1  b2 xi 2  ...  bk xik


n
K   ei2   ( yi  b1 xi1  b2 xi 2  ...bk xik ) 2
i 1

Minimisasi fungsi tersebut menghasilkan :

n n n
b1  xi21  b2  xi1 xi 2  ...   xi1 xik   xi1 yi
i 1 i 1 i 1

n n n
b1  xi1 xi 2  b2  xi22  ...   xi 2 xik   xi 2 yi
i 1 i 1 i 1

……………………………………………

127
n n n
b1  xi1 xik  b2  xi 2 xik  ...   xik2   xik yi
i 1 i 1 i 1

Sebagai contoh untuk k=2

n n
b1  xi21  b2  xi1 xi 2   xi1 yi (5.4)
i 1 i 1

n n
b1  xi1 xi 2  b2  xi22   xi 2 yi (5.5)
i 1 i 1

Persamaan (5.4) dan Persamaan (5.5) dapat diselaikan


n n

x
i 1
y
i1 i x
i 1
x
i1 i 2

n n n n n n

x
i 1
y
i2 i x
i 1
2
i2  xi1 yi ( xi22 )   xi1xi 2  xi 2 yi
b1  n n
= i 1
n
i 1
n
i 1
n
i 1

x 2
i1 x x
i1 i 2  x ( x
i 1
2
i1
i 1
2
i2 )  ( xi1 xi 2 ) 2
i 1
i 1 i 1
n n

x
i 1
x
i1 i 2 x
i 1
2
i2

n n

x
i 1
2
i1 x
i 1
y
i1 i

n n n n n n

x
i 1
x
i1 i 2 x
i 1
y
i2 i  xi 2 yi ( xi21 )   xi1xi 2  xi1 yi
b2  n n
= i 1
n
i 1
n
i 1
n
i 1

x 2
i1 x x
i1 i 2  x ( x
i 1
2
i1
i 1
2
i2 )  ( xi1 xi 2 ) 2
i 1
i 1 i 1
n n

x
i 1
x
i1 i 2 x i 1
2
i2

a0  Y  b1 X1  b2 X 2

128
Bentuk matriks persamaan Regresi linear Berganda dengan k variabel
bebas dapat dinyatakan sebagai:

Y =X +  (5.6)

Dimana:

Y1  1 X 11 X 12  X 1k  0   1 
Y  1 X X 22  X 2 k     
Y   2 , X 21
, β    , dan ε   2 
1
          
       
Yn  1 X n1 X n 2  X nk  
 k  k 

Secara umum, Y adalah vektor observasi yang berukuran (n x 1),


X adalah matriks (n x p) dari jumlah variabel bebas, dan β adalah vektor
koefisien regresi dengan ukuran (nx1) dan ε adalah vektor suku kesalahan
random dengan ukuran (n x1). X kada ng kala disebut sebagai model
matriks karena mencakup semua data observasi dalam bentuk tabel.
Dengan demikian dapat dibuat suatu vektor estimator kuadrat terkecil
yang meminimalkan nilai-nilai  i dimana i = 1,2,3,….n. Misalkan
n
L    i2 , sehingga
i 1

n
L    i2   t  Y  Xβ  Y  Xβ 
t
(5.7)
i 1

Dengan mengespansikan dua buah suku terakhir pada Persamaan (5.7)


diperoleh persamaan

L  Y t Y  β t X t Y  Yβ t X t  β t X t Xβ (5.8)

Suku β t X t Y adalah matriks (1x 1) dengan matriks transposenya


(β t X t Y) t  Y t Xβ
Sehingga persamaan (5.8) dapat ditulis

129
L  Y t Y  2β t X t Y  β t X t Xβ (5.9)

Persamaan (5.9) jika dioptimalkan dengan mendiferensialkan terhadap


β , diperoleh:

L
 2X t Y  2(X t X)β̂  0
β

Dengan demikian diperoleh

(X t X)β̂  Xt Y (5.10)

Xt X adalah matriks simetris dengan ordo (pxp) dan X t Y adalah vektor


kolom

Persamaan normal (5.10) dapat diselesaikan dengan mengalikan


ruas kiri dan kanan dengan invers dari X t X (dengan menganggap matriks
ini ada), sehingga estimator dari β̂ adalah

β̂  (X t X) -1Xt Y

Dimana:

Xt adalah transpose matriks X

Koefisien Korelasi

n n n
b1  x y  b  x y  ...  b  x y
i 1
1 2
i 1
2 n
i 1
n
R n
……(3)
i 1
y2

Dimana:

xX X

Koefisien Determinasi

130
Koefisien determinasi disimbolkan dengan R 2 , menjelaskan
variasi pengaruh variabel-variabel bebas terhadap variabel terikatnya, atau
dapat pula dikatakan sebagai proporsi pengaruh seluruh variabel bebas
terhadap variabel terikat, sehingga 1  R 2 menjelaskan besarnya pengaruh
variabel bebas yang tidak dimasukkan dalam model. Formulasi R 2 dapat
dinyatakn sebagai

n n n
b1  x y  b  x y  ...  b  x y
i 1
1 2
i 1
2 n
i 1
n
R2  n
; xX X
i 1
y2

Penggunaan R Square (R Kuadrat) sering menimbulkan


permasalahan, yaitu bahwa nilainya akan selalu meningkat dengan adanya
penambahan variabel bebas dalam suatu model. Hal ini akan menimbulkan
bias, karena jika ingin memperoleh model dengan R tinggi, seorang
penelitian dapat dengan sembarangan menambahkan variabel bebas dan
nilai R akan meningkat, tidak tergantung apakah variabel bebas tambahan
itu berhubungan dengan variabel terikat atau tidak. Oleh karena itu, banyak
peneliti yang menyarankan untuk menggunakan Adjusted R Square.
Interpretasinya sama dengan R Square, akan tetapi
nilai Adjusted R Square dapat naik atau turun dengan adanya penambahan
variabel baru, tergantung dari korelasi antara variabel bebas tambahan
tersebut dengan variabel terikatnya. Nilai Adjusted R Square dapat bernilai
negatif, sehingga jika nilainya negatif, maka nilai tersebut dianggap 0, atau
variabel bebas sama sekali tidak mampu menjelaskan varians dari variabel
terikatnya dengan formulasi

 (1  R 2 )( n  1) 
2
Radjusted  1  
 n  k 1 
Dimana:
n = jumlah observasi
k = jumlah variabel bebas (repressors)

Uji F
Uji F digunakan untuk menguji secara simultan ( bersama-sama)
pada konsep regresi linier berganda untuk mengetahui penerimaan atau
penolakan model regresi yang digunakan. Jadi uji ini bertujuan untuk
mengetahui adanya pengaruh variabel-variabel bebas terhadap variabel
terikat, atau paling sedikit ada satu variabel bebas yang berpengaruh terikat
variabel terikat (tak bebas) atau memiliki hubungan linier (linear relation).
Formulasi yang digunakan adalah
131
R 2 /( k  1)
F
(1  R 2 ) /( n  k )

R 2 /( k  1)
F
(1  R 2 ) /( n  k )
k = jumlah variabel bebas
n = jumlah observasi

Hipotesis Statistik:

Hipotesis yang berlaku untuk pengujian ini adalah:

Ho : βi = 0, i = 1,2,3…n, variabel Xi tidak berpengaruh signifikan


terhadap variabel Y

Ha : Ada βi, yang tidak sama dengan nol, i = 1,2,3…n

Kriteria:
F hitung ≤ F tabel (dbi; α) , yang berarti Ho diterima
F hitung > F tabel (dbi; α) , Ho ditolak, yang berarti H1 diterima

dbi = derajat bebas ke-i yang sama k

k = banyaknya variabel bebas 1


n = banyaknya pengamatan

Analisis Varians

Sumber JK df RK Fhitung

Variasi


Regresi
JKR=  (Y  Y )
i
2 k
RKR 
JKR
k
RKR
RKS


Kesalahan
JKS=  (Y i  Yi ) 2 n-(k+1) RKS= JKS/n-k-1

Total JKT=  (Y  Y )
i
2 n-1
RKT 
JKT
n 1

132
Uji t

Uji t digunakan untuk mengetahui pengaruh secara parsial atau


menguji signifikasi pengaruh suatu variabel bebas terhadap variabel tak
bebas (terikat) digunakan uji t. Uji ini dinamakan juga Uji parsial. Dalam
pengujian ini ingin diketahui apakah jika secara terpisah, suatu variabel X
masih memberikan kontribusi secara signifikan terhadap variabel terikat Y.

Hipotesis Statistik:

Hipotesis
Ho : β1 = 0, Variabel X1, tidak berpengaruh signifikan terhadap variabel
Y
Ha : β1 ≠0, Variabel X1 berpengaruh signifikan terhadap Y

Demikian juga untuk variabel bebas lainnya

Kriteria:
t hitung ≤t tabel = Ho diterima
t hitung > t tabel = Ho ditolak, H1 diterima

bi
ti  , i = 1,2, 3 …………n ……. (5.11)
sbi

se
sb1 
 X 1
2
 nX 12 1  r12  2

atau
se
sb1  x1  ( X 1  X 1 )
 x 1  r 
, dimana
2 2
1 12

sedang
se
sb2 
 X 2
2  nX 22 1  r12  2

atau

133
se
sb2  x2  ( X 2  X 2 )
 x 1  r 
, dimana
2 2
2 12

se 
 (Y  Yˆ ) 2

atau
n  k 1

se 
y 2
 b1  x1 y  b2  x2 y
n  (k  1) , x2  ( X 2  X 2 )

k = jumlah variabel bebas

Standar error

t hitung dapat dihitung dengan formula atau persamaan (5.10).


Daerah Keputusan

Tolak Ho Tolak Ho
Ho

-t α/2 t α/2

Contoh Soal:

No. X1 X2 Y X1Y X2Y Y^2 x1 x2 y x1^2 x2^2 x1x2 x1y x2y y2

- -
1 7 4 2 14 8 4 -9.8 13.8 7.4 96.04 190.4 135.2 72.52 102.12 54.76

- -
2 11 5 3 33 15 9 -5.8 12.8 6.4 33.64 163.8 74.24 37.12 81.92 40.96

-
3 16 8 5 80 40 25 -0.8 -9.8 4.4 0.64 96.04 7.84 3.52 43.12 19.36

-
4 18 10 4 72 40 16 1.2 -7.8 5.4 1.44 60.84 -9.36 -6.48 42.12 29.16

- -
5 10 25 14 140 350 196 -6.8 7.2 4.6 46.24 51.84 48.96 31.28 33.12 21.16

134
6 21 22 15 315 330 225 4.2 4.2 5.6 17.64 17.64 17.64 23.52 23.52 31.36

7 25 19 16 400 304 256 8.2 1.2 6.6 67.24 1.44 9.84 54.12 7.92 43.56

8 21 27 15 315 405 225 4.2 9.2 5.6 17.64 84.64 38.64 23.52 51.52 31.36

9 31 26 16 496 416 256 14.2 8.2 6.6 201.6 67.24 116.4 93.72 54.12 43.56

-
10 8 32 4 32 128 16 -8.8 14.2 5.4 77.44 201.6 -125 47.52 -76.68 29.16

 168 178 94 1897 2036 1228 0 0 0 559.6 935.6 216.6 317.8 362.8 344.4

n n
b1  xi21  b2  xi1 xi 2   xi1 yi
i 1 i 1

n n
b1  xi1 xi 2  b2  xi22   xi 2 yi
i 1 i 1

559.6 b1 +216.6 b2 = 317.8

216.6 b1+ 935.6b2 = 362.8

b1 = 0.459
b2= 0.282

yˆ i  0,459 xi1  0,282 xi 2

Yˆ  9.4  0.459 ( X 1  16 .8)  0.282 ( X 2  17 .8)

Yˆ  3,321  0,459 X 1  0,282 X 2

Selanjutnya akan dihitung nilai koefisien korelasi R dan koefisien determinasi R2

n n
b1 x yb x y
i 1
1 2
i 1
2
R2  n
…………….(3)

i 1
y2

0,459 (317 .8)  0,282 (362 ,8)


R2 
344 .4

135
R 2  0,720

R  R2

R  0.720

R  0,849

Uji F

R 2 /( k  1)
F
(1  R 2 ) /( n  k )

0,72 /(3  1)
F  9.00
(1  0.72) /(10  3)

Analisis Varians : Persamaan Yˆ  3,321  0,459 X 1  0,282 X 2

Sumber JK df RK Fhitung
Variasi
Regresi JKR= 248,180 2 RKR=124,090 RKR =9.027
Kesalahan JKS= 96,22 7 RKS=13,747 RKS
Total JKT= 344,400 9 RKT  38,267

se
sb1 
 X 1
2

 nX 12 1  rX 1 X 2
2

Atau

se
sb1  dimana
 x 1  r
2
1 X 1X 2
2

se 
y 2
 b1  x1 y  b2  x2 y
n  (k  1)

136
344.4  0.459(317.8)  0.282(362.8) 96.4125
se    3.71123
n  (k  1) 10  (2  1)

3.71123
sb1   0.16441
559,61  0.299 2 
Sehingga t hitung

b1 0.459
t hitung    2.7915
s(b1 ) 0.16441

Hal yang sama untuk variabel X2 diperoleh

se
sb2 
 X 2
2 
 nX 22 1  rX 1 X 2
2

3.71123
sb1   0.12715
935,61  0.299 2 
b2 0,282
t hitung    2,214
s(b2 ) 0,12715

Membandingkan t tabel dengan t hitung, jika t hitung lebih besar dati


pada t tabel maka terdapat pengaruh yang signifikan dari variabel bebas
terhadap variabel tak bebas. Dari tabel distribusi t dengan tingkat kesalahan
  0,05 dengan derajat kebebasan n-(k+1) =10-3=7 diperoleh
t( / 2; 0,05;7)  2,365. Berdasarkan perhitungan yang telah dilakukan
diperoleh thitung = 2,792 untuk variabel X1 dan thitung = 2,214 untuk variabel
X2, sehingga thitung = 2,792 > ttabel = 2,365. Dengan demikian disimpulkan
bahwa X1 memiliki pengaruh yang signifikan terhadap Y pada taraf
keyakinan atau tingkat kesalahan  = 5%. Sedang untuk X1 diperoleh
thitung = 2,214< ttabel = 2,365, sehingga variabel X2 memiliki pengaruh yang
tidak signifikan terhadap variabel Y pada tingkat kesalahan  = 5%.

137
Menghitung korelasi parsial

Correlations

VAR00003 VAR00001 VAR00002

Pearson Correlation VAR00003 1.000 .724 .639

VAR00001 .724 1.000 .299

VAR00002 .639 .299 1.000

Sig. (1-tailed) VAR00003 . .009 .023

VAR00001 .009 . .200

VAR00002 .023 .200 .

N VAR00003 10 10 10

VAR00001 10 10 10

VAR00002 10 10 10

rx1 y  0.724 rx 2 y  0.639 rx1x 2  0.299

Dari data dapat dihitung

rx1 y  (rx 2 y )( rx1x 2 )


rx1 y..x 2 
[1  (rx 2 y ) 2 ][1  (rx1x 2 ) 2 ]

Dari data dapat dihitung:

rx 2 y  (rx1 y )(rx1x 2 )
rx 2 y. x1 
[1  (rx1 y ) 2 ][1  (rx1x 2 ) 2 ]

138
0.724  (0.639)(0.299) 0.529 0.529
rx1 y..x 2     0.720
[1  (0.639) 2 ][1  (0.299) 2 ] 0.592(0.911) 0.734

0.639  (0.724)(0.299) 0.423 0.423


rx 2 y. x1     0.644
[1  (0.724) ][1  (0.299) ]
2 2
0.47624 (0.9111) 0.656

5.3. Model Regresi Terbakukan


Model regresi terbakukan (standardized regression model) adalah
model yang diperoleh dengan melakukan transformasi variabel tak bebas
Y dan X ke bentuk standard dengan menggunakan rumus standar baku
sebagaimana yang lazimnya digunakan.

Misalkan Model Regresi linear berganda sebagai

Y = b0 + b1 X1 + b2 X2 + … + bn Xn + ε

Ditransformasikan ke bentuk:

(Y  Y ) ( X  X1) (X 2  X 2) (X n  X n )
 1 1  2  ...   n E
Sy S X1 S X2 S Xn

Atau

Y *  1 X 1*   2 X 2*  ...   n X n*  E

Dimana:

Sehingga persamaan di atas dapat dukatahui bahwa

139
Y * Y
 n   bn
X n* X n

Agar variabel-variabel bebas yang diuji dapat diperbandingkan


pengaruhnya terhadap variabel terikat, maka satuan koefisien regresi
variabel-variabel bebas tersebut harus distandarisasi. Koefisien regresi yang
distandarisasi ditunjukkan dengan nilai BETA. Karena telah distandarisasi,
maka antar variabel bebas dapat dibandingkan sehingga peneliti dapat
menemukan variabel bebas manakah yang memiliki pengaruh dominan
terhadap variabel terikat. Meski demikian, salah satu kelemahan
penggunaan koefisien BETA adalah bahwa interpretasi menjadi sulit karena
kita harus mengaitkannya dengan standar deviasi variabel. Untuk hal ini,
maka penggunaan unstandardized koefisien tidak muda diinterpretasikan.
Namun demikian dicoba menjelaskan, misalkan persamaan regresi
diperoleh sebagai

Y  0,32 X 1  0,41 X 2

Koefisien 0,31 mempunyai makna bahwa untuk setiap kenaikan


simpangan baku pada nilai variabel bebas X1, maka simpangan baku pada
variabel Y naik sebesar 0,5. Sedang koefisien 0,31 mempunyai makna
bahwa untuk setiap kenaikan simpangan baku pada nilai variabel bebas X2,
maka simpangan baku pada variabel Y turun sebesar 0,5, atau dapat
dikatakan semakin tinggi nilai variabel X1 maka semakin tinggi pula
variabel Y sedang variabel X2, Y semakin rendah.

5.4. Prediksi

5.4.1. Prediksi Rata-rata Y

Prediksi rata-rata Y yang disimbolkan E (Y ) dan nilai


X 0  ( X 1 , X 2 ,....X k ) yang telah ditentukan terdahulu, maka nilai terduga
(fitted value) adalah

Y0  X 0t b

 Y0  E (Y / X 0 ) 
t   t, / 2, n  2  1
 , / 2, n  k s 1  X t ( X t X )t X 
 0 0 

Interval keyakinan 95% atau(1-α) pada titik ( X 1 , X 2 ,....X k )

140
Yˆ  t
0 , / 2, n  k 
s 1  X 0t ( X t X )t X 0  E (Y / X 0 )  Yˆ0  t, / 2, n  k s 1  X 0t ( X t X )t X 0  1  

Yˆ0  t, / 2, n  k s 1  X 0t ( X t X )t X 0  E (Y / X 0 )  Yˆ0  t, / 2, n  k s 1  X 0t ( X t X )t X 0

5.4.2. Prediksi Nilai Y aktual

Anggaplah akan diprediksi nilai Y dengan nilai X tertentu

X 0  ( X 1 , X 2 ,....X k ) , maka predictor

c  X 0t b

c  t , / 2, n  k s 1  X 0t ( X t X )t X 0 , c  t, / 2, n  2 s 1  X 0t ( X t X )t X 0 
Jadi Y prediksi ( Y0 ) diantara interval kedua nilai, sehingga

c  t, / 2, n  k s 1  X 0t ( X t X )t X 0  Y0  c  t, / 2, n  k s 1  X 0t ( X t X )t X 0

Soal-soal

1. Apa yang dimaksud dengan regresi linear berganda. Apa bedanya


dengan regresi linear sederhana ditinjau dari pemodelan dan
pengujian hipotesis
2. Sebutkan dan jelaskan asumsi-asumsi yang harus dipenuhi regresi
linear berganda.
3. Buat Regresi Linear Berganda dengan menggunakan data
hipotetis. Model yang dibuat harus didasarkan pada teori, seperti
misalnya teori konsumsi dari Keynes. Setiap mahasiswa harus
mengerjakan datanya sendiri, berbeda dengan data mahasiswa lain.
a. Jelaskan persamaan regresi yang diperoleh
b. Coba sajikan analisis of Varians
c. Lakukan uji secara simultan dan parsial
d. Uji keberartian dari koefisien yang diperoleh
e. Apa arti nilai R2 yang diperoleh
f. Hitung nilai korelasi parsial dari setiap variabel bebas dan
jelaskan artinya

141
4. Buat Regresi Linear Berganda dengan menggunakan data
hipotetis. Model yang dibuat harus didasarkan pada teori, seperti
misalnya teori konsumsi dari Keynes. Setiap mahasiswa harus
mengerjakan datanya sendiri, berbeda dengan data mahasiswa lain.
a. Jelaskan persamaan regresi yang diperoleh.
b. Buat judul mengenai untuk analisis Anda
c. Variabel apa yang memberikan pengaruh lebih besar Jelaskan
mengapa?
d. Berapa nilai koefisien korelasi ganda dan koefisien
determinasinya? Apa artinya?

5. Diketahui data berikut:

a. Tentukan hubungan variabel sesuai dengan teori yang Anda


ketahui
b. Cari persamaan regresinya secara manual
c. Tentukan korelasi parsialnya semua yang mungkin
d. Hitung kesalahan baku dari pendugaan regresi yang diperoleh
e. Lakukan uji F dengan menggunakan Tabel F pada taraf
keyakinan   0.05
f. Lakukan uji t dengan menggunakan Tabel t pada taraf keyakinan
  0.05
g. Lakukan peramalan dengan interval keyakinan 1-   95%
dengan menentukan nilai-nilai variabel bebas terdahulu
6. Kerjakan nomor 5 (dari a sampai g) dengan menggunakan fungsi
Cobb Douglas dengan variabel tak bebas adalah Inflasi.

142
BAB VI
REGRESI NON LINEAR

6.1. Pendahuluan

Gejala dan fakta ekonomi yang terjadi dengan melibatkan dua


variabel umumnya digambarkan dalam bentuk garis lurus dengan
menggunakan regresi linear sederhana, baik dalam tujuan ilmiah ataupun
bisnis dan ekonomi. Namun pada banyak kejadian justru data yang ada
ternyata banyak yang menunjukkan garis nonlinear, sehingga regresi yang
digunakan tentu non liner pula, bukan garis lurus.

Peristiwa alam atau sosial, sering merupakan kejadian yang dapat


dimodelkan dengan persamaan regresi. Berdasarkan hubungan kelinearan
antar parameter dalam persamaan regresi, model regresi mempunyai dua
bentuk hubungan kelinearan yaitu regresi linear dan regresi nonlinear.
Seringkali kejadian dalam kehidupan sehari-hari lebih sering merupakan
pola model regresi nonlinear. Untuk itu dalam makalah ini akan dibahas
mengenai model regresi nonlinear. Beberapa penelitian yang menggunakan
regresi non-linear diantaranya oleh Miconnet, Geeraerd, Impe, Roso, dan
Cornu (2005) yaitu memodelkan produksi padi dengan least square non-
linear dalam pemodelan kurva pertumbuhan dalam produksi. Sebagai
contoh hubungan antara pendapatan per kapita dengan produksi dan
konsumsi CO2 yang dapat dilihat pada Gambar 6.1. Terlihat bahwa kurva
EKC (environmental Kuznets Curve) adalah suatu hubungan yang non
linear antara pendapatan per kapita dengan produksi dan konsumsi dengan
fungsi

ln Yct   o  1 ln X ct untuk produksi CO2 yang naik secara monoton dan


Yct  o  1 X ct   2 X ct2 berbentuk U terbalik ( Inverted U), perhatikan
tanda positif atau negatif pada kedua fungsi tersebut.

Bentuk umum Regresi nonlinear (Bates and Watts, 2007), dapat


ditulis

143
Yn  f ( X k ,  )

`dimana

Yn adalah varaibel independen pada observasi ke-n

X k adalah varaibel independen yang ke-k

f adalah fungsi ekspektasi yang biasa dinyatakan E ( X / x) dan  adalah


parameter,

Sebagai contoh regresi eksponensial Y  ab e , dimana a dan b


X u

adalah parameter dan berbagai fungsi atau regresi nonlinear lainnya yang
akan diutarakan dalam bab ini.

Production, Consumption

Sumber: Makarov, 2018

Gambar 6.1. Kurva EKC

Analisis Regresi pada dasarnya dapat dibajai menjadi dua kelompok


utama, yaitu linear dan nonlinear, sebagaimana terlihat pada Gambar 6.2.
Selanjutnya Kedua bagian tersebut dipecah lagi kepada beberapa kelompok.
Pada kelompok nonlinear dibagi menjadi; polynomial, nonpolynomial dan
bentuk khusus. Dalam bentuk khusus ini terlihat pada gambar yang sama
bahwa regresi dengan parameter nonlinear, dikelompokkan lagi menjadi
logistik (akan dibahas secara rinci), CES (constant elasticity of substitution)
dan fungsi translog (transendental logaritmik function), sebagaimana akan
dibicarakan dalam sub bab ini. Pada dasarnya Pengelompokan Analisis
regresi dapat dibagi menjadi dua kelompok, yaitu regresi linear dan regresi

144
nonlinear. Selanjutnya kedua kelompok ini dapat dipecah kepada beberapa
bagian (Gambar 6.2).

Fungsi Regresi

Regresi Linear Regresi Non


Linear

Regresi Regresi Regresi Memiliki bentuk Tidak memiliki


Linear Linear Linear linear bentuk Linear
Sederhan Berganda Multivariat
a
Nonpolinomial

-Eksponential Polinomi Tipe Khusus


al (Parameter
-Invers tidak linear)
Eksponential -Kuadratik
-Logistik
-Logaritma -Kubik
-CES
-Geomterik/
-Bikuadrat
-Translog
Power
Tipe fungsi Regresi Linear hanya dibagi menjadi tiga, yaitu regresi liner
sederhana, regresi liner berganda dan regresi multivariat, selanjutnya fungsi
-Hiperbolik

regresi nonlinear terbagi kepada fungsi yang memiliki bentuk liner dan
yang tidak memiliki bentuk linear, selanjutnya kedua bentuk non liner ini
dibagi lagi kepada beberapa bagian (Gambar 6.2).

6.2. Beberapa Model Regresi Non Linear


6.2.1. Sederhana (satu variabel bebas)
a. Fungsi polynomial, ini pada umumnya adalah memiliki bentuk
persamaan regresi sebagai
Yt   o  1 X t   2 X t2   3 X t3  ...   n X tn   t

Ini dapat berupa, kuadratik, kubik atau lainnya (tergantung pangkat


tertinggi)

Parabola kuadratik
145
Yt  o  1 X t   2 X t2   t

Parabola kubik

Yt  o  1 X t   2 X t2  3 X t3   t

b. Eksponen

Y  ab X eu
atau bentuk lain

Y  aebX eu

c. Invers Eksponensial

eY  ab X eu

d. Geometrik atau Power

Y  aX b eu

e. Logistik

ez eu
Y  e  , atau Y  , dimana z = a+bx
1 e z
1  ez

146
f. Invers

b
ln Y  a  
X

g. Hiperbola

1
Y
a  bX  

1
 a  bX  
Y

Beberapa bentuk Regresi Nonlinear yang berupa log regresi atau


lainnya dapat ditulis sebagai:

No. Bentuk Fungsi Regresi Elastisitas Slop


Populasi
1. Kuadratik, Yi =  0 + 1X1 + 2 X2 1  2cX 2
1 X  2cX 2
+u
(  0  1 X 1   2 X 22 )
1 linear-log Yi =  0 + 1ln(Xi) + ui 1 1
(  0  1 ln X ) X
2 log-linear ln(Yi) =  0 + 1Xi + ui 1Xi 1e  0  1 X 

3 log-log ln(Yi) =  0 + 1ln(Xi) + 1 1 0 X i 11

ui
4 Hiperbola b b b
Y  a
X ( aX  b ) X 2
5 Eksponensial Y  e a  bX bX bea bX

147
Transformasi
Transformasi adalah upaya untuk mengubah skala pengukuran,
mengubah bentuk regresi ke dalam berbagai bentuk yang sesuai dengan
diagram pencar data. Pada diagram pencar dapat diperhatikan dan
ditetapkan bentuk yang sesuai dengan data yang dianalisis. Penggunaan
transformasi dapat dilakukan jika model (linear atau dilinearkan)
melanggar asumsi regresi linear atau mendapatkan hasil yang tidak
signifikan pada tingkat kesalahan tertentu (misalnya α=0,05). Dalam hal ini
variabel bebas atau variabel tak bebas dapat ditramsformasi. Jika
transformasi dilakukan pada variabel tak bebas maka disebut transformasi
fungsi regresi, sehingga transformasi ini juga mengambil beberapa bentuk,
tergantung transformasi yang akan diterapkan dalam variabel tak bebas ini.
Beberapa bentuk transformasi

Transformasi Akar kuadrat, misalnya

Y   o  1 X 1   2 X 2  

Transformasi Logaritma, misalnya

Y   o  1 ln( X 1 )   2 ln( X 2 )  

Transformasi kuadrat, misalnya

Yt  o  1 X t  2 X t2 t

Transformasi inverse (kebalikan),

1
Yt   o   t
X

148
Transformasi fungsi invers eksponensial

eY   o  1 X   t

6.2.2. Ganda (lebih dari satu variabel bebas)

a. Fungsi Cobb Douglas

n
Y  A X i e u ,
bi
i 1
Atau

n
ln Y  ln A  bi  ln X i + 
i 1

Untuk dua variabel bebas dinyatakan sebagai


Y  AK  L eu ,     1 (bentuk asli fungsi Cobb
Douglas)

b. Fungsi CES (Constant elasiticity of subsitution)

Fungsi produksi CES dikembangkan oleh Arrow, Chenery, Minhas dan


Solow yang pada tahun 1961 menulis artikel dengan judul: Capital-labor
Substitution and economic efficiency. Fungsi produksi CES dinyatakan


Y  A L  1   K  
1/ 

dimana:
Q = output/ jumlah produksi
K = kapital
L = tenaga kerja

 adalah parameter yang menunjukkan bobot atau intensitas dari


modal dan tenaga kerja 0 <  <1, A adalah parameter efisiensi dan 
adalah parameter substitusi dan bukan elastisitas substitusi (=), karena

1
 , dan -1 <  < 
(1   )
a. Fungsi Translog (transcendental logaritmic function)

149
n m
n
bi (0,5)   ln X i ln X j
Y  A X i e b i 1 i 1 j 1
i 1

Atau
n n m
ln Y  ln A  bi  ln X i  (0,5)bi 1  ln X i ln X j
i 1 i 1 j 1

Untuk dua variable bebas diperoleh:

 1  2 0,5 {( 3 (lnK)2 +  4 (ln L)2 +  5 (lnK lnL)}


Q =BK L e

Atau

lnQ = ln B + 1lnK + 2lnL + 0,5 3(lnK)2 + 0,5 4 (lnL)2

+ 0,5 5 (lnK ) (lnL)

(Intriligator, 1980; 280)

Uji Deteksi Non-linear dengan Uji Ramsey’s RESET

Uji Ramsey’s RESET, Uji White dan Uji Terasvirta untuk


mendeteksi apakah suatu model mengikuti pola linear atau non-linear
tersedia dalam software R. Statistik uji Ramsey’s RESET adalah (Lihat
pembahasan lengkap di Gujarati, 1996).

2
(Rnew  Rold
2
)/ p
F
(1  Rnew ) / (n  k)
2

dengan p jumlah variabel independen baru, k jumlah parameter pada


model baru, n jumlah data. Kesimpulannya Ho ditolak bila F > F(,p,n-
k)

150
6.3. Regresi Nonlinear Geometrik

Regresi non linear geometrik adalah salah satu regresi yang paling
umum digunakan dalam penelitian dengan fungsi bentuk geometrik.
Regresi nonlinear bentuk geometrik atau disebut juga power dapat
dinyatakan :

Y  aX b eu

Diperoleh bentuk linear sebagai

ln Y  ln a  b ln X  

Beberapa keistimewaan dari regresi ini. Salah satunya adalah


pangkat dari variabel bebasnya adalah elastisitas sendiri. Fungsi ini
merupakan dasar merupakan titik tolak pengembangan untuk
mendapatkan fungsi produksi Cobb-Douglas asal (terdiri dua variabel
bebas dengan jumlah pangkat adalah 1). Fungsi ini dapat dikembangkan
dengan menggunakan lebih dari satu variabel bebas. Karena pangkat yang
merupakan elastisitas menyebabkan fungsi atau regresi ini tidak sulit dalam
menafsirkan parameter-parameter yang diperoleh, tidak memperhatikan lagi
satuannya, kecuali konstanta a (tetap harus memperhatikan satuan Y). Di
sini dapat dibuktikan bahwa pangkat dari fungsi Geometris ini adalah
elastisitas

Bukti:

Y  AX 

dY
 AX  1
dX

151
dY Y

dX X

Sehingga
dY

dY X  Y
 dX
dX Y Atau X

Contoh:

No. X Y lnX=X* lnY=Y* X*Y* X*^2

1 9 16 2.197225 2.772589 6.092 4.827796

2 27 37 3.295837 3.610918 11.901 10.86254

3 64 41 4.158883 3.713572 15.44431 17.29631

4 79 62 4.369448 4.127134 18.0333 19.09207

5 82 63 4.406719 4.143135 18.25763 19.41917

6 52 31 3.951244 3.433987 13.56852 15.61233

7 42 25 3.73767 3.218876 12.03109 13.97017

8 39 38 3.663562 3.637586 13.32652 13.42168

9 30 28 3.401197 3.332205 11.33349 11.56814

10 26 15 3.258097 2.70805 8.823089 10.61519

Σ 36.43988 34.69805 128.8109 136.6854

Dengan menggunakan rumus

n X *i Y *i  X *i Y *
b
i
152
n X *i  ( X *i )
2 2
n n
n X *iY *i  X *i Y *i
b1  i 1 i 1
n X *i2  ( X *i ) 2
X *  ln( X )

Y *  ln( Y )

Hasil perhitungan diperoleh

10 (128,81)  (36,44)(34,69)
b
10 (136,68)  (36,44) 2

a = 1.2532 dan

b = 0,6083

Dari persamaan :

ln Y  1.253  0.608 ln X

Atau dalam bentuk nonlinear,

Y  3,5015 X 0.608

3.5015 = anti ln (1.253).

Makna persamaan tersebut jika X naik atau turun 1% maka Y akan naik
atau turun 0,608 %. Demikian juga jika X=1 atau 100% maka Y=
3,5015

Pengujian keberartian atau signifikansi dapat dilanjutkan sebagaimana


yang telah dijelaskan

6.4. Regresi non linear dengan fungsi bentuk kuadratik

Y  a0  a1 X  a2 X 2  e

153
dY
 a1  2a2 X
dX

Jadi kemiringan bervariasi dari setiap nilai dari X

No. Y X1 X2 X1Y X2Y X1^2 X2^2 X1X2

1 3 2 4 6 12 4 16 8

2 7 5 25 35 175 25 625 125

3 18 7 49 126 882 49 2401 343

4 23 8 64 184 1472 64 4096 512

5 25 9 81 225 2025 81 6561 729

6 20 10 100 200 2000 100 10000 1000

7 15 11 121 165 1815 121 14641 1331

8 11 11 121 121 1331 121 14641 1331

9 9 12 144 108 1296 144 20736 1728

10 4 15 225 60 900 225 50625 3375

Σ 135 90 934 1230 11908 934 124342 10482

Dari tabel dapat dibuat persamaan

135 = 10 b0+ 90 b1+ 934 b2


1230 = 90 b0+ 934 b1+ 10482 b2
11908= 934 b0+10482 b1 + 124342 b2

Diselesaikan dengan metode Cramer yang menggunakan determinant

154
n Y  X 2 10 135 934
X 1 X Y X X 1 1 2 90 1230 10482
X X Y X
2
934 11908 124342 20118720
b1   
2 2 2

n X X 1 2
10 90 934 2914176
 X1  X X
2
X 1 1 2
90 934 10482

X X X X
2
934 10482 124342
2 1 2 2

=6.9037

10 90 135
90 934 1230
934 10482 11908  1180640
b2   = -0,40514
10 90 934 2914176
90 934 10482
934 10482 124342

  
b0  Y  b1 X1  b2 X 2  13.5  6.9037 (9)  0.40514 (93.4)  -10.7939

Dengan demikian persamaan regresi nonlinearnya dapat ditulis sebagai

Yˆ  10,7939  6,9037 X 1  0.40514 X 2


2

Persamaan tersebut dapat dihitung nilai maksimumnya, turunan


pertama sama dengan nol, sehingga

dY
 6,9037  2(0.40514 ) X  0
dX

dY
 6,9037  2(0.4051) X  0
dX
0.8102 X  6,9037

X  8,5210

d 2Y
 0.8120 < 0
dX 2

155
Jadi fungsi tersebut maksimum pada saat X = 8,5210
dengan nilai maksimumnya

Yˆ  10,7939  6,9037 (8,521)  0.40514 (8,521) 2


Yˆ  18,619

6.5. Regresi Eksponensial


Salah satu bentuk regresi nonlinear adalah regresi non linear
eksponensial. Bentuk regresi ini sering digunakan oleh peneliti sebagai
model untuk menggambarkan dan memprediksi output penelitiannya.
Sebagaimana diketahui bahwa regresi ini, sangat umum digunakan karena
dapat diterapkan dalam berbagai bidang ilmu, khususnya yang menyangkut
pertumbuhan biologis. Oleh karena itu banyak peneliti menggunakan
regresi atau fungsi ini sebagai model penelitiannya.
Sebagaimana yang telah dikemukakan sebelumnya bahwa secara
matematis fungsi eksponensial dapat dinyatakan dengan:

Y  ab X

Dapat dinyatakan dalam bentuk linear

ln Y  ln a  (ln b) X
atau dengan bentuk probabilistik atau persamaan regresi (statistik)

Y  abcX e

Atau dapat ditulis dalam persamaan regresi linear sederhana


menjadi:

ln Y  ln a  (ln b) cX  

a*  ln( a )

Y *  ln( Y )

b*  c ln( b)
Y *  a * b * X  

Jadi dengan mudah dapat ditentukan nilai-nilai parameter a dan b jika c


ditentukan terlebih dahulu.

Bentuk khusus dari fungsi eksponensial ini adalah jika b = e dimana


e adalah bilangan natural

Sehingga persamaan

156
Y  ae cX e 

ln Y  ln a  cX  

Y *  a * cX *  

Fungsi eksponensial ini sering digunakan dalam prediksi dengan


memperhatikan trend.

Contoh:
Diketahui data berikut:

Tahun 1 2 3 4 5
Produksi 50 70 80 85 86
(ton)

Disususn dalam tabel sebagi berikut:

Tahun Y X lnY=Y* X* XY* X*^2 X^2

2013 50 1 3.912 -2 -7.82405 4 1

2014 70 2 4.2485 -1 -4.2485 1 4

2015 80 3 4.382 0 0 0 9

2016 85 4 4.4427 1 4.44265 1 16

2017 86 5 4.4543 2 8.90869 4 25

21.44 0 1.2788 10 55

Dengan menggunakan rumus

n X *Y *   X *  Y * (5)(1,2788 ) 6.394
b    0,12788
n X *2  ( X * ) 2 (5)(10) 50

b = 0,128

21,44
a  Y  bX   4.288
5
157
a= 4,288

Dengan demikian diperoleh persamaan regresi dalam bentuk linier


sebagai

ln Y  4,288  (0,128) X

Atau dalam bentuk exponential diperoleh

Y  (72,821)(1,1366 ) X
Tahun dasar adalah tahun 2015 atau pertengahan periode

Cara penyelesaian yang lain adalah mengambil variabel X asal


sehingga dengan menggunakan rumus yang sama diperoleh:

n X iYi   X i  Yi (5)(1,2788 )  (15)( 21,44) 6.394


b    0,12788
n X i  ( X i ) 2 (5)(55)  (15) 2
2
50

21,44 15
a  Y  bX   0,1279  3.904
5 5

ln Y  3,904  (0,128) X

Y  (49,60)(1,1366 ) X
…………….(12)

Selanjutnya jika b= e =2,7182818 dalam fungsi eksponensial


diperoleh

Y  aecX

ln Yˆ  ln a  cX

ln Yˆ  3,904  0,128 X
atau 
Y  (49,60)e 0,128X  (49,60) e 0,128 
X
 (49,60)(1,1366) X
jadi

Y  (49 ,60 )e 0,128X


atau Y  (49,60 )(1,1366 )
X
ln Yˆ  3,904  0,128 X dapat ditulis

158
sehingga untuk estimasi kedua persamaan dapat digunakan kedua
persamaan, ambil contoh estimasi pada tahun 2018
pertama, persamaan 12

Y  (49,60)(1,1366 )6  106,93

Y  (72,821)(1,1366 )3  106,94

Jadi keduanya sama, hanya perbedaan desimal kedua akibat


pembulatan
Tahun dasar adalah tahun 2012

6.5. Regresi dengan Fungsi Cobb Douglas

Fungsi Cobb Douglas sangat banyak digunakan dalam penelitian


dalam berbagai ilmu, khususnya dalam ekonomi dan bisnis. Jika fungsi ini
dijadikan fungsi regresi maka jelas termasuk Regresi non linear berganda,
karena asal dari fungsiu ini terdiri dari satu varaibel tak bebas dan dua 2
variabel bebas.
Adapaun fungsi Cobb –Douglas secara matematis dapat ditulis

Y  AK  L    1

Dimana

Y adalah jumlah produksi/ output


K adalah jumlah kapital
L adalah jumlah tenaga kerja

Salah satu keistimewaan fungsi ini adalah dengan pangkat dari


faktor input (kapita dan tenaga kerja ) merupakan elastisitas terhadap
output. Hal ini dapat dibuktikan sebagai berikut:

Y  AK  L

Y 
 AK   1L , atau
K

159
Y AK  L


K K

Y Y

K K

Y K
 atau
K Y

Y
 Y
K
K
Jadi  merupakan elastisitas yang menggambarkan persentase
perubahan ouput Y per persentase perunahan input K . Dengan kata lain 
merupakan rasio pertumbuhan output Y terhadap pertumbuhan kapital K
Demikian juga untuk input L dengan mudah juga dapat dibuktikan.
Selanjutnya pada persamaan atau fungsi Cobb Douglas, jumlah dari
elassitas faktor input menunjukkan tingkat tambahan hasil (return scale)
yang berlaku sebagi berikut:

Secara statsitik atau stokastik, fungsi Cobb- Douglas ini dapat


ditulis sebagai

Y  AL K e
 

Fungsi dapat di linearkan dengan dengan mengambil logaritma natural dari


persamaan di atas sehingga

ln Y  ln A   ln L   ln K   (*)

Diamna  adalah suku kesalahan random (random error) atau eror saja.

Dengan memisalkan

ln Y  Y *

ln K  K *
160
ln L  L *

Maka persamaan (*) dapat ditulis:

Y *  ln A   ln L *  K *

Dalam Pengembangan dan penerapannya,     1 tidak selalu


berlaku (dan sangat jarang terjadi, jumlah elasitas =1), demikian pula
variabel bebas dapat ditambah sesuai dengan keperluan atau model
penelitian yang dibangun, sehingga model umum persamaan Cobb
Douglas:

    
Y  AX 1 1 X 2 2 X n 3 .....X n n e

Atau ditulis secara singkat

n

Y  A X i i e
i 1

Sifat fungsi Cobb-Douglas:

a. Penjelasan fungsi Cobb-Douglas relatif lebih mudah dibanding


dengan fungsi lain, karena fungsi Cobb-Douglas dapat dengan mudah
ditransfer ke bentuk linear dengan cara melogaritmakan baik dengan
log atau logaritma natural (ln)
b. Hasil pendugaan parameter fungsi Cobb-Douglas tidak ada lain adalah
elastisitas, dengan kata lain pangkat dari fungsi ini adalah elastisitas
sendiri
c. Jumlah besaran elastisitas sekaligus menunjukkan tingkat besaran
skala usaha ( return to scale), berguna untuk mengetahui kaidah
skala usaha yang bisa dalam keadaan menaik, tetap atau menurun
d. Koefisien intercept dari fungsi Cobb-Douglas merupakan Indeks
Efisiensi Produksi yang secara langsung menggambarkan efisiensi
penggunaan input dalam menghasilkan output dari sistem produksi
yang sedang dikaji

Tetapi fungsi Cobb-Douglas ini juga mempunyai kelemahan-kelemahan,


antara lain :

a. Multicollineriatas dalam fungsi ini sulit dihindarkan meskipun


tealah diusahakan anatar berasaran korelasi antara varaibel –

161
varaibel independen tidak terlau tinggi seperti memperbaiki
spsesifikasi variabel yang diapakai
b. Kesalahan pengukuran variabel, hal ini terjadi bila data kurang
valid sehingga menyebabkan besaran elastisitas produksi yang
terlalu besar atau terlau kecil
c. Spesifikasi variabel yang keliru menyebabkan nilai elastisitas
produksi yang diperoleh negatif atau nilainya terlau besar atau
terlalu kecil. Spesifikasi ini akan menimbulkan terjadinya
multikolinearitas pada variabel bebas.
d. Bias terhadap variabel manajemen. Faktor manajemen merupakan
faktor penting untuk meningkatkan produksi karena berhubungan
langsung dengan variabel terikat seperti manajemen penggunaan
faktor produksi yang akan mendorong besaran elastisitas teknik dari
fungsi produksi ke arah atas. Manajemen ini berhubungan dengan
pengambilan keputusan dalam pengalokasian variabel input dan
kadang kala sulit untuk diukur dalam pendugaan fungsi Cobb-
Douglas.

Contoh Penerapan

Suatu perusahaan ayam potong menggunakan modal, X1 dan tenaga


kerja, X2 untuk menghasilkan produksi Y sebagaimana terlihat pada data
berikut:

lnY lnX1 lnX2

No. Y X1 X2 Y* X1* X2*

1 9 16 2 2.197 2.773 0.693

2 27 37 3 3.296 3.611 1.099

3 64 41 5 4.159 3.714 1.609

4 79 62 6 4.369 4.127 1.792

5 82 63 8 4.407 4.143 2.079

6 52 31 7 3.951 3.434 1.946

162
7 42 25 12 3.738 3.219 2.485

8 39 38 8 3.664 3.638 2.079

9 38 28 13 3.638 3.332 2.565

10 36 15 7 3.584 2.708 1.946

Σ 37 34.7 18.29

Penyelesaian soal regresi linear berganda secara manual telah


dijelaskan secara rinci pada bab 5 sehingga dalam penyelesaian soal ini,
digunakan Program SPSS yang hasilnya dapat dilihat sebagai :

Coefficientsa

Unstandardized Standardized
Coefficients Coefficients

Model B Std. Error Beta t Sig.

1 (Constant) -.278 .811 -.343 .741

Modal .858 .228 .656 3.766 .007

TenagaKerja .548 .193 .496 2.844 .025

a. Dependent Variable: ProduksiAP

Dari tabel tersebut diperoleh persamaan linear berikut

ln Y  0.278  0.858 ln X 1  0.548 ln X 1

Dimana:

Y adalah produksi ayam potong

163
X1 adalah modal

X2 adalah tenaga kerja

Dalam bentuk nonlinear (kembalikan ke dalam bentuk asal)

Y  (2.71828 ) 0.278 X 1
0.858 0.548
X2

Y  0.7573 X 1
0.858 0.548
X2

(2.71828 )  e
dimana

e = bilangan natural

2.2 Model Regresi Non-linear Parametrik


Berdasarkan kelinearan antar parameter pada model regresi, maka
suatu model regresi dapat diklasifikasikan menjadi dua macam yaitu model
linear dan non-linear. Model regresi dikatakan linear jika dapat dinyatakan
dalam model :
y   0  1 x1  2 x2  3 x3  ...   k xk  
(2)
Apabila model tidak dapat dinyatakan dalam model tersebut maka model
yang diperoleh adalah model non-linear. Secara umum model regresi non-
linear parametrik dengan 𝑌𝑖𝑗 sebagai variabel respon pada replikasi
sebanyak 𝑛𝑖 dan setiap nilai 𝑥𝑖 merupakan variabel independen.dapat
dinyatakan dalam persamaan (Ripley, 2002) :

Yij  f ( xi , )   ij
(3)
dengan f adalah fungsi regresi dengan parameter  yang harus diduga dan
 ij adalah kesalahan (error) dengan sifat N(0,α). Salah satu metode
pendugaan parameter dalam sistem non-linear adalah jalan tengah
Marquardt (Marquadt’s compromise). Metode Marquardt merupakan
kompromi atau jalan tengah antara metode linearisasi atau deret Taylor
dengan metode steepest descent (Draper & Smith, 1996). Sebagai contoh
bentuk non linear paramatrik

164
Yt = 81,84 + 102,40 exp(−t/203,19) +  .

Soal-soal

1. Buat suatu persamaan regresi non linear dengan menggunakan data


hipotetis. Uji pengaruh variabel bebas terhadap variabel tak bebas
pada taraf keyakinan   0,05 Apa nama variabel yang digunakan.
Hubungan atau fungsi apa yang digunakan. Apa makna koefisien
regresi yang diperoleh. Gambarkan hubungan antara kedua
variabel tersebut. Coba lakukan forecasting lima tahun ke depan.
Jumlah observasi yang digunakan minimal 12.
2. Dengan menggunakan data hipotetis coba Anda buat fungsi Cobb-
Doulas ( dua variabel bebas) atau fungsi geometris. Gambarkan
fungsi yang dimaksud. Uji keberartian koefisien Regresi non
linear tersebut. Jumlah observasi yang digunakan minimal 12.
3. Sebuah perusahaan memproduksi mentega, Y (kg) dengan tenaga
kerja terampil, X (orang) sebagai berikut:

X 0 1 2 3 4 5 6 7 8
Y 3 9 14 16 18 17 15 12 6

a. Buat persamaan regresi non liner dari fungsi :


bi
i). Y  AX i e u

ii). Y  a0  a1 X  a2 X 2  e

b. Uji pengaruh tenaga kerja terhadap produksi pada taraf


keyakinan α = 0,05
c. Tentukan nilai Y pada X= 20 dan juga X = 6,5.
d. Gambarkan kedua fungsi yang diperoleh.
4. Seorang ahli ekonomi mempelajari hubungan antara konsumsi listrik
rumah tangga dan jumlah ruangan dalam suatu rumah dengan
menggunakan regresi liner sederhana degan mendapatkan residual
sebagai berikut:

I 1 2 3 4 5 6 7 8 9 10
Xi 2 3 4 5 6 7 8 9 10 11
ei 3,2 2,9 - -2,0 - -1,2 -0,9 0,8 0,7 0,5
1,7 2,3

165
Plot residual ei dilawankan dengan Xi. Apa masalah yang
timbul dalam hal ini. Dapatkah melakukan transformasi untuk
mengatasi masalah tersebut.

5. Seorang ahli sosiologi menggunakan model regresi liner sederhana


untuk menghubungkan antara pendapatan per kapita dan rata-rata
tahun belajar di 12 kota. Nilai Y dan residual ei.

I 1 2 3 4 5 6 7 8 9 10
Yi 9,9 9,3 10,2 11 16 17 15 14 10 11
Ei -1,12 2,5 -1,76 -1.5 2,53 -1,2 -0,29 3,8 -3,7 0,74

a. Kuadratkan semua residual kemudian jumlahkan. Apa


komentar.
b. Hitung nilai-nilai Xi dan tentukan persamaan regresinya.
Berikan komentar yang diperoleh. Mengapa apa yang terjadi.
c. Plot residual dilawankan nilai Yi. Dari plot tersebut apa yang
akan diinformasikan.
d. Adakah residual yang melewati standar deviasi ei. Jelaskan

166
BAB VII
REGRESI DATA PANEL

7.1. Pendahuluan

Data panel adalah gabungan antara data runtut waktu (time series)
dan data silang (cross section). Data runtut waktu biasanya meliputi satu
objek/individu (misalnya harga saham, kurs mata uang, SBI, atau tingkat
inflasi), tetapi meliputi beberapa periode (bisa harian, bulanan, kuartalan,
atau tahunan). Data silang terdiri dari atas beberapa atau banyak objek,
sering disebut responden (misalnya perusahaan) dengan beberapa jenis data
(misalnya; laba, biaya iklan, laba ditahan, dan tingkat investasi) dalam suatu
periode waktu tertentu. Ketika suatu observasi dilakukan perilaku unit
ekonomi seperti rumah tangga, perusahaan atau Negara, kita tidak hanya
akan melakukan observasi terhadap unit-unit tersebut di dalam waktu yang
bersamaan tetapi juga perilaku unit-unit tersebut pada berabagai periode
waktu Regresi dengan menggunakan data panel disebut model regresi data
panel. Ada beberapa keuntungan yang diperoleh dengan menggunakan data
panel. Pertama, data panel merupakan gabungan data time series dan cross
section mampu menyediakan data yang lebih banyak sehingga akan
menghasilkan degree of freedom yang lebih besar. Kedua, menggabungkan
informasi dari data time series dan cross section dapat mengatasi masalah
yang timbul ketika ada masalah penghilangan variabel (omitted-variable).
Hsiao (1986), mencatat bahwa penggunaan panel data dalam
penelitian ekonomi memiliki beberapa keuntungan utama dibandingkan data
jenis cross section maupun time series.
1. Pertama, dapat memberikan peneliti jumlah pengamatan yang besar,
meningkatkan degree of freedom (derajat kebebasan), data memiliki
variabilitas yang besar dan mengurangi kolinieritas antara variabel
penjelas, di mana dapat menghasilkan estimasi ekonometri yang
efisien.
2. Kedua, panel data dapat memberikan informasi lebih banyak yang
tidak dapat diberikan hanya oleh data cross section atau time series
saja.
3. Ketiga, panel data dapat memberikan penyelesaian yang lebih baik
dalam inferensi perubahan dinamis dibandingkan data cross section.
Jadi Keuntungan yang diperoleh dengan memakai data panel :
a. Menghasilkan degree of freedom yang lebih besar.
b. Mengatasi masalah penghilangan variabel (ommited variabel)
c. Dapat mengurangi bias dalam pengestimasian karena data cukup
banyak.
d. Untuk mempelajari model perilaku individu.
e. Mempelajari perubahan yang bersifat dinamis.

7.2 Model Regresi Data Panel

167
Model Regresi Data Panel Data panel adalah data yang merupakan
hasil dari pengamatan pada beberapa individu atau (unit cross-sectional)
yang merupakan masing-masing diamati dalam beberapa periode waktu
yang berurutan (unit waktu) (Baltagi, 2005). Menurut Wanner&Pevalin
sebagaimana dikutip oleh Sembodo (2013) menyebutkan bahwa regresi
panel merupakan sekumpulan teknik untuk memodelkan pengaruh peubah
penjelas terhadap peubah respon pada data panel. Ada beberapa model
regresi panel, salah satunya adalah model dengan slope konstan dan
intercept bervariasi. Model regresi panel yang hanya dipengaruhi oleh salah
satu unit saja (unit cross-sectional atau unit waktu) disebut model komponen
satu arah, sedangkan model regresi panel yang dipengaruhi oleh kedua unit
(unit cross-sectional dan unit waktu) disebut model komponen dua arah.
Secara umum terdapat dua pendekatan yang digunakan dalam menduga
model dari data panel yaitu model tanpa pengaruh individu (common effect)
dan model dengan pengaruh individu (fixed effect dan random effect).
Menurut Jaya & Sunengsih (2009), analisis regresi data panel adalah analisis
regresi yang didasarkan pada data panel untuk mengamati hubungan antara
satu 15 variabel terikat (dependent variable) dengan satu atau lebih variabel
bebas (independent variable). Beberapa alternatif model yang dapat
diselesaikan dengan data panel yaitu,
Model regresi linier menggunakan data cross section dan time series.
a. Model dengan data cross section
Yi = α + β Xi + εi ;i = 1,2,....,N; dimana N = banyaknya data
cross section
b. Mode dengan data time series
Yt = α + β Xt + εt ; t = 1,2,....,T, dimana T = banyaknya data
time series
c. Mengingat data panel merupakan gabungan dari data cross
section dan data time series, maka modelnya dituliskan dengan:
Yit = α + β Xit + εit ;i = 1,2,....,N; t = 1,2,….., T

di mana : N = banyaknya observasi T = banyaknya waktu N


x T = banyaknya data panel

Model 1: semua koefisien baik intercept maupun slope koefisien konstan


K
Yit   1  
i 1
k X kit  eit (7.1)

Model 2: slope koefisien konstan, tetapi intercept berbeda akibat perbedaan


unit cross section
K
Yit   1i  
i 1
k X kit  eit (7.2)

Model 3: slope koefisien konstan, tetapi intercept berbeda akibat perbedaan


unit cross section dan berubahnya waktu.

168
K
Yit   1it  
i 1
k X kit  eit (7.3)

Model 4: intercept dan slope koefisien berbeda akibat perbedaan unit cross
section.
K
Yit   1i  
i 1
ki X kit  eit (7.4)

Model 5: intercept dan slope koefisien berbeda akibat perbedaan unit cross
section dan berubahnya waktu.
K
Yit   1it  
i 1
kit X kit  eit (7.5)

Dimana:
i =1,2,…N
t =1,2,…T
N adalah banyak unit cross section
T adalah banyak data time series
Yit  Nilai variabel terikat cross section ke-i time seriesnke-t
X kit  Nilai variabel bebas ke-k untuk cross section ke-i tahun ke-t
 it  Parameter yang ditaksir
eit  unsur gangguan populasi
K = Banyak parameter regresi yang ditaksir
Estimasi Regresi Data Panel Secara umum dengan menggunakan
data panel kita akan menghasilkan intersep dan slope koefisien yang
berbeda pada setiap perusahaan dan setiap periode waktu. Oleh karena itu,
di dalam mengestimasi persamaan (3) akan sangat tergantung dari asumsi
yang kita buat tentang intersep, koefisien slope dan variabel gangguannya.
Ada beberapa kemungkinan yang akan muncul, yaitu: a. Diasumsikan
intersep dan slope adalah tetap sepanjang waktu dan individu (perusahaan)
dan perbedaan intersep dan slope dijelaskan oleh variabel gangguan b.
Diasumsikan slope adalah tetap tetapi intersep berbeda antar individu c.
Diasumsikan slope tetap tetapi intersep berbeda baik antar waktu maupun
antar individu d. Diasumsikan intersep dan slope berbeda antar individu e.
Diasumsikan intersep dan slope berbeda antar waktu dan antar individu
. Pemilihan Teknik Estimasi Regresi Data Panel Seperti diketahui
terdapat tiga jenis teknik estimasi model regresi data panel, yaitu model
dengan metode OLS (common), model Fixed Effect dan model Random
Effect. Pertanyaan yang muncul adalah teknik mana yang sebaiknya dipilih
untuk regresi data panel
7.2.1.Common Effect Model (CEM)

Menurut Baltagi (2005) model tanpa pengaruh individu (common


effect) adalah pendugaan yang menggabungkan (pooled) seluruh data time
series dan cross section dan menggunakan pendekatan OLS (Ordinary Least
Square) untuk menduga parameternya. Metode OLS merupakan salah satu

169
metode populer untuk menduga nilai parameter dalam persamaan regresi
linear. Secara umum, persamaan modelnya dituliskan sebagai berikut

Yit   0  1 X 1it   2 X 2it  .....   p X pit   it

Atau

p
Yit   0   X
i 1
i pit   it

Dengan asumsi:

it ~ N (0,  2 )

E ( it is )  E ( it  jt )  E ( it  js )  0 (i  j; t  s)

7.2.2. Fixed Effect Model (FEM)

Pendugaan parameter regresi panel dengan Fixed Effect Model


menggunakan teknik penambahan variabel dummy sehingga metode ini
seringkali disebut dengan Least Square Dummy Variable model. Gujarati
(2004) mengatakan bahwa pada Fixed Effect Model diasumsikan bahwa
koefisien slope bernilai konstan tetapi intercept bersifat tidak konstan

Persamaan regresi pada Fixed Effect Model adalah

Yit   0i  1 X 1it   2 X 2it  .....   p X pit   it

Dengan asumsi:

1. it ~ N (0,  2 )
2. E ( it is )  E ( it  jt )  E ( it  js )  0 (i  j; t  s )
3. Tidak ada multikolinieritas antar variabel bebas yang digunakan,
termasuk variabel dummy
4. Kemungkinan tentang intersep, slope, dan residu pada Fixed Effect
5. Intersep dan slope tetap antar waktu dan individu, perbedaan intersep
dan slope dijelaskan oleh residualnya.
6. Slope tetap tetapi intersep berbeda antar individu
7. Slope tetap tetapi intersep berbeda antar waktu dan antar individu.
8. Intersep dan slope berbeda antar individu

170
9. Intersep dan slope berbeda antar waktu dan antar individu.

Model Efek Tetap (Fixed Effect) Pada pembahasan sebelumnya kita


mengasumsikan bahwa intersep maupun slope adalah sama baik antar waktu
maupun antar perusahaan. Namun, asumsi ini jelas sangat jauh dari
kenyataan sebenarnya. Adanya variabel-variabel yang tidak semuanya
masuk dalam persamaan model memungkinkan adanya intercept yang tidak
konstan. Atau dengan kata lain, intercept ini mungkin berubah untuk setiap
individu dan waktu. Pemikiran inilah yang menjadi dasar pemikiran
pembentukan model tersebut.

Menurut Greene (2007), Least Square Dummy Variable (LSDV)


secara umum pendugaan parameter model efek tetap dilakukan dengan
LSDV (Least Square Dummy Variable), dimana LSDV merupakan suatu
metode yang dipakai dalam pendugaan parameter regresi linear dengan
menggunakan Metode Kuadrat Terkecil (MKT) pada model yang
melibatkan variabel boneka sebagai salah satu variabel prediktornya. MKT
merupakan teknik pengepasan garis lurus terbaik untuk menghubungkan
variabel prediktor dan variabel respon .

7.2.3. Random Effect Model (REM)

Menurut Nachrowi& Usman (2006, 315) sebagaimana telah


diketahui bahwa pada Model Efek Tetap (MET), perbedaan karakteristik-
karakteristik individu dan waktu diakomodasikan pada intercept sehingga
intercept-nya berubah antar waktu. Sementara Model Efek Random (MER)
perbedaan karakteristik individu dan waktu diakomodasikan pada error dari
model. Mengingat ada dua komponen yang mempunyai kontribusi pada
pembentukan error, yaitu individu dan waktu, maka random error pada
MER juga perlu diurai menjadi error untuk komponen waktu dan error
gabungan.

Dengan demikian persamaan REM diformulasikan sebagai berikut.

Yit   0  1 X 1it   2 X 2it  .....   p X pit  it

Dan

it  i   t   it

Dimana:

 i adalah komponen error cross section

171
 t = Komponen error time series

 it = komponen error gabungan

Adapun asumsi yang digunakan untuk komponen error tersebut


adalah:

i ~ N (0, 2 )

 t ~ N (0, v2 )

wit ~ N (0, w2 )

Melihat persamaan di atas, maka dapat dinyatakan bahwa REM


menganggap efek rata-rata dari data cross section dan time series
direpresentasikan dalam intercept. Sedangkan deviasi efek secara random
untuk data time series direpresentasikan dalam  t dan deviasi untuk data
cross section dinyatakan dalam  i

Karena it   i   t   it , maka varians dari error tersebut dapat


dituliskan dengan:

var(it )    2   2    2

Hal ini tentunya berbeda dengan Model OLS yang diterapkan pada
data panel (pooled data), yang mempunyai varian error sebesar:

var(it )    2

Jadi jika   2   2  0 maka

OLS dapat diterapkan pada REM, namun jika tidak sama maka
perlu diestimasi dengan metode lain. Salah satu metode yang sering
digunakan dalam hal ini generalized Least square (GLS)

7.3. Generalized Least Square (GLS)

172
Generalized Least Square (GLS) merupakan salah satu metode
estimasi parameter yang digunakan untuk mengatasi adanya autokorelasi
apabila nilai koefisien autokorelasi diketahui. apabila nilai  tidak diketahui
maka dikenal dengan Feasible Generalized Least Square (FGLS).

Misalkan Regresi Linear sederhana sebagai berikut:

Yt   0  1 X t   t (*)

Diasumsikan residual mengikuti AR(1), sehingga

 t   t 1  t ; 1    1

Persamaan (*) pada saat (t-1) dapat ditulis yaitu:

Yt 1   0  1 X t 1   t 1 (**)

Dengan mengalikan  pada persamaan (**)

Yt 1  0  1 X t 1   t 1 (***)

Pengurangan (***) dari (*) menghasilkan:

Yt  Yt 1   0 (1   )  1 ( X t  X t 1 )   t   t 1

Yt*   0*  1* X t*   t

Dimana :

Yt*  Yt  Yt 1

X t*  X t  X t 1

t   t   t 1

Feasible Generalized Least Square (FGLS).

Pendugaan nilai 

d
a.  1
2

173
b.  diduga dari AR(1). Sehingga regresikan  t   t 1  vt

c.  diduga dengan dengan Cochrane-Orcutt Iterative Procedure


Meregresikan residual i dengan i-1 hingga diperoleh nilai
koefisien autokorelasi yang tidak banyak berubah (konstan).

7.4. Teknik Estimasi Regresi Data Panel

Pemiukihan dan Penentuan model atau teknik eatikmasi terbaik


antara common effect, fixed effect, dan random effect menggunakan dua
teknik estimasi model. Dua teknik ini digunakan dalam regresi data panel
untuk memperoleh model yang tepat dalam mengestimasi regresi data panel.
Dua uji yang digunakan, pertama Chow test digunakan untuk memilih
antara model common effect atau fixed effect. Kedua,
Hausman test digunakan untuk memilih antara model fixed
effect atau random effect yang terbaik dalam mengestimasi regresi data
panel. Sedang menurut Widarjono (2007: 258), ada tiga uji untuk memilih
teknik estimasi data panel. Pertama, uji statistik F digunakan untuk memilih
antara metode Commom Effect atau metode Fixed Effect. Kedua, uji
Hausman yang digunakan untuk memilih antara metode Fixed Effect atau
metode Random Effect. Ketiga, uji Lagrange Multiplier (LM) digunakan
untuk memilih antara metode Commom Effect atau metode Random Effect.
Koefisien Tetap Antar Waktu dan Individu (Common Effect):
Ordinary Least Square Teknik ini tidak ubahnya dengan membuat regresi
dengan data cross section atau time series. Akan tetapi, untuk data panel,
sebelum membuat regresi kita harus menggabungkan data cross-section
dengan data time series (pool data). Kemudian data gabungan ini
diperlakukan sebagai suatu kesatuan pengamatan untuk mengestimasi model
dengan metode OLS. Metode ini dikenal dengan estimasi Common Effect.

Tetapi, dengan menggabungkan data, maka kita tidak dapat melihat


perbedaan baik antar individu maupun antar waktu. Atau dengan kata lain,
dalam pendekatan ini tidak memperhatikan dimensi individu maupun waktu.
Diasumsikan bahwa perilaku data antar perusahaaansama dalam berbagai
kurun waktu Bila kita punya asumsi bahwa α dan β akan sama (konstan)
untuk setiap data time series dan cross section, maka α dan β dapat
diestimasi dengan model berikut menggunakan NxT pengamatan

Yit = α + β Xit + εit ;i = 1,2,....,N; t = 1,2,….., T Pertanyaanya,


apakah asumsi bahwa α dan β konstan realistis?

174
Model Efek Random (Random Effect) Bila pada Model Efek Tetap,
perbedaan antar-individu dan atau waktu dicerminkan lewat intercept, maka
pada Model Efek Random, perbedaam tersebut diakomodasi lewat error.
Teknik ini juga memperhitungkan bahwa error mungkin berkorelasi
sepanjang time series dan cross section.

Menurut, Nachrowi (2006, 318), pemilihan metode Fixed Effect atau


metode Random Effect dapat dilakukan dengan pertimbangan tujuan
analisis, atau ada pula kemungkinan data yang digunakan sebagai dasar
pembuatan model, hanya dapat diolah oleh salah satu metode saja akibat
berbagai persoalan teknis matematis yang melandasi perhitungan. Dalam
software Eviews, metode Random Effect hanya dapat digunakan dalam
kondisi jumlah individu bank lebih besar dibanding jumlah koefisien
termasuk intersep. Selain itu, menurut beberapa ahli Ekonometri dikatakan
bahwa, jika data panel yang dimiliki mempunyai jumlah waktu (t) lebih
besar dibandingkan jumlah individu (i), maka disarankan menggunakan
metode Fixed Effect. Sedangkan jika data panel yang dimiliki mempunyai
jumlah waktu (t) lebih kecil dibandingkan jumlah individu (i), maka
disarankan menggunakan metode Random Effect.

Uji Statistik F Uji Statistik F digunakan untuk memilih antara


metode OLS tanpa variabel dummy atau Fixed Effect. Setelah kita
melakukan regresi dua model yaitu model dengan asumsi bahwa slope dan
intersepsama dan model dengan asumsi bahwa slope sama tetapi beda
intersep, pertanyaan yang muncul adalah model mana yang lebih baik?
Apakah penambahan dummy menyebabkan residual sum of squares menjadi
menurun atau tidak? Keputusan apakah kita sebaiknya menambah variabel
dummy untuk mengetahui bahwa intersep berbeda antar perusahaan dengan
metode Fixed Effect dapat diuji dengan uji F statistik. Uji F Statistik disini
merupakan uji perbedaan dua regresi sebagaimana uji Chow.

7.4.1. Memilih antara model Common Effects VS Fixed Effects

Sekarang uji F kita gunakan untuk mengetahui apakah teknik regresi


data panel dengan fixed effect lebih baik dari model regresi data panel tanpa
variabel dummy dengan melihat residual sum of squares (RSS). Uji yang
digunakan adalah Chow test (Uji Chow) yakni pengujian untuk menentukan
model Fixed Effet atau common Effect yang paling tepat digunakan dalam
mengestimasi data panel. Hipotesis dalam uji chow adalah:

H0 : Common Effect Model atau pooled OLS


H1 : Fixed Effect

175
( SSE1  SSE2 ) /( n  1)
F
SSS 2 /( nT  n  k )

Keterangan:

n= Jumlah individu (cross section)

T= Jumlah periode waktu (time series

k= Jumlah variabel penjelas)

Dimana:
SSE1 : Sum Square Error dari model Common Effect
SSE2 : Sum Square Error dari model Fixed Effect
n : Jumlah individu (misalnya wilayah) (cross section)
T : Jumlah periode waktu
k : Jumlah variabel bebas

Sedangkan F tabel didapat dari:

Ftabel  [ : df (n  1, nt  n  k )]

Dimana:
α : Tingkat signifikasi yang dipakai (alfa)
n : Jumlah perusahaan (cross section)
nt : Jumlah cross section x jumlah time series
k : Jumlah variabel bebas

Jika nilai Fhitung> F(n-1,nt-n-k)atau p-value < (taraf signifikansi/alpha),


maka tolak hipotesis awal H0 sehingga model yang terpilih adalah model
efek tetap

Untuk menghitung kita lihat hasil Common Effect dan Random


Effect dibawah ini:

176
Fn-1,nt,n-k (ROE) = (9777,711- 973,4401) / (10 -1)
973,4401/ (10.5 - 10 – 2)
= 978,252322222
20,2800020833
= 48,237289
F-tabel = ⎨ ⍺ ; df (n-1, nT-n-k)⎬
= 5% ; (10 - 1, 10.5 - 10 - 2)
= 5% ; (9, 50 - 10 - 2)
= 5% ; (9, 48) = 2,08
Hasil dari perhitungan F-hitung didapat sebesar 48,237289 sedangkan F-
tabel dari numerator 9 dan denumenator 48 pada ⍺: 5% adalah 2,08. Dari
hipotesis diatas dapat disimpulkan bahwa H0 ditolak karena F-hitung lebih
besar dari F-tabel (48,237289 > 2,08), sehingga model yang dipakai dalam
penelitian ini adalahFixed Effect Model.

177
7.4.2. Memilih antara model Common Effects VS Random Effects

Lagrange Multiplier (LM) adalah uji untuk mengetahui apakah


model Random Effect atau model Common Effect (OLS) yang paling tepat
digunakan. Uji signifikasi Random Effectini dikembangkan oleh Breusch
Pagan. Metode Breusch Pagan untuk uji signifikasiRandom
Effect didasarkan pada nilai residual dari metode OLS. Adapun nilai
statistik LM dihitung berdasarkan formula sebagai berikut:
Uji LM ini didasarkan pada distribusi chi-squares dengan degree of
freedom sebesar jumlah variabel independen. Jika nilai LM statistik lebih
besar dari nilai kritis statistik chi-squaresmaka kita menolak hipotesis nul,
yang artinya estimasi yang tepat untuk model regresi data panel adalah
metode Random Effect dari pada metode Common Effect. Sebaliknya jika
nilai LM statistik lebih kecil dari nilai statistik chi-squares sebagai nilai
kritis, maka kita menerima hipotesis nul, yang artinya estimasi yang
digunakan dalam regresi data panel adalah metode Common Effect bukan
metode Random Effect (Widarjono, 2009).
Pada kesempatan ini uji LM tidak digunakan karena pada uji Chow dan uji
Hausman menunjukan model yang paling tepat adalah Fixed Effct Model.
Uji LM dipakai manakala pada uji Chow menunjukan model yang dipakai
adalah Common Effect Model, sedangkan pada uji Hausman menunjukan
model yang paling tepat adalah Random Effect Model.Maka diperlukan uji
LM sebagai tahap akhir untuk menentukan model Common
Effect atauRandom Effect yang paling tepat. Hipotesis yang digunakan
adalah :

H0 : Common Effect Model


H1 : Random Effect Model

2
 N 
NT 
 
i 1
(Tei ) 2 

LM   1
2(T  1)  N T

  e 2
it


 i 1 t 1 

Dimana :
n = jumlah individu
T = jumlah periode waktu
e = residual metode Common Effect (OLS)

178
Kriteria pengambilan keputusan : Tolak Ho jika LM  2 ;1 atau
jika nilai P 
Uji LM ini didasarkan pada distribusi chi-squares dengan degree of
freedom sebesar jumlah variabel independen. Jika nilai LM statistik lebih
besar dari nilai kritis statistik chi-squaresmaka kita menolak hipotesis nul,
yang artinya estimasi yang tepat untuk model regresi data panel adalah
metode Random Effect dari pada metode Common Effect. Sebaliknya jika
nilai LM statistik lebih kecil dari nilai statistik chi-squares sebagai nilai
kritis, maka kita menerima hipotesis nul, yang artinya estimasi yang
digunakan dalam regresi data panel adalah metode Common Effect bukan
metode Random Effect (Widarjono, 2009).
Pada kesempatan ini uji LM tidak digunakan karena pada uji Chow dan uji
Hausman menunjukan model yang paling tepat adalah Fixed Effct Model.
Uji LM dipakai manakala pada uji Chow menunjukan model yang dipakai
adalah Common Effect Model, sedangkan pada uji Hausman menunjukan
model yang paling tepat adalah Random Effect Model.Maka diperlukan uji
LM sebagai tahap akhir untuk menentukan model Common
Effect atauRandom Effect yang paling tepat.

7.4.3. Memilih antara model Fixed Effects VS Random Effects

Setelah selesai melakukan uji Chow dan didapatkan model yang tepat
adalah Fixed Effect, maka selanjutnya kita akan menguji model manakah
antara model Fixed Effect atau Random Effect yang paling tepat. Untuk
memilih model mana yang lebih cocok antara Fixed Effects ataukah
Random Effects, dapat digunakan Uji Hausman (Hausman’s Test), yaitu
sebagai berikut :

Uji Hausman

Uji ini digunakan untuk memilih model efek acak (random effect
model) dengan model efek tetap (fixed effect model). Uji ini bekerja dengan
menguji apakah terdapat hubungan antara galat pada model (galat komposit)
dengan satu atau lebih variabel penjelas (independen) dalam model.
Hipotesis awalnya adalah tidak terdapat hubungan antara galat model
dengan satu atau lebih variabel penjelas. Prosedur pengujiannya sebagai
berikut (Baltagi, 2008: 310).

Hipotesis:

179
Atau

Ho : Model Random Effects lebih baik daripada Fixed Effects

H1 : Model Fixed Effects lebih baik daripada Random Effects

Statistik uji yang digunakan adalah uji chi-squared berdasarkan


kriteria Wald, yaitu

W  qˆ '[var( qˆ ' )]1 qˆ

 W  (  MET   MEA )' [var(  MET   MEA )' ]1 (  MET   MEA )

Keterangan:

 MET  vektor estimasi slop model fixed effect

 MET  vektor estimasi slop model random effect

Jika nilai W >  2 ( , K ) atau nilai p-value kurang drai taraf


signifikansi yang ditentukan. Maka hipotesis Ho ditolak, sehingga model
yang dipilih adalah model fixed effect.

Menurut Rosadi (2011, 274) uji ini bertujuan untuk melihat apakah
terdapat efek random di dalam panel data. Dalam perhitungan statistik Uji
Hausman diperlukan asumsi bahwa banyaknya kategori cross section lebih
besar dibandingkan jumlah variabel independen (termasuk konstanta) dalam
model. Lebih lanjut, dalam estimasi statistik Uji Hausman diperlukan
estimasi variansi cross section yang positif, yang tidak selalu dapat dipenuhi
oleh model. Apabila kondisi-kondisi ini tidak dipenuhi maka hanya dapat
digunakan model fixed effect.

Contoh Aplikasi:

lnPertum lnPengang
Provinsi Tahun X1 X2 Y lnPendidikan buhan guran
DKI 2005 10.60 6.01 15.77 2.3609 1.7934 2.7581
DKI 2006 10.80 5.95 11.40 2.3795 1.7834 2.4336

180
DKI 2007 10.80 6.44 12.57 2.3795 1.8625 2.5313
DKI 2008 10.80 6.23 12.16 2.3795 1.8294 2.4982
DKI 2009 10.90 5.02 12.15 2.3888 1.6134 2.4973
DKI 2010 10.93 6.50 11.05 2.3915 1.8718 2.4024
DKI 2011 10.95 6.71 10.80 2.3933 1.9036 2.3795
DKI 2012 10.99 6.50 9.87 2.3970 1.8718 2.2895
Jabar 2005 7.35 5.60 15.33 1.9947 1.7228 2.7298
Jabar 2006 7.50 6.02 14.59 2.0149 1.7951 2.6803
Jabar 2007 7.50 6.48 13.08 2.0149 1.8687 2.5711
Jabar 2008 7.50 6.21 12.08 2.0149 1.8262 2.4916
Jabar 2009 7.72 4.58 10.96 2.0438 1.5217 2.3943
Jabar 2010 8.02 6.20 10.33 2.0819 1.8245 2.3351
Jabar 2011 8.06 6.48 9.83 2.0869 1.8687 2.2854
Jabar 2012 8.09 6.21 9.08 2.0906 1.8262 2.2061
Jateng 2005 6.44 5.35 9.45 1.8625 1.6771 2.2460
Jateng 2006 6.80 5.33 8.02 1.9169 1.6734 2.0819
Jateng 2007 6.80 5.59 7.70 1.9169 1.7210 2.0412
Jateng 2008 6.86 5.61 7.35 1.9257 1.7246 1.9947
Jateng 2009 7.07 5.14 7.33 1.9559 1.6371 1.9920
Jateng 2010 7.24 5.84 6.21 1.9796 1.7647 1.8262
Jateng 2011 7.29 6.01 5.93 1.9865 1.7934 1.7800
Jateng 2012 7.31 6.23 5.63 1.9892 1.8294 1.7281
DIY 2005 8.38 4.73 7.59 2.1258 1.5539 2.0268
DIY 2006 8.50 3.70 6.31 2.1401 1.3083 1.8421
DIY 2007 8.59 4.31 6.10 2.1506 1.4609 1.8083
DIY 2008 8.71 5.03 5.38 2.1645 1.6154 1.6827
DIY 2009 8.78 4.43 6.00 2.1725 1.4884 1.7918
DIY 2010 9.07 4.88 5.69 2.2050 1.5851 1.7387
DIY 2011 9.20 5.16 3.97 2.2192 1.6409 1.3788
DIY 2012 9.22 5.32 3.97 2.2214 1.6715 1.3788
Jatim 2005 6.76 5.87 8.51 1.9110 1.7699 2.1412
Jatim 2006 6.90 5.80 8.19 1.9315 1.7579 2.1029
Jatim 2007 6.90 6.11 6.79 1.9315 1.8099 1.9155
Jatim 2008 6.95 6.01 6.42 1.9387 1.7934 1.8594

Common Effect

181
Fixed Effect

Random Effect

182
Membandingkan dari tiga hasil print analisis dengan menggunakan
Eviews diketahui bahwa yang paling tepat dijadikan analisa dalam
forecasting adalah Random effect. Sebab pada hasil analisis common effect
ternyata bahwa kedua variabel bebas tidak ada yang berpengaruh, walaupun
R2 cukup tinggi yakni sebesar 63,96%. Dengan demikian data kemungkinan
terjadi multicollinearity atau heteroscedasticity. Demikian juga model
Fixed Effect ternyata hampir sama keaadaannya dengan model common
effect yaitu koefisien determinasi cukup tinggi akan tetapi tidak satupun
variabel bebas yang berpengaruh secara signifikan terhadap variabel
respon. Sementara pada model ketiga diketahui bahwa variabel bebas yaitu
pertumbuhan ekonomi berpengaruh secara signifikan terhadap
pengangguran pada taraf keyakinan α = 0,05, walaupun R2 cukup rendah
hanya 14,90%. Hal ini menunjukkan masih banyaknya variabel bebas yang
dapat dimasukkan dalam model yang digunakan.

Jadi dalam hal ini, tidak perlu diuji perbandingan antara common
effect dan fixed effect dengan menggunakan Uji Hausman (Hausman’s
Test), atau common effect dan random effect dengan menggunakan Uji
Lagrange Multiplier (LM Test) karena sudah jelas model common effect
dan fixed effect bukan model yang cocok atau model yang tepat untuk
dipakai sebagai model pengangguran di wilayah pulau Jawa (kecuali
Banten).

183
Berdasarkan dari hasil pengolahan data, dan setelah
membandingkan akurasi dari ketiga model yang ada maka model dapat
dinyatakan sebagai:

ln Yt  1,510  0,256 ln X 1t  0,149 ln X 2t

Atau dapat juga ditulis sebagai:

Yt  4,526 X 10t, 256 X 2t0,149

Dimana:

Yt adalah pengangguran pada tahun ke-t

X 1t adalah pendidikan pada tahun ke-t

X 2t adalah pertumbuhan ekonomi pada tahun ke-t

Jadi dari persamaan tersebut terlihat bahwa hubungan antara


pendidikan dan pengangguran adalah positif sementara pertumbuhan
ekonomi dan pengangguran minus. Artinya jika pertumbuhan ekonomi naik
maka pengangguran mengalami penurunan atau untuk jelasnya jika
pertumbuhan ekonomi naik satu persen maka pengangguran akan
mengalami penurunan sebesar 0,14% di wilayah pulau Jawa. Pengaruh ini
signifikan pada taraf keyakinan α = 0,05. Sedangkan pengaruh pendidikan
terhadap pengangguran tidak signifikan pada α = 0,05.

184
BAB VIII
REGRESI DENGAN VARIABEL DUMMY

8.1. Pendahuluan

Variabel-variabel ekonomi tidak semuanya dapat diukur dengan


kuantitatif , sehingga untuk memberikan atau menggambarkan informasi
tentang keadaan ini dipakai variabel kualitatif atau variabel boneka
(dummy variable). Variabel semacam ini diperlakukan khusus, karena
sifatnya yang tidak kontinu. Dalam penelitian misalnya, jika perempuan
diberi angka nol dan satu untuk laki-laki, maka angka-angka yang terdapat
antara nol dan satu tidak ada relevansinya dalam penelitian, karena angka
tersebut memang tidak ada artinya, sehingga tidak mungkin dipakai ukuran
kuantitatif dalam hal ini, sebagai gantinya dipakai ukuran kualitatif.

Dalam analisis regresi, variabel bebas pada prinsipnya memiliki


skala pengukuran minimal dalam bentuk interval (berarti tidak
diperbolehkan daman skala nominal dan ordinal. Lain halnya dengan
regresi dengan variabel dummynya yang salah satu variabel terdiri dari
variabel kualitatif (skala ordinal dan skala nominal) yang dikandang
sebagai variabel atribut, atau disebut saja variabel dummy. Selanjutnya
perlu diperhatikan bahwa dalam pembahasan ini, variabel yang
menggunakan dummy adalah variabel bebas (akan dibahas secara
tersendiri, variabel tak bebas dengan variabel boneka), dengan variabel
kualitatif sebagai variabel regresor. Penggunaan variabel kuantitatif sebagai
regresand akan dibahas tersendiri dengan nama regresi dengan variabel tak
bebas yang kualitatif.

Variabel boneka (dummy variable) disebut juga variabel dikotomi


(dichotomous variable). Fungsinya menjelaskan (perbedaan) antara dua
atau lebih situasi atau pilihan dikotomi. Variabel dummy ini dapat juga
disebut sebagai variabel indikator merupakan variabel artifisial yang
digunakan untuk merefleksikan suatu atribut dengan dua atau lebih kategori,
yang tujuannya adalah memberikan informasi yang bersifat kualitatif.

185
Variabel dummy independen yang dikotomis ( dua kategori ) bersifat saling
bebas (mutually exclusive), yang menunjunkkan jenis kelamin (misalnya
pegawai pria diberi nilai 1 dan wanita, 0) dan wilayah (misalnya kota diberi
nilai 1 dan desa 0), secara matematis ditulis

 1 jika pegawai pria


D
0 jika pegawai wanita

1 jika wilyah desa


D
0 jika wilayah kota

Secara simbolik dapat dilihat persamaan atau ketidaksamaan yang


berlaku secara logika matematika, jika A=B =C A = C demikian
juga jika A< B < C A < C dan A> B > C A > C,
demikian seterusnya logika matematis. Perhatikan bahwa pemakaian
variabel dummy dimaksudkan untuk adanya komparasi.

1. X1 Y

X2 Y

Bandingkan pengaruh X1 terhadap Y dan pengaruh X2


Terhadap Y

X1

2. Y bagaimana?

X2

3. X1 Y1
Bandingkan pengaruh X1 terhadap Y1 dan
pengaruh X2 terhadap Y2
X2 Y2

186
Perbandingan pada nomor 3 tentu tidal dapat dialkukan sebab dua
yang diabndingkan dan dua pembandingnya.

8.1.1. Variabel Bebas yang Dikotomi

Suatu regresi bisa saja terdiri dari variabel bebasnya ada yang
bersifat dikotomi atau binary, bahkan variabel tak bebasnya bersifat binary
atau kualitatif. Pada sub bab ini, akan dijelaskan regresi linear yang
memiliki variabel dummy dengan yang paling sederhana adalah
regresi linear yang mengandung satu variable bebas dan satu variable
dummy, bahkan ada regresi yang terdiri dari variabel bebasnya berupa
dummy saja dan di sini tidak akan dibahas. Sebelum melakukan analisis
lebih lanjut diberikan beberapa asumsi untuk regresi dengan variabel bebas
dummy sebagai:

a. Hubungan adalah additive, efek parsial dari setiap variabel bebas


adalah sama sementara nilai variabel lain adalah konstan
b. Asumsi-asumsi regresi klasik yang telah dibicarakan pada bab
terdahulu semuanya berlaku
Perlunya memasukkan variabel penjelas yang kualitatif akan sama
pentingnya dengan memasukkan variabel independen yang kuantitatif dalam
analisis sosial termasuk ekonomi. Sebagaimana diketahui untuk
menjadikan variabel berdaya guna maka kesalahan diperkecil demikian
juga untuk menghindari bias dari suatu pengaruh suatu variabel bebas
sebagai konsekuensi tidak memasukkan variabel bebas lain yang secara
teoritis berhubungan dengan hal tersebut (Fox, 2010)

Ketentuan

Jika terdapat m varaibel dummy maka terdapat m+1 kategori


atau jika terdapat m kategori maka terdapat m-1 variabel boneka
(dummy variable) dan jika terdapat m kategori maka terdapat m
variabel boneka, akibatnya terjadi perfect collinearity (Arief, 2015).
Selanjutnya ditulis

Y konstan X D1 D2

Pengrajin konveksi Y1 1 X1 1 0

Pengrajin konveksi Y2 1 X2 1 0

187
Pengrajin Besi Y3 1 X3 0 1

Pengrajin konveksi Y4 1 X4 1 0

Pengrajin besi Y5 1 X5 0 1

Dari matriks data diperoleh bahwa

D1 = 1 - D1

D2 = 1 - D2

Dengan persamaan regresi

Y   0  1 Lt   2 D1   3 D2  

Persamaan regresi seperti ini pasti terjadi kolineritas sempurna


(perfect collinearity), sehingga tidak mungkin dapat dilakukan estimasi.

8.1.2. Prinsip Marginalitas

Prinsip marginalitas (principle of marginality) adalah aturan umum


yang menyatakan bahwa jika dalam suatu interaksi (hubungan timbal balik)
dalam kelompok yang ada dalam model maka individu yang membentuk
interaksi tersebut juga termasuk dalam model. Prinsip marginalitas
menyatakan bahwa suatu model yang mengandung konsep atau variabel
dengan tingkatan tinggi, maka secara normalnya juga mengasung tingkat
yang lebih rendah dari konsep atau item tersebut (effect utama yang
menyusun interaksi tersebut) (Fox, 2010) Dikatakan bahwa

The general rule is that any time an interaction is included in a model,


then the individual terms that comprise the interaction should also be
included in the model. This is called the principle of marginality.
Although models that violate the principle of marginality are legitimate,
they are nearly always silly and hence not worth considering.
188
Salah satu kekurangan yang terjadi dalam analisis regresi dengan
variabel dummy adalah kemungkinan terjadinya salah kaprah atau
melanggar prinsip marginalitas ( the principle of marginality). Sebagai
contoh dapat dikemukakan disini pandanglah seorang pengusaha madu
yang mempekerjakan tenaga kerja yang bervariasi antar bulan dari 2 tahun,
katakanlah 2015-1016 dengan D, variabel dummy musim kemarau diberi
nilai 1 dan musim hujan diberi nilai 0 dari hasil penelitian yang diperoleh
grafik sebagaimana tertera:

Dengan model

Y   0  1 X   2 D   3 DX  e

atau dalam bentuk lain (non linear)

ln Y   0  1 ln X   2 D  3 D ln X  e

Dalam penelitian tersebut diatas ditemukan bahwa

Persamaan regresi di musim kemarau D=1

ln Yˆ  0,643  1,177 ln X  0,112 D ln X

atau

ln Yˆ  0,643  1,289 ln X

Persamaan regresi di musim hujan D=0

ln Yˆ  0,643  1,177 ln X

Terlihat bahwa kedua persamaan memiliki intercept yang sama,


yang menurut prinsip marginalitas harus memiliki intercept yang berbeda,
sehingga aturan prinsip ini dilanggar. Namun demikian persamaan ini dapat

189
diterapkan atau diaplikasikan dalam dunia bisnis dan ekonomi, karena
secara statistik seluruh koefisien yang diberikan semuanya signifikan
  0,01 . Tetapi ternyata ditempat lain dengan pengusaha yang sama justru
menunjukkan keadaan yang sebaliknya justru variabel predictor DX tidak
memiliki pengaruh secara statistik, sehingga persamaan yang ditemukan
adalah:

ln Yˆ  0,223  0,723 DX  1,342 D

Sehingga untuk D=1, diperoleh persamaan regresi musim hujan

ln Yˆ  1,565  0,723 DX

Dengan demikian persamaan regresi produksi madu ditempat lain


pada musim hujan D=0 adalah sebagai berikut:

ln Yˆ  0,223

Sehubungan dengan prinsip marginalitas, perhatikanlah gambar 8.1, dimana


kedua model atau gambar melanggar prinsip marginalitas

190
(a) (b)

lnY lnY

D=1

D=1

D=0

α+β D=0
α α

lnX lnX

Gambar 8. 1. Kedua model melanggar principle marginality b dengan memasukkan


regresesor interaksi XD namun pada (a) D tidak dimasukkan sementara (b) mengabaikan X.

Menurut aturan prinsip marginalitas seyogiannya D dimasukkan


pada gambar (a), demikian pada (b) seharusnya memasukkan X namun
diabaikan (tidak dimasukkan). Dengan demikian menurut statistik , model
tersebut dapat diinterpretasi tapi tidak banyak ditemukan dalam aplikasi.

Terlihat bahwa efek utama dari tenaga kerja dan musim adalah
marginal terhadap interaksi antara tenaga kerja dan musim. Jelas terlihat
bahwa pada gambar (a) dengan intercept yang sama tidak adanya pengaruh
variabel X, sedang pada gambar (b) mengindikasikan pelanggaran dari
prinsip marginalitas. Artinya diharapkan terjadinya perbedaan antara
intercept pada gambar a) dan b terjadinya perbedaan koefisien atau
pengaruh dari akibat adanya interaksi antara musim dan tenaga kerja. Pada
umumnya kita tidak menguji dan tidak menginterpretasikan efek utama
dari variabel-variabel yang berinteraksi (Fox, 2010)
Jadi jika menyusun suatu interaksi baik secara teori maupun secara
empiris, dan interaksi tersebut dapat dites, diestimasi dan diinterpretasi efek
utamanya, maka pada umumnya hal tersebut tidak berarti model dapat
dispsesifikasi dan menyesuaikan dengan model yang memuat regressor
interaksi tetapi menghapus efek utama yang marginal terhadap model
tersebut. Model-model yang melanggar prinsip marginalitas itu jelas dapat
diinterpretasi (interpretable) tetapi tidak umum diaplikasikan.

191
8.2. Regresi Linear dengan Variabel Dummy

Regresi linear sederhana dengan satu variabel dummy memiliki


beberapa bentuk, sebagaimana telah diberikan pada gambar….. Dalam hal
ini akan dibahas regresi linear dengan satu variabel dummy dan satu
variabel bebas dengan dan tanpa interaksi. Dengan demikian terdapat dua
tipe, yaitu dengan dan tanpa interaksi.

8.2.1. Regresi Variabel Dummy Tanpa Interaksi

Misalkan dimasukkan variabel dummy wilayah (kota dan desa) pada


regresi linear dimana:

1 ; wilayah kota
D
0 ; wilayah desa
Sehingga persamaan regresi menjadi :

Ct =  0 + 1 Yt +  2 D + e …….(8.1)
Dimana:
Ct adalah Konsumsi pada tahun ke t
Yt adalah pendapatan pada tahun ke t
D adalah wilayah (D=0, Desa dan D=1, Kota)

Persamaan Regresi untuk Desa, D = 0, berarti mengambil D=0 pada


persamaan (8.1) sehingga persamaan regresi menjadi:

Ct =  0 + 1 Yt + e

Demikian pula Persamaan Regresi untuk Kota , D = 1 ( masukkan


D=1 pada persamaan 8.1) sehingga diperoleh:

Ct = (  0 +  2 ) + 1 Yt + e

Ct

Ct = (  0 +  2 ) + 1 Yt + e , kota

0 +  2

0 Ct =  0 + 1 Yt + e , desa
Yt

Gambar 8.1. Regresi dengan variabel Dummy tanpa Interaksi

192
Selanjutnya persamaan regresi dengan dua variabel bebas dan satu
variabel dummy dapat dinyatakan sebagai berikut:

Ct =  0 + 1 Yt +  2 Pt +  3 D + e

Dimana:
Ct Konsumsi pada tahun ke t
Yt adalah pendapatan pada tahun ke t
Pt adalah harga pada tahun ke t
D adalah wilayah (D=0, kota dan D= 1, desa)

Wilayah kota, D= 0

Ct =  0 + 1 Yt +  2 Pt + e

Masa OTDA D= 1

Ct = (  0 +  3 ) + 1 Yt +  2 Pt + e

Demikian seterusnya, jadi dapat dikatakan bahwa dalam


menyertakan variabel dummy dalam regresi tanpa melakukan interaksi,
tidak begitu banyak yang dapat dijelaskan, karena hanya membicarakan
secara-rata untuk variabel dependen, atau hanya menerangkan intercept dari
persamaan regresi. Dengan demikian menggunakan variabel dummy,
hampir bisa dikatakan wajib melakukan interaksi dengan variabel dummy.

8.2.2. Regresi Variabel Dummy Dengan Interaksi

Pandanglah persamaan regresi line dengan satu variabel dummy tanpa


melakukan interaksi sehingga persamaan tersebut dapat ditulis:

Ct =  0 + 1 Yt +  2 Dt + e

Persamaan ini dapat dituliskan kembali dengan melakukan interaksi pada


variabel dummy dengan variabel bebas, sehingga persamaan di atas dapat
dituliskan sebagai :

Ct =  0 + 1 Yt +  2 Dt +  3 Dt Yt + e ….. (5)

Dengan memasukkan nilai variabel dummy ke persamaan (5) diperoleh

193
Persamaan Regresi untuk Desa, D = 0

C =  0 + 1 Y + e

Persamaan Regresi untuk Kota , D = 1

C = (  0 +  2 ) + ( 1 +  3 ) Y + e

C = (  0 +  2 ) + ( 1 +  3 )Y + e

0 +  2

0 Ct =  0 + 1 Yt + e
Yt

Gambar 8.2. Regresi dengan Variabel Dummy dengan Interaksi

Contoh aplikasi:
Seorang peneliti ingin mengetahui perbandingan kecenderungan
mengkonsumsi (MPC) dari suatu masyarakat yang terdiri dari pengusaha
dan bukan pengusaha. Data konsumsi diberi simbol C (ribuan rupiah/hari,)
pendapatan Y (ribuan rupiah/hari) dan pekerjaan D, seperti yang tertera pada
Tabel 8.2

Jawab:

Misalkan pekerjaan diberi simbol D dimana D= 1 menyatakan


pengusaha dan D= 0 menyatakan bukan pengusaha. Berdasarkan hasil
pengolahan data dengan menggunakan program SPSS diperoleh:

194
Tabel 8.2 Konsumsi dan Pendapatan Masyarakat

Konsumsi Pendapatan

D (C) (Y) D DY

35 48 1 48

24 28 1 28

25 35 1 35
Pengusaha

12 13 1 13

23 25 1 25

17 18 1 18

16 17 1 17

3 4 0 0

4 6 0 0

5 7 0 0

6 8 0 0
Non pengusaha

3 5 0 0

7 17 0 0

3 6 0 0

4 7 0 0

7 9 0 0

195
Coefficientsa

Standardized Collinearity
Unstandardized Coefficients Coefficients Statistics

Model B Std. Error Beta t Sig. Tolerance VIF

(Constant) 2.023 1.036 1.952 .075

Pedapatan .345 .122 .432 2.817 .016 .049 20.383

Pekerjaan 3.607 1.638 .184 2.203 .048 .165 6.075

Interaksi .267 .130 .413 2.051 .063 .028 35.149

a. Dependent Variable: Konsumsi


b. Catatan: Tetap dipertahankan VIF >10

Berdasarkan tabel tersebut diperoleh estimasi persamaan regresi


dengan variabel dummy sebagai

Cˆ  2,02  0,34 Y  3,61 D  0,27 DY

thitung (1,95) (2,82) (2,20) (2,05)


Sig ( 0,07) (0,02) ( 0,05) ( 0,06)

(Angka-angka dalam kurung, atas menunjukkan t hitung dan bawah


signifikansi).

Fhitung = 285,52 Sig. = 0,0000

R = 0,993

R 2 = 0,986

Dari persamaan tersebut di peroleh:

Persamaan regresi untuk pengusaha, D=1

Cˆ1  5,63  0,61Y

Persamaan regresi untuk non pengusaha, D = 0

196
Cˆ 2  2,02  0,34 Y

Jadi berdasarkan kedua persamaan yang dihasilkan diketahui bahwa


MPC pengusaha lebih besar dari pada MPC non pengusaha. Dengan
pengertian jika pendapatan pengusaha naik Rp.1000,00 maka akan
konsumsi naik Rp. 610. Sementara non pengusaha, jika pendapatannya naik
Rp1000,00 maka konsumsi naik Rp.340.

Tentu saja, regeasi dengan varaibel dummy ini dapat dikembangkan


dengan menambah beberapa varaibel baik dammy maupun vriabel benaran.
Anggaplah, dua varaibel bebas dan satu baraibel dummy dengan
melakukan interaksi pada varaibel bebasnya. Anggaplah terdapat hanya dua
musim (hujan dan kemarau), C menyatakan konsumsi madu sebagai
varaibel dependen, Y dan P masing-masing berturut pendapatan dan harga
sebagai variabel independen, sehingga persamaan regresi dengan varaibel
dummy dapat ditulis sebagai

Ct =  0 + 1 Yt +  2 Pt +  3 D +  4 DYt + 5 DPt + e

Musim hujan, D = 0

Ct =  0 + 1 Yt +  2 Pt + e

Musim kemarau, D= 1

Ct = (  0 +  3 ) + ( 1 +  4 ) Yt + (  2 + 5 ) Pt + e

Penjelasan secara rinci dapat dilihat contoh berikut

197
Contoh Data Hipotetis:

C Y P D DY DP

86 98 5,33 0 0 0

96 104 5,5 0 0 0

103 179 5 0 0 0

116 156 6 0 0 0

132 176 6,5 0 0 0

242 298 7 1 298 7

248 354 7,12 1 354 7,12

258 318 7,32 1 318 7,32

267 338 7,61 1 338 7,61

269 396 8,75 1 396 8,75

272 571 8,79 1 571 8,79

------------------------------------------------------------------

Keterangan:

C= konsumsi madu

Y= Pendapatan

P = harga

D = 0,musim hujan

D=1, musim kemarau

198
Coefficientsa

Standardized
Unstandardized Coefficients Coefficients

Model B Std. Error Beta t Sig.

1 (Constant) -30.159 22.491 -1.341 .228

Y .272 .079 .486 3.437 .014

P 17.280 3.907 .275 4.423 .004

D 167.265 15.482 1.078 10.804 .000

DY -.304 .082 -.789 -3.714 .010

a. Dependent Variable: C

Berdasarkan tabel tersebut diperoleh estimasi persamaan regresi


dengan variabel dummy sebagai

Cˆ  30,16  0,27 Y  17,28P  167,26 D  0,30 DY  0DP

thitung : (-1,341) (3,48) (4,42) (10,80) (-3,71)


Sig : ( 0,23) (0,01) ( 0,04) ( 0,00) ( 0,10)

(Angka-angka dalam kurung, atas menunjukkan t hitung dan bawah


signifikansi).

Fhitung = 452,58 Sig. = 0,0000

R 2 = 0,997

R = 0,998

Dari persamaan tersebut di peroleh:

Persamaan regresi konsumsi madu untuk musim kemarau, D=1

199
Cˆ1  137,26  0,57 Y  17,28P

Persamaan regresi konsumsi madu untuk pada musim hujan, D = 0

Cˆ 2  30,16  0,27 Y  17,28P

8.3. Regresi non Linear dengan Variabel Dummy

Salah satu fungsi yang paling banyak digunakan dalam produksi


baik barang maupun jasa adalah fungsi geometrik. Fungsi ini juga disebut
sebagai fungsi Cobb-Douglas jika variabel bebasnya lebih dari satu
variabel, atau dalam bentuk asal (dua variabel bebas saja, kapital dan tenaga
kerja dengan pangkat     1 ). Misalkan variabel bebas dalam hal ini
hanya satu, yaitu tenaga kerja sehingga regresi non linear dengan variabel
dummy dapat ditulis sebagai:

Q  aL1 e 2 D 3D ln Lu

atau dalam bentuk linear

lnQ = lna + 1 lnL +  2 D +  3 D lnL+ u

dimana:

Q = produksi

L = tenaga kerja

Anggaplah terdapat dua jenis petani, katakanlah petani rumput laut laki-laki
dengan D=1 dan petani rumput laut perempuan dengan D=0.

Dengan memasukkan nilai variabel dummy tersebut, D=0 diperoleh

Persamaan Regresi non linear petani perempuan:

lnQ = lna + 1 lnL + u

200
atau

Q  aL1 eu

Sedang persamaan regresi non linear petani untuk laki-laki dengan D=1,

lnQ = lna + 1 lnL +  2 +  3 lnL+ u

lnQ = (lna +  2 ) + ( 1 +  3 ) lnL+ u

Q  (ae 2 ) L( 1   3 )eu

Contoh Data Hipotetis:

Q L lnQ lnL D DlnL

37 6 3.61 1.79 0 0

54 9 3.99 2.2 0 0

67 9 4.2 2.2 0 0

38 8 3.64 2.08 0 0

27 6 3.3 1.79 0 0

38 8 3.64 2.08 0 0

62 10 4.13 2.3 1 2.3

104 12 4.64 2.48 1 2.48

100 22 4.61 3.09 1 3.09

98 18 4.58 2.89 1 2.89

94 16 4.54 2.77 1 2.77

78 18 4.36 2.89 1 2.89

201
Coefficientsa

Standardized
Unstandardized Coefficients Coefficients

Model B Std. Error Beta t Sig.

1 (Constant) .878 .953 .921 .384

lnL 1.410 .469 1.334 3.003 .017

D 2.599 1.261 2.913 2.061 .073

DlnL -1.044 .557 -3.237 -1.874 .098

a. Dependent Variable: lnQ

Berdasarkan tabel tersebut diperoleh estimasi persamaan regresi


dengan variabel dummy sebagai

ln Q  0,878  1,410 ln L  2,599 D  1,044 D ln L


thitung (0,921) (3,003) (2,061) (-1,874)
Sig ( 0,384) (0,017) ( 0,073) ( 0,098)

(Angka-angka dalam kurung, atas menunjukkan t hitung dan bawah


signifikansi).

Fhitung = 285,52 Sig. = 0,0000

R = 0,934
R 2 = 0,871

Dari persamaan tersebut di peroleh:


Persamaan regresi untuk petani rumput laki-laki, D=1

ln Q  0,878  1,410 ln L  2,599  1,044 ln L

ln Q  3,477  0,366 ln L

202
Dikembalikan dalam bentuk asli (non linear)

Q  32,35 L 0,366
Dimana:
32,35 adalah hasil dari anti ln3,477 atau 32,35  (2,718)3,477

Pangkat 0,37 merupakan elastisitas tenaga kerja terhadap produksi, sehingga


memiliki makna, jika tenaga kerja mengalami peningkatan 1% maka
produksi petani laki-laki rumput laut naik sebesar 0,37%. Jadi dalam hal
ini, produksi petani laki-laki bersifat inelastis

Persamaan regresi untuk non pengusaha, D = 0

ln Q  0,878  1,410 ln L
Atau

Q  2,41 L 1,41

Jadi produksi petani perempuan bersifat elastis. Dengan demikian


produksi laki bersifat inelastis sementara petani perempuan bersifat elastis.
Namun teknologi yang digunakan laki lebih tinggi dari pada perempuan,
karena konstanta 32,35 dan 2,41 masing-masing menunjukkan teknologi
yang digunakan.

Selanjutnya persamaan regresi non linear dengan satu variabel bebas


dapat dikembangkan untuk dua variabel bebas atau lebih. Misalkan
untuk dua variabel bebas dengan satu variabel dummy dapat dilihat data
hipotetis berikut Tabel 8.2.

Tabel 8.2. Data Hipotetis


Y N U lnY lnN lnU D DlnN DlnU
86 98 42 4.45 4.58 3.74 0 0 0
96 104 42 4.56 4.64 3.74 0 0 0
103 179 43.5 4.63 5.19 3.77 0 0 0
116 156 44 4.75 5.05 3.78 0 0 0
132 176 44 4.88 5.17 3.78 0 0 0
242 298 44.5 5.49 5.70 3.80 1 5.70 3.80
248 354 44.5 5.51 5.87 3.80 1 5.87 3.80
258 318 45 5.55 5.76 3.81 1 5.76 3.81
267 338 45 5.59 5.82 3.81 1 5.82 3.81
269 396 50 5.59 5.98 3.91 1 5.98 3.91
272 571 50 5.61 6.35 3.91 1 6.35 3.91

203
8.4. Pengembangan Regresi dengan variabel Dummy

Pembahsana yang telah dikembangan terdahulu, hanya


meunyangkut satu varaibel dummy dengan du aindikator, dalam pembicaran
pada sub bab ini Regresi dengan satu variabel dummy tdikembangkan
sehingga membentuk suatu suatu persamaan regresi dengan beberapa
varaibel dummmy atau disebut Polytomous Explanatory Variables.

8.4.1.Persamaan Regresi Lebih dari satu Varaibel Dummy


1. Satu variabel bebas ( variabel benaran)
Y = f(X,D) …………………………………………….. (1)

Persamaan (1) dapat dibuat dalam bentuk persamaan regresi linear


berganda dengan 3 variabel boneka dengan formulasi:

Y = a0 + a1X + a2D1 + a3D2 + a4D3 + a5D1X + a6D2X + a7D3 X

+  …………………………………… (2)

Dimana:
Y = konsumsi listrik di Kalimantan Timur (MWh)
X = PDRB dengan harga berlaku (trilyun rupiah)
Di = Dummy variable ( variabel boneka), i = 1,2,3,4
Kelompok
Konsumsi listrik Rumah tangga
Konsumsi listrik Usaha
Konsumsi listrik untuk Industri
Konsumsi listrik untuk Umum
1. Persamaam Regresi untuk Rumah Tangga

1 konsumsi listrik rumah tangga


D1  
0 yang lain

204
Y = (a0 + a2) + (a1 +a5) X1 +  …………………………….. (3)

2. Persamaam Regresi untuk Usaha

1 konsumsi listrik usaha


D2  
0 yang lain

Y = (a0 + a3) +(a1 +a6) X1 +  ………………………………… (4)

3. Persamaan Regresi untuk Industri

1 konsumsi listrik industri


D3  
0 yang lain

Y = (a0 + a4) + (a1 +a7) X1 +  ……………………………….. (5)

4. Persamaan Regresi untuk Umum

D1 = 0
D2 = 0
D3 = 0

Y = a0 + a1 X1 +  ………………………………………….(6)

8.4.2. Persamaan Regresi Dua Variabel Bebas dan Tiga Variabel Dummy

Berdasarkan kerangka konseptual dan hipotesis yang telah


dikemukakan sebelumnya, hubungan antara variabel dinyatakan:

Y = f(X1, X2,D) ………………………………….. (1)

Persamaan (1) dapat dibuat dalam bentuk persamaan regresi linear


berganda (dengan variabel boneka) dengan formulasi:

205
Y= a0 + a1X1+ a2X2 + a3D1 + a4D2 + a5D3 + a6D1X1 + a7D2X1 +
a8D3X1 + a9D1X2 + a10D2X2 + a11D3X2 +  ……………………
(2)

Dimana:
Y = konsumsi listrik di Kalimantan Timur (MWh)
X1 = jumlah penduduk ( juta orang)
X2 = PDRB dengan harga berlaku (trilyun rupiah)
Di = Dummy variable ( variabel boneka), i = 1,2,3

1. Persamaan Regresi untuk Rumah Tangga

D1 = 1 adalah konsumsi listrik Rumah tangga


0 yang lain

Y = (a0 + a3) + (a1 +a6) X1 + (a2 +a9) X2 +  ………………….. (3)

2. Persamaam Regresi untuk Usaha

D2 = 1 adalah konsumsi listrik usaha


0 yang lain

Y = (a0 + a4) +(a1 +a7) X1 + (a2 +a10) X2 +  ……………………… (4)

3. Persamaan Regresi untuk Industri

D1 = 1 adalah konsumsi listrik Rumah tangga


0 yang lain

Y = (a0 + a5) + (a1 +a8) X1 + (a2 +a11) X2 +  …………………….. (5)

4. Persamaan Regresi untuk Umum

D1 = 0
D2 = 0
D3 = 0

Y = a0 + a1 X1 + a2X2 +  …………………………………….(6)

206
Tabel 8.3. Perkembangan Ekonomi dan Laju Pertumbuhan
PDRB Kalimantan Timur, Tahun 1993 - 2003

Tahun Perkembangan Ekonomi, Laju Pertumbuhan


Harga (juta Rp.) PDRB (%)
ADH Berlaku ADH Konstan Berlaku Konstan

1993 15.708.418 15.708.418 - -


1994 18.897.252 17.445.037 20,30 11,06
1995 21.619.609 18.276.580 14,41 4,77
1996 24.118.257 19.792.193 11,56 8,29
1997 27.305.283 20.672.725 13,21 4,.45
1998 51.505.145 20.514.635 86,63 -0,76
1999 54.948.998 21.383.360 6,69 4,9
2000 74.810.390 22.381.260 37,25 4,00
2001 84.828.442 23.333.420 13,39 4,25
2002 88.348.000 24.359.960 4,14 4,48
2003 98.428.632 25.225.998 11,4 3,55

Sumber: Badan Pusat Statistik Kalimantan Timur

Tabel 8.4. Tenaga Listrik yang Terjual Menurut jenis Pelanggan (MWH)

No Tahun Rumah Usaha Industri Umum Jumlah

Tangga

1. 1997 334.377 113.731 193.669 68.372 710.149

2. 1998 376.418 144.558 173.993 72.941 767.910

3. 1999 404.861 155.777 189.029 73.484 823.151

4. 2000 485.027 176.683 191.830 77.868 931.408

5. 2001 512.786 201.056 187.617 82.761 984.219

6. 2002 536.083 214.315 292.632 83.154 996.254

7. 2003 583.631 222.596 172.644 112.681 1.091.553

Sumber: PLN Balikpapan

207
Hasil Penelitian dan Pembahasan
Penelitian mengkaji secara mendalam hubungan antara jumlah
penduduk dan PDRB dengan konsumsi listrik. Dengan menggunakan
kemasan paket Program SPSS (Statistical Program for Social Science)
diperoleh Persamaan Regresi Linear Berganda dengan variabel boneka
sebagai

Y = 0,0125 + 0,0191 X1 + 0,00026X2 – 0,265 D1 - 0,093 D2 - 0,446 D3


th : ( 0,064) (0,219) ( 0,784) ( -0,957) ( -3,335) (-1,610)
Sig : (0,949) (0,829) (0,442) (0,350) (0,741) (0,123)

+ 0,183 D1X1 + 0,042 D2X1+ 0,238D3X1 – 0,0029 D1X2 - 0,0013 D2X2


(1,483) ( 0,338) (1,927) (6,108) (2,723)
(0,154) (0,739) (0,068) (0,000) (0,013)

– 0,000012 D3X2 …………………………………………………….. (7)


(-0,026)
( 0,979)

Angka-angka dalam kurung, atas menunjukkan t hitung dan bawah


signifikansi.

Y = 0,056 + 0,0003 X2 – 0,309 D1 - 0,472 D3 + 0,202 D1X1


th ( 6,889) (2,086) (-1,701) (-3,211) (2,502)
Sig (0,000) (0,048) (0,102) (0,004) (0,020)

+ 0,247 D3X1 + 0,0029 D1X2 + 0,0014 D2X2 ……………………(8)


(4,035) ( 8,357) (11,253)
(0,000) (0,000) (0,000)

208
(Angka-angka dalam kurung, atas menunjukkan t hitung dan bawah
signifikansi).

Fhitung = 349,626 Sig. = 0,0000

R 2 = 0,990

R = 0,995

1. Persamaam Regresi untuk Rumah Tangga

D1 = 1 adalah konsumsi listrik rumah tangga


0 yang lain

Y = 0,365 + 0,202 X1 + 0,0032 X2 ………………………………….


(9)
Sig. (0,102) (0,020) (0,048)

2. Persamaam Regresi untuk Usaha

D2 = 1 adalah konsumsi listrik usaha


0 yang lain

Y = 0,056 + 0,0017 X2
……………………………………………..(10)
Sig. (0,000) (0,048)

3. Persamaan Regresi untuk Industri

D3 = 1 adalah konsumsi listrik rumah tangga


0 yang lain

Y = -0,416 + 0,247 X1 + 0,0003 X2


…...…………………………….(11)
(0,004) (0,000) (0,048)

(Angka dalam kurung menjukkan taraf signifikansi)

4. Persamaan Regresi untuk Umum

D1 = 0

209
D2 = 0
D3 = 0

Y = 0,056 + 0,0003 X2 …………………………………………(12)


(0,000) ( 0,048)

Latihan: Kerjakan atau jawab soal berikut:

Soal A.

1. Buat suatu persamaan linear dengan variabel dummy dari rangkaian


data hipotetis, termasuk didalamya satu variabel boneka. Setiap
mahasiswa harus memiliki data yang berbeda
2. Selesaikan atau olah data No. 1 tersebut dengan menggunakan
program SPSS sehingga tercipta dua jenis persamaan, setelah
memasukkan nilai variabel boneka.
3. Beriakan penjelasan atau komentar atau perbandingan dari seluruh
persamaan yang diperoleh

Soal B.
1. Apa yang dimaksud variabel boneka. Bedakah dengan variabel
dikotomi. Jelaskan
2. Kapan dan bagaimanakah menggunakan Regresi dengan variabel
dummy.

3. Diketahui data Hipotetis:

Y N lnN LnY D DlnY

45 56

86 98

96 104

103 179

116 156

132 176

242 298

248 354

210
258 318

267 338

269 396

272 571

----------------------------------------------------------------

N= Permintaan ayam kampung

Y = Pendapatan

a. Bagilah data tersebut menjadi dua kelompok, berikan nama masing-


masing kelompok, perhatikan data dengan baik sebelum
mengadakan pengelompokan, beri nama masing-masing kelompok.
b. Buat persamaan regresi linear dan non linear dengan variabel
dummy
c. Uji signifikansi dari koefisien yang diperoleh
d. Bandingkan kedua Regresi dari kelompok
3. Buat suatu analisis Regresi dengan Variabel Dummy dengan
menggunakan data hipotetis, variabel benaran minimal tiga (satu
variabel tak bebas, dan dua variabel tak bebas). Setiap mahasiswa
harus memiliki data yang berbeda. Tarik kesimpulan dari analisis
Anda.
4. Selanjutnya persamaan regresi non linear dengan satu variabel bebas
dapat dikembangkan untuk dua variabel bebas atau lebih. Misalkan
untuk dua variabel bebas dapat dilihat data hipotetis berikut:

Y N U lnY lnN lnU D DlnN D lnU

86 98 42

96 104 42

103 179 43.5

116 156 44

132 176 44

242 298 44.5

248 354 44.5

211
258 318 45

267 338 45

269 396 50

272 571 50

Pertanyaan

a. Berilah nama variabel tersebut di atas


b. Lengkapi data tersebut di atas
c. Buat hipotesis dari data tersebut
d. Buat persamaan regresi linear dan non linear dengan variabel
dummy dari data tersebut
e. Uji signifikansi dari koefisien yang diperoleh
f. Bandingkan kedua Regresi dari kelompok
g. Berikan komentar atau interpetertasi dari hasil persamaan
regresi yang diperoleh

212
BAB IX

REGRESI DENGAN VARIABEL TERIKAT KUALITATIF

9.1. Pendahuluan

Model regresi logistik merupakan bagian dari analisis regresi,


digunakan untuk memprediksi probabilitas suatu kejadian (event). Dengan
menggunakan fungsi logistik atau kurva logistik dari data yang digunakan.
Regresi logistik termasuk model linear umum (Generalized linear models)
atau GLM yang digunakan dalam regresi binomial umum. Sebagaimana
pada regresi berganda pada umumnya, regresi logistik ini dapat
mengandung beberapa variabel bebas baik numerik maupun kategoris.
Sedang variabel tak bebas hanya terdiri dari variabel nominal ataupun
ordinal. Jika variabel respon terdiri arau menggunakan data binary
maka dinamakan regresi logistik biner (binary logistic regression)
Salah satu kekhususan dari regresi model logit adalah tidak perlu
asumsi heteroskedastisitas (heteroscedasticity) dan autokorelasi
(autocorrelation) karena memang regresi logit ini tidak termasuk linear atau
tidak dilinearkan, sehingga hubungan antara variabel predictor tidak perlu
memakai asumsi berhubungan dengan suku kesalahan random. Walaupun
demikian, asumsi multikolinearitas (multicollinearity) tetap berlaku,
sehingga juga memerlukan uji multikolinearitas.
Bentuk kurva logistik adalah huruf S, sehingga sering disebut kurva
S. Ada beberapa cara yang dipakai untuk menjelaskan kurva S, namun yang
paling sering bahkan paling populer digunakan adalah fungsi atau regresi
logistik. Di samping itu regresi mudah dijelaskan dibanding dengan
peralatan lainnya. Selain dari pada asumsi yang sangat sederhana jika
dibandingkan dengan asumsi yang ada pada regresi linear sederhana
misalnya. Fungsi yang memberikan transformasi yang sistematik, terutama
log odds ke dalam bentuk proporsi.
Model-model variabel tak bebas yang bersifat dikotomi dengan
mengambil nilai 1 atau 0 digunakan dalam situasi dimana variabel tak bebas
memperoleh tanggapan ya atau tidak, seperti membeli atau tidak membeli
rumah, menjadi anggota organisasi atau tidak, dan lain-lain. Model-model
dengan variabel tak bebas boneka (dummy), jika dinyatakan sebagai fungsi
linear dari variabel bebas (yang bersifat kuantitatif atau kualitatif atau
keduanya) disebut model probabilitas linear (LPM) karena nilai yang
diharapkan dari variabel tak bebas bersyarat atas nilai tertentu dari variabel
bebas dapat ditafsirkan sebagai probabilitas bersyarat terjadinya suatu
peristiwa.
Model probabilitas linear mengandung beberapa masalah penaksiran dalam
hal:
1. Kesalahan pengganggu tidak mengikuti distribusi normal.

213
2. Varian kesalahan pengganggu heteroskedastik.
3. Probabilitas bersyarat yang ditaksir mungkin tidak terletak antara 0
dan 1 artinya bisa lebih kecil dari nol (negatif) atau lebih besar dari
satu.
Masalah pertama tidak serius, karena penggunaan OLS masih menghasilkan
penaksiran tak bias. Untuk sampel yang besar masih bisa melakukan
pengujian hipotesis. Masalah kedua dapat ditangani dengan
mentransformasikan data. Masalah yang serius adalah masalah probabilitas
bersyarat yang ditaksir mungkin tidak terletak antara 0 dan 1. Masalah ini
dapat dipecahkan dengan suatu teknik yang menjamin bahwa nilai
probabilitas akan terletak antara 0 dan 1.
Model Regresi dengan variabel dummy yang telah diuraikan
terdahulu adalah memiliki sifat bahwa variabel bebasnya (dummy)
adalah kualitatif. Namun pada pembahasan ini model regresi dimana
variabel tak bebasnya bersifat kualitatif atau dikotomi yang bernilai 1
atau 0. Misalkan suatu studi tentang tingkat partisipasi kerja yang
merupakan fungsi dari tingkat pengangguran, tingkat upah dan
pendapatan keluarga. Dalam hal terdapat orang yang bekerja dan yang
tidak bekerja, sehingga partisipasi kerja merupakan variabel tak bebas
yang hanya memiliki nilai 1 dan 0. Ciri has dari responden dalam
hal ini adalah menjawab pertanyaan ya atau tidak, jadi bersifat
dikotomi. Mempelajari model regresi yang mengandung variabel tak
bebas yang bersifat kualitatif, perlu dilakukan formulasi bentuk model
yang akan ditaksir. Dalam teori ekonometrik, terdapat tiga model regresi
linear dengan variabel dependent bersifat kualitatif, yaitu: 1. The linear
probability model (LPM), 2. The logit model dan 3. The probit model (
Arief, 1993).

9.2. Linear Probability Model (LPM)

Perhatikan model sederhana berikut:

Yi   0  1 X i  i ……………………………… (5.1)

Dimana:

Y = 1 jika keluarga memiliki rumah

= 0 jika keluarga tidak miliki rumah

Model (5.1) menunjukkan dikotomi Yi sebagai suatu fungsi


linear dari variabel Xi.

214
Asumsikan E ( i )  0 , sebagaimana biasanya (untuk mendapatkan
estimator yang tak bias) kita peroleh:

E (Yi )   0  1 X i

Misalkan Pi adalah probabilitas Yi  1 dan 1- Pi adalah probabilitas


yang menunjukkan Yi  0 (tidak terjadi), maka variabel Yi memiliki
distribusi sebagai berikut (Arief, 1993):

Yi Probalitas

0 1- Pi
1 Pi

Total 1

Secara ekspektasi matematis (mathematical expectation) diperoleh:

E (Yi )  0(1  Pi )  1( Pi ) = Pi

Dengan demikian

0  E (Yi )  1

Contoh:

Tabel 9.1. Data Hipotetis Kepemilikan Mobil

No. Kepemilikan Pendapatan/tahun

Keluarga Mobil (Y) juta rupiah

215
1 0 58

2 1 116

3 1 118

4 0 7

5 0 25

6 1 119

7 1 120

8 0 83

9 0 39

10 0 40

11 1 117

12 1 118

13 0 74

14 1 120

15 0 36

16 1 119

17 1 116

18 0 30

19 0 78

20 1 118

Berdasarkan data tersebut di atas the LPM diestimasikan dengan


menggunakan metode oleh OLS, diperoleh:

Yˆi  0,446  0,011 X i

216
SE ; (0,118) (0,001)

T; (-3,793) (8,908)

R 2  0,815

Nilai R2 menunjukkan ketepatan model, sebagaimana pada regresi linear


sederhana sedang nilai intercept -0,446 menunjukkan angka minus
sehingga dapat dikatakan bahwa peluang keluarga memiliki rumah
adalah nol (peluang tidak mungkin negatif). Nilai slop 0,011
menunjukkan bahwa jika pendapatan naik satu juta rupiah, maka
probabilitas rata-rata memiliki mobil naik 0,011 atau 1,10%.

9.3. Model Logit (Logit model)

Salah satu kekurangan dari regresi linear adalah keterbatasannya


dalam hal ukuran atau skala variabel responsnya, yang tidak dapat dilakukan
analisis jika terdiri dari variabel kualitatif atau dalam bentuk kategori atau
dikotomis. Misalnya kepemilikan mobil (memiliki atau tidak memiliki),
kredit berisiko besar atau kecil, kepemilikan senjata atau tidak dan
sebagainya. Untuk mengatasi hal demikian dikembangkan beberapa analisis
yang dapat mengatasi persoalan, salah satunya adalah regresi logistik
binary. Pada Regresi logistik Binary, peneliti memprediksi variabel terikat
yang berskala dikotomi. Skala dikotomi yang dimaksud adalah skala data
nominal dengan dua kategori, misalnya: ya dan tidak, baik dan buruk atau
tinggi dan rendah.

Regresi logistik merupakan salah satu bagian dari analisis regresi


yang digunakan untuk memprediksi probabilitas kejadian suatu peristiwa
dengan mencocokkan data pada fungsi logit kurva logistik. Regresi logistik
juga digunakan secara luas pada bidang kedokteran, ilmu sosial dan bahkan
pada bidang pemasaran, seperti prediksi kecenderungan pelanggan untuk
membeli suatu produk atau berhenti berlangganan. Regresi logistik tidak
memerlukan asumsi normalitas, heteroskedastisitas dan autokorelasi,
dikarenakan variabel terikat yang terdapat pada regresi logistik merupakan
variabel dummy (0 dan 1), sehingga residualnya tidak memerlukan ketiga
pengujian tersebut. Untuk asumsi multikolinearitas, karena hanya
melibatkan variabel-variabel bebas, maka masih perlu untuk dilakukan

217
pengujian. Untuk pengujian multikolinearitas ini dapat digunakan uji
kesesuaian (goodness of fit test) yang kemudian dilanjutkan dengan
pengujian hipotesis guna melihat variabel bebas mana saja yang signifikan
dan dapat tetap digunakan dalam penelitian.

Selanjutnya di antara variabel bebas yang signifikan, dapat dibentuk


suatu matriks korelasi, dan apabila tidak terdapat variabel bebas yang saling
memiliki korelasi yang tinggi, maka dapat disimpulkan bahwa tidak terdapat
gangguan multikolinearitas pada model penelitian (David W. Hosmer,
2011). Regresi logistik merupakan salah satu metode statistik parametrik
untuk menguji hipotesis. Metode regresi logistik adalah metode matematika
yang menggambarkan hubungan antara satu atau lebih variabel bebas
dengan satu variabel tak bebas yang dikotomi yang variabelnya dianggap
hanya mempunyai dua nilai yang mungkin yaitu 0 dan 1.

Misalkan dalam penelitian terdapat dua kategori pada variabel tak


bebasnya misalnya “lulus” dan “tidak lulus”, maka dinamakan binary
logistic regression. Kalau semisalnya lebih dari dua kategori dinamakan
multinomial logistic regression. Nah, satu lagi, kalau skala data variabel
terikatnya ordinal (peringkat), dinamakan ordinal logistic regression.
Perhatikan gambar berikut:

Gambar 9.1. Fungsi proporsi dari Prediktor X

218
Gambar 9.2. Fungsi Logistik dengan β0+ β1X pada sumbu horizontal

Asumsi Regresi Logistik.

Dibanding dengan regresi linear, terdapat sedikit perbedaan, nama


pada dasarnya hampir sama atau identik dengan regresi linear. Pada regresi
logistik, setiap variabel bebas memiliki hubungan liner antara variabel bebas
dengan logit outcome.

1. Hubungan linear yang terdapat pada regresi liner, tidak dapat terjadi
pada regresi logistik, sehingga Regresi logistik tidak mengasumsikan
hubungan linear antara variabel bebas dan variabel tak bebas
2. Variabel tak bebas harus berupa dikotomi (dua kategori)
3. Variabel bebas tidak mesti memiliki skala interval dan tidak perlu
terdistribusi normal (multivariate normality), tidak juga harus ada
hubungan linear dan tidak juga harus memilki kesamaan variance
(asumsi homoscedasticity)
4. Kelompok atau kategori-kategori yang ada harus bebas sama lain
(mutually exclusive). Jika studi satu kelompok, maka setiap kasus atau
item harus berasal dari kelompok tersebut.
5. Sampel yang diperlukan dalam jumlah relatif besar, minimum
dibutuhkan hingga 50 sampel data untuk sebuah variabel bebas
(independen).
6. Dapat menyeleksi hubungan karena menggunakan pendekatan non
linier log transformasi untuk memprediksi odds ratio. Odd dalam
regresi logistik sering dinyatakan sebagai probabilitas.

Kembali mengenai kepemilikan mobil dihubungkan dengan tingkat


pendapatan Pada LPM di peroleh

219
Pi  E (Y  1 / X i )   0  1 X i ………….. (9.1)

Dimana:

Y = kepemilikan rumah

X = pendapatan

Selanjutnya, misalkan peluang Kepemilikan mobil dinyatakan sebagai

1
Pi  E (Y  1 / X i )  ( o  1 X ) ………….. (9.2)
1 e

e  2,7183

Selanjutnya tuliskan persamaan (9.2) dengan bentuk

1
Pi  ………….. (9.3)
1  e  Zi

Dimana

Z i   0  1 X i

Jika Pi menunjukkan probabilitas kepemilikan mobil pada


persamaan ( 9.2) maka (1- Pi ) adalah probabilitas tidak memiliki mobil
yang dinyatakan sebagai

1
1  Pi  ………….. (9.4)
1  e Zi

220
Jika probabilitas kepemilikan mobil dibagi dengan probabilitas tidak
memiliki mobil, maka odd ratio (OR) dinyatakan

Pi 1  e Zi
 = e Zi …….. (9.5)
1  Pi 1  e Zi

Persamaan (9.5) menunjukkan bahwa ratio probabilitas memiliki


terhadap peluang tidak memiliki mobil. Selanjutnya jika diambil
logaritma natural dari persamaan (9.5) diperoleh

Pi
Li  ln  Zi
1  Pi
  0  1 X i

Pi
Atau ln   0  1 X i (9.6)
1  Pi

Persamaan (9.6) dikenal dengan cumulative logistic distribution


function. Selanjutnya jika persamaan ini diantilogaritmakan diperoleh

Pi   X
e 0 1 i ………….. (9.7)
1  Pi

Pi
disebut Odd Ratio (OR)
1  Pi
Persamaan (9.6), dapat ditulis dengan logit ( Pi )

Sehingga
 P 
logit ( Pi )  ln  i    0  1 X i  Z i
 1 - Pi 

Jadi model logit dinyatakan dalam suatu bentuk model probabilistic atau
dengan mengambil inversnya, yaitu probabilitas yang dinyatakan dengan
logit sehingga dapat ditulis:

logit
e 1 1
Pi  1 
logit logit -logit
1 e 1 e 1 e

221
Atau

1 1
Pi   , sama dengan persamaan (9.2).
1 e -z -(   X )
1 e 0 1

Kembali pada persamaan (9.7) dengan menyatakan X=1, memiliki mobil


dan X= 0, menunjukkan tidak memiliki mobil

 P(Y  1 / X  1)   1
Odd utk memiliki mobil  e 0
p  0  1X  1  P(Y  1 / X  1)
e 
1 p Odd utk tidak memiliki terjadi 
P(Y  1 / X  0) 
e 0

 1  P(Y  1 / X  0)

Sehingga odd Ratio (OR) kepemilikan mobil

  1
Odd utk even yang terjadi e 0  ……(9.10)
OR   e 1
Odd utk even yang tidak terjadi 0
e

Dengan pengembangan persamaan (9.6), untuk beberapa variabel bebas,


diperoleh bentuk umum regresi logistik

Bentuk umum :

Pi
Li = ln( )   0  1 X 1   2 X 2  .......  n X n  i (5.9)
1  Pi
Dimana:

X 1 , X 2 ,....., X n adalah variabel bebas ke-i (i=1,2,3,….n)


 0 , 1 ,  2 ,....,  n adalah parameter ke-i (i=0,1,2,3,….n)
i adalah kesalahan (error) ke-i (i =1,2,3,….n)

4.3.4. Estimasi Parameter


Dalam regresi linier dikenal istilah least square yang digunakan untuk
estimasi parameter model, sedangkan untuk regresi logistik digunakan
prinsip estimasi maximum likelihood. Prinsip dari maximum likelihood ini
adalah parameter populasi diestimasi dengan cara memaksimumkan
kemungkinan dari data observasi. Setiap observasi untuk model regresi
logistik adalah variabel random dari distribusi Bernoulli (Netter et al.,
1996).
Menurut Hosmer dan Lemeshow (1989), fungsi likelihood distribusi
Bernoulli untuk n sampel independen adalah sebagai berikut:

222
n
l (  )   p( xi ) yi {1  p( xi )}1 yi ……(9.2)
i 1
yi adalah pengamatan pada variabel respons ke-i
(xi) adalah peluang untuk variabel predictor ke-i

Jika ruas kiri dan kanan dari persamaan 9.2 dilogaritmakan diperoleh:

n
ln[ l (  )]  ln[  p( xi ) yi {1  p( xi )}1 yi ]
i 1

n
ln[ l (  )]  ln[  p( xi ) yi {1  p( xi )}1 yi ]
i 1
n
  ln[ p( xi ) yi {1  p( xi )}1 yi ]
i 1

n n
  yi ln[ p( xi )]   (1  yi ) ln[1  p( xi )]
i 1 i 1

n n
  yi ln[ p( xi )]   (1  yi ) ln[1  p( xi )]
i 1 i 1
n n
  yi ln[ p( xi )]   (1  yi ) ln[1  p( xi )]
i 1 i 1
Atau dapat ditulis

n n
ln l (  )   yi ln[ p( xi )]  (n   yi ) ln[1  p( xi )] …… (9.7)
i 1 i 1

Agar p( xi ) dapat maksimum persamaan (9.7) diturunkan kemudian


disamakan dengan nol (syarat perlu kondisi maksimum), maka haruslah
d ln l (  )
0
d

n n

d ln l (  ) i 1  yi n   yi
  i 1
(1)
d p ( xi ) 1  p ( xi )

Jadi

223
n n

 yi n   yi
i 1
 i 1
0
p ( xi ) 1  p ( xi )

n n

 yi n   yi
i 1
 i 1
0
p ( xi ) 1  p ( xi )

n n

 yi (1  p( xi )  p( xi )(n   yi )
i 1 i 1
0
p ( xi )(1  p ( xi )

n n n
  
 i
y
i 1
 p ( xi  i
) y  np ( xi )
i 1
 p ( xi  yi  0
)
i 1

n

 y  np( x )  0
i 1
i i

y i

i 1
 y  p( xi )
n

Karena   p( xi ) maka didapatkan ˆ merupakan penduga


kemungkinan maksimum.
Jadi taksiran parameter  k , diperoleh dengan mendiferensialkan
fungsi loglikelihood terhadap βk dengan k = 0,1,2…n. Nilai maksimum
diperoleh bila hasil diferensial fungsi log-likelihood bernilai nol (0).

Pengujian Kecocokan Model

Alat yang digunakan untuk menguji kecocokan model dalam regresi logistik
adalah uji Hosmer-Lemeshow. Statistik Hosmer-Lemeshow mengikuti
distribusi Chi-square dengan df = g − 2 dimana g adalah banyaknya
kelompok, dengan rumus sebagai berikut:

224
g
(Oi  N i i ) 2
 HL
2

i 1 N i i (1   i )
dimana:
Ni : Total frekuensi pengamatan kelompok ke-i
Oi : Frekuensi pengamatan kelompok ke-i
i : Rata-rata taksiran peluang kelompok ke-i
Untuk menguji kecocokan model, nilai Chi-square yang diperoleh
dibandingkan dengan nilai Chi-square pada table Chi-square dengan df = (g
– 2). Jika  HL
2
  (2g 2) maka H0 ditolak dan H1 diterima

Pengujian Secara Keseluruhan

Sebelum membentuk model regresi logistik terlebih dahulu dilakukan uji


signifikansi parameter. Uji yang pertama kali dilakukan adalah pengujian
peranan parameter didalam model secara keseluruhan yaitu dengan hipotesis
sebagai berikut: H0 : β1 = β2 = · · · = 0 (Model tidak berarti)
H1 : paling sedikit koefisien βi ≠ 0 (Model berarti) i = 1, 2, . . . , p.
Statistik uji yang digunakan adalah

l 
G  2 log  0   2[log(l0 )  log(l1 )]  2( L0  L1 )
 l1 
l0 = nilai maksimum fungsi kemungkinan untuk model di bawah hipotesis
nol
l1 = nilai maksimum fungsi kemungkinan untuk model di bawah hipotesis
alternatif
L0 = nilai maksimum fungsi log kemungkinan untuk model di bawah
hipotesis nol
L1 = nilai maksimum fungsi log kemungkinan untuk model di bawah
hipotesis alternatif

Nilai  2( L0  L1 ) tersebut mengikuti distribusi Chi-square dengan df =


p. Jika menggunakan taraf nyata sebesar α, maka kriteria ujinya adalah tolak
H0 jika  2( L0  L1 )  ( p )
2
atau p-value ≤ α, dan terima dalam hal
lainnya.

Pengujian Secara Terpisah

Uji Signifikansi Parameter dilakukan untuk mengetahui taksiran


parameter berpengaruh terhadap model atau tidak secara signifikan, serta

225
mengetahui pengaruh masing-masing parameter tersebut. Uji signifikansi
parameter model secara terpisah (parsial) dilakukan untuk mengetahui
signifikansi parameter terhadap variabel dependen. Selanjutnya untuk
mengetahui signifikansi parameter model secara terpisah adalah dengan
menggunakan uji Wald (Hosmer dan Lemeshow, 2000) dengan hipotesis
sebagai berikut :

H0 : βi  0
H0 : βi  0 , i = 1,2,3……p

i
SU : W 2 
SE(  i )

Contoh 1. Estimasi dari Model Logit

Tabel 9.2. Data Kepemilikan Rumah

Punya Punya Punya

Umur Rumah Umur Rumah Umur Rumah

1 22 0 14 40 0 27 60 0

2 23 0 15 41 1 28 62 1

3 24 1 16 45 0 29 66 1

4 25 0 17 46 1 30 67 1

5 27 0 18 47 1 31 68 1

6 28 0 19 48 0 32 69 0

7 30 0 20 49 1 33 70 1

8 31 0 21 49 0 34 73 1

9 32 0 22 50 1 35 75 0

10 33 1 23 51 0 36 78 1

11 35 0 24 58 1 37 80 1

12 37 0 25 58 0 38 88 0

13 38 1 26 59 1 39 89 1

226
Nilai kuadrat W tersebut mengikuti distribusi Chi-square dengan df = 1. Jika
W2 ≥ 2(1 ) atau p-value ≤ α maka H0 ditolak, dan H1 diterima.  i adalah
nilai dari estimasi parameter regresi dan SE (  i ) adalah standard error ke-
i.

Berdasarkan pada Tabel 9.2 diketahui bahwa ( N i  ni ) sehingga dapat


dihitung

n
Pˆi  i
Ni

merupakan frekuensi relatif. Jelas jika Ni cukup besar maka P̂


merupakan estimator yang baik untuk Pi . Dengan menggunakan Pi
estimasi dapat diperoleh logit estimasi sebagai

Tabel 9.3. Data Berkelompok dari Tabel 9.2

Rumah ln T.Tengah

No. Umur Orang Ya P 1-P(%) p/(1-p) [P/(1-p)] Umur

1 20-29 6 1 0.17 0.83 0.2 -1.609438 24.5

2 30-39 7 2 0.29 0.71 0.4 -0.916291 34.5

3 40-49 8 4 0.50 0.50 1 0 44.5

4 50-59 5 3 0.60 0.40 1.5 0.4054651 54.5

5 60-69 6 4 0.67 0.33 2 0.6931472 64.5

6 70-79 4 3 0.75 0.25 3 1.0986123 74.5

11 80-89 3 2 0.67 0.33 2 0.6931472 84.5


ˆ  ln(
L i
)   0  1 X i
i
1 P ˆ
i

Menggunakan data hipotesis tersebut di atas diperoleh:

227
Menggunakan metode OLS dengan bantuan Program SPSS diperoleh:

Lˆi  2,212  0,042 X i (5.15)

SE: (0,469) (0,008)

t: (-4,720) (5,147) R 2  0,841

sig : 0,005 0,004

 p 
ln    2,212  0,042 X i
1 p 

p  2,212  0,042X
e i
1 p

 2,212  0,042X
p
e i  e  2,212 e0,042 , utk x  1
1 p

Jadi odd ratio (OR) = e


0,042 = 1,04

Orang dengan umur lebih tua satu tahun akan memiliki pelung 1,04 kali
untuk memiliki rumah dibanding yang lebih mudah satu tahun, dapat
dikatakan: semakin tinggi usia semakin besar peluang untuk memiliki
rumah.

9.3.2. Penjelasan Koefisien Regresi logit

Penjelasan terhadap koefisien regresi logistik tidak sama dengan


regresi linear, sehingga tidak mudah dilakukan interpretasi, karena koefisien
dihubungkan dengan odd rasio. Odd ini adalah sama Exp(B) dan jika
ditulis eB, sehingga perlu dijelaskan dengan menggunakan fungsi eksponen

228
dan koefisien tersebut disebut odd ratio. Misalkan diketahui dari print out
komputer:

Tabel 9.4. Variables in the Equation

B S.E. Wald df Sig. Exp(B)

Step 1a Pendapatan .907 .467 3.763 1 .052 2.476

Pendidikan 1.441 .579 6.191 1 .013 4.227

Kesehatan 2.123 1.063 3.984 1 .046 8.354

Organisasi .116 .982 .014 1 .906 1.123

Constant -11.314 3.487 10.528 1 .001 .000

a. Variable(s) entered on step 1: Pendapatan, Pendidikan, Kesehatan, Organisasi.

P = Kemiskinan (miskin = 0, tidak miskin =1)

X1 = Pendapatan keluarga (juta rupiah)

X2 = Pendidikan (strata: SD ke bawah =1, SMP=2; SMA=3 , SMA=4 dan S1 ke


atas = 5)

X3 = Kesehatan (sakit=0, sehat=1)

X4 = Organisasi (tidak memiliki organisasi=0, memiliki organisasi=1)

Berdasarkan Tabel 9.4 diketahui bahwa dari keempat variabel bebas


ternyata yang paling tinggi pengaruhnya terhadap kemiskinan adalah
pendidikan dan variabel organisasi tidak memiliki pengaruh terhadap
kemiskinan. Dari tabel yang sama diketahui bahwa pendapatan memberikan
pengaruh positif terhadap kemiskinan, atau jika pendapatan naik satu
persen maka odd rasio kemiskinan naik 147 (247-100) %. Jelasnya orang
yang memiliki pendapatan lebih tinggi satu juta rupiah memiliki peluang
menjadi kaya 2,47 kali dibanding yang memiliki pendapatan kurang dari
satu juta rupiah.

229
Dari tabel yang sama diketahui bahwa pendidikan memberikan pengaruh
positif terhadap kemiskinan, atau jika pendidikan naik satu persen maka
odd rasio kemiskinan naik 322 (4,227-1) %. Jelasnya orang yang memiliki
pendidikan lebih tinggi satu strata memiliki peluang menjadi kaya 4,227
kali dibanding yang memilki pendidikan kurang satu strata.

Perhatikan untuk variabel Kesehatan


-11,314
odd Kesehatan e e0,907 X1 e1,441 X2 e2,123 X3 e0,116 X4, jadi untuk sehat
X3=1
-11,314
odd sehat adalah e e0,907 X1 e1,441 X2 e2,123 e0,116 X4

dan untuk sakit X3=0, sehingga


-11,314
odd sakit adalah e e0,907 X1 e1,441 X2 e0,116 X4

sehingga diperoleh

e 11,314e 0,907 X 1e1, 441e 2,123X 3e 0,116 X 4


Odd ratio =
e 11,314e 0,907 X 1e 2,123X 3e 0,116 X 4

P e 11,3141, 441
 11, 314
 e1, 441 = 4,225
1 P e
Peluang orang sehat menjadi tidak miskin jauh lebih tinggi dari
pada peluang orang sakit, atau lebih empat kali dari orang sakit

9.3.3. Uji Kesesuaian Model

Kalau dalam regresi biasa, dipakai nilai R2 untuk menunjukkan


pengaruh bersama, pada regresi logistik kita pakai Cox & Snell dan
Nagelkerke R2 Square. Jadi pada regresi ini tidak ada nilai “R Square” untuk
mengukur besarnya pengaruh simultan beberapa variabel bebas terhadap
variabel terikat. Dalam regresi logistik dikenal istilah Pseudo R Square,
yaitu nilai R Square Semu yang maksudnya sama atau identik dengan R
Square pada OLS. Jika pada OLS menggunakan uji F Anova untuk
mengukur tingkat signifikansi dan seberapa baik model persamaan yang
terbentuk, maka pada regresi ini menggunakan Nilai Chi-Square.
Perhitungan nilai Chi-Square ini berdasarkan perhitungan Maximum
230
Likelihood. Selain dari pada itu Uji kesesuaian model digunakan untuk
menilai apakah model sesuai dengan data atau tidak. Untuk mengetahui
apakah model sesuai atau tidak terhadap data yang ada menggunakan uji
Hosmer dan Lemeshow. Jika uji Hosmer dan Lemeshow dipenuhi maka
model dinilai dapat memprediksi nilai observasinya.

9.3.4. Contoh Estimasi Model Logit

Berikut akan diuraikan contoh aplikasi Regresi Logistik dengan


menggunakan SPSS

Faktor yang Berpengaruh terhadap tingkat kemampuan Bayar Zakat


Misalkan hasil pengolahan data dengan menggunakan kemasan
paket SPSS diperoleh tebel :

Tabel 9.5. Hosmer and Lemeshow Test and R^2

Step Chi-square df Sig. Nagelkerke R Square

1 11.757 8 .162 .704

Tabel 9.6. Variables in the Equation

B S.E. Wald df Sig. Exp(B)

Step 1a Religionalitas .923 .477 3.753 1 .053 2.517

Modal .101 .050 4.147 1 .042 1.107

PengetahuanBisnis .825 .437 3.558 1 .059 2.281

Pendidikan .029 .382 .006 1 .939 1.030

LamaUsaha .558 .317 3.094 1 .079 1.747

LamaPinjaman -.223 .193 1.333 1 .248 .800

Berzakat .770 1.028 .561 1 .454 2.160

231
Pengembalian 19.390 10152.758 .000 1 .998 2.636E8

Constant -33.363 10152.759 .000 1 .997 .000

a. Variable(s) entered on step 1: Religionalitas, Modal, PengetahuanBisnis, Pendidikan,


LamaUsaha, LamaPinjaman, Berzakat, Pengembalian.

Hasil pengolahan data menujukkan bahwa tes kelayakan model atau


Fit Test, Hosmer and Lemeshow yang diukur dengan nilai Chi-square
(Tabel 1). Nilai tersebut sebesar 11,76 dengan probabilitas sebesar 0,16
yang berarti lebih besar dari α=0.05, menunjukkan bahwa data atau
observasi telah sesuai dengan model, atau model mampu memprediksi nilai
observasinya. Selanjutnya pada tabel yang sama, diketahui bahwa Nilai
koefisien determinasi dengan menggunakan Nagelkerke R2 = 0,66,
menujukkan bahwa variabel bebas dapat menentukan naik turunnya nilai Y
atau Tingkat kemampuan Bayar zakat, atau pengaruh semua variabel bebas
terhadap variabel Y sebesar 66 % sedangkan sisanya 0,34 atau 34%
menunjukkan pengaruh variabel lain yang tidak dimasukkan dalam model.
Selanjutnya dari tabel 2, dapat ditulis persamaan regresi logistik

 P 
ln    33,36  0,92 X 1  0,10 X 2  0,83 X 3  0,03 X 4  0,56 X 5  0,22 X 6  0.61X 7  19,39 X 8
1 P 

Variabel religionalitas memberikan pengaruh positif terhadap


variabel tingkat kemampuan bayar zakat pada taraf keyakinan α = 0,05.
Koefisien regresi logistik sebesar 0,92, menunjukkan bahwa setiap
peningkatan religionalitas satu persen akan menyebabkan peningkatan
odd rasio kemampuan bayar zakat sebesar 2,52 – 1 = 1,52 atau 152%,
dimana 2,52= e0,92 sedang e= 2,71828 (lihat kolom terakhir Tabel 2).
Atau dengan kata lain jika religionalitas naik satu kali lipat maka tingkat
kemampuan zakat naik 2,52 kali lipat. Bisa juga dikatakan responden yang
memiliki religiusitas lebih tinggi satu tingkat maka peluang kemampuan
membayar zakat lebih tinggi 2,52 kali dibanding responden yang memiliki
religiustas satu tingkah lebih rendah

Variabel modal memberikan pengaruh positif terhadap kemampuan


bayar zakat pada taraf keyakinan α = 0,05. Koefisien regresi logistik
sebesar 0,10 menunjukkan bahwa setiap peningkatan modal satu juta
akan menyebabkan peningkatan kemampuan bayar zakat sebesar 1,11– 1
= 0,11 atau 11 %. Jadi peningkatan modal sebesar satu persen
menyebabkan kemampuan bayar zakat 0.14 %. Jadi peningkatan modal

232
nasabah menyebabkan peningkatan kemampuan bayar zakat yang lebih
rendah. Demikian juga untuk pengetahuan bisnis pada taraf keyakinan α =
0,10 memberikan pengaruh terhadap kemampuan bayar zakat. Koefisien
regresi logistik, 0,83 dengan nilai Odd Raio sebesar 2,28 menunjukkan
bahwa peningkatan pengetahuan bisnis 1 % akan menyebabkan
peningkatan kemampuan bayar zakat sebesar 1,27%. Selanjutnya variabel
pendidikan tidak memberikan pengaruh terhadap kemampuan membayar
zakat.
Variabel lama usaha memberikan pengaruh positif terhadap
kemampuan bayar zakat pada taraf keyakinan α = 0,10 . Odd Rasio
sebesar 1,75 menunjukkan bahwa setiap peningkatan lama usaha 1%
akan menyebabkan peningkatan kemampuan bayar zakat sebesar 1,75– 1
= 0,75 atau 0,75. Jadi peningkatan lama usaha lebih tinggi dibanding
dengan peningkatan tingkat kemampuan bayar zakat, jika terjadi perubahan.
Variabel lama pinjaman tidak memerikan pengaruh terhadap kemampuan
membayar zakat pada taraf keyakinan α = 0,10. Demikian pula variabel
berzakat dan Pengembalian Pinjaman tidak memberikan pengaruh yang
signifikan terhadap kemampuan membayar zakat, namun pengaruh
keduanya tidak signifikan pada α= 0,10.

Latihan
Soal-soal
1. Lengkapi Tabel berikut:

Pi
Pdptan (Ni) ni Pi Li= ln wi = NiPi(1-Pi) L* = Li wi
1  Pi
X i*  X i wi
Xi
(000 $)
6 40 8 0,20
8 50 12 0,24
10 60 18 0,30
13 80 28 0,35
15 100 45 0,45
20 70 36 0,51
25 65 39 0,60
30 50 33 0,66
35 40 30 0,75
40 25 20 0,80
_____________________________________________________________

2. Given the following data

233
Student Number Tes Admitted to
graduate
program
Quantitative Verbal Yes=1; No
(Q) V =0
1 760 550 1

2 600 350 0

3 720 320 0

4 710 630 1

5 530 430 0

6 650 570 0

7 800 500 1

8 650 680 1

9 520 660 0

10 800 250 0

11 670 480 0

12 670 520 1

13 780 710 1

a. Gunakan model LPM untuk memprediksi probabilitas memasuki


program yang didasarkan pada nilai quantitative dan verbal.
b. Apakah model yang diperoleh memuaskan. Jika tidak, model apa
yang baik yang anda sarankan untuk dipergunakan

3. Selesaikan selengkapnya

Pendu. Pendapatan
miskin (000Rp)
0 490
1 1800
0 1500
1 1750
234
1 1250
0 490
1 1500
1 1700
0 430
0 500
1 1490

4. Diketahui data Tabel berikut:

Sumber: Bergerud, 1996.

a. Analisis data di atas dengan tiga metode (variabel bebas adalah wolf
density):
(i) Regresi linear sederhana
(ii) Regresi non linear kuadratik
(iii) Regresi logistik

b. Uji signifikansi parameter ketiga metode tersebut


c. Gambarkan digaram pencar data dan ketiga hasil regresi yang
diperoleh dalam suatu sumbu koodinat, sehingga jelas perbedaannya
d. Diantara ketiga model analisis, manakah yang paling tepat dipakai
untuk estimasi

Jawaban:

235
Sumber : Bergerud, 1996.

236
BAB X
REGRESI LINEAR MULTIVARIAT

10.1. Pendahuluan
Regresi linear multivaraiate (multivariate Linear Regression) adalah
model regresi linear yang memiliki dua atau lebih dari variabel tak bebas
dengan satu atau lebih variabel bebas. Jadi model ini adalah salah satu dari
sekian banyak pengembangan regresi linear sederhana atau berganda. Jadi
suatu Analisis yang merupakan analisis lanjutan dari analisis univariat
maupun bivariat. Analisis regresi linier multivariate adalah model regresi
linier dengan dua atau lebih variabel respons yang saling berkorelasi dan
beberapa variabel prediktor. Analisis regresi linier univariat diasumsikan
bahwa variabel respons adalah saling bebas, sedangkan pada analisis regresi
linier multivariat mempertimbangkan adanya hubungan ketergantungan di
antara variabel respon. Pada analisis regresi linier multivariat pemilihan
model terbaik merupakan hal yang penting.
Johnson dan Wichern, 1998; Rencher, 2002) menyatakan bahwa
Model regresi multivariat adalah model regresi dengan lebih dari satu
variabel respon yang saling berkorelasi dan satu atau lebih variabel
predictor. Secara ilmiah, untuk menjelaskan fenomena sosial perlu
dilakukan percobaan dengan pengumpulan dan analisis data. Analisis data
yang dikumpulkan dari pengamatan atau percobaan akan menghasilkan
modifikasi penjelasan dari phenomena tersebut. Selama dalam masa
percobaan tersebut, sering kali akan terjadi penambahan dan pengurangan
variabel. Dengan demikian, maka akan timbullah masalah yang semakin
kompleks sehingga dibutuhkan lebih banyak variabel yang berbeda. Karena
dalam data akan terdapat pengaruh beberapa variabel terhadap variabel
lainnya dalam waktu yang bersamaan.
Regresi linier multivariat adalah model regresi linier dengan
beberapa variabel respon yang saling berkorelasi dan beberapa variabel
prediktor dan diasumsikan adanya hubungan ketergantungan di antara
variabel respon Y. Pada analisis regresi linier multivariat pemilihan model
terbaik merupakan hal yang penting. Hal ini dikarenakan pemilihan model
terbaik pada analisis regresi linier multivariat tergantung banyaknya variabel
prediktor yang terlibat dalam model. Pemilihan model terbaik pada analisis
regresi linier multivariat tergantung banyaknya variabel prediktor yang
terlibat dalam model. Terdapat beberapa kriteria dalam pemilihan model
terbaik salah satunya adalah kriteria AICC (Corrected Akaike Information
Criterion ) yang merupakan pengembangan dari AIC (Akaike information
criterion). AICC akan menghasilkan model terbaik jika digunakan pada data
ukuran sampel yang kecil. AICC dan AIC dapat dilihat secara jelas pada
AICC Wikipedia.

237
10.2. Model Linear Multivariat
Adapun model linear multivariate mengakomodasi dua atau lebih
variabel respons atau variabel terikat dengan model umum persamaan
Regresi Linear Multivariat dapat dinyatakan:

Y1   01  11 X 1   21 X 2   31 X 3  ....   k1 X k   1

Y2   02  12 X 1   22 X 2   32 X 3  ....   k 2 X k   2

. .

. .
Yp   0 p  1 p X 1   2 p X 2   3 p X 3  ....   kp X k   p

Dalam bentuk matriks, ditulis

( n p )  ( n( k 1))((k 1) p )  ( n p ) ……………(10.1)


Atau

Y11 Y12 ... Y1 p  1 X 11 X 12  X 1k    01  02   0 p  11 12 ... 1 p 


Y Y ... Y2 p  1 X 21 X 22   1 p   21  22 ...  2 p 
 21 22  X 2 k   12 12
 
                    
      

 n1 k 2
Y ... Ynp  1 X n1 X n 2  
 X nk   k1 k 2   kp   n1  k 2 ...  np 

E ( i )  0 Cov( i ,  k )   ik I
, , i, k=1,2,…,p. dimana I adalah
identitas matriks atau   ( 1 ,  2 ,  3 ...., p ) t memiliki nilai ekspektasi 0 and
variance matrix  nxp
 Var ( i ) serta

   t  (  β̂) t (  β̂)
Dimana:
Y adalah suatu matriks dengan n observasi pada p variabel respons.
X adalah matriks desain dengan kolom untuk k+ 1 regressor atau
variabel independen, dalam bentuknya angka 1 pada kolom pertama
untuk konstan regresi;
B adalah matriks koefisien regresi dengan satu kolom untuk setiap
variabel respons; dan
E adalah matriks kesalahan pengganggu.

238
Model (10.1) menunjukkan atau bersesuaian di Regresi, dimana
bagian sebelah kiri terdiri dari matrix variabel respons sedang bagian
sebelah kanan adalah matrix yang menunjukkan model linear univariate
(variabel respons tunggal), Fox and Weisberg (2011). Sama dengan regresi
lainnya, asumsi model regresi liner multivariate dihubungkan dengan
kesalahan penggangu.
Misalkan  it menyatakan baris ke-i dari E, maka  it ∼ Nm(0, Σ),
dimana Σ adalah matriks kesalahan kovarians nonsingular; sedang  it
dan  tj saling bebas untuk i ≠ j .Secara lengkap dapat ditulis sebagai vec
  ∼  nm 0,  n    dan  n adalah matriks identitas, sedang  operator
perkalian Kronecker (Fox dan Weisberg, 2011).
Selanjutnya untuk mengestimasi koefisien regresi estimator
maximum-likelihood B dalam model multivariate linear adalah equivalent
dengan beberapa kuadrat terkecil dari variabel respons individual, sehingga
koefisien diperoleh melalui perkalian matriks

β̂  (X t X) 1 Xt Y ……………(10.2)
Misalkan dimiliki sampel dengan ukuran n, sehingga matriks desain X
memiliki ordo n (k+1), dimana (k+1) adalah rank dari matriks X, sehingga
secara simbolis dapat ditulis

  01  02 ...  0 m 
 12 ... 1m 
 ( k 1)m   11
     
  (1)  ( 2) ..  ( m ) 
 
  k1  k 2 ...  km 

 (i ) adalah regresi (k+1) dalam model untuk variabel yang ke-i. Vektor
demensial pn adalah vektor kesalahan  (i )  1,2,… p yang juga ada pada
Matriks yang berukuran nxp.

 01  02 ...  0 p    1t 
  t
 12 ...  1 p  
 ( nxp) 
 ..
11

.. ... .. 
 
  (1)  ( 2) ... e( p )   2 
 .. 
   t
 n1  n 2 ...  np   p 

Pada setiap  ( j ) menunjukkan representasi residual atau error untuk setiap


variabel respons Y, sehingga berlaku

 ( j )   ij
239
Untuk i respon, maka modelnya mengikuti :

(i )  (i )  (i ) , i = 1, 2, …..p


Sehingga diperoleh

ˆ(i )  ( X t X )1 X tY(i )


Pengujian Hipotesis:
Pengujian ini dilakukan untuk menguji apakah secara keseluruhan
parameter tidak sama dengan nol. Hipotesis yang digunakan adalah sebagai
berikut: (Rencher 2002)

Hipotesis statistik yang akan diuji:

H 0 : 11  12  ....  1q   2q  ....   pq

H 1 : paling sedikit ada  pq  0

Dengan:

  01  02 ...  0 q 
 
  11
  0T 12  1q 
 
       
 1  
  p1  p2   pq 

Misalkan digunakan dua Variabel prediktor X


Statistik uji yang digunakan adalah Wilk’s lambda:


  t   t  t 
  t
    ny y t
dan

  ̂ t t   ny y t

240
Pengujian kebebasan Antar Variabel Respon
Untuk menguji kebebasan antar variabel respon dapat dilakukan uji Bartlett
Sphericity berikut (Morrison, 2005):
Hipotesis :
H0 : Antar variabel respon bersifat independen
H1 : Antar variabel respon bersifat dependen

Statistik Uji:

 2q  5 
2hitung  n  1   ln R
 6 

Gagal Tolak H0 jika 2hitung  2 ,(1/ 2)q(q 1)


Berarti antar variabel bersifat independen

10.3. Hubungan Antara Variabel Respons dan Variabel Prediktor


Pada regresi multivariat, ukuran yang digunakan untuk mengukur
hubungan antara variabel respon dan prediktor adalah Wilk’s Lambda.
Ukuran dinyatakan dengan rumus sebagai berikut: (Rencher, 2002)

 2  1  

dengan Λ adalah nilai Wilk’s lambda

Nilai   berada pada interval 0 dan 1. Semakin mendekati 1 berarti


2

hubungan antara variabel respon dan variabel prediktor semakin erat.


Dengan kata lain nilai   menyatakan persentase dari variabel respon yang
2

dapat dijelaskan oleh variabel prediktor sedangkan sisanya adalah


pengaruh dari varainel lain yang tidak dimasukkan dalam model.

10.3.1. Uji Hipotesis


Pengujian ini dilakukan untuk menguji apakah secara keseluruhan
parameter tidak sama dengan nol. Hipotesis yang digunakan adalah sebagai
berikut: (Rencher, 2002)

241
H 0 : i  0

H1 : Paling sedikit ada satu i  0 i =1,2,3,….k

Statistik uji yang digunakan adalah Wilk’s Lambda dengan


menggunakan rumus:

ˆ '  '
 '  

 
  '   ny y '

  ˆ ' ˆ

Dimana

ˆ    ˆ
dan

  ˆ 'ˆ  ny y '

Dimana y adalah vektor rata-rata dari matriks Y

H0 ditolak jika  hitung   , q , p , n  p 1

Nilai  , q, p, n  p 1 adalah nilai tabel kritis untuk Wilk’s Lambda.

10.3.2. Uji Asumsi Residual Identik

Untuk menguji syarat ini dapat dipergunakan statistik uji Box’s M.


Hipotesis

H0 : 1  2  ...  k  

H1 : Minimal ada satu i  k untuk i  j


Statistik uji :

242
  2(1  c1 ) ln M
k k

 
1 1
ln M  i ln S i  i ln S
2 i 1
2 i 1

 vS
i 1
i
S k

v
i 1
i

 
 k 
 1   2 p2  3 p 1 

1
c1     
k
1   6( p  1)( k  1)  , vi  ni  1

vi
 i 1
 v 
 i 1 i 

Dimana:
k = banyaknya kelompok ( grup )
p = jumlah peubah pembeda (Y) dalam fungsi diskriminan = 1
S = matriks varians kovarians dalam kelompok gabungan.
Si = matriks varians kovarians kelompok ke-i.
i = 1,2, ... , k

ni = jumlah responden pada kelompok ke- i

Terima hipotesis nol jika    ,(1/ 2)(k 1) p( p 1) yang berarti matriks
2

varians kovarians bersifat homogen

Uji Hipotesis

243
Hipotesis menyatakakan bahwa varaibel respons tidak bergantun X q1 ,
X q2 ,…… X p , sehingga

H0 :  ( 2 )  0 dimana

  (1) 
  (( q 1) p ) 
( 2)  , sedang
 ((k q ) p ) 

X  X2 
X  1 
(n  (q  1)) (n  (k  q))
Sehingga secara umum model dapat dinyatakan

  (1) 
E (Y )  X  [ X 1  X 2 ]   X 1 (1)  X 2  ( 2 )

 ( 2) 

H0 :  ( 2 )  0 dimana

  (1) 
  (( q 1) p ) 
( 2)  , sedang
 ((k q ) p ) 

X  X2 
X  1 
(n  (q  1)) (n  (k  q))
Sehingga secara umum model dapat dinyatakan

244
  (1) 
E (Y )  X  [ X 1  X 2 ]   X 1 (1)  X 2  ( 2 )
 ( 2) 

H0 : (1)  0 , Y  X1(1)  
jumlah kuadrat ekstra dan cossproducts

 (Y  X1ˆ(1) )t (Y  X1ˆ(1) )  (Y  Xˆ )t (Y  Xˆ )


^ ^
 n(   )
(1)

Dimana:

ˆ(1)  ( Xˆ 1 X1 )1 X1tY


^
1
  (Y  Xˆ 1ˆ(1) )t (Y  Xˆ 1ˆ(1) )
n
(1)

10.3.3. Pengujian Kebebasan Antar Variabel Respon

Variabel q Y ,Y ,...,Y 1 2 dikatakan bersifat saling bebas


(independent) jika matriks korelasi antar variabel membentuk matriks
identitas. Untuk menguji kebebasan antar variabel ini dapat dilakukan uji
Bartlett Sphericity berikut (Morrison, 2005):
Hipotesis :
H0 : Antar variabel respon bersifat independen
H1 : Antar variabel respon bersifat dependen

Statistik Uji:

 2q  5   2(2)  5 
2hitung  n  1   ln R  8  1   ln 0.68  2.12
 6   6 

Gagal Tolak H0 jika 2hitung  2 ,(1/ 2)q(q 1)


Dari daftar diperoleh dari Tabel distribusi kai kuadrat dengan
2 ,(1 / 2) q ( q 1) = Jadi t hitung masih lebih kecil sari t tabel, sehingga
variabel respons adalah Berarti antar variabel bersifat saling bebas.

245
Uji Asumsi Residual Identik
Asumsi selanjutnya yang harus dipenuhi dalam pemodelan secara
multivariat adalah matriks varians-kovarians residual homogen. Pengujian
dilakukan terhadap nilai dari residual dengan hipotesis sebagai
berikut:Untuk menguji syarat ini dapat dipergunakan statistik uji Box’s M.

Hipotesis

H0 : 1  2

H1 : Minimal ada satu 1  2


Statistik uji :

  2(1  c1 ) ln M
k k

 
1 1
ln M   i ln Si  i ln S pool
2 i 1
2 i 1

 
 k 
 1   2 p2  3 p 1 

1
c1     
k
1   6( p  1)( k  1)  , vi  ni  1

vi
 i 1
 v 
 i 1 i 

Terima hipotesis nol jika    ,(1/ 2)(k 1) p( p 1) yang berarti
2

matriks varians kovarians bersifat homogen


Untuk uji secara parsial maka dapat digunakan uji t, sebagaimana
yang terdapat pada hasil print out komputer pada program SPSS, jika
menggunakan programa ini dalam analisis. Dari hasil output terlihat persis
sama dengan regresi liner berganda yang telah dipelajari. Hal ini terjadi
karena analisis regresi multivariate mensyaratkan atau mengasumsikan
tidak adanya hubungan antara variabel respons.

Contoh:
Anggaplah bahwa investasi dan upah memiliki pengaruh terhadap
pendidikan dan kesehatan dengan data sebagai berikut:

246
No. Investasi Upah Pendidikan Kesehatan
1 4 3 1 2
2 3 4 2 3
3 4 6 4 2
4 1 7 3 4
5 2 6 5 2
6 5 7 4 5
7 8 5 5 6
8 9 7 8 7

Matriks Desain:

1 4 3
1 3 4

1 4 6
 
X 
1 1 7
1 2 6
 
1 5 7
1 8 5
 
1 9 7 

1 4 3
1 3 4

1 4 6
1 1 1 1 1 1 1 1     8 36 45 
X T X  4 3 4 1 2 5 8 9  
1 7 
 36 216 205
1
1 2 6 
3 4 6 7 6 7 5 7    45 205 269
1 5 7 
1 8 5
 
1 9 7 

Sehingga diperoleh

 2.358  0.044  0.354


 
( X T X ) 1   0.044 0.019  0.007
 0.354  0.007 0.067 

dan

247
1 
 2
 
 4
1 1 1 1 1 1 1 1     32 
 4 3 4 1 2 5 8 9     171
3
X T Y(1)
5 
3 4 6 7 6 7 5 7    195
 4
5 
 
8 

Sehingga:

 2.362  0.067  0.344  32   2.851


     
 (1)  ( X T X ) 1 X T Y(1)   0.067 0.019  0.003 171   0.403 
 0.344  0.003 0.063  195  0.876 

Dengan cara yang sama juga diperoleh

2
3
 
2
1 1 1 1 1 1 1 1     31 
 4 3 4 1 2 5 8 9     169
4
X T Y( 2)
2
3 4 6 7 6 7 5 7    184
5 
6 
 
7 

 2.362  0.067  0.344  31   1.422


     
(1)  ( X t X )1 X tY( 2)   0.067 0.019  0.003 169   0.522 
 0.344  0.003 0.063  184  0.524 

248
 2.976  1,422

 
   (1)  ( 2)   0.460 0.522 
 0.873 0.524 

Sehingga persamaan regresi multivariat pertama



Y(1)  2.976  0.460 X1  0.873X 2

dan persamaan regresi multivariate kedua



Y( 2)  1.422  0.522 X 1  0.524 X 2

Menggunakan model regresi estimasi tersebut dapat diperolrh nilai-nalai prediksi


 
dari Y(1) dan Y( 2 ) dengan menentukan nilai-naila X terlebih dahulu. Misalkan
diambil X1= 12 dan X2= 10, sehingga diperoleh


Y(1)  2.976  0.460 (12)  0.873(10)  11.274
dan

Y( 2 )  1.422  0.522(12)  0.524(10)  10.082

Hubungan Antara Variabel Respon dan Variabel Prediktor


Pada regresi linear multivariat, ukuran yang digunakan untuk mengukur
hubungan antara variabel respon dan prediktor adalah Wilk’s Lambda. Ukuran
dinyatakan dengan rumus sebagai berikut: (Rencher, 2002)

 A2  1  
Dimana
 adalah nilai Wilk’s lambda

6.337  2.116
E Y Y - ˆ t X t Y
t
 1.938 6.448 36.760
     0.080
EH Y t Y - ny t y 32 20 460
20 26.875

Dapat juga dengan rumus:

249
  nˆ   t 

  (X t X) 1 X t
Jadi diperoleh:
 A2  1  0,080  0.920

Nilai  A berada pada interval 0 dan 1. Artinya, semakin mendekati 1 berarti


2

hubungan antara variabel respons dan variabel prediktor semakin erat. Jadi fakta ini
hubungan ini hubungan yang sangat erat antara variabel respons dan variabel
prediktor.

Proses selanjutnya adalah pengujian hipotesis. Dalam hal ini hipotesis


statistik yang akan diuji:

H 0 : 11  12   21   22  0
H 1 : paling sedikit ada  pq  0

1 4 3 1.480 2.238
1 3 4  1.893 2.240
 
1 4 6 4.097 3.811
   2.976  1,422  
1 7 
     0.522   
ˆ 1 3.591 2.768
 0.460
1 2 6   3.178 2.766
   0.873 0.524   
1 5 7 5.429 4.857
1 8 5   5.063 5.375
   
1 9 7  7.268 6.945

250
1 2 1.480 2.238   0.480  0.238
2 3 1.893 2.240  0.107 0.760 

4 2 4.097 3.811  0.097  1.811
     
2.769   0.591 1.231 
    ˆ  
3 4  3.591
 
5 2 3.178 2.766  1.822  0.766
     
4 5 5.429 4.857   1.429 0.143 
5 6  5.063 5.375   0.063 0.625 
     
8 7  7.270 6.945  0.732 0.055 

Jumlah kuadrat kesalahan dan cross product matriks:

 6.503  1.956 
  nˆ   t   
 1.956 6.431 

Sehingga:

  (T )   0.813  0.245 
ˆ    
 n   0.245 0.804 

Sedang matriks varians-kovarians diperoleh dari data Y1 dan Y2:

 4.571 3.339 

3.339 3.839 

Dan hipotesis nol dari jumlah kuadrat kesalahan dan cross product
matriks:

  (Y  X 1ˆ(1) )T (Y  X (1) ˆ(1) )  (Y  Xˆ )T (Y  Xˆ )

ˆ)
ˆ 
 n (1

Dimana:

251
ˆ(1)  ( X t1 X1 )1 X1tY

dan

ˆ  (   11 ) (   11 )
t
1
n

ˆ )   2.233  1.219 
  n (ˆ 1    1.219
 9.328 

Jadi diperoleh

 6.503  1.956   2.233  1.219 


  dan   
 1.956 6.431   1.219 9.328 

Sehingga didapatkan:

0.3152  0.0937 
H 1  
0.2739 1.5338 

Eigenvalue dari H1

1.849  1.3823 1.849  1.3823


1   1.6044 dan 2   0.2446
2 2

Wilks' lambda =
m

1 
1 1 1
( )( )  (0.3839 )(0.8034 )  0.3085
i 1 i 1  1.6044 1  0.2446

Dengan demikian nilai Statistik Lamda adalah 0,3085

Pada taraf keyakinan α = 0.01 dan m(r - q) = 1 derajat bebas, nilai


kritis adalah 9.210351 – sehingga Ho ditolak. Pendekatan p-value dari uji
chi-square adalah 0.925701. Perhatikan bahwa hal ini merupakan
extremely gross approximation (karena n – r = 4 dan n – m = 4).
ˆ 
  n(  ˆ)
1

252
dan

ˆt ˆ
ˆ     (Y  X ) (Y  X )
t

n n
Pada kesempatan yang sama dapat diuji bahwa respons
tidak tergantung pada variabel X1 sehingga

H0: β1 = 0
H1: β1 ≠ 0
Under the null hypothesis, the regression model become
Ŷ= X2β ̂2, that is the second column of the design matrix will be
deleted
Pada hipotesis nol, model regresi menjadi Ŷ= X2β 2̂ , dimana kolom kedua dari matriks
desain akan dihapus. Jumlah kuadrat kesalahan dan matriks perkalian silang (cross product
matrix ) E adalah sama yang telah dihitung sebelumnya, tetapi
hipotesis jumlah kuadrat dan matriks perkalian silang akan
menjadi
The error sum of squares and cross product matrix E is the same
one which was computed before, but the hypothesis sum of
squares and cross product matrix will be

ˆ 
  n( ˆ)
1

Dimana:

1
1  (   2β̂ 2 ) t (   2β̂ 2 )
n
dan

β̂2  (t2 2 )-1 t2

46 .8129 46 .1286 



46 .1286 42 .6486 

253
 6.5021  1.9554 

 1.9554 6.4302 

 0.0369 0.0411 
( ) 1  
 0.0434  0.0429 

Eigenvalues of the matrix ( ) 1 are:

 0.0798  0.0072
1   0.00243 dan
2
 0.0798  0.0072
2   0.0823
2

m

1 
1 37 .9858
Wilks' lambda =    0.0571
i 1 i  533 .142

2
i
Pillai's trace =   trace [ (  ) 1 ]  0.7455
i 1
1  i

2
Hotelling-Lawley trace =  i  trace [ 1 ]  0.0429
i 1

Roy's greatest root = max i  0.00243

Hipotesis:

H0: β2 = 0 versus H1: β2 ≠ 0

Jumlah Kuadrat Kesahan dan matriks perkalian silang (cross


product matrix) E adalah sama sebagaimana telah dijelaskan
sebelumnya, tetapi hipotesis akan menjadi

ˆ 
  n( ˆ)
1

254
Dimana:

1
1  (  1β̂1 ) ' (  1β̂1 )
n
dan

β̂1  ( 1' 1 ) -1 1' 

94 .4979 89 .9647 



89 .9647 84 .8476 

 6.5021  1.9554 

 1.9554 6.4302 

 0.1285 0.1369 
( ) 1  
 0.1457  0.1525 

1
The eigenvalues of the matrix ( ) are:

 0.281  0.08036
1   0.0013 dan
2
 0.0798  0.0072
2   0.2823
2

m

1 
1 37 .9858
Wilks' lambda =    0.0258
i 1 i  1473 .426

2
i
Pillai's trace =   trace [ (  ) 1 ]  0.9228
i 1
1  i

2
Hotelling-Lawley trace =  i  trace [ 1 ]  0.1525
i 1

255
Roy's greatest root = max i  0.0013

Soal dan Tugas


1. Apa yang dimaksud dengan variabel predictor. Bedakah antara
variabel independen dan variabel eksogen. Jelaskan.
2. Apa yang dimaksud dengan variabel Respons dan variabel respons.
Bedakah variabel dependen dan variabel endogen. Jelaskan
3. Apa yang dimaksud Regresi Berganda Multivariate. Jelaskan
dengan memberikan contoh sehingga jelas perbedaannya dengan
Regresi Liner Berganda
4. Kapan dan bagaimana diaplikasikan regresi Berganda Multivariat.
a. Lakukan uji Kullback’s Information Criterion Corrected
(KICc)
b. Lakukan uji Wilk’s Lambda
c. Berikan judul dari analisis atau penelitian Anda.

5. Hitung nilai ˆ , Yˆ dan ˆ dengan persamaan


Y j1   01  11 X j1   j1
, j = 1,2,3…….6
Y j 2   02  12 X j 2   j 2

X 0 1 2 3 4 5
Y1 1 3 4 8 9 7
Y2 -1 -2 2 4 3 3

6. Buat suatu analisis dengan menggunakan Regresi Berganda


Multivariat dengan memakai data sendiri (hipotesis). Variabel yang
digunakan minimal 4 ( empat, dua variabel ) respons dan dua
variabel prediktor.
d. Tentukan koefisien-koefisien regresi Berganda tersebut secara
manual, kemudian bandingkan dengan menggunakan program
SPSS
e. Lakukan interpetertasi dari semua koefisien regresi yang
diperoleh
f. Buat hipotesis statistik dan uji hipotesis tersebut
g. Lakukan uji kebebasan antar Variabel-Variabel respons uji
Bartlett-Sphericity

256
BAB XI
ANALISIS JALUR

11.1. Pendahuluan
Analisis jalur yang dikenal dengan path analysis dikembangkan
pertama pada tahun 1920-an oleh seorang ahli genetika yaitu Sewall Wright
(Joreskog dan Sorbom, 1996; Johnson dan Wichern, 1992). Teknik analisis
jalur sebenarnya merupakan perkembangan korelasi yang diuraikan menjadi
beberapa interpretasi akibat yang ditimbulkannya. Lebih lanjut, analisis jalur
mempunyai kedekatan dengan regresi berganda. Dengan kata lain, regresi
berganda merupakan bentuk khusus dari analisis jalur. Teknik ini juga
dikenal sebagai model sebab akibat (causing modeling). Penanaman ini
didasarkan pada alas an bahwa analisis jalur memungkinkan pengguna dapat
menguji proposisi teoretis mengenai hubungan sebab akibat tanpa
memanipulasi variabel-variabel (Sarwono, 2007).
Analisa Jalur adalah suatu perluasan dari model regresi, yang
digunakan untuk menguji suatu hubungan kausal yang terdiri dari satu
struktur atau lebih dengan melihat adanya pengaruh langsung dan tak
langsung. Model analisis jalur pada umumnya dilukiskan dalam suatu
gambar lingkaran dan arah panah (circle-and-arrow) dimana panah tunggal
menandai sebagai penyebab.
Dalam aplikasinya, model analisis jalur pada dasarmuaya dapat
dibedakan menjadi dua keperluan. Untuk keperluan prediksi dan pendugaan
nilai variabel endogen nilai-nilai variabel eksogen, maka pola hubungan
yang bersesuaian adalah model regresi, sedang untuk tujuan sebab akibat
pola yang tepat adalah model struktural, jadi secara matematik, analisis ini
mengikuti pola model struktural.
Diketahui bahwa Analisa Jalur merupakan pengembangan dari
analisis regresi berganda sehingga memerlukan asumsi umum dari regresi.
Analisa Jalur sensitive untuk spesifikasi model sebab kegagalan untuk
memasukkan variable yang relevan atau variabel tambahan yang sering
mempengaruhi koefisien jalur, yang digunakan untuk menilai relatif
pentingnya jalur kausal langsung atau pun tidak langsung jalur terhadap
variabel dependent. Sehingga penafsiran harus dikerjakan dalam konteks
model alternatif pembanding, setelah menaksir kecocokan model-model
dibahas pada bagian Model Persamaan Struktural. Ketika variabel di dalam
model adalah variabel tersembunyi yang terukur oleh berbagai indikator
pengamatan, analisis jalur memasukkan model penyamaan struktural, dalam
perlakukan yang terpisah. Kita mengikuti istilah yang konvensional dengan
mana analisis jalur yang mengacu pada variabel indicator tunggal.
Kegunaan:

257
a. Penjelasan terhadap fenomena yang dipelajari atau permasalahan yang
diteliti
b. Prediksi nilai variabel terikat berdasarkan nilai variabel bebas, dan
prediksi dengan path analysis ini bersifat kualitatif.
c. Faktor determinan yaitu penentuan variabel bebas mana yang
berpengaruh dominan terhadap variabel terikat, juga dapat digunakan
untuk menelusuri mekanisme (jalur-jalur) pengaruh variabel bebas
terhadap variabel terikat.
d. Pengujian model, menggunakan teori trimming, baik untuk uji reliabilitas
konsep yang sudah ada ataupun uji pengembangan konsep baru.
Menggunakan analisis jalur ada beberapa prinsip dasar yang harus
diperhatikan:
a. Pola hubungan struktural adalah rekursif, semua anak panah menuju
satu arah, tidak boleh memutar kembali
b. Hubungan antar variabel bersifat linear
c. Data yang digunakan adalah berskala interval
d. Tidak boleh ada milticolineritas
e. Terdapat ukuran sampel yang cukup besar (>100)
Asumsi-asumsi
Analisis Jalur Sebelum melakukan analisis, hendaknya diperhatikan
beberapa asumsi sebagai berikut:
a. Pada model analisis jalur, hubungan antar variabel adalah bersifat linier,
adaptif dan bersifat normal.
b. Hanya system aliran kausal kesatu arah artinya tidak ada arah kausalitas
yang berbalik.
c. Variabel terikat (endogen) minimal dalam skala ukur interval dan rasio.
d. Menggunakan sampel probability sampling yaitu teknik pengambilan
sampel untuk memberikan peluang yang sama pada setiap anggota
populasi untuk dipilih menjadi anggota sampel.
e. Observed variables diukur tanpa kesalahan instrument pengukuran valid
dan reliable artinya variabel yang diteliti dapat diobservasi secara
langsung.
f. Model yang dianalisis dispesifikasikan dengan benar berdasarkan teori-
teori dan konsep-konsep yang relevan artinya model teori yang dikaji
atau diuji dibangun berdasarkan teoretis tertentu yang mampu
menjelaskan hubungan kausalitas antar variabel yang diteliti.

11.2. Beberapa Konsep dalam Analisis Jalur

11.2.1. Variabel Eksogen dan Endogen


Variabel exogenous dalam suatu model jalur adalah yang tidak
mempunyai penyebab eksplisit (tidak ada panah ke arahnya, selain dari
pengukuran bentuk kesalahan). Jika variabel exogenous dihubungkan, hal
ini adalah ditandai oleh suatu panah berkepala dua yang
menghubungkannya. Variabel endogenous, kemudian, adalah variable yang
mempunyai arah panah. Variabel endogenous meliputi variable kausal

258
campuran dan variable-variabel dependent. Variabel endogenous campuran
mempunyai baik arah panah datang maupun keluar didalam diagram jalur.
Sedangkan variable-variabel dependent hanya mempunyai panah datang.
Ingatlah bahwa untuk regresi bivariat, bobot beta (koefisien β) untuk
data terstandardisasi) adalah sama koefisien korelasi, maka untuk kasus
suatu jalur model dengan suatu variabel sebagai dependent dari variabel
exogenous tunggal (dan bentuk sisa kesalahan), koefisien jalur di dalam
kasus khusus ini adalah suatu koefisien korelasi nol (zero-order).

11.2.2. Variabel Exogen Berkorelasi.


Jika variabel exogenous berkorelasi adalah hal umum untuk
menggambarkan anak panah berkepala dua, panah yang bersesuaian antara
variable dengan koefisien korelasinya (Gambar 11.2)

11.2.3. Koefisien Jalur


Koefisien jalur (path coefficient) atau biasa juga disebut bobot jalur
tidak lain dari koefisien regresi standardized (standardized coefficient),
biasa juga disebut beta (β), menujukkan pengaruh langsung dari variable
eksogen atau endogen ke variabel endogen tujuan. Koefisien ini tidak dapat
lagi diterjemahkan sebagai slop pada regresi asal (menggunakan data tidak
asli), karena sudah distandar. Namun demikian koefisien ini dapat secara
langsung dibandingkan dengan koefisien dari variabel lain. Jadi jelas
koefisien ini menunjukkan besaran pengaruh yang berbeda dari koefisien
unstandardized yang belum bisa dibandingkan.

11.2.4. Model Rekursif


Rekursif adalah persyaratan utama dari analisis jalur. Dalam
menyusun kerangka pikir dalam penelitian, model Rekursif ini menjadi
dasar untuk membentuk suatu model. Rekursif atau recursive model
penyebab yang memiliki hanya satu arah, artinya tidak bolak balik yang
merupakan syarat penerapan analisis jalur. Artinya satu variabel hanya
berfungsi sebagai sebab dan tidak dapat sekaligus berfungsi sebagai akibat
dalam waktu bersamaan. Jadi dalam model ini tidak ada anak panah yang
membalik (feed back loop) atau tidak terdapat pengaruh timbal balik
(reciprocal) antara dua variable. Lawan dari model recursive adalah model
nonrecursif yang memungkinkan adanya panah yang membalik dalam
waktu persamaan.
Model recurcive menjelaskan bahwa semua efek kausal adalah satu arah
(unidirectional) dan kesalahan (error) tidak berkorelasi, sebagai contoh:

259
X1 Y1 1

X2 Y2 2

Gambar 11.1 Model Recursive

11.2.5. Nonrecursive model

Bertentangan dengan model recursive, model non recursive menjelaskan


hubungan antara varaibel yang menjukkan adanya feedback loop dengan
kesalahan (error) yang berkorelasi (Gambar 11.2).

X1 Y1 1

X2 Y2 2

Gambar 11.2. Model Non Recursive

12.2.5. Variabel Kesalahan

260
Variabel residu disebut juga variabel kesalahan, juga disebut bentuk
gangguan, mencerminkan perbedaan yang tidak dapat diterangkan (efek dari
variabel yang tidak terukur) dan kesalahan pengukuran.

Contoh:
 1 variabel residu
Variabel Eksogen
X1
X3 Variabel Endogen

Variabel Endogen

X2

2

Gambar 12.1

  (1  R 2 )
Dimana:
 adalah residu
R 2 adalah koefisien determinasi

11.3. Model Analisis Jalur


Ada beberapa model jalur mulai dari yang paling sederhana sampai
dengan yang lebih rumit, diantaranya diterangkan di bawah ini:
a. Analisa Jalur Model Trimming Model Trimming adalah model yang
digunakan untuk memperbaiki suatu model struktur analisis jalur
dengan cara mengeluarkan dari model variabel eksogen yang
koefisien jalur diuji secara keseluruhan apabila ternyata ada variabel
yang tidak signifikan. Walaupun ada satu, dua, atau lebih variabel
yang tidak signifikan, perlu memperbaiki model struktur analisis
jalur yang telah dihipotesiskan.
b. Analisis Jalur Model Dekomposisi Model dekomposisi adalah model
yang menekankan pada pengaruh yang bersifat kausalitas antar
variabel, baik pengaruh langsung ataupun tidak langsung dalam
kerangka path analysis, sedangkan hubungan yang sifatnya
nonkausalitas atau hubungan korelasional yang terjadi antar variabel
eksogen tidak termasuk dalam perhitungan ini. Perhitungan
menggunakan analisis jalur dengan menggunakan model
dekomposisi pengaruh kausal antar variabel dapat dibedakan
menjadi tiga:

261
1. Direct causal effects (Pengaruh Kausal Langsung) adalah
pengaruh satu variabel eksogen terhadap variabel endogen
yang terjadi tanpa melalui variabel endogen lain.
2. Indirect causal effects (Pengaruh Kausal Tidak Langsung)
adalah pengaruh satu variabel eksogen terhadap variabel
endogen yang terjadi melalui variabel endogen lain terdapat
dalam satu model kausalitas yang sedang dianalisis.
3. Total causal effects (Pengaruh Kausal Total) adalah jumlah
dari pengaruh kausal langsung dan pengaruh kausal tidak
langsung.

11.3. Tipe model Jalur


Model jalur memiliki beberapa tipe, dibentuk berdarkan pola pikir
yang dibangun oleh peneliti. Dalam berbagai bidang ilmu, pola hubungan
atau model jalur dapat dibedakan dengan memperhatikan jumlah variabel
terikat atau jumlah jalur serta hubungan struktural yang akan dibentuk.

a. Tipe Model Satu Jalur

Gambar 12.2.a

Gambar 12.2.b

a. Model Dua Jalur atau model Mediasi

262
Gambar 12.3a.

Gambar 12.3.b

b. Model kompleks
Model ini dikatakan kompleks karena sudah melebihi dua
jalur yang memerlukan analisis yang lebih luas dan mendalam
dibanding analisis satu atau dua jalur sebelumnya.

Gambar 12.4.b

263
Gambar 12.4b.

12.4. Dekomposisi Korelasi

Hubungan antara koefisien korelasi dan koefisien jalur dari suatu


variabel dengan variabel-variabel lainnya dapat dilihat dari dekomposisi
koefisien dari korelasi itu sendiri.

ε1
X1 ρY1X1
Y1
ρY2Y1
rX1X2 ρY2X1
ρY1X2 Y2

X2 ρY2X2 ε2

Gambar 12.1

Perhatikan pengaruh X2 terhadap Y2


Direct effect = ρY2X2
Indirect effect through Y1= ρY1X2 ρY2Y1
Unanalyzed effect due to X2 = rX1X2 ρY2X1
Unanalyzed effect due to X2 and X1= rX1X2 ρY1X1 ρY2Y1
Total effect is the correlation,
rY2X2 = ρY2X2 + ρY1X2 ρY2Y1+ rX1X2 ρY2X1+ rX1X2 ρY1X1 ρY2Y1

Jadi korelasi sama dengan penjumlahan dari korelasi antara


variabel eksogen ditambah pengaruh langsung dan tidak langsung terdapat
dalam suatu kerangka hubungan kausal, perhatikan gambar di atas. Dengan
berdasarkan gambar di atas diperoleh:

264
rY2X2 = ρY2X2 + ρY1X2 ρY2Y1+ rX1X2 ρY2X1+ rX1X2 ρY1X1 ρY2Y1

rY2X1 = ρY2X1 + ρY1X1 ρY2Y1+ rX1X2 ρY2X2+ rX1X2 ρY2X1 ρY2Y1

Perhatikan penyelesaian dengan menggunakan data, X1 X2 dan Y1


sebagai variabel eksogen dan Y2 sebagai varaibel endogen, dimana X1 dan
X2 memiliki korelasi

No. X1 X2 Y1 Y2

1 6 5 6 6

2 7 7 7 4

3 6 6 6 6

4 4 4 4 4

5 3 3 3 3

6 5 5 5 5

7 5 4 4 4

8 4 6 6 6

9 7 2 7 7

10 6 6 6 6

11 2 2 2 2

12 4 4 4 4

ε1
X1 0,81
Y1
1,26
0,48 -0,29
0,20 Y2
-0,25
X2 0,35 ε2

265
Gambar 12.1

rY2X2 = ρY2X2 + ρY1X2 ρY2Y1+ rX1X2 ρY2X1+ rX1X2 ρY1X1 ρY2Y1

rY2X2 = -0,25 + 0,20(1,26)+ 0,48(-0,29)+ 0,48(0,81)(1,26)= 0,35

11.5. Model Analisis Jalur

Model jalur secara matematis dapat dinyatakan sebagai berikut:

Y1= f(X1, X2 ……Xq ; a11, a12 ……a1k) )

Y2= f(X1, X2 ……Xq ; a21, a22 ……a2k) )


.
.
Yp= f(X1, X2 ……Xq ; ap1, ap2 ……apk) )

Secara aljabar persamaan tersebut dapat dituliskan

Y1  a10  a11 X 1  a12 X 2  .....  a1k X k e1


Y2  a20  a21X1  a22 X 2  .....  a2 k X k a 2 k 1Y1 e2
Y3  a30  a31X1  a32 X 2  .....  a3k X k  a3k 1Y2 e3
. .
. ……………………………. .

Yp  a p 0  a p1 X1  a p 2 X1  .....  a pk X k  a pkYp 1 e p

Misalkan diambil 2 (dua) variabel eksogen (X1 dan X2) dan dua variabel
endogen (Y1 dan Y20, maka hubungan konseptual digambarkan sebagai berikut:

266
Gambar 12.5

Secara matematis dapat ditulis sebagai:

1. Jika tanpa menggunakan intercept atau unstandardized coefficient


diperoleh

Y1  a1 X 1  a2 X 2  e1 ……………..……..(1)

Y2  b1 X 1  b2 X 2 b 3Y1  e2 ………………..(2)

2. Jika menggunakan intercept standardized coefficient

Y1  a0  a1 X 1  a2 X 2 e1 ……………..……..(3)

Y2  b0  b1 X 1  b2 X 2 b 3Y1  e2 ………………..(4)

Dengan memasukkan persamaan (3) ke persamaan (4) diperoleh:

Y2  b0  b1 X 1  b2 X 2 b 3 (a0  a1 X 1  a2 X 2 e1 )  e2

atau

Y2  b0  b1 X 1  b2 X 2  a0b3  a1b 3 X 1  a2b3 X 2  b3e1 )  e2

Y2  (b0  a0b3 )  (b1  a1b 3 ) X 1  (b2  a2b3 ) X 2  (b3e1 e2 ) …(3)

267
Persamaan (3) dapat ditulis :

Y2   0  1 X 1   2 X 2   …… (4)

Dimana

 0  (b0  a0b3 )

1  (b1  a1b 3 ) , pengaruh total dari X1 ke Y2 melalui Y1

 2  (b2  a2b3 ) , pengaruh total dari X2 ke Y2 melalui Y1

  (b3e1 e2 )

Secara rinci pengaruh langsung dan tak langsung serta total dapat dilihat
sebagai berikut:

Pengaruh Total
pengaruh
Langsung Tak langsung
melalui Y1

X1 ke Y1 a1 - a1

X2 ke Y1 a2 - a2

X1 ke Y2 b1 a1b3 b1 +a1b3

X2 ke Y2 b2 a2b3 b2 +a2b3

Y1 ke Y2 b3 - b3

Terlihat bahwa a1 dan a2 adalah pengaruh langsung terhadap Y1


Demikian juga b1, b2 dan b3 merupakan pengaruh langsung terhadap
Y2

Pengaruh Total

268
Pengaruh Langsung + Pengaruh tak Langsung = Pengaruh Total

Contoh:
1
X1
p X 1X 3
X3
p X 1X 2
pX 2 X 3

X2

1

Pengaruh langsung dari X1 ke X2 adalah p X 1X 2


Pengaruh langsung dari X1 ke X3 adalah p X 1X 3
Pengaruh langsung dari X2 ke X3 adalah pX 2 X 3
Pengaruh langsung dan tidak langsung dari X1 ke X3 adalah p X 1X 2 x
pX 2 X 3
Pengaruh Total (dari X1 ke X3 melalui X2) = p X 1X 2 + p X 1X 2 x p X 2 X 3

Latihan:
1. Hitung pengaruh total, residu 1, residu 2, dan residu 3.
2. Tuliskan persamaan-persamaan jalur

2 1
X1
0,32
-0,343 0,37 Y
0,65 X3
0,45 0,71

X2

3
Jika diketahui
R 21 = 0,85
R 2 2 = 0,75

269
R 2 3 = 0,65

11.6. Analisis Regresi dan Korelasi Melalui Diagram Jalur

Misalkan model Regresi Linear:

Y= o + YX1X1 + YX2X2 +……+ YXkXk + 

Syarat:
1. Hubungan antara variabel merupakan hubungan linear
Semua variabel residu tidak mempunyai korelasi satu sama lain
3. Pola hungnan natar varaibel adalah rekursif
4. Skala penguran baik pada varaibel penyebbab maupun pada varaivbel
akibat sekurang-kurangnya interval.
Jika persyaratan in idipenihi, maka koefsien jalur bisa dihtung
dengan dengan langkah berha sebagazi berikut:

1. Gamnbarkan diagramn jalur hubungan natra varaivel secara lengkap.


Digarm jakur ini harsu mencerminkan hipetesus kobseptual yang
daijukan, sehingga tampak dengan jelas varaibel penyebab dan dabn
varaivel akibat
2. Itung besarnya pengaruh (paramter strtuktural) atara stau baraibe;
penhebab dengan varaibel akibat. Perhitungan ini didarkan pada
substruktir hubugan natara k buiah varaibel penyenab dengan sebuah
varaibel akibat.
Menghitung besarnya pengaruh

1. Menggunakan koefisien regresi


2. Koefisien korelasi.
3. Koefisien determinasi Multiple

11.7. Menghitung Koefisien Jalur

Selanjutnya dapat dihitung besarnya pengarah Menghitung besarnya


pengaruh

4. Menggunakan koefisien regresi


5. Koefisien korelasi.
6. Koefisien determinasi Multipple

11. 7.1. Menentukan Koefisien Melalui Regresi


Menghitung koefisien jalur dengan menggunakan koefisien regresi
dapat dilakukan dengan syarat

270
1. Hubungan antara variabel merupakan hubungan linear
2. Semua variabel residu tidak mempunyai korelasi satu sama lain
3. Pola hubungan antara variabel adalah rekursif
4. Skala pengujian baik pada variabel penyebab maupun pada variabel
akibat sekurang-kurangnya interval.

Koefisien Regresi

Misalkan dipunyai persamaan regresi multipel sebagai:

Y= o + YX1X1 + YX2X2 +……+ YXkXk + 

n n
bYXi =  Cij X jhYh ; j = 1,2, 3 …k
h 1 h 1

atau

n n n
bYXi =C i1  X jhYh + C i2  X 2 hYh + … + C ik  X khYh
h 1 h 1 h 1
sedang

C = (XtX) 1

bo = Y  bYX 1 X 1  bYX 2 X 2 ...  bYX 1 X k

Sedang

n n n

x X  X Y
1
jh y h  jhYh  1h h
h 1 j 1 n h 1

n n n

x X X X
1
x ph  jh X ph  1h ph
jh n
h 1 i 1 h 1

n n
1 n
h
x 2jh  
j 1
X 2jh  ( X jh ) 2
n j 1

n n
1 n
y
h
2
jh  Y
j 1
2
jh
n j 1

 ( Y jh ) 2

271
n

x 2
ih
p yxi  byxi h 1
n

y
h 1
2
h

11.7.2. Menghitung Koefisien Melalui Korelasi

C1r11  C2 r12    C p r1 p  r1Y 



C1r21  C2 r22    C p r2 p  r2Y 
 ***
     
C1rp1  C2 rp 2    C p rpp  rpY 

Sistem persamaan simultan *** dapat ditulis dalam bentuk matriks, sebagai
berikut.

 r11 r12  r1 p   C1   r1Y 


r r22  r2 p  C   r 
 21  2    2Y 
          
     
rp1 rp 2  rpp  C p  rpY 
R XX C R XY

R XX adalah matriks korelasi antar variabel bebas dalam model regresi


berganda yang memiliki p buah variabel bebas
C adalah vektor koefisien jalur
R XY adalah vektor koefisien korelasi antara variabel bebas Xidan variabel
tak bebas Y

Dengan mudah dengan menggunakan operasi matriks perkalian


1
 C1   r11 r12  r1 p   r1Y 
C   r  r2 p  r 
 2    21 r22  2Y 
          
     
 p   p1 p 2
C r r  rpp  rpY 
272
Atau dengan singkat dapat ditulis dengan matriks

1
C = RXX R XY

Dimana:
C adalah koefisien jalur
1
RXX adalah invers matriks RX
R XY adalah vektor koefisien korelasi antara variabel bebas X dengan
variabel tak bebas Y.
Menghitung koefisien jalur dengan menggunakan matriks korelasi, pertama
dengan menghitung semua korelasi antar variabel dengan formulasi:

n n n
n X jhYh   X jh  Yh
rYXj  h 1 h 1 h 1
; j  1,2,3...k ; h  1,2,3...n
n n n n
[n ( X  ( X j )) [n Y  ( Yh ) ]
2
jh
2 2
jh
2

h 1 h 1 h 1 h 1

Menghitung koefisien jalur juga dapat dilakukan dengan menggunakan


langkah berikut (Harun Arrsyid, 1997)

Buat Matriks

1 rYX1 rYX 2  rYX k 


 1 rX 2 X 2  rX 1 X k 

R 1  rX 2 X k 
 
   
 1 

273
CYY CYX1 CYX 2  CYX k 
 C X1 X 2 C X1 X 2  C X 1 X k 

R 1
 CX2X2  CX2Xk 
 
   
 C X k X k 

Hitung Invers matriks Korelasinya

CYY CYX1 CYX 2  CYX k 


 C X1 X 2 C X1 X 2  C X 1 X k 

R 1  CX2X2  CX2Xk 
 
   
 C X k X k 

3. Koefisien Jalur

CYY CYX1 CYX 2  CYX k   rYX 1 


 C X1 X 2 C X1 X 2  C X1X k  rYX 2 
  
p YXi  CX2X2  C X 2 X k   rYX 3  , i= 1,2,3….k
  
     
 C X k X k   rYXk 

Keterangan:

rYXi adalah unsur pada baris ke Y dan kolom ke-Xi dari matriks
korelasi
CYXi adalah elemen pada baris ke Y dan kolom ke-Y dari matriks invers
korelasi.

274
 CYX i
pYX i 
CYY

p YXi  Koefsien jalur dari varaibel Xi ke Variabel Y

Menghitung pengaruh variabel lain

1... Xk  pY  1
2 2
RYX

atau

pY  1  RYX
2
1... Xk

dimana:

k
2
RYX 1... Xk  p i 1
YXi rYXi

Teladan

Y2 Y1 X

1 15 3 16

2 17 11 14

3 19 15 22

4 22 12 23

5 25 7 17

6 29 21 6

7 30 8 31

8 32 9 47

9 35 13 50

10 36 5 29

275
11 38 17 38

12 40 10 19

13 41 15 50

14 43 20 75

15 45 20 77

16 48 22 78

Keterangan :

Y2= Kesehatan
Y1 = Konsumsi
X = Pendapatan

Hipotesis:
1. Semakin tinggi tingkat pendapatan semakin tinggi tingkat konsumsi
2. Semakin tinggi tingkat pendapatan semakin tinggi tingkat
kesehatan
3. Semakin tinggi tingkat konsumsi semakin tinggi kesehatan.

Kerangka Konseptual:
2
pX1Y2 pY2  2
X
pY1X1
Y2

Y1 pY2Y1

pY1  1
1
Keterangan:
X adalah tingkat pendapatan
Y1 adalah tingkat konsumsi
Y2 adalah tingkat kesehatan

Menghitung nilai korelasi tidak dilakukan secara manual karena sudah


dijelaskan panjang lebar pada Bab 2 sehingga menghitungnya dalam hal ini
digunakan kemasan program SPSS. Hasil analisis diperoleh

276
Correlations
Konsums Pendapata
Kesehatan i n
Pearson Kesehatan 1.000 .559 .784
Correlation Konsumsi .559 1.000 .558
Pendapata .784 .558 1.000
n
Sig. (1-tailed) Kesehatan . .012 .000
Konsumsi .012 . .012
Pendapata .000 .012 .
n
N Kesehatan 16 16 16
Konsumsi 16 16 16
Pendapata 16 16 16
n

Sehingga matriks korelasi R diperoleh sebagai

Y2 Y1 X

Y2 1,000 0,559 0,784

Y1 1,0000 0,558

X 1,00000

atau

1 0,559 0,784 
R   1 0,558 
 1 

1 0,559 0,784 
R   1 0,558 
 1 

277
Dengan menggunakan Excel diperoleh Invers R dengan simbol R -1
sebagai

 2,7502  0,4824  1,8877 


R   0,4824 1,5376  0,4801
1

  1,8877  0,4801 2,7487 

Proposisi hipotesis konseptual yang dibuat

Kerangka Konseptual:
2
pX1Y2 pY2  2
X

pY1X1
Y2

Y1 pY2Y1

pY1  1
1

Struktur 1

1
PY1X
PY1 1
Y1

Struktur ini sama dengan struktur regresi linear sederhana atau korelasi
sama dengan koefisien jalur

Sehingga

pY1X = rY1X

278
pY1X = 0,558

Pengaruh variabel kesalahan:

pY11 = 1  p X2 2 X 1

pY11 = 1 (0,558) 2

pX21 = 0,830

Uji Koefsien jalur pX2X1

Ho: pX2X1  0 melawan


H1: pX2X1 > 0

Statistik yang digunakan

pY 1 X
t
1  pY21 X
n2

Memasukkan nilai-nilai koefisien jalur


0,558
t
1  0,558 2
16  2

0,558 0,558 0,558


t    2,517
1  0,558 2
0,0492 0,2217
16  2
Sedang

t (1 );( n2)  t (0,95);( 281)

 1,7458

Harga-harga perhitungan jatuh di daerah H0 ditolak, artinya koefisien


jalur signifikan dan diagram jalurnya tidak mengalami perubahan

279
Struktur 2

Kerangka Konseptual:
2

X
pXY2 pY2  2

Y2

Y1 pY2Y1

pY1  1
1

Matriks invers Korelasinya adalah:

Y2 Y1 X
Y2  2,7502  0,4824  1,8877 
Y1  0,4824 1,5376  0,4801
X   1,8877  0,4801 2,7487 

CY 2 X
pY 2 X 
CY 2Y 2

 (1,8877 )
pY 2 X 
2,75017

= 0,686

CY 2Y 1
pY 2Y 1 
CY 2Y 2

 (0,48243 )
pY 2Y 1  = 0,1754
2,75017

280
Jadi diperoleh koefisien jalur sebagai sebagaimana tertera dalam gambar
berikut:

2

X
0,686 pY2  2

Y2
0,558
Y1 0,175

pY1  1
1
Gambar:
Pengaruh langsung dari X ke Y2 sebesar 0,686
Pengaruh tidak langsung dari X ke Y2 melalui Y1 sebesar 0,558 x 0,175=
0,098
Pengaruh total X ke Y2 melalui Y1 adalah 0,686 + 0,098 = 0,784.
Pengaruh total tersebut tak ada lain adalah nilai korelasi antara X dan Y2
sebesar 0,784 (dekomposisi korelasi).

Selanjutnya untuk menghitung R2 digunakan rumus

2
RY22Y 1 X   pY 2Y 1rY 2 X
i 1

RY22Y 1 X  pY 2 X rY 2 X  pY 2Y 1 rY 2Y 1

RX2 3 X 1X 2  (0,686)(0,784)  (0,1754)(0,558)

= 0,6356

Uji Secara keseluruhan

H0 : pX3X1 = pX3X2 = 0

H1: Sekurang-kurangnya ada sebuah = pX3Xi  0

Statistik yang digunakan adalah:

281
k
(n  k  1) pYXi rYXi
F k
i 1

2(1   pYXi rYXi )


i 1

atau

(16  2  1)(0,636 )
F
2(1  (0,636 )

= 11,3376

Dari tabel distribusi F (disebut juga Distribusi Fisher-Snedecor) diperoleh

F  ; k; (n-k-1) = F0,05;2;13
= 3,81

Jadi secara bersama-sama pendapatan dan konsumsi berpengaruh terhadap


kesehatan secara signifikan

Dilanjutkan dengan uji t:

pY 2 X 0,686
t   3,527
1 p 2
Y 2X 1  (0.686 ) 2
n2 16  2

pY 2Y 1 0,1754
t   0,6666
1 p 2
Y 2X 1  (0,1754 ) 2
n2 16  2

Disimpulkan bahwa pada taraf keyakinan   5% maka hanya pendapatan


yang memberikan pengaruh positif terhadap kesehatan secara signifikan.
Sedang konsumsi tidak memberikan pengaruh secara nyata. Besarnya
pengaruh dalam path analisis, dapat dilihat koefisien jalur. Sehingga
pengaruh pendapatan lebih besar dari pada pengaruh pendidikan terhadap
kesehatan

282
`BAB XII
ANALISIS FAKTOR

12.1. Teori Faktor

Analisis faktor merupakan metode analisis multivariat yang


didasarkan pada korelasi antar variabel. Analisis faktor termasuk salah satu
teknik statistika yang dapat digunakan untuk memberikan deskripsi yang
relatif sederhana melalui reduksi jumlah variabel yang disebut faktor.
Variabel latent atau variabel untuk data-data kualitatif harus melalui
pengujian kelayakan dan keabsahan terlebih dahulu (validitas dan
reliabilitas) sebelum dikelompokkan menjadi variabel yang akan di analisis
faktor.
Analisis faktor dalam analisis multivariate tergolong analisis
interdependensi (interdependence technique) dimana seluruh set hubungan
yang interdependen diteliti. Variabel yang berada dalam satu kelompok akan
memiliki korelasi yang tinggi sedangkan variabel yang berbeda kelompok
akan memiliki korelasi yang rendah. Jadi sebenarnya analisisnya faktor itu
adalah berusaha mengelompokkan dari berbagai varians data sehingga
membentuk suatu perbedaan yang jelas antara kelompok atau faktor-faktor
yang terbentuk. Jadi

a b c

Saling Bebas Dua Faktor Tiga Faktor


Gambar 12.1. Faktor yang terbentuk

jelas pada Gambar 12.1 bahwa analisis faktor bertujuan untuk membentuk
suatu kelompok yang memiliki karakter yang relatif sama yang dalam
analisis disebut korelasi. Pada Gambar a tidak akan terbentuk faktor, sedang
pada gambar b terbentuk du faktor dan pada gambar c tiga faktor.

283
Analisis faktor (factor analysis) adalah salah satu keluarga analisis
multivariate yang bertujuan untuk meringkas atau mereduksi variable
amatan secara keseluruhan menjadi beberapa variable atau dimensi baru,
akan tetapi variable atau dimensi baru yang terbentuk tetap mampu
merepresentasikan variable utama. Dalam analisis factor, dikenal dua
pendekatan utama, yaitu exploratory factor analysis dan confirmatory
factor analysis. Digunakan exploratory factor analysis bila banyaknya
factor yang terbentuk tidak ditentukan terlebih dahulu.
Sebaliknya confirmatory factor analysis digunakan apabila faktor yang
terbentuk telah ditetapkan terlebih dahulu.
Analisis faktor eksploratori merupakan suatu teknik untuk mereduksi
data dari variabel asal atau variabel awal menjadi variabel baru atau faktor
yang jumlahnya lebih kecil dari pada variabel awal. Proses analisis faktor
eksploratori mencoba untuk menemukan hubungan antar variabel baru atau
faktor yang terbentuk yang saling independen sesamanya, sehingga bisa
dibuat satu atau beberapa kumpulan variabel laten atau faktor yang lebih
sedikit dari jumlah variabel awal yang bebas atau tidak berkorelasi
sesamanya. Jadi antar faktor yang terbentuk tidak berkorelasi sesamanya.
Sedang analisis faktor konfirmatori yaitu suatu teknik analisis faktor di
mana secara apriori berdasarkan teori dan konsep yang sudah diketahui
dipahami atau ditentukan sebelumnya, maka dibuat sejumlah faktor yang
akan dibentuk, serta variabel apa saja yang termasuk ke dalam masing-
masing faktor yang dibentuk dan sudah pasti tujuannya. Pembentukan faktor
konfirmatori (CFA) secara sengaja berdasarkan teori dan konsep, dalam
upaya untuk mendapatkan variabel baru atau faktor yang mewakili beberapa
item atau sub-variabel, yang merupakan variabel teramati atau observed
variable.
Supranto, 2010 menyatakan bahwa analisis faktor digunakan untuk
mereduksi data/variabel. Analisis faktor dipergunakan dalam kondisi
sebagai berikut :
1. Mengenali atau mengidentifikasi dimensi yang mendasari (underlying
dimensions) atau faktor, yang menjelaskan korelasi antara suatu set
variabel.
2. Mengenali atau mengidentifikasi suatu set variabel baru yang tidak
berkorelasi (independent) yang lebih sedikit jumlahnya untuk
3. menggantikan suatu set variabel asli yang saling berkorelasi di dalam
analisis multivariat selanjutnya.
4. Mengenali atau mengidentifikasi suatu set variabel yang penting dari
suatu set variabel yang lebih banyak jumlahnya untuk dipergunakan
dalam analisis multivariat selanjutnya.
Asumsi mendasar yang harus digarisbawahi dalam analisis faktor
adalah bahwa variable-variabel yang dianalisis memiliki keterkaitan atau
saling berhubungan karena analisis factor berusaha untuk mencari common
dimension (kesamaan dimensi) yang mendasari variable-variabel itu.
Sedang tujuan utama analisis faktor adalah untuk menjelaskan struktur
hubungan di antara banyak variabel dalam bentuk faktor atau variabel laten

284
atau variabel bentukan. Faktor yang terbentuk merupakan besaran acak
(random quantities) yang sebelumnya tidak dapat diamati atau diukur atau
ditentukan secara langsung. Selain tujuan utama analisis faktor, terdapat
tujuan lainnya adalah:
1. Untuk mereduksi sejumlah variabel asal yang jumlahnya banyak
menjadi sejumlah variabel baru yang jumlahnya lebih sedikit dari
variabel asal, dan variabel baru tersebut dinamakan faktor atau
variabel laten atau konstruk atau variabel bentukan.
2. Untuk mengidentifikasi adanya hubungan antar variabel penyusun
faktor atau dimensi dengan faktor yang terbentuk, dengan
menggunakan pengujian koefisien korelasi antar faktor dengan
komponen pembentuknya. Analisis faktor ini disebut analisis
faktor konfirmatori.
3. Untuk menguji validitas dan reliabilitas instrumen dengan analisis
faktor konfirmatori.
Menggunakan analisis faktor, secara garis besar tahapan yang dapat ditempuh
adalah alangkah-langkah berikut:
1. Merumuskan masalah
2. Mengumpulkan data
3. Menyusun matriks korelasi atau varian-kovarians
4. Ekstraksi faktor untuk menentukan dan menunjukkan jumlah faktor yang dapat
dibuat
5. Memilih metode estimasi
6. Merotasi faktor
7. Interpretasi faktor.
8. Pembuatan factor scores dan penggunaan analisis lebih lanjut.

12.2. Estimasi Faktor


Misalkan vektor acak (random vector) X = (X1, X2, X3,…Xp)
mempunyai vektor rata-rata µ dan matriks ragam-pergam Σ , maka vektor
tersebut bergantung linear pada sejumlah faktor yang tidak
teramati F1,F2,F3,…Fm yang disebut faktor umum (common factor)
dan ε1,ε2,ε3,…εp yang disebut faktor khusus (specific factors). Analisis ini
dapat dipandang sebagai perluasan Analisis Komponen Utama (Principal
Component Analysis) yang pada dasarnya bertujuan untuk mendapatkan
sejumlah kecil faktor yang memiliki sifat-sifat sebagai berikut:
1. Mampu menerangkan semaksimal mungkin keragaman data.
2. Faktor-faktor tersebut saling bebas.
3. Tiap-tiap faktor dapat diinterpretasikan.
Secara umum analisis faktor orthogonal disusun seperti
model dalam analisis regresi multivariate. Setiap variabel awal
dinyatakan sebagai kombinasi linear dari faktor-faktor yang
mendasari. Misalkan vektor acak X, dengan banyak komponen 𝑝 dan
mempunyai mean 𝝁 dan matriks kovariansi Σ merupakan
penyusunan model faktor. Variabel 𝐹1, 𝐹2,… , 𝐹𝑚 merupakan faktor

285
yang nilainya tidak terobservasi, 𝜀1, 𝜀2,… , 𝜀𝑝 merupakan kesalahan
(error) atau faktor spesifik. Secara matematis model analisis faktor
ditulis sebagai berikut (Johnson, 2007:482):

X 1  1  a11F1  a12 F2  .....  a1k Fk e1


X 2   2  a21F1  a22 F2  .....  a2 k Fk e 2
X 3   3  a31F1  a32 F2  .....  a3k Fk e 3
. ….. .
. ….. .
X p   p  a p1F1  a p 2 F1  .....  a pk Fk e p …….(11.1)
dimana:
 i = rata-rata dari variabel ke-i
ei = faktor spesifik (specific factors) ke-i.
aij = loading untuk variabel ke-i pada faktor ke-j.
Fi = common factors ke-j
i = 1, 2, … , p dan j = 1, 2, …, k

persamaan (11.1) dapat ditulis dalam notasi matriks sebagai


berikut:

X(p×1) - μ(p×1) = A(p×k)F(k×1) + e(p×1) ……..(11.2)

Atau
 X 1  1   a11 a12  a1m   F1   1 
 X    a a22  a2 m  F   
 2 2

21
 2   2
           
       
 X P   p  a p1  a pm   Fm   p 

Dimana:

A adalah matriks factor loading dengan elemen p x m


Xi adalah vektor acak yang memiliki 𝑝 komponen pada amatan ke-𝑖
𝝁𝒊 adalah rata-rata dari variabel ke-𝑖
𝑭𝒋 adalah faktor bersama (common factor) yang ke-𝑗 atau disebut
disebut faktor umum
ei adalah kesalahan atau error dari variabel ke-𝑖 (specific factor) atau
disebut faktor khusus

Dari persamaan (11.2) diperoleh model ortogonal (dari sebuah analisis


faktor)

X(p×1) = μ(p×1) + A(p×k)F(k×1) + e(p×1)

286
Asumsi:
E ( F )  0, Cov( F )  I E ( )  0 dan

 1 0  0 
0   0 
Cov( )      , Cov( F ,  )  0 dimana F dan  saling
1

  
 
 0 0   p 
bebas.

Model ortogonal dari analisis faktor berakibat kepada struktur kovariansi


untuk
variabel acak X, yaitu:

(𝑿 − 𝝁)(𝑿 − 𝝁)′ = (A𝑭 + 𝜺)(A𝑭 + 𝜺)′……. (11.3)


𝚺 = 𝐶𝑜𝑣(𝑿) = 𝐸(𝑿 − 𝝁)(𝑿 − 𝝁)′
= AA′ +ϕ , dimana ϕ = (𝜺𝜺′)

dan

Cov ( X , F )  E ( X   ) F  A
Berdasarkan persamaan (11.3)

Var ( X i )  ai21  ai22  .....  aik2  i …… (11.4)

ai21  ai22  .....  aik2 disebut kommunalitas yang ke-i, dan

i disebut spesifik varians atau uniqueness

Kovariansi antara variabel X dapat ditulis

Cov ( X i , X k )  ai21ak1  ai22 ak 2  .....  aik2 akm …… (11.5)

Kovarians antara variabel X dan Faktor F ditulis

Cov ( X i , Fj )  aij adalah loading variabel ke-i pada faktor ke-j.

Berdasarkan pada persamaan (11.5), diketahui bahwa nilai komunalitas ke-𝑖


merupakan jumlah kuadrat dari factor loading variabel ke-𝑖 pada m faktor.
Tujuan analisis faktor adalah menemukan struktur yang lebih sederhana
maka yang diperlukan adalah 𝑚 < 𝑝.

287
Rotasi Loading Faktor
Anggaplah suatu matriks suatu matriks T yang berukuran k x k
sehingga berlaku TT t  T tT  I Persamaan ini dapat ditulis kembali:
X    AF    ATT t F   ….. (11.16)
Jika
L*  AT dan L*  T t F
X    AF    ATT t F  

Maka persamaan (11.16) ditulis

AF    L * F * 

Perhatikan bahwa dua himpunan loading menghasilkan kovarians matriks yang


sama, sehingga
  AAt    ATT t At    A * A *t  

Metode Komponen Dasar


Metode komponen dasar atau principal component method, merupakan
salah satu dari tiga metode yang umum digunakan untuk mengestimasi model
faktor ortogonal. Lainnya dikenal dengan metode faktor prinsip iteratif (iterative
principal factor method) dan metode maksimum likelihood dengan memenuhi
asumsi normalitas. Dalam hal ini akan dibahas metode komponen dasar.
Misalkan terdapat eigenvalue i dan eigenvector ei dari varians 
dapat dibuat suatu dekomposisi sehingga
  1e1e1  2e2e2  ...   pepep
t t t

Diketahui bahwa communality dari variabel observed merupakan jumlah


jumlah variansnya yang menjelaskan variasi dalam m faktor, sehingga

hi  aij2 , untuk I = 1, 2, 3, ….p


Selanjutnhya varians dari  i dari faktor spesisipik dapat dianggap sebagaoi
elemen diagonal dari matriks difference   AAt sehingga

m
 i   ii   aij2
j 1

Atau

 i  diag (  AAt )

288
Estimasi Komponen Dasar
Menggunakan metode komponen dasar dalam estimasi  (atau R jika
data observasi baku) dan menggunakan X untuk mengestimasi  . Maka
estimasi komponen dasar dari matriks loading untuk m model faktor adalah
A   ˆ1 eˆ1 ˆ2 eˆ2 .... ˆm eˆm  dimana ̂i dan êi
~
adalah eigenvalue dan
 
eigenvector dari S atau (R jika data baku)

Estimasi varians spesifik ditentukan oleh elemen diagonal S  AA , sehingga


t

~1 0  0 
 0 ~  0  m
  , ~i  sii   a~ij2
~ 2

   j 1
 ~ 
 0 0   p 
Sedang kommunaliti diestimasi dengan

~
hi 2  a~i21  a~i22  ...  a~im2

Pada aplikasi, umumnya ditentukan jumlah faktor terlebih dahulu. Namun


jika tidak, maka harus ditentukan jumlah yang tepat dari hasil model yang
diperoleh dengan nilai m yang berbeda. Pilih m yang sesuai jika matriks residual
~~ ~
S  ( L Lt  ) memiliki elemen di luar diagonal yang kecil. Cara lain menentukan
m adalah memperhatikan kontribusi dari setiap faktor potensial terhadap varians
~2 sedang
total. Kontribusi faktor ke k pada varians sampel sii diestimasi dengan aik

kontribusi faktor ke-k terhadap varians sampel total s11  s22  s33  ...s pp
diestimasi dengan
a~12k  a~22k  a~32k  ...  a~pk
2
 ( ˆk eˆk )t ( ˆk eˆk )  ˆk

Pada umumnya dalam kasus komponen dasar berlaku


ˆ j ̂ j
Proporsivarians sampel total  atau sama dengan jika
s11  s22  s33  ...s pp p
faktor diekstraksi dari R.

289
Dalam analisis faktor, sebagaimana yang telah disebutkan diperlukan
beberapa tahap, diantaranya yaitu:
a. Setelah tabulasi data, dilakukan penentuan besaran nilai Barlett test of
sphericity, yaitu suatu uji statistik yang dipergunakan untuk menguji
hipotesis bahwa variabel tidak saling berkorelasi (uncorrelated) dalam
populasi.

Statistik uji Bartlett’s test of Sphericity adalah

 (2 p  5) 
 2   (n  1)  ln R
 6 
Dengan derajat kebebasan

p( p  1)
df 
2
keterangan:
n = jumlah sampel
p = jumlah variabel
R = determinan matriks korelasi
b. Penentuan Keiser-Meyesr-Okliti (KMO), merupakan suatu uji untuk
menunjukkan apakah metode sampling (mengukur kecukupan sampel)
yang digunakan sudah memenuhi syarat atau tidak.

p p

 r
i 1 j  i
2
ij

KMO  p p p p

 r   a
i 1 j  i
2
ij
i 1 j  i
2
ij

keterangan:
rij = Koefisien korelasi sederhana antara ke-i dan ke-j.
aij = Koefisien korelasi parsial antara variabel ke-i dan ke-j. i = 1,2,3,...,p
dan j = 1,2,3,...,p
Kriteria kesesuaian dalam pemakaian analisis faktor adalah (Keiser, 1974):
1. Jika harga KMO sebesar 0,9 berarti sangat memuaskan
2. Jika harga KMO sebesar 0,8 berarti memuaskan
3. Jika harga KMO sebesar 0,7 berarti harga menengah
4. Jika harga KMO sebesar 0,6 berarti cukup
5. Jika harga KMO sebesar 0,5 berarti kurang memuaskan

290
6. Jika harga KMO kurang dari 0,5 tidak dapat diterima

c. Measure of Sampling Adequacy (MSA), merupakan suatu uji untuk


mengukur seberapa tepat suatu variabel terprediksi oleh variabel lain
dengan membandingkan antara korelasi terobservasi dengan korelasi
parsial.

p p

 r
i 1 j  i
2
ij

MSA  p p

 rij2   aij2
i 1 i 1

keterangan:
rij2 = Kuadrat matriks korelasi sederhana
aij2 = Kuadrat matriks korelasi parsial
p = jumlah variabel
d. Ekstraksi Faktor
Pada tahap ini, akan dilakukan proses inti dari analisis faktor, yaitu
melakukan ekstrasi terhadap sekumpulan variabel yang ada KMO > 0,5
sehingga terbentuk satu atau lebih faktor. Metode yang digunakan untuk
maksud ini adalah principal component analysis dan rotasi faktor dengan
metode varimax. Setelah sejumlah variabel terpilih, maka dilakukan ekstrasi
variabel tersebut sehingga menjadi beberapa faktor. Setelah memproses
variabel-variabel yang layak, maka dengan program SPSS 22 akan diperoleh
nilai hasil statistik yang menjadi indikator utama yaitu tabel communalities,
tabel total variance explained, grafik scree, tabel component matrix dan
tabel rotated component matrix.
Tabel communalities merupakan tabel yang menunjukkan persentase
variansi dari tiap variabel yang dapat dijelaskan oleh faktor yang terbentuk.
Nilai yang dilihat adalah extraction yang terdapat pada tabel communalities.
Makin kecil nilainya, makin lemah hubungan antara variabel yang
terbentuk. Communality adalah jumlah varian yang disumbangkan oleh
suatu variabel dengan seluruh variabel lainnya dalam analisis. Bisa juga
disebut proporsi atau bagian varian yang dijelaskan oleh common factor
atau besarnya sumbangan suatu faktor terhadap varian seluruh variabel.

291
Tabel total variance explained, menunjukkan persentase varians
yang dapat dijelaskan oleh faktor secara keseluruhan. Nilai yang menjadi
indikatornya eigenvalues yang telah mengalami proses ekstrasi. Pada tabel
akan tercantum nilai
extraction sum of square loading. Hal ini disebabkan nilai eigenvalues tidak
lain merupakan jumlah kuadrat dari faktor loading dari setiap variabel yang
termasuk ke dalam faktor. Factor loading ini merupakan nilai yang
menghubungkan faktor-faktor dengan variabel-variabel. Variabel yang
masuk ke dalam faktor adalah yang nilainya lebih dari satu. Dari sini akan
terlihat pula jumlah faktor yang akan terbentuk.
Scree plot menggambarkan tampilan grafik dari tabel total variance
explained. Grafik ini sebenarnya menunjukkan peralihan dari satu faktor ke
faktor lainnya garis menurun di sepanjang sumbu y. Sumbu x menunjukkan
jumlah komponen faktor yang terbentuk, sedangkan sumbu y menunjukkan
nilai eigenvalues.
Tabel component matrix menunjukkan kategori variabel-variabel ke
dalam komponen faktor, atau dengan kata lain menunjukkan distribusi
variabel-variabel pada faktor yang terbentuk. Bila yang dijadikan acuan
adalah nilai factor loading yang ada dalam tabel, dimana nilai lebih besar
menunjukkan korelasi yang cukup kuat antara variabel-variabel tersebut
dengan komponen faktor. Jumlah jasa kuadrat factor loading dari tiap
variabel tidak lain merupakan nilai extraction
untuk tiap variabel yang tercantum dalam tabel communalities.
e. Rotasi Faktor
Pada rotasi faktor, matriks faktor ditransformasikan ke dalam matrik
yang lebih
sederhana, sehingga lebih mudah diinterpretasikan. Dalam analisis ini rotasi
faktor dilakukan dengan metode rotasi varimax. Hasil dari rotasi ini terlihat
pada tabel rotated component matrix, di mana dengan metode ini nilai total
variansi dari tiap variabel yang ada di tabel component matrix tidak
berubah. Yang berubah hanyalah komposisi dari nilai factor loading dari
tiap variabel. Interpretasi hasil dilakukan dengan melihat factor loading.
Factor loading adalah angka yang menunjukkan besarnya korelasi
antara suatu variabel dengan faktor satu, faktor dua, faktor tiga, faktor empat
atau faktor lima yang terbentuk. Proses penentuan variabel mana akan
masuk ke faktor yang mana, dilakukan dengan melakukan perbandingan
292
besar korelasi pada setiap baris di dalam setiap tabel. Dalam hal ini
digunakan metode varimax, karena bertujuan untuk mengekstraksi sejumlah
variabel menjadi beberapa faktor. Selain itu metode ini menghasilkan
struktur relatif lebih sederhana dan mudah diinterpretasikan.
f. Penamaan Faktor
Pada tahap ini akan diberikan nama-nama faktor yang telah terbentuk
berdasarkan factor loading suatu variabel terhadap faktor terbentuknya,
setelah tahapan pemberian nama faktor terbentuk

Prosedur dalam SPSS:


Menjalankan Prosedur Analisis Faktor
Untuk penghitungan analisis faktor ini tahapannya sebagai berikut:
1. Pilih menu Analyze, lalu pilih Data reduction dan pilih Factor
2. Pilih variabel X1 s/d X24 dan pindahkan ke kotak variabel
3. Pilih Descriptives kemudian pada kelompok Statistics pilih
option Initial solution, pada kelompok Correlation
Matrix, pilihCoefficiens, Significance levels, KMOand Bartlett
dan Determinant, kemudian klik Continue.
4. Pilih Extraction,pilih Principlecomponents pada Method, pada Analyz
e pilih Correlation matrix, pada Extract pilih Eigenvalue over 1,
pada Display pilih Scree Plot, kemudian klik Continue.
5. Pilih Rotation kemudian pilih Varimax pada pilihan Method,
kemudian klik Continue.
6. Klik Scores kemudian pilih Save as
variable dengan Method sebagai Bartlett. Klik Display factor score
coefficient matrix. Kemudian klik Continue.
7. Pilih Options kemudian klik Sorted by size. Kemudian klik Continue.
8. Klik OK.

11.3. Contoh Aplikasi

Diduga ada 8 variabel bebas yang mempengaruhi tabungan


masyarakat pada suatu lokasi dengan variabel pembentuk tabungan
X1 = Pendapatan kepala keluarga
X2 = Pendapatan istri
X3 = Pendapatan anak

293
X4 = Jumlah dalam keluarga
X5 = Jumlah anak
X6 = Pendidikan kepala keluarga
X7 = Pendidikan istri
X8 = umur kepala keluarga

Tentukan faktor yang mungkin diperoleh dari variabel-variabel tersebut.

No. X1 X2 X3 X4 X5 X6 X7 X8
1 6 5 6 6 3 11 6 37
2 7 7 7 4 2 13 9 54
3 6 6 6 6 4 12 9 67
4 4 4 4 4 4 10 8 38
5 3 3 3 3 3 9 6 27
6 5 5 5 5 5 11 8 38
7 5 4 4 4 2 8 5 31
8 4 6 6 6 3 9 6 52
9 7 2 7 7 4 14 11 50
10 6 6 6 6 3 12 9 49
11 2 2 2 2 2 11 8 47
12 4 4 4 4 2 12 9 39
13 6 6 6 5 3 13 10 45
14 8 9 9 9 2 9 6 39
15 7 7 7 5 3 12 7 48
16 4 3 7 3 3 9 6 41
17 3 4 4 3 2 8 5 37
18 8 4 9 9 3 9 7 39

Menyelesaikan permasalahan di atas, ada dua macam analisis faktor


yang dapat digunakan yaitu Analisis faktor eksploratori dan Analisis faktor
konfirmatori.

1. Analisis faktor eksploratori

Untuk menjelaskan data Tabel 11.1 di atas dapat digunakan hasil


perhitungan seperti:1). Kaiser-Meyer-Olkin (KMO test), 2). Anti-image
correlation test 3). Total variance explained test , 4). Cumunality,
(5)component matrix, 6). Component score coefficient matrix, dan 7).
Factor rotation

294
1.1.Kaiser-Meyer-Olkin and Bartlett's Test.
Tes Kaiser-Meyer-Olkin and Bartlett digunakan untuk menyatakan
kelayakan variabel yang ada dapat difaktorkan. Nilai KMO-MSA
dan nilai peluang (sig. = p.) dapat dilihat pada Tabel 11.2. Dari hasil
analisis kelayakan faktor diketahui bahwa nilai KMO-MSA (Kaiser-
Meyer-Olkin Measure of sampling adequacy ) sebesar 0,646 dengan
nilai peluang (p) < 0,05 ini berarti bahwa semua sub-variabel
pengukuran atau dimensi menabung masyarakat (dari X1sd X8)
memenuhi syarat untuk difaktorkan, Tabel 11.2.

Tabel 12.1. KMO and Bartlett's Test (Hasil Analisis


Kelayakan Faktor)
Kaiser-Meyer-Olkin Measure of Sampling Adequacy. .646

Bartlett's Test of Sphericity Approx. Chi-Square 89.337

df 28

Sig. .000

1.2. Anti-image correlassion test.


Tes Anti-image correlassion (anti image korelasi) digunakan untuk
menentukan suatu variabel dapat masuk dalam suatu faktor. Tabel 11.3
menujukkan bahwa dari delapan sub-variabel pengukuran atau dimensi
yang difaktorkan menunjukkan semua variabel pengukuran mempunyai
nilai anti image korelasi > 0,5 yang berarti bahwa semua sub-variabel
pengukuran atau dimensi berhak dijadikan komponen faktor bersama
penentu menabung. Jika nilai anti-image < 0,5 maka variabel
pengukuran tersebut harus dikeluarkan dari komponen faktor bersama
dan data dianalisis ulang tanpa mengikutsertakan data atau variabel
tersebut.

Tabel 13.2. Anti-image Matrices Correlation

Anti-image Matrices

X1 X2 X3 X4 X5 X6 X7 X8
Anti-image Covariance X1 .095 -.062 -.082 -.073 .028 -.049 .015 .081
X2 -.062 .486 .027 -.017 .091 -.029 .080 -.173
X3 -.082 .027 .157 -.022 -.006 .026 .009 -.105
X4 -.073 -.017 -.022 .202 -.094 .071 -.057 -.022
X5 .028 .091 -.006 -.094 .783 -.010 -.034 -.015

295
X6 -.049 -.029 .026 .071 -.010 .106 -.096 -.054
X7 .015 .080 .009 -.057 -.034 -.096 .126 -.034
X8 .081 -.173 -.105 -.022 -.015 -.054 -.034 .466
Anti-image Correlation X1 .631a -.288 -.670 -.528 .104 -.485 .137 .384
X2 -.288 .727a .099 -.053 .148 -.130 .324 -.363
X3 -.670 .099 .734a -.121 -.018 .202 .062 -.388
X4 -.528 -.053 -.121 .698a -.236 .489 -.355 -.072
X5 .104 .148 -.018 -.236 .763a -.035 -.109 -.025
X6 -.485 -.130 .202 .489 -.035 .523a -.830 -.242
X7 .137 .324 .062 -.355 -.109 -.830 .583a -.138
X8 .384 -.363 -.388 -.072 -.025 -.242 -.138 .660a

a. Measures of Sampling Adequacy(MSA)

1.3. Total variance explained test.


Total variance explained menunjukkan banyaknya faktor yang
mungkin dapat dibentuk. Tabel 11.4 menunjukkan bahwa jumlah faktor
bersama yang terbentuk adalah sebanyak variabel penyusunnya atau
dimensi, dalam hal contoh ini sebanyak 8 (delapan) faktor bersama.
Faktor bersama dengan nilai initial eigenvalue total ≥1, merupakan
faktor yang mewakili sub-variabel pembentuknya. Sumbangan faktor
bersama yang terbentuk dalam analisis dapat dilihat dari nilai Total
variance explained.Ternyata dari Tabel yang sama diketahui bahwa
dari delapan variabel pengukuran atau dimensi (X1sd X8) terbentuk
dua faktor bersama, yaitu faktor bersama (F1) dengan persentase
variansnya = 38,80 dan faktor bersama (F2) dengan persentase varians
= 32,29 serta komulatif persentase varians yang terbentuk dari ke-dua
faktor bersama adalah sebesar 71,08% dan sisanya 28,92% terdiri atas
delapan faktor bersama yang masing-masing nilainya dapat dilihat pada
Tabel 11.4. Jadi jumlah faktor bersama yang mewakili delapan sub-
variabel pengukuran atau dimensi ditentukan oleh nilai initial
eigenvalue total yang ≥1 yaitu sebanyak dua buah faktor yaitu F1 dan
F2

Tabel 11.4. Total Variance Explained (Sumbangan Komponen Faktor)

296
1.4. Communalities atau peranan faktor

Sebagaimana telah disebutkan bahwa terbentuk dua faktor bersama F1


dan F2. Dalam kommunaliti (Communalities) faktor yang terbentuk
merupakan satu kesatuan, sehingga peranan atau sumbangan masing-
masing dimensi atau sub-variabel penyusun terhadap faktor secara
bersama yaitu F1 dan F2 seperti pada Tabel 11.5.

Tabel 12.4. Communalities (Peranan Variabel)

Initial Extraction

X1 1.000 .899

X2 1.000 .550

X3 1.000 .872

X4 1.000 .791

X5 1.000 .248

X6 1.000 .867

X7 1.000 .897

X8 1.000 .562

Extraction Method: Principal Component


Analysis.

Perhatikan nilai initial dan extraction. Nilai initial mencerminkan


peranan atau sumbangan kalau variabel penyusun faktor secara
individual membentuk faktor tersebut, sedangkan extraction
menjelaskan persentase peranan atau sumbangan masing-masing
dimensi atau sub-variabel penyusun faktor secara individual terhadap
vaktor. Dari Tabel 12.4 diketahui bahwa variabel X1 nilainya sebesar
0,899 dan yang terkecil adalah X5 sebesar 0,248. Jadi peran X1 dalam

297
pembentukan faktor bersama adalah 89,9 % artinya X1 dapat
menjelaskan faktor sebesar 89,9%.

1.5. Component matrix


Dimensi penyusun faktor atau component matrix adalah komponen
pembentuk faktor yang merupakan anggota dari faktor tersebut.
Sebagaimana telah disebutkan bahwa ada dua terbentuk faktor
bersama F1 dan F2, masing-masing dibentuk dari variabel X1 sd X8,
sebagaimana terlihat pada Tabel 11.6. Perhatikan nilai-nilai pada setiap
komponen faktor

Perhatikan komponen faktor satu (F1) dari X1 sd X8, apabila nilai


komponen faktornya ≥ 0,5 berarti bahwa dimensi atau sub-variabel
pengukuran faktor tersebut merupakan anggota faktor yang terbentuk,
Sebaliknya, jika nilai komponen faktor < 0,5 berarti bahwa dimensi sub-
variabel pengukuran bukan anggota faktor tersebut. Apabila antara
komponen faktor satu dan komponen faktor dua terdapat nilai-nilai
dalam satu variabel pengukuran yang  0,5 pada kedua faktor maka
analisis faktor harus diulang dan dilakukan rotasi faktor dengan metode
varimax atau yang lain sampai tidak terdapat nilai-nilai komponen
bersama yang bernilai < 0,5 pada dua komponen faktor atau lebih. Nilai
komponen faktor dapat pula diartikan sebagai korelasi antara faktor yang
terbentuk dengan komponennya (r FjXi). Sebagai contoh korelasi antara
F1 dengan X1 dan F2 dengan X1 masing-masing komponen faktor
sebesar 0,899 dan -0,303; dan nilai korelasi yang tertinggi pada F2
adalah korelasi antara F2 dengan X7, pendidikan istri (r F1X7) sebesar
0,780.
a1. Komponen matriks
Tabel 11.6. Component Matrixa

Component

1 2
PendapataKK .899 -.303
PendapatanAnak .820 -.446
JumlahKeluarga .783 -.422
Umur .606 .441
PendapatanIstri .604 -.430
PendidikanIstri .537 .780
PendidikanKK .583 .726
JumlahAnak .299 .399

Extraction Method: Principal


Component Analysis.

a. 2 Rotated components Matrix

298
Tabel 11.6. Rotated Component
Matrixa

Component

1 2

X3 .929 .090

X1 .914 .252

X4 .885 .090

X2 .741 -.017

X7 .007 .947

X6 .076 .928

X8 .255 .705

X5 .024 .498

Extraction Method: Principal


Component Analysis.
Rotation Method: Varimax with Kaiser
Normalization.

a. Rotation converged in 3 iterations.

Ternyata dari Tabel 11.6 setelah dirotasi maka terilihat dengan jelas
variabel yang masuk dalam suatu faktor dengan varaibel yang sudah
terutut. Setelah itersasi ke-3 kalinya menjadi konvergen, sehingga
variabel pembentuk faktor dapat terlihat dengan jelas ada gamba 11.1.
Dari tabel 11.6 dapat disumpulkan bahwa
Variabel yang masuk kepada Faktor 1 adalah X3,X1, X4 dan X2
Variabel yang masuk kepada Faktor 2 adalah X7,X6, X8 dan X5

299
Gambar 11.1. Variabel Pembentuk faktor setelah Rotasi.
Faktor rotation, apabila antara komponen faktor yang satu dan
komponen faktor yang lain terdapat nilai-nilai komponen faktor dalam satu
variabel pengukuran yang ≥ 0,5 pada kedua faktor bersama, maka analisis
faktor harus diulang dengan cara lain atau dilakukan rotasi faktor (factor
rotation). Dalam analisis ini terlihat bahwa tidak terdapat satu variabel
yang memiliki

1.7. Component skor koefisien matrix


Koefisien dimensi penyusun faktor (Component score coefficient matrix)
menekankan pada bentuk hubungan atau model atau persamaan antara
faktor dengan variabel penyusunnya Tabel 12.6. Skor koefisien merupakan
kontanta atau koefisien serupa dengan koefisien regresi (βi) pada persamaan
regresi berganda.

300
Extraction Method: Principal Component Analysis.
Rotation Method: Varimax with Kaiser Normalization.
Component Scores.

Tabel 11.7. Component Score


Coefficient Matrix

Component

1 2

X1 .289 .025

X2 .254 -.070

X3 .308 -.043

X4 .293 -.039

X5 -.034 .201

X6 -.054 .373

X7 -.079 .386

X8 .026 .266

Extraction Method: Principal


Component Analysis.
Rotation Method: Varimax with
Kaiser Normalization.
Component Scores.

Perlu dipahami bahwa pada analisis faktor semua dimensi atau sub-variabel
penyusun faktor atau item telah ditransformasikan ke dalam data standar
atau data Z (data Z mempunyai rata-rata = 0, varians = 1, dan data tanpa
satuan atau relatif)
Nilai koefisien skor matrix atau bobot faktor diambil dari Tabel 13.6 ,
sehingga persamaan skor faktor dari contoh analisis menjadi
Skor faktor 1

~ ~ ~ ~ ~ ~ ~ ~
F1  0,289 X 1  0,254 X 2  0,308 X 3  0,293 X 4  0,034 X 5  0,054 X 6  0,079 X 7  0,026 X 8

301
Skor faktor 2

~ ~ ~ ~ ~ ~ ~ ~
F2  0,025 X 1  0,070 X 2  0,043 X 3  0,039 X 4  0,201 X 5  0,373 X 6  0,386 X 7  0,266 X 8

2. Analisis faktor konfirmatori


Untuk menjelaskan data pada Tabel 12.4 dengan analisis faktor
konfirmatori pola perhitungannya hampir sama seperti analisis faktor
eksploratori yang telah dibicarakan. Kecuali tidak melakukan rotasi faktor
sehinga yang ditentukan: (1) Kaiser-Meyer- Olkin (KMO test), (2)anti-
image correlation test, (3)cumunality, (5)component matrix, dan (6 )
component score coefficient matrix.
Pembeda antara analisis faktor konfirmatori dengan analisis faktor
eksploratori adalah penentuan sub-variabel pengukuran sudah ditentukan
jauh sebelum analisis dilakukan, seperti pada data Tabel 11.8. Faktor
tabungan yang dapat dibentuk dari tabungan adalah pendapatan kepala
keluarga (X1), Pendapatan anak (X3), Jumlah dalam keluarga (X4),
Jumlah anak (X5),. Selanjutnya, faktor tabungan dapat dipilah menjadi: (1)
faktor tabungan utama yang terdiri atas: pendapatan kepala keluarga (X1),
Pendapatan anak (X3), Jumlah dalam keluarga (X4); dan (2) faktor
tabungan tambahan yang terdiri pendidikan istri (X5) dan pendidikan
kepala keluarga (X6). Tergantung pada teori dan konsep yang diajukan atau
dipostulatkan

302
BAB XIII
MODEL PERSAMAAN SIMULTAN

13.1. Teori Persamaan Simultan

Gejala ekonomi dalam kehidupan manusia, khususnya dalam


aktivitas ekonomi dalam suatu setem, pada umumnya menunjukkan adanya
saling pengaruh mempengaruhi. Variabel bebas X misalnya,
mempengaruhi variabel tak bebas Y demikian pula sebaliknya variabel
Y juga mempengaruhi variabel X. Misalnya saja variabel pendapatan
(menurut Keynes) mempengaruhi konsumsi, artinya jika pendapatan
naik maka diharapkan konsumsi juga naik. Kenaikan konsumsi ini akan
diikuti oleh kenaikan produksi (untuk memenuhi permintaan bagi
keperluan konsumsi) yang diciptakan oleh tambahan faktor-faktor input
seperti kapital, tenaga kerja, dan manajemen. Demikian sehingga terjadi
peningkatkan pendapatan masyarakat. Peningkatan ini pada akhirnya
meningkatkan konsumsi kembali. Jadi pendapatan mempengaruhi
konsumsi tapi konsumsi juga mempengaruhi pendapatan namun hal ini
jelas memelukan waktu (lag time). Sehubungan dengan hal tersebut, gejala
ekonomi tidak saja dinyatakan dalam suatu persamaan tetapi juga
beberapa persamaan yang memiliki kaitan antar satu sama lain, bahkan
inilah yang terjadi pada umumnya, sehingga secara matematis membentuk
suatu sistem persamaan yang disebut sistem persamaan simultan.
Sistem Persamaan Simultan (Simultaneous Equation System)
merupakan gabungan dari beberapa Persamaan Tunggal sehingga terdiri
dari beberapa persamaan yang membentuk suatu sistem persamaan
secara simultan, jadi merupakan lawan dari Persamaan Tunggal (Single
Equation System). Suatu sistem ekonomi dapat disusun dengan
persamaan behavioral (Behavioral Equation) atau persamaan identity
(identity equation). Selain dari pada itu juga dapat digambarkan atau
dijelaskan dengan menggunakan persamaan simultan (simultaneous
equation) atau persamaan rekursif (recursive equation). Suatu
persamaan dikatakan rekursif jika sistem persamaan tersebut hanya
menunjukkan hubungan atau pengaruh satu arah saja. Sebaliknya jika
sistem persamaan tersebut saling kait mengait dimana terjadi hubungan
dua arah maka disebut persamaan simultan. Selain dari kedua persamaan
( tunggal dan simultan), masih ada lagi suatu sistem persamaan yang terdiri
dari beberapa persamaan, namun secara matematis tidak ada hubungan
tetapi secara fenomena terdapat hubungan. Sistem persamaan semacam ini

303
disebut seemingly unrelated regression (SUR) yang tidak akan diuraikan
dalam pembahasan ini.
Sebagai perbandingan antara persamaan tunggal dan persamaan
simultan perhatikan gambar berikut:

Persamaan tunggal Persamaan Simultan


(a) (b)

Yt Xt Yt Xt

t It vt t

Gambar 13.1. Persamaan tunggal dan Persamaan simultan

Persamaan simultan adalah suatu himpunan persamaan dimana


variabel terikat dalam satu atau lebih persamaan juga merupakan variabel
independen dalam beberapa persamaan yang lain. Dengan kata lain, suatu
model yang mempunyai hubungan sebab akibat antara variabel terikat dan
variabel bebasnya, sehingga suatu variabel dapat dinyatakan sebagai
variabel terikat maupun bebas dalam persamaan yang lain.
Sebagaimana telah dijelaskan bahwa model regresi persamaan
tunggal (kecuali persamaan rekursif), yaitu pengaruh hanya satu arah,
yaitu menggambarkan pengaruh satu atau beberapa variabel bebas
terhadap variabel tak bebas. Dalam hal ini variabel bebas merupakan
penyebab (cause) dan Y sebagai akibat (effect). Variabel bebas X
memberikan reaksi terhadap variabel tak bebas, kemudian timbul reaksi
dari variabel tak bebas tersebut. Hubungan yang terdapat dalam suatu
relasi bukan saja satu arah (one way) tetapi bisa dua arah (two ways)
yang bisa secara simultan. Dalam hal ini penyebutan atau pemberian
nama X sebagai varaibel bebas (independent or explanattory variable)
dan Y sebagai variabel tak bebas (dependent variable) tidak lagi tepat,
sebab yang tak bebas juga bisa berperan sebagai variabel bebas.
Sehubungan hal ini, maka yang muncul dalam permukaan adalah
variabel eksogen (Exogenous variable) dan variabel Endogen.
(Endogenous variable)
Dengan demikian dapat disimupulkan bahwa persamaan tunggal
yang hanya menggambarkan pengaruh satu arah saja (one way or
undirectional cause and effect) tidak dapat menggambarkan secara
tepat hubungan variabel-variabel sosial ekonomi. Hal ini dapat diatasi
dengan menggunakan persamaan simultan (simultaneous equation),
hubungan antara variabel yang dinyatakan lebih dari satu persamaan.
Model regresi yang terdiri dua atau lebih persamaan baik linear
maupun nonlinear mengandung variabel independen dan variabel

304
dependen saling pengaruh mempengaruhi. Dalam kontenks sistem
banyak persamaan (multi-equation system), sistem persamaan simultan
dinyatakan:

i y   xi    i i  1,2,3.......n
lxg gxg lxk kxg lxg (13.1)

Dengan mengasumsikan  matriks nonsingular maka persamaan (13.1)


dapat ditulis dalam bentuk reduced form

yi   x1   i 1 (13.2)

Dimana

     1
kxg kxg gxg

i   i  1
lxg lxg gxg

Dalam bentuk Matriks persamaan (13.1) dapat ditulis:

      (13.4)
nxg gxg nxk kxg nxg

Dimana :

 y1   y11 y12 y1g 


...
y  y y22  y2 g 
   2  
21
nxg    
   
 yn   yn1 yn 2  yng 

dan

 x1   x11 x12 x1g 


...
x  x x22  x2 g 
   2  
21
nxg    
   
 xn   xn1 xn 2  xng 

305
Persamaan (13.4) jika direduksi menjadi model persamaan
tunggal, yakni jika g=1 sehingga  menjadi vektor kolom y dan
matriks  menjadi elemen tunggal yang dapat dipilih -1 untuk
menormalisasi persamaan. Selanjutnya  lebur menjadi vektor kolom 
dan  menjadi -u. Sehingga persamaan (13.4) menjadi

y(1)    u

atau

y    u

Secara aljabar persamaan simultan (13.1) dapat dituliskan sebagai:

Y1t  12Y2t  13Y3t  14Y4t  ...  1mYmt  ...  11 X 1t  12 X 2t  ...  1k X kt  t1
Y2t   22Y1t   23Y3t   24Y4t  ...   2 mYmt  ...   21 X 1t   22 X 2t  ...   2 k X kt   2t
Y3t   32Y1t   32Y2t   34Y4t  ...   3mYmt  ...   31 X 1t   32 X 2t  ...   3k X kt  3t
           
Ymt   m 2Y1t   m 2Y2t   m 4Y4t  ...   mmYmt  ...   m1 X 1t   ,m 2 X 2t  ...   mk X kt   mt

Dimana:

Y1t , Y2t , Y3t , ..., Ymt  m variabel endogen yang bersifat random
X 1t , X 2t , X 3t , ..., X kt  k variabel eksogen yang bersifat nonrandom
1 , 2 , 3 , ..., m  m kesalahan (error) yang bersifat random dengan
E( mt )  0, i = 1,2,3, …, m

t=1, 2, 3, … n = n observasi

 adalah koefisien variabel endogen


 adalah koefisien variabel endogen
Dalam praktiknya, tidak semua variabel harus muncul

Beberapa Model Persamaan Simultan:

Model Permintaan dan Penawaran

306
fungsi permintaan Qtd   0  1 Pt  1t α1< 0
fungsi penawaran Q  0  1Pt  2t
t
s
β1> 0
kondisi keseimbangan Q Q t
d
t
s

d
dimana: Q = kuantitas yang diminta
Qs = kuantitas yang ditawarkan
t = waktu

Model Pendapatan Keynes


Fungsi Konsumsi: Ct   0  1Ydt  1t ; 0 <  < 1.
1
Identitas Pendapatan: Yt  Ct  I t

Model Ekonomi Makro

Fungsi Konsumsi: Ct   0  1Ydt  1t 0 <  < 1.


1
Fungsi Pajak: Tt   0  1Yt  1t 0 <  < 1.
1
Fungsi Investasi: I t   0  1Yt  1t 1  0
Definisi: Ydt  Yt  Tt
Pengeluaran Pemerintah : GG
Identitas Pendapatan Nasional: Yt  Ct  I t  Gt

13.2. Sifat Dasar Model

Ada hubungan dua arah atau simultan antara X dan (beberapa dari)
X, yang membuat perbedaan antara variabel tak bebas dan variabel yang
menjelaskan menjadi meragukan. Adalah lebih baik untuk mengumpulkan
bersama sama sejumlah variabel yang dapat ditentukan secara simultan oleh
kumpulan variabel sisanya. Inilah yang dilakukan dalam persamaan
simultan. Dalam model seperti itu ada lebih dari satu persamaan, satu untuk
variabel tidak bebas atau bersifat endogen atau gabungan atau bersama.
Dan tidak seperti persamaan model tunggal, dalam model persamaan
simultan orang mungkin tidak menaksir parameter dari satu persamaan
tunggal tanpa memperhitungkan informasi yang diberikan oleh persamaan
lain dalam sistem.
Apa yang terjadi jika parameter dari tiap persamaan ditaksir dengan
menerapkan, misalnya metode OLS, tanpa memperhatikan persamaan lain
dalam sistem? Ingat bahwa satu asumsi penting dari metode OLS adalah
bahwa variabel X yang menjelaskan baik bersifat nonstokastik atau jika
stokastik (random) didistribusikan secara bebas (independen) dari unsur
gangguan stokastik. Jika tak satupun dari kondisi ini dipenuhi, maka,
penaksir kuadarat terkecil tidak hanya bias tapi juga tak konsisten, yaitu
dengan meningkatnya sampel secara tak terbatas, penaksir tidak mengarah
ke nilai (populasi) sebenarnya.

307
Sebagi contoh, model permintaan dan penawaran.seperti dikenal
dengan baik, harga P dari komoditas dan kuantitas Q yang terjual ditentukan
oleh perpotongan kurva pendapatan dan penawaran untuk komoditi itu. Jadi
dengan mengasumsikan untuk penyederhanaan bahwa kurva penawaran dan
kurva permintaan adalah linear dan dengan menambahkan unsur gangguan
stokastik µ1 dan µ2, fungsi empiris permintaan dan penawaran bisa ditulis
sebagai berikut :
Fungsi permintaan Qtd   0  1 Pt  1t α1< 0
(13.5)
Fungsi penawaran Qts  0  1Pt  2t β2> 0
(13.6)
Kondisi keseimbangan Qtd  Qts
d
dimana Q = kuantitas yang diminta
Qs = kuantitas yang ditawarkan
t = waktu
α dan β adalah parameter. Secara apriori α diharapkan untuk negatif (kurva
permintaan yang miring ke bawah) dan β1 diharapkan positif (kurva
penawaran yang mengarah ke atas).
Sekarang tidak terlalu sulit untuk melihat bahwa P dan Q adalah
variabel tak bebas bergabung. Jika misalnya µi dalam (1.3) berubah karena
perubahan dalam variabel lain yang mempengaruhi Qdt (seperti pendapatan,
kekayaan dan selera), kurva permintaan akan bergeser ke atas.

Sumber: Gujarati, 1995


Gambar 13. 2. Pergeseran kurva permintaan dan penawaran

Gambar 13.2 menunjukkan pergeseran kurva permintaan, sehingga


kurva permintaan berubah baik P dan Q. Serupa dengan itu suatu perubahan
dalam µ2t (karena pemogokan, cuaca, pembatasan import atau ekspor dsb).
Akan menggeser kurva penawaran. mempengaruhi P dan Q, karena
ketergantungan simultan antara Q dan P, µ1t Pt dalam (2.3) dan µ2t dan Pt
(dalam 2.4) tidak mungkin bebas. Oleh karena itu regresi Q atas P (2.3)

308
akan melanggar asumsi penting dari model regresi linear klasik, yaitu
asumsi tidak adanya korelasi antara variabel yang menjelaskan dan unsur
gangguan.

13.3. Variabel dalam persamaan simultan


1. Variabel endogen/ endogenous variable : variabel dependen (tidak
bebas) pada persamaan simultan (jumlahnya sama dengan jumlah
persamaan dalam model simultan) atau dengan kata lain merupakan
variabel tak bebas bersama atau variabel variabel yang ditetapkan
dalam model. Variabel endogen bersifat stokastik
2. Variabel yang sudah diketahui nilainya/ predetermined variable :
variabel ini diperlakukan sebagai variabel yang non stokastik yang
nilai-nilainya sudah tertentu atau sudah ditentukan. Selanjutnya
Predetermined variable dibedakan menjadi dua, yaitu: Variabel
eksogen sekarang, sebagai contoh simbol Xt dan variabel eksogen
waktu lampau dengan contoh simbol P t-1
Dan Variabel endogen waktu lampau (lagged endogenous variabel)
dengan contoh simbol Yt-1. Variabel lag dikategorikan sebagai
predetermined dengan asumsi tidak ada korelasi serial dengan error
di dalam persamaan yang mengandung variabel determined tersebut.
Suatu pertanyaan muncul, dapatkah OLS digunakan untuk menaksir
koefisien dalam persamaan simultan?
a. Tidak dapat, jika OLS tersebut digunakan untuk meregres
masing-masing persamaan secara sendiri-sendiri. Karena
asumsi dari OLS adalah non-stokastik atau jika stokastik,
dianggap tidak tergantung pada variabel residual yang stokastik.
Jika hanya dilakukan regresi pada salah satu model regresi,
maka persamaan tunggal tersebut tidak dapat diperlakukan
sebagai sebuah model yang lengkap.
b. Dapat diterapkan, jika model persamaan tersebut sudah diubah
dalam bentuk reduce form, yaitu dengan memasukkan salah satu
persamaan pada persamaan yang lain.

13.4. Persamaan Bentuk Tereduksi (reduced form)

Suatu bentuk persamaan yang direduksi (reduce form) adalah satu


persamaan yang menyatakan suatu variabel endogen semata mata dalam
variabel yang ditetapkan lebih dahulu dan gangguan stokastik. Dua
persamaan struktural harus dapat diselesaikan untuk menjelaskan variabel
endogen sebagai fungsi dari variabel eksogen. Reformulasi dari model
tersebut disebut dengan bentuk turunan (reduce form) dari sistem persamaan
struktural. Untuk menemukan persamaan turunan atau reduce form maka
kedua persamaan harus diselesaikan secara simultan untuk menemukan
nilai (Y dan C). Sebagai aturan main untuk menemukan persamaan bentuk
turunan jumlah persamaan struktural harus sebanyak variabel endogen.

309
Reduced form adalah persamaan yang diperoleh dengan
memecahkan sistem persamaan struktural sedemikian rupa sehingga bisa
dinyatakan setiap variabel endogen dalam model hanya sebagai fungsi
variabel eksogen atau predetermined variable

Contoh:

Ct   0  1Yt  t
Yt  Ct  I t
Ct   0  1 (Ct  I t )  t

Ct   0  1Ct  1I t  t

(Ct  1Ct )   0  1I t  t

Ct (1  1 )   0  1I t  t

0 1 1
Ct   It  t
(1  1 ) (1  1 ) (1  1 )

Ct   0   1I t  vt

0 1 1
0  ; 1  ; vt  t
(1  1 ) (1  1 ) (1  1 )

Jadi
Yt  Ct  I t
Yt   0  1I t  I t  vt
Yt   0  (1   1 ) I t  vt

atau

Yt  0  1I t  vt

Dimana:
0   0
1  (1   1 )

13.5. Masalah Identifikasi


Masalah indetifikasi (Problems Identification) muncul manakala
system persamann simultan akan diestimai, yakni kemungkinan sistem
persamann tersebut memiliki solusi atau tidak. Menurut Koutsoyannis
310
(1977), pada dasarnya, identifikasi adalah upaya menentukan metode
secara tepat dari model yang akan ditaksir. Jadi Identifikasi merupakan
suatu proses pemilihan metode yang dihunbungkan dengan persamaan
simultan, sehingga suatu sistem persamaan dapat dilakuan penaksiran. Jadi
tujuan utama memlakukan identifikasi sebelum peenaksiran adalah
mengetahui kemungkinan akan dilakukan estimasi melalui bentuk sederhana
(reduce form). Dengan demikian sangat penting untuk memecahkan
masalah identifkasi sebelum beralih ke langkah penaksiran karena jika kita
tidak tahu apa yang kita taksir, penaksiran semata mata tidak berarti.
Persamaan simultan yang berisi dua atau lebih persamaan tidaklah
mungkin untuk mendapatkan nilai angka dari tiap parameter dalam tiap
persamaan karena persamaan persamaan tadi tidak bisa dibedakan secara
observasi, atau nampaknya sangat serupa satu dengan yang lain, kita
mempunyai masalah identifikasi (problem identification). Jadi dalam regresi
kuantitatif Q atas harga P yang dihasilkan merupakan fungsi permintaan
ataukah fungsi penawaran? Karena Q dan P masuk ke dalam dua fungsi.
Oleh karena itu jika kita mempunyai data mengenai Q dan P saja dan tidak
ada informasi lain, akan sulit jika bukannya tak mungkin untuk
mengidentifikasi regresi tadi sebagai fungsi permintaan atau penawaran.
Masalah identifikasi sering dijumpai pada model ekonometrik yang
lebih dari satu persamaan. Untuk memecahkan masalah ini harus dilakukan
pengujian atau persyaratan agar diketahui koefisien persamaan mana yang
ditaksir. Persyaratan ini disebut Kondisi identifiksi.

13.5.1. Kondisi Identifikasi (condition of identification).


Ada dua macam dalil pengujian identifikasi, yaitu Order condition,
merupakan syarat perlu (necessary condition) dan Rank condition,
merupakan syarat cukup (sufficient condition). Notasi-notasi yang
dipergunakan adalah:

M = jumlah variabel endogen dalam model


m = jumlah variabel endogen dalam suatu persamaan
K = Jumlah variabel predetermined (variable yang ditetapkan terdahulu)
dalam model
k = banyaknya predetermined variable dalam suatu persamaan

1. Order Conditions
Kondisi order (order condition) merupakan syarat wajib (necessary
condition) sebagai suatu sistem persamaan simultan, agar suatu
persamaan teridentifikasi. Dalam hal in terdapat dua jenis, yaitu; setem
persamaan yang tidak memiliki predetermined variable (variabel yang
sudah ditentukan) dan sistem persamaan yang memiliki predetermined
variable.
Perhatikan kembali sistem persamaan (13.5 da 13.6) yang dapat
ditulis sebagi berikut:

311
Qt  0  1Pt  1t ...............(13.5)
Qt  0  1Pt  2t ...............(13.6)

Perhatikan Sistem persamaan tersebut di atas, memiliki 2 (dua)


persamaan dengan dua variabel endogen, yaitu Qt dan Pt tanpa memiliki
predeterminad variable ( variabel yang telah ditentukan). Jadi dua
persamaan tersebut tidak teridentifikasi. Alasannya adalah kedua
persamaan tidak mengandung atau tidak memuat paling sedikit satu (M-
1= 2-1) variabel yang ada dalam persamaan.

Pada persamaan yang memiliki predetermined variable berlaku


aturan:
G adalah jumlah Variabel dalam model atau sistem persamaan
simultan:
Jika M = G –1, maka persamaan tersebut identified .
Memungkinkan untuk memperoleh bentuk struktural dari
bentuk tereduksi (satu solusi unik) atau suatu sistem persamaan
yang dapat diperoeh bentuk sederhana (reduce form)
Jika M > G –1, maka persamaan tersebut overidentified .
Terdapat lebih dari satu solusi bentuk struktural dari bentuk
tereduksi
Jika M < G –1, maka persamaan tersebut under
identified
Tidak memungkinkan untuk memperoleh bentuk struktural
dari bentuk tereduksi (tidak ada solusi)
Contoh:
Qtd  0  1Pt   2Yt  1t
Qts  0  1Pt  2t

Jumlah varaibel endogen yang ada dalam sistem


persamaan adalah 3 ( tiga), yaitu Qd, Qs dan Yt).
Persamaan atau fungsi permintaan
Qtd  0  1Pt   2Yt  1t
Jumlah varaibel endogen G=3 dan jumlah varoebl yang
tidak terdapat dalam model fungsi permintaan, yaitu satu Q s
M=1, sehingga
M=1 <G-1= 2 , sehingga persamaaan permintaan tersebut
tidak teridentifikasi
Persamaan atau fungsi penawaran:
Qts   0  1Pt  1t
Jumlah varaibel endogen G=3 dan jumlah varoebl yang
tidak terdapat dalam model fungsi penawaran tersebut ada dua,
yaitu: Qd dan Yt, berrati M=2.

312
M=2 =G-1= 2 , sehingga persamaaan permintaan tersebut
teridentifikasi
Catatan:
Persamaan yang dapat diselesaikan dengan sistem persamaan
simultan adalah persamaan yang identified dan over identified.

13.5.2. Kondisi Rank


Identifikasi melalui order condition hanya merupakan prasyarat
dasar tetapi belum merupakan prasyarat cukup (sufficient condition).
Melalui metode rank condition bisa memenuhi kedua prasyarat identifikasi
persamaan simultan. Istilah rank berasal dari terminology di dalam matriks.
Rank dari matriks merujuk kepada square sub matrix order paling besar
yang mempunyai determinan tidak sama dengan nol. Square matrix adalah
metrik yang mempunyai jumlah kolom dan baris yang sama.
Suatu Matriks A dikatakan memiliki rank sebesar r, r(A) = r, jika
jumlah terbesar dari pada baris (kolom) yang linear independent sebesar r.

Suatu persamaan dalam sistem persamaan simultan, yaitu sistem


persamaan yang terdiri dari M persamaan, dapat diidentifikasi jika ada
kemungkinan untuk membentuk sekurang-kurangnya satu determinan
tidak sama nol yang berukuran M-1. dari variabel- variabel yang
dikeluarkan dalam persamaan tertentu tapi dimasukkan kedalam
persamaan lain dalam model struktural yang sedang diteliti.

Misalkam model struktural :

Y1t  10  12Y2t  13Y3t  11 X 1t  1t (8a)

Y2t   20   23Y3t   21 X 1t   22 X 2t   2t (8b)

Y3t   30   31Y1t   31 X 1t   32 X 2t   3t (8c)

Y4t   40   41Y1t   42Y2t   43 X 3t   4t (8d)

Persamaan tersebut dapat dituliskan kembali dalam bentuk berikut:

313
Y1t  10  12Y2t  13Y3t  11 X 1t  0 X 2t  0 X 3t  1t
(8a)

Y2t   20  0Y1t   23Y3t   21 X 1t   22 X 2t  0 X 3t   2t


(8b)

Y3t   30   31Y1t  0Y2t   31 X 1t   32 X 2t  0 X 3t   3t


(8c)

Y4t   40   41Y1t   42Y2t  0Y3t  0 X 1t  0 X 2t   43 X 3t   4t


(8d)

Persoalan identifikasi dapat dibaca dalam tabel sebagai berikut:

Tabel Koefisien variabel Endogen dan Eksogen


persamaan Koefisien

1 Y1 Y2 Y3 Y4 X1 X2 X3

1.9 - 10 1 -12 -13 0 -β11 0 0

1.10 -20 0 1 -23 0 -β21 β22 0

1.11 -30 -31 0 1 0 -β31 Β32 0

1.12 -40 -41 -42 0 1 0 0 -Β43

Tabel Syarat identifikasi

Persamaa Banyaknya Variabel Banyaknya Variabel Identifi


n ed
Predetermined yang Endogen yang
tercakup, kurang

314
Tak tercakup (K-k) satu (m-1)

8a 2 2 Exactly

8b 1 1 Exactly

8c 1 1 Exactly

8d 2 2 Exactly

Dengan menggunakan order condition setiap persamaan adalah


identified. Dengan menggunakan rank condition. Perhatikan persmaan
pertamam (8a) yang tidak memuat varaibel Y4, X2 dan X3. Agar
persamaan tersebut identified harus didapat minimal meperolehj
dterminan yang nilai nya bukan nol dengan order 3X3 dari koefsien-
koefsien varaibel-varaibel yang tak tercakup dalam persmaan ini akan
tetapi tercakup dalam persamaan lainnya. Untuk memperoleh dterminan
harus diperoleh matriks yang relevan dari koefisien varabel Y4, X2 dan
X3 yang tercakup dalam persamaan lainnya (persamaan kedua, ketiga
dan kekempat). Dalam hal ini hanya ada satu matriks saja

0   22 0  0   22 0
A  0   32 
0  atau det A = 0   32 0 =0
1 0   43  1 0   43

Jelas diperoleh:

Det (A) = 0
Terlihat bahwa det (A) = 0, rank (A) < 3, sehingga persamaan 8a
tidak memenuhi rank condition, maka oleh karena not identified
(koefisien yang tak dapat diperkirakan). Jadi walaupun syarat order (orde
condition) merupakan syarat yang perlu dan cukup ( a necessary and
sufficient condition) untuk identifikasi. Maka dari itu, walaupun syarat
order ( order condition) menunjukkan identified namun kondisi rank
menunjukkan tidak identified. Jadi kolom-kolom atau baris –baris dari
matris A tidak bebas secara linear (not linearly independent), artinya
terdapat hubungan antara variabel Y4, X2 dan X3.
Sebagai konsekuensinya, tidak terdapat informasi yang cukup
untuk meperkirakan parameter-parameter dari persamaan 8a. Pembaca

315
diminta untuk menunjukkan bahwa dengan syarat rank, persamaan 8b
dan persamaan 8c adalah tak dapat diperkirakan ( unidentifired) akan
tetapi persamaan 8d dapat diperkirakan (unidentifired).

Identifikasi 1.10.

persamaan Koefisien

1 Y1 Y2 Y3 Y4 X1 X2 X3

1.9 - 10 1 -12 -13 0 -β11 0 0

1.10 -20 0 1 -23 0 -β21 β22 0

1.11 -30 -31 0 1 0 -β31 Β32 0

1.12 -40 -41 -42 0 1 0 0 -Β43

 1 0 0  1 0 0

A     31 0 
0  atau det A =   31 0 0 =0
  41 1   43    41 1   43

Jadi persamaan 1.10 juga tidak teridentifikasi.

13.5. Estimasi persamaan Simultan

Terdapat dua pendekatan untuk mengestimasi parameter pada sistem


persamaan simultan. Pertama, metode persamaan tunggal atau yang dikenal
sebagai metode informasi terbatas (Limited Information Methods) contohnya
kuadrat terkecil tak langsung (Indirect Least Squares - ILS), kuadrat terkecil
dua-tahap (Two-stage Least Squares - 2SLS), dan Limited Information
Maximum Likelihood - LIML. Kedua, metode sistem (System Methods) yang
dikenal sebagai metode informasi penuh (Full Information Methods)
contohnya kuadrat terkecil tiga-tahap (Three-stage Least Squares - 3SLS)
dan Full Information Maximum Likelihood - FIML.

316
13.5.1.Indirect Least Squares (ILS)

Dikatakan dalam Wikipedia, 2019 bahwa metode kuadrat tidak langsung


(Indirect least squares) adalah suatu pendekatan dalam ekonometrika,
tepatnya dalam persamaan simultan, dimana koefisien-koefsisien ditentukan
atau diestimasi dari dari bentuk reduce form.
Metode ILS dilakukan dengan cara menerapkan metode OLS pada
persamaan reduced form. Asumsi yang harus dipenuhi dalam penggunaan
prosedur ILS:
1. Persamaan strukturalnya harus exactly identified.
2. Variabel residual dari persamaan reduced form-nya harus memenuhi
semua asumsi stokastik dari teknik OLS. Jika asumsi ini tidak
terpenuhi, maka akan menyebabkan bias pada penaksiran
koefisiennya.
Adapaun langkah ILS adalah mengikuti:
1. Buat persamaan bentuk sederhana (reduce form) terlebih dahulu
2. Gunakan Metode OLS
3. Peroleh perkiraan koefsien bentuk sederhana yang merupakan
hasil dari (2).

Contoh:

Mencari bentuk sederhana:

Qtd  0  1Pt   2Yt  1t

Qts  0  1Pt  2t

Qtd  Qts

 0  1Pt   2Yt  1t  0  1Pt  2t

(1  1 ) Pt  ( 0   0 )   2Y  ( 2t  1t )

(0   0 ) 2 (   1t )
Pt   Yt  2t
(1  1 ) (1  1 ) (1  1 )

317
atau

( 0   0 ) 2 (   2t )
Pt   Yt  1t
( 1  1 ) ( 1  1 ) ( 1  1 )

Pt   1   2Yt  v1t

Dimana:

( 0   0 ) 2 1t  2t
1  ; 2  ; v1t 
( 1  1 ) ( 1  1 ) ( 1  1 )

atau dalam bentuk estimasi


  
Pt  1   2Yt

Qts  0  1 (1   2Yt  v1t )  2t

Qt  0  11  1 2Yt  1v1t  1t

Qt  (0  11 )  1 2Yt  (1v1t  1t )

Qt   3   4Yt  1v2t

atau dalam bentuk estimasi


  
Qt   3   4Yt

Penduga diperoleh dari dua bentuk tereduksi tersebut.


Penduga digunakan untuk mengidentifikasi supply function.
Menggunakan penduga dari reduced form equation untuk
menentukan penduga parameter bentuk struktural fungsi permintaan:

Qts  0  1Pt  2t

318
Qt  (0  11 )  1 2Yt  (1v1t  1t )

Qt   3   4Yt  1v2t

 0  1 1   3 sehingga  0   3  1 1

dan

4
1 2   4 , sehingga 1 
2

Metode Kuadrat Terkecil Tak Langsung

Perhatikan contoh berikut:

Production Per capita


Price
inde
Index Income

(Q) (P) (Y)

93 99 1883

92 100 1909

92 103 1969

96 106 2015

93 106 2126

99 103 2239

95 105 2335

100 100 2403

103 101 2486

104 97 2534

101 100 2610

112 107 2683

113 115 2779

119 164 2945

110 212 2846

Sumber: Supranto,1995

319
Diketahui dari masalah identifikasi bahwa hanya fungsi
supply yang identified sedangkan fungsi demand tidak
teridentifikasi, sehingga yang mau ditentukan adalah fungsi supply
dengan menggunakan nilai parameter-parameter yang diperoleh
dari proses reduce form.

 0  1 1   3 sehingga  0   3  1 1


Dan
4
1 2   4 , sehingga 1 
2

Dari hasil pengolahan dengan menggunakan program SPSS


diperoleh:

Coefficientsa

Standardized
Unstandardized Coefficients Coefficients

Model B Std. Error Beta t Sig.

1 (Constant) -9.428 48.632 -.194 .849

Yt .052 .020 .581 2.575 .023

a. Dependent Variable: Pt

Berdasarkan Tabel di tas diperoleh persamaan regresi

Pˆt   9,428  0,052 Yt


t : -9,428 2,575
Sig : 0,849 0,023
R 2  0,338

Coefficientsa

Standardized
Unstandardized Coefficients Coefficients

Model B Std. Error Beta t Sig.


1 (Constant) 47.220 5.973 7.906 .000

Yt .023 .002 .931 9.174 .000


a. Dependent Variable: Qt

320
Qˆ  47.220  0,023Yt
t : 7,906 9,174
Sig : 0,000 0,000
R 2  0,866

0,0228
1   0,4318
0,052

 0   3  1 1 = 47,220-0,4318(-9,4283) = 51,2911

Qˆ  51,2911  0,4318 P

13.5.2. Two Stage Least Squares (TSLS)


Metode TSLS sering digunakan dengan alasan:
1. Untuk persamaan yang overidentified, penerapan TSLS
menghasilkan taksiran tunggal (sedangkan ILS menghasilkan
taksiran ganda).
2. Metode ini dapat diterapkan pada kasus exactly identified. Pada
kasus ini taksiran TSLS = ILS.
3. Dengan TSLS tidak ada kesulitan untuk menaksir standar error,
karena koefisien struktural ditaksir secara langsung dari regresi OLS
pada langkah kedua (sedangkan pada ILS mengalami kesulitan
dalam menaksir standar error).
Beberapa hal penting yang perlu diketahui dalam menggunakan
metode TSLS :
1. Dapat diterapkan bagi setiap persamaan dalam suatu model
tanpa memberikan pengaruh yang jelek dan sangat ekonomis
2. Hanya memberikan satu persamaan untuk satu parameter, berbeda
dengan ILS
3. Penerapannya sangat mudah
4. Walaupun metode 2 SLS didesain untuk persamaan over
identified, namun dapat juga diterapkan bagi Exactly identified
(hasil sama dengan metode ILS)
5. Jika R2 nilainya di dalam regresi untuk sederhana tinggi sekali
misalnya lebih dari 0,8, metode perkiraan OLS dan 2 SLS akan
memberikan hasil perkiraan yang sangat dekat.

Pandanglah model berikut:

Y1t  10  11Y2t  11 X 1t  12 X 2t  1t


(9.1)

321
Y2t   20   21Y1t   2t ……………. (9.2)

Dimana:

Y1 = pendapatan

Y2 = stok uang

X 1 = pengeluaran investasi

X 2 = pengeluyaran pemerintah terghadap barang dan jasa

Variabel

X 1 dan X 2 adalah varaibel eksogen

Memerphatikan kedua persmaan tersebut jelas timbuk suatu


persoalan persmaan simultasn, sebab persmaan pertamana (9.1)
tergantung pada persmaan (9.2) yaitu Y Y )
2 =f( 1 .Persmaan (9.1)
menjukkan bahwa pendapatan ditentukan supply uang, pengeluaran
investasai dan pengeluaran pemerintah. Sealnjutnya persamaan (9.2)
menjukkan bahwa stok uang ditentukan oleh tingkat pendapatan.
Menggunakan persyararatan order (order condition) dapat diketahui
bahwa persamaan (9.1) , fungsi pendapatan, adalah bersifat under
idendified sedangkan pesamaan (9.2) yaitu funsi supply uang adalah
over identified. Persmaan (9.1) tak dapat diterapkan sedangkan metode
ILS tak dapat diterapkan pada persmaan (2) sebab ada 2 perkiraan
untuk  21 . Anda dapat menujukkn sendiri dengan penggunaan reduced
form (bentuk sederhana).
Berdasarkan alasan praktis) dapat digunakan metode OLS untuk
persmaan (9.2), walaupun diketahui bahwa hasil perkiraan akan
inconsistent oleh karena ada korelasi anatara Y1 dan  2 . Misalkan
digunakan variabel eksperiment (exprimetal variable) yang juga disebut
“proxy” dimana variabel tersebut menyerupai (resemble) Y1 artinya
berfkorelasi kuat dengan Y1 akan tetapi tidak berkorelasoi dengan  2 .
Persoalan ini dapat diselesaikan dengan menggunakan metode kuadrat
terkecil dua tahap ( 2 Stage-Least Squares = 2 SLS).

322
Tahap Pertama ( Stage I)
Membuat agar Y1 tidak berfkorelasi dengasn  2 , regresikan terdahulu
Y1 dengan pretermined varaibel yang berada dalam suatu sistem
persmaan (model), tidak hanya yang terdapat pada persamaannya sendiri.
Jadi dalam hal ini regression Y1 terhadap X 1 dan X 2 sebagai
berikut

Y1t   0  1 X 1t  2 X 2t  ˆ t …………………………… (9.3)

Dimana ̂ t adalah kesalahan random biasa


Dari persamaan (9.3) diperoleh

Yˆ1t  ˆ 0  ˆ1 X 1t  ˆ2 X 2t ……………………………………..(9.4)

Dengan demikian persamaan (9.4) dapat dinyatakan sebagai

Y1t  Yˆ1t  ̂ t ……………………………………. (9.5)

Persamaan (9.5) menunjukkan bahwa Y1t terdiri dari dua bagian


(suku), Yˆ1t dan ̂ t yang menunjukkan suatu kombinasi linear dari non
stokastik dari X 1 dan X2
dan suku kesalahan random. Berdsarakan
ˆ
teori OLS diketahui bbajhwa Y1t dan ̂ t tidak berkorelasi.

Tahap Pertama ( Stage 2)

Persamaan money Supply yang over identified sekarang dapat ditulis:

Y2t   20   21 (Yˆ1t  ˆ t )   2t

  20   21Yˆ1t  ( ˆ t   21 2t )

  20   21Yˆ1t   *t ……………………………. (9.6)

Membandingkan persamaan (9.6) dan (9.2) dapat diketahui


bahwa bentuknya sama , perbedaannya hanya terletak Y1 digantikan
oleh Yˆ1 . Dapat ditunjukkan bahwa walaupun Y1 berhubungan dengan
 sehingga menyebabkan penggunaan OLS tidak tepat, sedang Yˆ
2 1t

323
pada persamaan (9.6) tidak berkorelasi dengan  *t secara asimtotis.,
yaitu untuk sampai yang besar kalau menuju tak hingga. Sebagai
konsekuensinya metode OLS dapat dipergunakan dan akan menghasilkan
satu perkiraan parameter untuk fungsi money supply yang tetap asas
(consistent estimate).
Ide dasar prosedur dua fase (two-stage) adalah membebaskan
variabel Y1 dari kesalahan penggangu  2 . Hal ini dilakukan dengan
meregres dalam bentuk sederhana dari Y1 terhadap semua predetermined
variable dalam sistem tahap I. Sebagai suatu ilustrasi lanjutan tentang 2
SLS rubahlah menjadi:

Perhatikan model penawaran Pendapatan dan Uang

Y1t  10  12Y2t  11 X 1t  12 X 2t  1t


(9.7)

Y2t   20   21Y1t   23 X 3t   24 X 4t   2t ………. (9.8)

Dimana

X 3 adalah pendapatan pada tahun sebelumnya Y1(t 1)

X 4 adalah jumlah uang beredar pada tahun sebelumnya Y2(t 1)

Jadi X 3 dan X 4 adalah predetermined variable.

Jadi persamaan (9.7) dan permasan (9.8) keduanya over


identified, untuk menerapkan 2 SLS dilakukan langkah atau tahap
sebagai berikut:

Pada tahap pertama regresikan dari variabel endogen Y1 dan Y2


terhadap semua predetermined variabel dalam sistem persamaan, sebagai
berikut:

Y1t   10   11 X 1t   12 X 2t   13 X 3t   14 X 4t  ̂1t ................. (9.9)

Y2t   20   21 X 1t   22 X 2t   23 X 3t   24 X 4t  ̂ 2t …. (9.10)

Dari kedua persamaan tersebut diperoleh Yˆ1t dan Yˆ2t

324
Tahap II

Selanjutnya Yˆ1t dan Yˆ2t dari persamaan asli diganti dengan Y1t dan Y2t
sebagai berikut:

Y1t  10  12Yˆ2t  11 X 1t  12 X 2t   *1t ………………… (9.9)

Y2t   20   21Yˆ1t   23 X 3t   24 X 4t   *2t …………. (9.10)

Dimana :

1*t  1t  12 ̂ *2t

 2*t   2t   21̂ *1t

Tahun PDB Supply Investasi Investasi Nilai Y1


Uang Swsata Pmerintah Fitted
(Y1) (Y2) (X1) (X2)
1970 1010.7 628.1 150.3 208.5 1000.69
1971 1097.2 717.2 175.5 224.3 1073.97
1972 1207 805.2 205.6 249.3 1184.85
1973 1349.6 861 243.1 270.3 1284.31
1974 1458.6 908.6 245.8 305.6 1420.31
1975 1585.6 1023.3 226 364.2 1633.51
1976 1768.4 1163.7 286.4 392.7 1773.41
1977 1974.1 1286.6 358.3 426.4 1939.08
1978 2232.7 1388.7 434 469.3 2141.79
1979 2488.6 1496.7 480.2 520.3 2360.14
1980 2708 1629.5 467.6 613.1 2707.48
1981 3030.6 1792.9 558 697.8 3077.17
1982 3149.6 1951.9 503.4 770.9 3327.68
1983 3405 2186.1 546.7 840 3613.54
1984 3777.2 2374.3 718.9 892.7 3903.51
1985 4038.7 2569.4 714.5 969.9 4195.6
1986 4268.6 2811.1 717.6 1028.2 4419.5
1987 4539.9 2910.8 749.3 1065.6 4578.5
1988 4900 3071.1 793.6 1109 4766.88
1989 5250.8 3227.3 832.3 1181.6 5063.72
1990 5522.2 3339 799.5 1273.6 5397.55
1991 5677.5 3439.8 721.1 1332.7 5582.37

325
------------------------------------------------------------------------------------------
Sumber: Gujarati, 1985

Tahap I
TSLS untuk menduga GDP. Regresikan GDP terhadap investasi
swasta dan investasi pemerintah diperoleh:

Coefficientsa

Standardized
Unstandardized Coefficients Coefficients

Model B Std. Error Beta t Sig.

1 (Constant) 127.976 62.357 2.052 .054

X1 .517 .415 .078 1.246 .228

X2 3.813 .260 .922 14.649 .000

a. Dependent Variable: Y1


Y2t  127,976  0,5170 X 1t  3,813 X 2t

t : (2,053) (1,245) (14,650)


sig : (0,05) (0,228) (0.000)

R 2  0,995

Coefficientsa
Standardized
Unstandardized Coefficients Coefficients
Model B Std. Error Beta t Sig.
1 (Constant) 51.518 27.684 1.861 .078

VAR00014 .147 .008 .970 17.944 .000


a. Dependent Variable: VAR00012

Tahap II

TSLS untuk menduga supply uang


Menduga Y2t menggunakan fitted value dari Y1t

Y2t  51,518  0,1470Y1t

326
t : (1,861) (17,944)
sig : (0,078) (0,000)

R 2  0,942

13.5.3. Three Stage Least Squares (3SLS)

Berbeda dengan pendekatan metode kuadrat terkecil dua tahap ( the


two-stage least squares (2SLS) dalam suatu sistem persamaan yang akan
mengestimasi setiap persamaan secara parsial, metode kuadrat terkecil tiga
tahap menggunakan pendekatan dengan mengestimasi koefisien-koefiseien
secara simultan. Diasumsikan bahwa setiap persamaan dalam sistem
tersebut adalah at lest-identified. Persmaan=persmaan yang tidak
teridentifikasi diabaikan dalam estimasi 3SLS (online Encyclopedia, 2019).

M t   0  1Pt   2 N  1t

Pt   0  1M t   2 R   2t

M t   0  1 (  0  1M t   2 R   2t )   2 N  1t
M t  11M t   0  1 0  1 2 R  1 2t   2 N  1t
  1 0 1 2 Rt  N   1  2 t
Mt  0   2 t  1t
1  11 1  11 1  11 1  11

M t  0  1 Rt  2 N  3t

Pt   0  1 ( 0  1 Pt   2 N  1t )   2 R   2t
Pt  11 Pt   0  1 0   2 1 N  11t   2 R  2t
   0 1  2 1 N t  2 Rt   11t
Pt  0    2t
1  11 1  11 1  11 1  11

Pt  3  4 Rt  5 N  3t

Penjelasan model ini diberikan contoh sebagai berikut:

327
Contoh:
Tahun PDB Supply Bill Rate CPI M hat Phat
Uang (%)
(Yt) (Mt) Rt Pt
1970 1010.7 628.1 6.46 38.8 643.503 -1.729
1971 1097.2 717.2 4.35 40.5 695.707 -8.265
1972 1207 805.2 4.07 41.8 762.256 -11.65
1973 1349.6 861 7.04 44.4 848.384 -8.427
1974 1458.6 908.6 7.89 49.3 913.257 -8.549
1975 1585.6 1023.3 5.84 53.8 989.242 -15.83
1976 1768.4 1163.7 4.99 56.9 1099.73 -21.91
1977 1974.1 1286.6 5.27 60.6 1223.98 -25.49
1978 2232.7 1388.7 7.22 65.2 1380.21 -25.53
1979 2488.6 1496.7 10.04 72.6 1533.87 -24.29
1980 2708 1629.5 11.51 82.4 1664.47 -26.17
1981 3030.6 1792.9 14.03 90.9 1858.45 -27.27
1982 3149.6 1951.9 10.69 96.5 1929.19 -38.21
1983 3405 2186.1 8.63 99.6 2083.96 -49.45
1984 3777.2 2374.3 9.58 103.9 2309.59 -54.04
1985 4038.7 2569.4 7.48 107.6 2467.88 -64.05
1986 4268.6 2811.1 5.98 109.6 2607.46 -74.59
1987 4539.9 2910.8 5.82 113.6 2771.63 -78.15
1988 4900 3071.1 6.69 118.3 2989.74 -81.96
1989 5250.8 3227.3 8.12 124 3201.85 -84.67
1990 5522.2 3339 7.51 130.7 3365.19 -89.4
1991 5677.5 3439.8 5.42 136.2 3458.11 -96.29
Sumber: Gujarati, 2004.

Tahap I

Coefficientsa
Standardized
Unstandardized Coefficients Coefficients
Model B Std. Error Beta t Sig.
1 (Constant) 126.102 43.065 2.928 .009

Y .616 .008 1.003 76.357 .000


R -12.932 5.002 -.034 -2.585 .018
a. Dependent Variable: M

R2 =0,99

328

M t  126.10  12,932 Rt  0,616Yt

Coefficientsa

Standardized
Unstandardized Coefficients Coefficients

Model B Std. Error Beta t Sig.

1 (Constant) 12.184 2.643 4.610 .000

Y .020 .000 .975 41.318 .000

R 1.275 .307 .098 4.152 .001

a. Dependent Variable: P

R2 = 0,99


Pt  12,184  1,275 Rt  0,020Yt

Tahap II

Coefficientsa

Standardized
Unstandardized Coefficients Coefficients

Model B Std. Error Beta t Sig.

1 (Constant) 39.784 72.419 .549 .589

Y .614 .066 .999 9.290 .000

P -.033 3.147 -.001 -.010 .992

329
Coefficientsa

Standardized
Unstandardized Coefficients Coefficients

Model B Std. Error Beta t Sig.

1 (Constant) 39.784 72.419 .549 .589

Y .614 .066 .999 9.290 .000

P -.033 3.147 -.001 -.010 .992

a. Dependent Variable: M

R2 =0,99


M t  39,78  0,33Pt  0,61Yt

Coefficientsa
Unstandardized Standardized
Coefficients Coefficients
Model B Std. Error Beta t Sig.
1 (Constant) 7.990 2.225 3.592 .002
M .033 .001 .972 49.994 .000
R 1.704 .253 .131 6.736 .000
a. Dependent Variable: P

R2 =0,99

Pˆt  7,990  0,033M t  1,704 Rt

Stage III

330
Coefficientsa
Unstandardized Standardized
Coefficients Coefficients
Model B Std. Error Beta t Sig.
1 (Constant) 194.388 36.763 5.288 .000
Y .444 .034 .722 13.083 .000
Phat -8.550 1.685 -.280 -5.073 .000
a. Dependent Variable: M

R2 =0,99

M t  194,39  8,550 Pt  0,444Yt

Coefficientsa
Unstandardized Standardized
Coefficients Coefficients
Model B Std. Error Beta t Sig.
1 (Constant) 10.977 2.685 4.088 .001
Mhat .034 .001 .975 40.856 .000
R 1.289 .310 .099 4.154 .001
a. Dependent Variable: P

R2 = 0,98

Pt  10,977  0,034 M t  1,289 Rt

Soal:
1. Apa yang dimaksud dengan persmaan simultan
2. Jelaskan perbedaan variabel endogen dan variabel eksogen.
Berikan contoh sehingga jelas jawaban Anda.
3. Apa yang dimaksud dan jelaskan disertai dengan contoh
a. Persamaan struktural
b. Persamaan Simultan yang bias
c. Bentuk persamaan yang sederhana.
4. Suatu model ekonomi dari suatu negara sebagai beikut:

Yt   0  1Yt 1   2 I t  1t
I t   3   4Yt 1   5Qt   2t

331
Ct   6   7Yt  8Ct   9 Pt  3t
Qt  10  11Qt 1  12 Rt   4t

Dimana:
Y = pendapatan nasional
I = pembentukan modal neto (net capital formation)
C = Konsumsi rumah tangga
Q = laba
R= produktivitas sektor industry
T= tahun
P = index biaya hidup
 = kesalahan pengganggu.
a. Menurut pendapat Anda variabel mana yang termasuk
eksogen yang d nilainya harus ditentukan dari luar model.
b. Adakah persamaan di dalam model yang dapat diperkirakan
dengan metode kuadrat terkecil yang biasa (ordinary Least
square), jika ada berikan alasan Anda
c. Mengapa atau berikan alasan variabel P masuk ke dalam
persamaan konsumsi.
5. Suatu studi tentang pengaruh iklan terhadap hasil penjualan rokok,
dengan menggunakan suatu model sebagai berikut:

ln Y1t   0  1 ln Y3t   2 ln Y4t  1 ln X 1t  2 ln X 2t  1t

ln Y2t  1   3 ln Y3t   4 ln Y4t  3 ln X 1t  4 ln X 2t   2t

ln Y3t   2   5 ln Y1t   6 ln Y2t  3t

ln Y3t   3   7 ln Y1t   8 ln Y2t   4t

Dimana:

Y1 = Hasil penjualan rokok pakai filter dibagi penduduk berumur 20


tahun ke atas

Y2 = Hasil penjualan rokok pakai tanpa filter dibagi penduduk berumur


20 tahun ke atas

Y3 = Iklan untuk rokok pakai filter dibagi penduduk berumur 20 tahun


ke atas dibagi harga indeks

Y4 = Iklan untuk rokok tanpa filter dibagi penduduk berumur 20 tahun


ke atas dibagi harga indeks

332
X1 = Pendapatan disposable dibagi penduduk di atas 20 tahun dibagi
dengan indeks harga konsumen

X2 = Harga rokok tanpa filter dinagai indeks harga konsumen

 = kesalahan pengganggu

a. Menurut pendapat Anda varaibel mana yang termasuk eksogen yang


nilainya harus ditentukan dari luar model.

b. Adakah persamaan di dalam model yang dapat diperkirakan dengan


metode kuadrat terkecil yanhg biasa (ordinary Least square), jika ada
berikan alasan Anda

c. Terlihat bahwa Y adalah endogen dan X adalah eksogen.


Mengapa penulis mengsusimsikan bahwa X2 adalah eksogen

d. Jka X2 dipandang sebagai varaibel endogen, bagimana Anda


memodifikasi model.

333
REFERENSI

Arief, Sritua. 1993. Metodologi Penelitian Ekonomi. Universitas Indonesia,


Jakarta

A. Ainsworth, 2017.Canonical Correlation, Psy524 Lecture 7 CC. Gujarati,


Damodar N. 1995. Basic Econometrics. McGraw-Hill. International
Editions. New York, Singapura

Al Rasyid, Harun, 1994. Statistika Sosial. Program Pasca Sarjana


Universitas Padjadjaran, Bandung.

Bergerud, Wendy A. 1996. Introduction to Logistic Regression Models


With Worked Forestry Examples Biometrics Information Handbook
No.7. B.C. Ministry of Forests Research Branch 31 Bastion Square
Victoria, B.C

Dougherty 2001, 2002 (These tables have been computed to accompany the
text C. Dougherty Introduction to Econometrics (second edition 2002,
Oxford University Press, Oxford),

Douglas M. Bates and Donald G. Watts, 2007. Nonlinear Regression


Analysis and Its Applications.

334
Fox, John . 2010. Dummy-Variable Regression, Notes. York SPIDA

Greene, W. H. 2012. Econometric Analysis (7th ed). New Jersey: Prentice


Hall International.

Gujarati, D. N. 2004. Basic Econometrics (4th ed). New York: The


McGraw-Hill Companies

Makarov, Igor. 2018. Discrepancies between Environmental Kuznets Curve


for Production and Consumption Based on CO2 Emission.

Jenan Nasha’t Sa’eed Kewan, 2015. Estimation of Multivariate Multiple


Linear Regression Models and Applications. An-Najah National
University

John Fox & Sanford Weisberg, 2011. Multivariate Linear Models in


Companion to Applied Regression

Kuncoro, Mudrajad. 2003. Metode Riset untuk Bisnis dan Ekonomi


Erlangga, Jakarta.

Laessig dan Duckett, 1979. Canonical Correlation Analysis: Potential for


Environmental Health Planning. AJPH April 1979, Vol. 69, No. 4

Maddala, G.S. 1992. Introduction to Econometrics. Macmillan Publishing


Company, Business & Economics, University Eminent Professor of
Economics, Ohio

Mason, R.D & Douglas A. Lind. 1996. Teknik Statistik Untuk Bisnis dan
Ekonomi. Penerbit Erlangga, Jakarta

Mohamed Ahmed Zaid, 2015. Correlation and Regression Analysis. The


Statistical, Economic and Social Research and Training Centre for
Islamic Countries (SESRIC), Turkey.

R E Laessig and E J Duckett, 1979. Am J Public Health. 1979 April; 69(4):


353–359.

Rencher, A.R., (2002). Methods Of Multivariat Analysis Second Edition.


John Wiley & Sons, Inc. New York.

Robert E. Laessig, E. J. Duckett, 1979. Canonical correlation analysis:


potential for environmental health planning. Medicine, American
journal of public health

335
Rosadi, Dedi. 2011. Ekonometrika & Analisis Runtun Waktu Terapan
dengan R. Yogyakarta: C. V. Andi Offset.

Saifuddin Azwar, 2010. Asumsi-asumsi-dalam-Inferensi-Statistika1.pdf


http://azwar.staff.ugm.ac.id/files/2010/04.

Shalabh, 2018. Econometrics. Simple Linear Regression Analysis, Chapter


2. , IIT Kanpur

Sun Li Jian,2002. Finansial Time- Series Econometrics.


https://www.slideserve.com/biana/financial-time-series-econometrics

Usman, H. dan R. Purnomo Setiady Akbar. 2000. Pengantar Statistika.


Jakarta : Bumi Aksara

336

Anda mungkin juga menyukai