Diajukan untuk memenuhi Ujian Tengah Semester (UTS) pada mata kuliah
Ekonometrika
OLEH :
NAMA : ANIDA NUR AZIZAH
NIM : F1A219021
C. Tujuan Ekonometrika
Berdasarkan sifat- sifat pendekatan ekonometrika, terdapat tiga tujuan
ekonometrika yaitu analisis struktural, peramalan, dan evaluasi kebijakan. Adapun
penjelasan untuk masing- masing tujuan tersebut adalah sebagai berikut:
1) Analisis Struktural, merupakan penggunaan penaksiran model ekonometrik
untuk mengukur besar kuantitatif hubungan variabel- variabel ekonomi,
misalnya pengukuran hubungan antara inflasi dan tingkat pengangguran.
Philltps curve telah mendorong berbagai pengembangan teori pengangguran.
2) Peramalan, merupakan penggunaan penaksiran model ekonometrik untuk
memprediksi nilai kuantitatif dari variabel di luar data yang diamati, misalnya
pemberian bahan baku dan tenaga kerja dalam satu perusahaan berdasarkan
peramalan penjualan periode berikutnya.
3) Evaluasi Kebijakan, merupakan penggunaan penaksiran model ekonometrik
untuk memilih beberapa alternatif kebijakan. Salah satu pendekatan
eksplisitnya adalah dengan maksimalisasi fungsi tujuan dengan memilih
kebijakan tertentu.
D. Ruang Lingkup Ekonometrika
Ekonometrika memberikan muatan empiris (yaitu berdasarkan observasi atau
eksperimen) terhadap hampir semua ilmu ekonomi. Analisis ekonometrika
mengikuti beberapa metodologi yang dapat dijelaskan sebagai berikut:
1) Membuat Pernyataan Teori tau Hipotesis, yaitu mencari teori ekonomi yang
cocok dengan topik yang akan dipelajari. Kemudian, membuat dua hipotesis
berbeda (H0 dan H1). Untuk mengetahui pengaruh kedua variabel, dapat
ditentukan dengan melihat hipotesis yang lebih dominan (pertanyaan
empiris).
2) Mengumpulkan Data, yaitu mencari informasi kuantitatif dengan
menggunakan data- data yang tersedia diantaranya yaitu data deret berkala
(time series), data lintas- sektoral (cross sectional), dan data kelompok
(gabungan antara data deret berkala dan data lintas sektoral).
3) Menentukan Model Matematis, yaitu menentukan model dengan
menggunakan diagram pencar, sehingga dapat dilihat korelasi yang terbentuk
apakah positif atau negatif. Setelah out, membuat taksiran awal dan membuat
model matematis.
4) Menentukan Model Statistik atau Ekonometri, yaitu menentukan model yang
dalam hal ini apakah kedua variabelnya memiliki hubungan sebab akibat.
5) Menaksir Parameter- parameter dari Model Ekonometri, yaitu menaksir
parameter dengan mengembangkan metode yang cocok, seperti metode
kuadrat terkecil (OLS).
6) Memeriksa Kecocokan Model: Pengujian Spesifikasi Model, yaitu
menentukan apakah salah satu atau lebih variabel bebas memiliki hubungan
dengan variabel tidak bebas. Model yang dipilih akhirnya haruslah
merupakan replika yang cukup masuk akal dari realitas yang sesungguhnya.
7) Menguji Hipotesis dari Model, yaitu menguji hipotesis untuk mengetahui
apakah model yang ditaksir masuk akal dari sisi ilmu ekonomi dan apakah
hasil yang diperoleh cocok dengan teori ekonomi yang mendasarinya.
8) Menggunakan Model untuk Melakukan Prediksi/Peramalan, yaitu
membandingkan nilai prediksi dengan nilai aktual yang tersedia, dimana
selisih antara kedua nilai tersebut menyatakan kesalahan prediksi.
KELOMPOK 2
Judul Materi: Sifat Dasar Analisis Regresi
Pokok Pembahasan:
A. Analisis Regresi
Analisis regresi adalah salah satu analisis statistik untuk mengetahui apakah
ada hubungan antara variabel bebas dengan variabel terika. Jika dalam persamaan
regresi hanya terdapat satu variabel bebas dan satu variabel terikat, maka disebut
sebagai persamaan regresi sederhana, sedangkan jika variabel bebasnya lebih dari
satu, maka disebut persamaan regresi berganda.
Y = β 0 + β 0 X 1 + β 0 X 2 + ⋯+ β k X k + 𝜀
Ket:
Y : variabel dependen
X : variabel independen
β0 : kostanta
β 1,2,3 : koefisien regresi
B. Asumsi Regresi Berganda
Asumsi-asumsi yang harus dipenuhi dalam analisis regresi antara lain: data
rasio atau interval, normalitas, homoskedastisitas, non-autokorelasi, non
multikolinieritas, dan linearitas. Penjelasan dari masing- masing asumsi tersebut
adalah sebagai berikut:
1) Normalitas
Uji normalitas dapat dilakukan dengan normal P-P Plot dan uji Kolmogorov-
Smirnov. Uji normalitas dengan normal P- P Plot dapat dilihat dari
penyebaran data (titik) pada sumbu diagonal grafik atau normal dengan si∼(0,
𝜎2) (Gujarati, 2004:109). Dasar pengambilan keputusannya yaitu, jika data
menyebar di sekitar garis diagonal dan mengikuti arah garis diagonal atau
grafik histogramnya menunjukkan pola distribusi normal, maka model regresi
memenuhi asumsi normalitas.
Cara lain iuntuk menguji asumsi kenormalan adalah dengan uji Kolmogorov-
Smirnov. Menurut Sidney Siegel (1986: 59), uji Kolmogorov- Smirnov
didasarkan pada nilai D atau deviasi maksimum, yaitu:
𝐷 = max|𝐹0(Xi) − 𝑆𝑛(Xi)| , i = 1,2, … , 𝑛
2) Homoskedastisitas
Homoskedastisitas atau non heteroskedastisitas merupakan asumsi yang
menyatakan bahwa varian setiap sisaan (𝑒i) masih tetap sama baik untuk nilai-
nilai pada variabel independen yang kecil maupun besar. Asumsi ini dapat
ditulis sebagai berikut:
(𝑒i) = 𝜎2, i = 1,2, ... ,n
3) Autokorelasi
Salah satu asumsi penting dari regresi linear adalah bahwa tidak ada
autokorelasi antara serangkaian pengamatan yang diurutkan menurut waktu.
Adanya kebebasan antar sisaan dapat dideteksi secara grafis dan
empiris. Pendeteksian autokorelasi secara grafis yaitu dengan melihat pola
tebaran sisaan terhadap urutan waktu tidak membentuk suatu pola tertemtu
atau bersifat acak maka dapat disimpulkan tidak ada autokorelasi antar
sisaan. Menurut Gujarati (2004: 467), pengujian secara empiris dilakukan
dengan menggunakan statistik uji Durbin Watson. Selain menggunakan
pengujian tersebut, dapat pula menggunakan uji runs test dengan
menggunakan bantuan software SPSS, yaitu dilihat dari nilai Asymp.Sig,
apabila nilai Asymp.Sig > 𝛼 artinya H0 diterima sehingga dapat disimpulkan
bahwa model regresi tidak terdapat autokolerasi.
4) Multikolinearitas
Menurut Montgomery, Peck & Vining (1992:11), multikolinearitas terjadi
karena terdapat korelasi yang cukup tinggi di antara variabel independen, VIF
(Variance Inflation Factor) merupakan salah satu cara untuk mengukur besar
multikolinearitas dan didefinisikan sebagai berikut:
1
VIF= 2
1−R j
Kriteria keputusannya yaitu jika nilai 𝑉𝐼𝐹 < 10 maka H0 diterima artinya
tidak terdapat multikolinieritas.
5) Linearitas
Salah satu asumsi dari analisis regresi adalah lineritas. Maksudnya apakah
garis regresi antara X dan Y membentuk garis linear atau tidak. Ada beberapa
uji yang dapat dilakukan yaitu salah satunya dengan menggunakan uji Durbin
Watson. Pengujian Durbin Watson dilihat dengan membandingkan nilai
Durbin Watson (DW) dan nilai dL dalam tabel Durbin Watson dengan taraf
signifikansi 5%. Kriteria keputusannya apabila DW > dL maka data
berbentuk linear dan apabila DW < dL maka data tidak berbentuk linear. Uji
kelinieran juga dapat dilakukan dengan terlebih dahulu menghitung jumlah
kuadrat-kuadrat, disingkat JK, untuk berbagai sumber variasi. Sumber-
sumber variasi yang JK-nya perlu dihitung adalah sumber- sumber variasi
untuk jumlah kuadrat total, jumlah kuadrat (a), jumlah kuadrat (b|a), jumlah
kuadrat sisa, jumlah kuadrat tuna cocok (F hitung) dan jumlah kuadrat galat
(error).
C. Pengujian Hipotesis
Pengujian hipotesis dimaksudkan untuk melihat apakah suatu hipotesis yang
diajukan ditolak atau dapat diterima. Pengujian hipotesis dapat dilakukan dengan
berbagai cara diantaranya yaitu sebagai berikut:
1) Uji Simultan/ Uji F
Penggunaan Uji-F bertujuan mengetahui apakah variabel-variabel bebas (X1
dan X2) secara signifikan bersama-sama berpengaruh terhadap variabel tak
bebas Y.
2
r ⁄k r 2 (n=k=1)
Rumus F hitung : 𝐹ℎ𝑖𝑡 = 2 = 2
(1−r ) ⁄ (n=k−¿) k (1=r )
Dimana:
r = Koefisien determinasi
k = banyaknya variable bebas
n = ukuran sampel
2) Uji Parsial/ Uji T
Uji signifikan parsial (uji t) atau individu digunakan untuk menguji apakah
suatu variabel bebas berpengaruh atau tidak terhadap variabel terikat.
b−B
t-hitung=
Sb
Dimana:
t-hitung = besarnya t-hitung
b = koefisien regresi
Sb = standar error
KELOMPOK 4
Judul Materi: Multikolinearitas
Pokok Pembahasan:
A. Pengertian Multikolinearitas
Menurut Frisch, suatu model regresi dikatakan terkena multikoliniearitas bila
terjadi hubungan linier yang sempurna (perfect) atau pasti (exact) di antara
beberapa atau semua variabel bebas dari suatu model regresi. Akibatnya akan
kesulitan untuk dapat melihat pengaruh variabel penjelas terhadap variabel yang
dijelaskan. Multikolinearitas adalah adanya hubungan linear yang sempurna di
antara beberapa atau semua variabel bebas dalam model regresi. Penyebab
multikolinearitas adalah adanya korelasi atau hubungan yang kuat antara dua
variabel bebas atau lebih, dalam sebuah model regresi berganda. Berdasarkan
hubungan yang terjadi antara variabel- variabel bebas, multikolinearitas dibedakan
menjadi dua:
1) Multikolinearitas Sempurna
Hubungan linear yang sempurna terjadi apabila berlaku hubungan sebagai
berikut:
k
∑ λi X j =λ1 X 1 + λ2 X 2 +…+ λk X k =0
j=1
Di mana λ1, λ2, λ3, ..... λk seluruhnya tidak sama dengan nol (λ1 ≠ 0, i =
1,2,3, ......k). Untuk mengetahui multikolinearitas sempurna dimisalkan λ2≠0,
sehingga persamaan X2 dapat ditulis sebagai berikut:
−λ 1 λ λ
X 2 i= X 1 i− 3 X 3 i−…− k X ki
λ2 λ2 λ2
Persamaan tersebut menunjukkan bagaimana X2 berhubungan secara linear
sempurna dengan sisa variabel lainnya.
2) Multikolinearitas Kurang Sempurna
Multikolinearitas kurang sempurna terjadi jika berlaku suatu hubungan
sebagai berikut:
di mana ε i adalah galat sisa dengan syarat galat yang saling bebas dan
menyebar normal ε i ~ N (0,σ2), untuk mengetahui adanya multikolinearitas
tidak sempurna, maka dimisalkan λ 2≠0, sehingga persamaan X2 dapat ditulis
sebagai berikut:
−λ 1 λ λ 1
X 2 i= X 1 i− 3 X 3 i−…− k X ki− ε i
λ2 λ2 λ2 λ2
B. Dampak Multikolinearitas
Dalam banyak hal, masalah multikolinearitas dapat menyebabkan uji T
menjadi tidak signifikan padahal jika masing-masing variabel bebas diregresikan
secara terpisah dengan variabel tak bebas (simple regression) uji T menunjukkan
hasil yang signifikan. Selain itu, adanya multikolinearitas dalam analisis regresi
linear berganda ini juga dapat menyebabkan standar deviasi dari penduga nilainya
akan meningkat sehingga nilai penduga parameter yang dihasilkan dari analisis
regresi akan tidak tepat. Dampak multikolinearitas dapat mengakibatkan koefisien
regresi yang dihasilkan oleh analisis regresi berganda menjadi sangat lemah atau
tidak dapat memberikan hasil analisis yang mewakili sifat atau pengaruh dari
variabel bebas yang bersangkutan. Selain itu beberapa dampak dari
multikolinearitas yaitu varians besar (dari taksiran OLS), Interval kepercayaan
lebar (Variansi besar mengakibatkan standar error besar sehingga interval
kepercayaan lebar), R2 tinggi tetapi tidak banyak variabel yang signifikan dari uji
T dan terkadang taksiran koefisien yang didapat akan mempunyai nilai yang tidak
sesuai dengan subtansi sehingga dapat menyesatkan interpretasi.
C. Penyebab Multikolinearitas
Multikolinearitas disebabkan oleh beberapa faktor diantaranya adalah sebagai
berikut:
1) Metode pengumpulan data yang digunakan. Sebagai contoh, mengambil
sampel dari jangkauan nilai yang terbatas dan diambil dari regresi- regresi di
populasi.
2) Batasan yang ada pada model atau populasi yang diambil sampelnya.
Sebagai contoh, dalam regresi konsumsi listrik terhadap pendapatan (X2) dan
ukuran rumah (X3), terdapat batasan fisik populasi pada keluarga tersebut, di
mana keluarga dengan pendapatan yang lebih tinggi biasanya memiliki
rumah yang lebih besar dibandingkan keluarga dengan pendapatan yang lebih
rendah.
3) Spesifikasi model. Sebagai contoh, menambahkan istilah polynomial pada
model regresi, khususnya ketika jangkauan variabel X kecil.
4) Model yang overdetermined. Hal ini terjadi ketika model memiliki banyak
variabel penjelas daripada jumlah observasi. Terjadi dalam penelitian medis,
dimana mungkin saja hanya terdapat sedikit jumlah pasien yang informasinya
dikumpulkan pada variabel dengan jumlah yang lebih banyak.
D. Cara Mendeteksi Multikolinearitas
Ada beberapa cara untuk mengetahui ada tidaknya multikolinearitas,
diantaranya adalah sebagai berikut:
1) Model memiliki koefisien determinasi (R2) yang tinggi tetapi hanya sedikit
variabel independen yang signifikan mempengaruhi variabel dependen
melalui uji t.
2) Adanya korelasi yang kuat antar variabel independen.
3) Jika nilai VIF > 10 dan nilai tolerance < 0.10, maka tejadi multikolinearitas
tinggi antar variabel bebas dengan variabel bebas lainnya. Jika VIF < 10 dan
nilai tolerance > 0.10, maka dapat diartikan tidak terdapat multikolinearitas
pada penelitian tersebut. Regresi yang baik memiliki VIF disekitar angka 1
(satu) dan mempunyai angka Tolerance mendekati 1.
4) Nilai determinan terletak antara 0 dan 1. Nilai yang lebih kecil determinannya
maka tingkat multikolinearitasnya lebih besar.
5) Menggunakan nilai eigen dan indeks kondisi.
E. Cara Mengatasi Multikolinearitas
Masalah multikolinearitas dapat dihilangkan dengan menempuh beberapa
cara, diantaranya sebagai berikut:
1) Menambahkan data yang baru.
2) Menghilangkan satu atau beberapa variabel bebas.
3) Penambahan data.
4) Estimasi regresi ridge.
5) Regresi komponen utama.
KELOMPOK 5
Judul Materi: Heteroskedastisitas
Pokok Pembahasan:
A. Pengertian Heteroskedastisitas
Uji heteroskedastisitas merupakan salah satu uji asumsi klasik yang bertujuan
untuk menguji apakah dalam model regresi terjadi ketidaksamaan variance dari
residual satu pengamatan ke pengamatan yang lainnya. Gejala variance yang tidak
sama ini disebut dengan heteroskedastisitas, sedangkan adanya gejala residual
yang sama dari satu pengamatan ke pengamatan lain disebut dengan
homoskedastisitas.
Masalah heteroskedastisitas lebih sering muncul pada data cross- section
dibandingkan data time series. Nachrowi dan Usman (2006) menjelaskan bahwa
data cross section sering memunculkan varian error yang heteroskedastis, akan
tetapi bukan berarti data time series terhindar dari permasalahan ini. Indeks harga
saham, inflasi, nilai tukar, atau suku bunga, seringkali mempunyai varian error
yang tidak konstan. Bila dalam suatu pengamatan terdapat kasus
heteroskedastisitas sedangkan asumsi lain dipenuhi maka parameter regresi yang
diduga dengan metode kuadrat terkecil tidak lagi memililiki sifat efisien (varian
minimum) (Draper and Smith, 1992).
B. Cara Mendeteksi Keberadaan Heteroskedastisitas
Manurung et al. (2005) menjelaskan bahwa ada dua cara untuk mendeteksi
keberadaan heteroskedastisitas, yaitu:
1) Metode informal, metode informal biasanya dilakukan dengan melihat grafik
plot dari nilai prediksi variabel independent (ZPRED) dengan residualnya
(SRESID). Variabel dinyatakan tidak terjadi heteroskedastisitas jika tidak
terdapat pola yang jelas dan titik- titik menyebar di atas dan di bawah angka
nol pada sumbu Y.
2) Metode formal, metode formal untuk mendeteksi keberadaan
heteroskedastisitas antara lain dengan Park Test, Glejser Test, Spearman’s
Rank Correlation Test, Golfeld- Quandt Test, Breusch- Pagan- Godfrey Test,
White’s General Heteroscedasticity Test.
∑ β i= β0 + β 1 + β 2+ …+ β k =β
i=0
Keterangan:
du : Batas atas Durbin –Watson
dl : Batas bawah Durbin –Watson
d : Durbin–Watson hitung
C. Aplikasi Model Dinamis Autoregressive
Dalam aplikasi model dinamis autoregressive, data yang digunakan adalah
sebagai berikut:
Analisis Data:
Regression Analysis: Yt versus Xt; Yt-1
Analysis of Variance
Source DF SS MS F P
Regression 2 343,37 171,69 60,69 0,000
Residual Error 18 50,92 2,83
Total 20 394,29
Source DF Seq SS
Xt 1 342,58
Yt-1 1 0,79
ln ( 1−^^p p )=B + B X
0 1
Dimana:
ln : Logaritma Natural.Di mana:
B0 + B1 X : Persamaan yang biasa dikenal dalam OLS.
Sedangkan P Hat adalah probabilitas logistik yang didapat rumus sebagai berikut:
exp ( B0 + B1 X ) e
B +B X
0 1
^p= =
1+exp (B 0+ B1 x) 1+ e B + B x
0 1