Anda di halaman 1dari 47

Tugas Individu

Rangkuman Materi Ekonometrika


(Kelompok 1 – Kelompok 12)

Diajukan untuk memenuhi Ujian Tengah Semester (UTS) pada mata kuliah
Ekonometrika

OLEH :
NAMA : ANIDA NUR AZIZAH
NIM : F1A219021

PROGRAM STUDI S1 STATISTIKA


FAKULTAS MATEMATIKA DAN ILMU PENGETAHUAN ALAM
UNIVERSITAS HALU OLEO
KENDARI
2021
KELOMPOK 1
Judul Materi: Pengantar Ekonometrika
Pokok Pembahasan:

A. Definisi Ilmu Ekonometrika


Ekonometrika atau econometrics adalah cabang ilmu ekonomi dengan
penaksiran empiris hubungan- hubungan antar variabel ekonomi. Istilah
ekonometrika digunakan untuk pertama kali pada tahun 1930-an, yaitu
penggabungan matematika murni dan penaksiran empiris hubungan variabel-
variabel ekonomi. Penggabungan teori ini kemudian menghasilkan pengembangan
matematika dan teori ekonomi yang disebut dengan matematika
ekonomi. Penggabungan ini melatarbelakangi objek utama dari ekonometrika,
yaitu pengenalan studi dengan unifikasi teori kuantitatif dan pendekatan empiris
kuantitatif terhadap masalah-masalah ekonomi. Jika statistika ekonomi
men- cakup pengembangan dan penyajian data ekonomi maka
ekonometrika menggunakan data tersebut untuk menaksir hubungan
kuantitatif variabel-variabel ekonomi dan menguji hipotesis antara variabel-
variabel ekonomi tersebut.
Pendekatan ekonometrik dapat diterapkan pada ilmu- ilmu lain, khususnya
ilmu- ilmu sosial seperti sejarah, ilmu politik, sosiologi, psikologi, dan kebijakan
publik seperti Kesehatan, Pendidikan, transportasi, perumahan, perlindungan
lingkungan.
B. Sejarah Ekonometrika
Ekonometrika pertama kali dikembangkan oleh Jan Tingerben dari Belanda
pada awal tahun 1950- an sebagai salah satu cabang sendiri dari ilmu ekonomi.
Penggunaan ekonometrika telah sedemikian luas sehingga hampir semua
jurnal,tesis, disertasi, dan bahkan skripsi dalam ilmu ekonomi memakai
ekonometrika sebagai salah satu alat yang digunakan. Di Indonesia, penerapan
ekonometri masih terbatas dan pengembangan ilmu ini hanya pada
lembaga/universitas tertentu saja. Dua dari sedikit akademisi di bidang
ekonometri di Indonesia adalah Profesor Insukindro dari Universitas Gadjah
Mada terutama berkat penerapan ekonometri untuk ekonomi moneter dan Dr. Ari
Kuncoro dari Universitas Indonesia karena pekerjaannya di bidang
mikroekonometri.

C. Tujuan Ekonometrika
Berdasarkan sifat- sifat pendekatan ekonometrika, terdapat tiga tujuan
ekonometrika yaitu analisis struktural, peramalan, dan evaluasi kebijakan. Adapun
penjelasan untuk masing- masing tujuan tersebut adalah sebagai berikut:
1) Analisis Struktural, merupakan penggunaan penaksiran model ekonometrik
untuk mengukur besar kuantitatif hubungan variabel- variabel ekonomi,
misalnya pengukuran hubungan antara inflasi dan tingkat pengangguran.
Philltps curve telah mendorong berbagai pengembangan teori pengangguran.
2) Peramalan, merupakan penggunaan penaksiran model ekonometrik untuk
memprediksi nilai kuantitatif dari variabel di luar data yang diamati, misalnya
pemberian bahan baku dan tenaga kerja dalam satu perusahaan berdasarkan
peramalan penjualan periode berikutnya.
3) Evaluasi Kebijakan, merupakan penggunaan penaksiran model ekonometrik
untuk memilih beberapa alternatif kebijakan. Salah satu pendekatan
eksplisitnya adalah dengan maksimalisasi fungsi tujuan dengan memilih
kebijakan tertentu.
D. Ruang Lingkup Ekonometrika
Ekonometrika memberikan muatan empiris (yaitu berdasarkan observasi atau
eksperimen) terhadap hampir semua ilmu ekonomi. Analisis ekonometrika
mengikuti beberapa metodologi yang dapat dijelaskan sebagai berikut:
1) Membuat Pernyataan Teori tau Hipotesis, yaitu mencari teori ekonomi yang
cocok dengan topik yang akan dipelajari. Kemudian, membuat dua hipotesis
berbeda (H0 dan H1). Untuk mengetahui pengaruh kedua variabel, dapat
ditentukan dengan melihat hipotesis yang lebih dominan (pertanyaan
empiris).
2) Mengumpulkan Data, yaitu mencari informasi kuantitatif dengan
menggunakan data- data yang tersedia diantaranya yaitu data deret berkala
(time series), data lintas- sektoral (cross sectional), dan data kelompok
(gabungan antara data deret berkala dan data lintas sektoral).
3) Menentukan Model Matematis, yaitu menentukan model dengan
menggunakan diagram pencar, sehingga dapat dilihat korelasi yang terbentuk
apakah positif atau negatif. Setelah out, membuat taksiran awal dan membuat
model matematis.
4) Menentukan Model Statistik atau Ekonometri, yaitu menentukan model yang
dalam hal ini apakah kedua variabelnya memiliki hubungan sebab akibat.
5) Menaksir Parameter- parameter dari Model Ekonometri, yaitu menaksir
parameter dengan mengembangkan metode yang cocok, seperti metode
kuadrat terkecil (OLS).
6) Memeriksa Kecocokan Model: Pengujian Spesifikasi Model, yaitu
menentukan apakah salah satu atau lebih variabel bebas memiliki hubungan
dengan variabel tidak bebas. Model yang dipilih akhirnya haruslah
merupakan replika yang cukup masuk akal dari realitas yang sesungguhnya.
7) Menguji Hipotesis dari Model, yaitu menguji hipotesis untuk mengetahui
apakah model yang ditaksir masuk akal dari sisi ilmu ekonomi dan apakah
hasil yang diperoleh cocok dengan teori ekonomi yang mendasarinya.
8) Menggunakan Model untuk Melakukan Prediksi/Peramalan, yaitu
membandingkan nilai prediksi dengan nilai aktual yang tersedia, dimana
selisih antara kedua nilai tersebut menyatakan kesalahan prediksi.
KELOMPOK 2
Judul Materi: Sifat Dasar Analisis Regresi
Pokok Pembahasan:

A. Asal Mula Regresi


Istilah regresi pertama kali diperkenalkan oleh seseorang yang bernama
Francis Galton. Menurut hasil penelitian Galton, meskipun ada kecenderungan
bagi para orang tua yang tinggi mempunyai anak yang tinggi dan orang tua yang
pendek mempunyai anak yang pendek, distribusi mengenai tinggi dari suatu
populasi tidak berubah dari generasi ke generasi. Hasil penelitian ini selanjutnya
dibuktikan oleh Karl Pearson, dengan jalan mengumpulkan lebih dari seribu
catatan mengenai tinggi dari para anggota kelompok keluarga. Karl Pearson
menemukan bahwa rata-rata tinggi anak dari kelompok orang tua yang tinggi
ternyata lebih kecil dari tinggi ayahnya, dan rata-rata tinggi anak dari kelompok
orang tua yang pendek ternyata lebih besar daripada tinggi ayah, jadi seolah-olah
semua anak yang tinggi dan yang pendek bergerak menuju ke rata-rata tinggi dari
seluruh orang laki-laki. Menurut istilah Galton: regression to mediocrity.
B. Interpretasi Modern tentang Regresi
Analisis regresi berkenaan dengan studi ketergantungan dari satu variabel
yang disebut variabel tidak bebas (dependent variable), pada satu atau lebih
variabel, yaitu variabel yang menerangkan, dengan tujuan untuk memperkirakan
atau meramalkan nilai rata-rata dari variabel tidak bebas apabila nilai variabel
yang menerangkan sudah diketahui. Variabel yang menerangkan sering disebut
variabel bebas (independent variable) atau explanatory variables. Nilai perkiraan
untuk waktu yang akan datang dari variabel sosial dan ekonomi disebut ramalan,
sangat berguna untuk dasar perencanaan
C. Hubungan Ketergantungan
Hubungan ketergantungan dalam regresi terbagi atas tiga jenis diantaranya
adalah sebagai berikut:
1) Ketergantungan Statistik vs Fungsional
Dalam ketergantungan statistik, hubungan antar variabel berkenaan dengan
variabel yang random atau variabel yang stokastik yaitu variabel yang
mempunyai distribusi probabilitas, sedangkan dalam ketergantungan
fungsional, variabelnya merupakan variable tidak acak (non- random).
2) Regresi vs Kausalitas
Ketergantungan variable dependen dalam analisis regresi tidak secara
langsung menunujukkan kausalitas. Harus ada informasi apriori yang logis
untuk menentukan kausalitas.
3) Regresi vs Korelasi
Analisis regresi merupakan analisis ketergantungan dari satu atau lebih
variabel bebas terhadap satu variabel tergantung, dengan tujuan untuk
menduga atau memprediksi nilai rata-rata populasi berdasarkan niali-nilai
variabel bebasnya. Perbedaan mendasar antara analisis korelasi dengan
analisis regresi adalah bahwa analisis korelasi hanya bertujuan untuk
mengukur kekuatan hubungan linier antar dua variabel, sehingga pada
analisis korelasi tidak membedakan antara variabel bebas dengan variabel
tergantung. Sedangkan analisis regresi selain mengukur kekuatan hubungan
antar dua variabel atau lebih, analisis regresi juga digunakan untuk
menetukan arah hubungan antara variabel bebas dengan variabel
tergantungnya.
D. Sifat Dasar Analisis Regresi
Berikut sifat-sifat dasar analisis regresi, antara lain yaitu:
1) Sifat Regresi bukan Hubungan Sebab-Akibat
2) Konsep Fungsi Regresi Populasi
3) Konsep Fungsi Regresi Sampel
4) Linearitas
KELOMPOK 3
Judul Materi: Analisis Regresi Berganda
Pokok Pembahasan:

A. Analisis Regresi
Analisis regresi adalah salah satu analisis statistik untuk mengetahui apakah
ada hubungan antara variabel bebas dengan variabel terika. Jika dalam persamaan
regresi hanya terdapat satu variabel bebas dan satu variabel terikat, maka disebut
sebagai persamaan regresi sederhana, sedangkan jika variabel bebasnya lebih dari
satu, maka disebut persamaan regresi berganda.
Y = β 0 + β 0 X 1 + β 0 X 2 + ⋯+ β k X k + 𝜀
Ket:
Y : variabel dependen
X : variabel independen
β0 : kostanta
β 1,2,3 : koefisien regresi
B. Asumsi Regresi Berganda
Asumsi-asumsi yang harus dipenuhi dalam analisis regresi antara lain: data
rasio atau interval, normalitas, homoskedastisitas, non-autokorelasi, non
multikolinieritas, dan linearitas. Penjelasan dari masing- masing asumsi tersebut
adalah sebagai berikut:
1) Normalitas
Uji normalitas dapat dilakukan dengan normal P-P Plot dan uji Kolmogorov-
Smirnov. Uji normalitas dengan normal P- P Plot dapat dilihat dari
penyebaran data (titik) pada sumbu diagonal grafik atau normal dengan si∼(0,
𝜎2) (Gujarati, 2004:109). Dasar pengambilan keputusannya yaitu, jika data
menyebar di sekitar garis diagonal dan mengikuti arah garis diagonal atau
grafik histogramnya menunjukkan pola distribusi normal, maka model regresi
memenuhi asumsi normalitas.
Cara lain iuntuk menguji asumsi kenormalan adalah dengan uji Kolmogorov-
Smirnov. Menurut Sidney Siegel (1986: 59), uji Kolmogorov- Smirnov
didasarkan pada nilai D atau deviasi maksimum, yaitu:
𝐷 = max|𝐹0(Xi) − 𝑆𝑛(Xi)| , i = 1,2, … , 𝑛
2) Homoskedastisitas
Homoskedastisitas atau non heteroskedastisitas merupakan asumsi yang
menyatakan bahwa varian setiap sisaan (𝑒i) masih tetap sama baik untuk nilai-
nilai pada variabel independen yang kecil maupun besar. Asumsi ini dapat
ditulis sebagai berikut:
(𝑒i) = 𝜎2, i = 1,2, ... ,n
3) Autokorelasi
Salah satu asumsi penting dari regresi linear adalah bahwa tidak ada
autokorelasi antara serangkaian pengamatan yang diurutkan menurut waktu.
Adanya kebebasan antar sisaan dapat dideteksi secara grafis dan
empiris. Pendeteksian autokorelasi secara grafis yaitu dengan melihat pola
tebaran sisaan terhadap urutan waktu tidak membentuk suatu pola tertemtu
atau bersifat acak maka dapat disimpulkan tidak ada autokorelasi antar
sisaan. Menurut Gujarati (2004: 467), pengujian secara empiris dilakukan
dengan menggunakan statistik uji Durbin Watson. Selain menggunakan
pengujian tersebut, dapat pula menggunakan uji runs test dengan
menggunakan bantuan software SPSS, yaitu dilihat dari nilai Asymp.Sig,
apabila nilai Asymp.Sig > 𝛼 artinya H0 diterima sehingga dapat disimpulkan
bahwa model regresi tidak terdapat autokolerasi.
4) Multikolinearitas
Menurut Montgomery, Peck & Vining (1992:11), multikolinearitas terjadi
karena terdapat korelasi yang cukup tinggi di antara variabel independen, VIF
(Variance Inflation Factor) merupakan salah satu cara untuk mengukur besar
multikolinearitas dan didefinisikan sebagai berikut:
1
VIF= 2
1−R j

Kriteria keputusannya yaitu jika nilai 𝑉𝐼𝐹 < 10 maka H0 diterima artinya
tidak terdapat multikolinieritas.

5) Linearitas
Salah satu asumsi dari analisis regresi adalah lineritas. Maksudnya apakah
garis regresi antara X dan Y membentuk garis linear atau tidak. Ada beberapa
uji yang dapat dilakukan yaitu salah satunya dengan menggunakan uji Durbin
Watson. Pengujian Durbin Watson dilihat dengan membandingkan nilai
Durbin Watson (DW) dan nilai dL dalam tabel Durbin Watson dengan taraf
signifikansi 5%. Kriteria keputusannya apabila DW > dL maka data
berbentuk linear dan apabila DW < dL maka data tidak berbentuk linear. Uji
kelinieran juga dapat dilakukan dengan terlebih dahulu menghitung jumlah
kuadrat-kuadrat, disingkat JK, untuk berbagai sumber variasi. Sumber-
sumber variasi yang JK-nya perlu dihitung adalah sumber- sumber variasi
untuk jumlah kuadrat total, jumlah kuadrat (a), jumlah kuadrat (b|a), jumlah
kuadrat sisa, jumlah kuadrat tuna cocok (F hitung) dan jumlah kuadrat galat
(error).
C. Pengujian Hipotesis
Pengujian hipotesis dimaksudkan untuk melihat apakah suatu hipotesis yang
diajukan ditolak atau dapat diterima. Pengujian hipotesis dapat dilakukan dengan
berbagai cara diantaranya yaitu sebagai berikut:
1) Uji Simultan/ Uji F
Penggunaan Uji-F bertujuan mengetahui apakah variabel-variabel bebas (X1
dan X2) secara signifikan bersama-sama berpengaruh terhadap variabel tak
bebas Y.
2
r ⁄k r 2 (n=k=1)
Rumus F hitung : 𝐹ℎ𝑖𝑡 = 2 = 2
(1−r ) ⁄ (n=k−¿) k (1=r )
Dimana:
r = Koefisien determinasi
k = banyaknya variable bebas
n = ukuran sampel
2) Uji Parsial/ Uji T
Uji signifikan parsial (uji t) atau individu digunakan untuk menguji apakah
suatu variabel bebas berpengaruh atau tidak terhadap variabel terikat.
b−B
t-hitung=
Sb
Dimana:
t-hitung = besarnya t-hitung
b = koefisien regresi
Sb = standar error
KELOMPOK 4
Judul Materi: Multikolinearitas
Pokok Pembahasan:
A. Pengertian Multikolinearitas
Menurut Frisch, suatu model regresi dikatakan terkena multikoliniearitas bila
terjadi hubungan linier yang sempurna (perfect) atau pasti (exact) di antara
beberapa atau semua variabel bebas dari suatu model regresi. Akibatnya akan
kesulitan untuk dapat melihat pengaruh variabel penjelas terhadap variabel yang
dijelaskan. Multikolinearitas adalah adanya hubungan linear yang sempurna di
antara beberapa atau semua variabel bebas dalam model regresi. Penyebab
multikolinearitas adalah adanya korelasi atau hubungan yang kuat antara dua
variabel bebas atau lebih, dalam sebuah model regresi berganda. Berdasarkan
hubungan yang terjadi antara variabel- variabel bebas, multikolinearitas dibedakan
menjadi dua:
1) Multikolinearitas Sempurna
Hubungan linear yang sempurna terjadi apabila berlaku hubungan sebagai
berikut:
k

∑ λi X j =λ1 X 1 + λ2 X 2 +…+ λk X k =0
j=1
Di mana λ1, λ2, λ3, ..... λk seluruhnya tidak sama dengan nol (λ1 ≠ 0, i =
1,2,3, ......k). Untuk mengetahui multikolinearitas sempurna dimisalkan λ2≠0,
sehingga persamaan X2 dapat ditulis sebagai berikut:
−λ 1 λ λ
X 2 i= X 1 i− 3 X 3 i−…− k X ki
λ2 λ2 λ2
Persamaan tersebut menunjukkan bagaimana X2 berhubungan secara linear
sempurna dengan sisa variabel lainnya.
2) Multikolinearitas Kurang Sempurna
Multikolinearitas kurang sempurna terjadi jika berlaku suatu hubungan
sebagai berikut:

∑ λ X j =λ1 X 1 + λ 2 X 2 +…+ λk X k + εi=0


j=1

di mana ε i adalah galat sisa dengan syarat galat yang saling bebas dan
menyebar normal ε i ~ N (0,σ2), untuk mengetahui adanya multikolinearitas
tidak sempurna, maka dimisalkan λ 2≠0, sehingga persamaan X2 dapat ditulis
sebagai berikut:

−λ 1 λ λ 1
X 2 i= X 1 i− 3 X 3 i−…− k X ki− ε i
λ2 λ2 λ2 λ2

yang menunjukkan bahwa X2 tidak berhubungan linear sempurna dengan sisa


variabel lainnya , sebab tergantung pada ε i.

B. Dampak Multikolinearitas
Dalam banyak hal, masalah multikolinearitas dapat menyebabkan uji T
menjadi tidak signifikan padahal jika masing-masing variabel bebas diregresikan
secara terpisah dengan variabel tak bebas (simple regression) uji T menunjukkan
hasil yang signifikan. Selain itu, adanya multikolinearitas dalam analisis regresi
linear berganda ini juga dapat menyebabkan standar deviasi dari penduga nilainya
akan meningkat sehingga nilai penduga parameter yang dihasilkan dari analisis
regresi akan tidak tepat. Dampak multikolinearitas dapat mengakibatkan koefisien
regresi yang dihasilkan oleh analisis regresi berganda menjadi sangat lemah atau
tidak dapat memberikan hasil analisis yang mewakili sifat atau pengaruh dari
variabel bebas yang bersangkutan. Selain itu beberapa dampak dari
multikolinearitas yaitu varians besar (dari taksiran OLS), Interval kepercayaan
lebar (Variansi besar mengakibatkan standar error besar sehingga interval
kepercayaan lebar), R2 tinggi tetapi tidak banyak variabel yang signifikan dari uji
T dan terkadang taksiran koefisien yang didapat akan mempunyai nilai yang tidak
sesuai dengan subtansi sehingga dapat menyesatkan interpretasi.
C. Penyebab Multikolinearitas
Multikolinearitas disebabkan oleh beberapa faktor diantaranya adalah sebagai
berikut:
1) Metode pengumpulan data yang digunakan. Sebagai contoh, mengambil
sampel dari jangkauan nilai yang terbatas dan diambil dari regresi- regresi di
populasi.
2) Batasan yang ada pada model atau populasi yang diambil sampelnya.
Sebagai contoh, dalam regresi konsumsi listrik terhadap pendapatan (X2) dan
ukuran rumah (X3), terdapat batasan fisik populasi pada keluarga tersebut, di
mana keluarga dengan pendapatan yang lebih tinggi biasanya memiliki
rumah yang lebih besar dibandingkan keluarga dengan pendapatan yang lebih
rendah.
3) Spesifikasi model. Sebagai contoh, menambahkan istilah polynomial pada
model regresi, khususnya ketika jangkauan variabel X kecil.
4) Model yang overdetermined. Hal ini terjadi ketika model memiliki banyak
variabel penjelas daripada jumlah observasi. Terjadi dalam penelitian medis,
dimana mungkin saja hanya terdapat sedikit jumlah pasien yang informasinya
dikumpulkan pada variabel dengan jumlah yang lebih banyak.
D. Cara Mendeteksi Multikolinearitas
Ada beberapa cara untuk mengetahui ada tidaknya multikolinearitas,
diantaranya adalah sebagai berikut:
1) Model memiliki koefisien determinasi (R2) yang tinggi tetapi hanya sedikit
variabel independen yang signifikan mempengaruhi variabel dependen
melalui uji t.
2) Adanya korelasi yang kuat antar variabel independen.
3) Jika nilai VIF > 10 dan nilai tolerance < 0.10, maka tejadi multikolinearitas
tinggi antar variabel bebas dengan variabel bebas lainnya. Jika VIF < 10 dan
nilai tolerance > 0.10, maka dapat diartikan tidak terdapat multikolinearitas
pada penelitian tersebut. Regresi yang baik memiliki VIF disekitar angka 1
(satu) dan mempunyai angka Tolerance mendekati 1.
4) Nilai determinan terletak antara 0 dan 1. Nilai yang lebih kecil determinannya
maka tingkat multikolinearitasnya lebih besar.
5) Menggunakan nilai eigen dan indeks kondisi.
E. Cara Mengatasi Multikolinearitas
Masalah multikolinearitas dapat dihilangkan dengan menempuh beberapa
cara, diantaranya sebagai berikut:
1) Menambahkan data yang baru.
2) Menghilangkan satu atau beberapa variabel bebas.
3) Penambahan data.
4) Estimasi regresi ridge.
5) Regresi komponen utama.
KELOMPOK 5
Judul Materi: Heteroskedastisitas
Pokok Pembahasan:
A. Pengertian Heteroskedastisitas
Uji heteroskedastisitas merupakan salah satu uji asumsi klasik yang bertujuan
untuk menguji apakah dalam model regresi terjadi ketidaksamaan variance dari
residual satu pengamatan ke pengamatan yang lainnya. Gejala variance yang tidak
sama ini disebut dengan heteroskedastisitas, sedangkan adanya gejala residual
yang sama dari satu pengamatan ke pengamatan lain disebut dengan
homoskedastisitas.
Masalah heteroskedastisitas lebih sering muncul pada data cross- section
dibandingkan data time series. Nachrowi dan Usman (2006) menjelaskan bahwa
data cross section sering memunculkan varian error yang heteroskedastis, akan
tetapi bukan berarti data time series terhindar dari permasalahan ini. Indeks harga
saham, inflasi, nilai tukar, atau suku bunga, seringkali mempunyai varian error
yang tidak konstan. Bila dalam suatu pengamatan terdapat kasus
heteroskedastisitas sedangkan asumsi lain dipenuhi maka parameter regresi yang
diduga dengan metode kuadrat terkecil tidak lagi memililiki sifat efisien (varian
minimum) (Draper and Smith, 1992).
B. Cara Mendeteksi Keberadaan Heteroskedastisitas
Manurung et al. (2005) menjelaskan bahwa ada dua cara untuk mendeteksi
keberadaan heteroskedastisitas, yaitu:
1) Metode informal, metode informal biasanya dilakukan dengan melihat grafik
plot dari nilai prediksi variabel independent (ZPRED) dengan residualnya
(SRESID). Variabel dinyatakan tidak terjadi heteroskedastisitas jika tidak
terdapat pola yang jelas dan titik- titik menyebar di atas dan di bawah angka
nol pada sumbu Y.
2) Metode formal, metode formal untuk mendeteksi keberadaan
heteroskedastisitas antara lain dengan Park Test, Glejser Test, Spearman’s
Rank Correlation Test, Golfeld- Quandt Test, Breusch- Pagan- Godfrey Test,
White’s General Heteroscedasticity Test.

C. Akibat & Cara Mengatasi Heteroskedastisitas


Menurut Gujarati (1999), permasalahan heteroskedastisitas mengakibatkan:
1) Penduga metode kuadrat terkecil masih tetap tak bias dan konsisten, tetapi
tidak lagi efisien (varian tidak lagi minimum).
2) Simpangan baku (standar error) dari estimasi menjadi bias, sehingga uji t dan
uji f menjadi tidak valid.
Thomas (1996) juga mengungkapkan pendapat yang serupa bahwa
heteroskedastisitas mengakibatkan penduga metode kuadrat terkecil tidak lagi
efisien, namun tetap liniear, tak bias, dan konsisten. Heteroskedastisitas tidak
merusak sifat ketakbiasan dan konsistensi dari penduga metode kuadrat terkecil,
tetapi penduga menjadi tidak lagi efisien, sehingga membuat prosedur pengujian
hipotesis yang biasa nilainya diragukan. Oleh karena itu, tindakan perbaikan
sangat diperlukan. Ada dua pendekatan yang dapat digunakan untuk mengatasi
permasalahan heteroskedastisitas. Jika σ i2 diketahui dan jika σ i2 tidak diketahui.
KELOMPOK 6
Judul Materi: Autokorelasi
Pokok Pembahasan:
A. Pengertian Autokorelasi
Autokorelasi merupakan asumsi dalam regresi yang menyatakan terjadinya
korelasi antara observasi ke-i dengan observasi ke-i-1. Uji autokorelasi harus
dilakukan pada data time series atau runtut waktu, sebab yang dimaksud
autokorelasi adalah sebuah nilai pada sampel atau observasi tertentu yang sangat
dipengaruhi oleh nilai observasi sebelumnya.
1) Sebab-Sebab Autokorelasi
- Kesalahan dalam pembentukan model (linier – non linier).
- Tidak memasukan variabel yang penting.
- Manipulasi data yang tidak teliti.
- Menggunakan data yang tidak empiris (data tidak berdasarkan observasi).
2) Akibat Autokorelasi
- Varians tidak minimum atau BLUE (Best Linear Unbiased Estimator).
- Varians tidak minimum atau BLUE (Best Linear Unbiased Estimator).
- Estimasi standar error dan varian koefisien dan varian koefisien regresi
yang didapat akan “under estimate”.
- Pemeriksaan terhadap residualnya akan menemui permasalahan.
- Autokorelasi yang kuat dapat pula menyebabkan dua variabel yang tidak
berhubungan menjadi berhubungan. Biasa disebut spourious regression.
- Pengujian arti t dan F tidak lagi valid sehingga menghasilkan kesimpulan
yang tidak valid dan memberikan gambaran yang menyimpang dari nilai
populasi sebenarnya.
B. Cara Mendeteksi Autokorelasi
Dalam pendeteksiannya, ada beberapa cara yang dapat dilakukan untuk
mengecek apakah ada atau tidaknya korelasi, diantaranya sebagai berikut:
1) Uji Durbin- Watson
Uji Durbin Watson adalah salah satu uji autokorelasi yang menilai adanya
autokorelasi pada residual. Uji ini dilakukan dengan asumsi:
- Model regresi harus menyertakan konstanta.
- Autokorelassi harus diasumsikan sebagai autokorelasi first order.
- Variabel dependen bukan merupakan variabel lag.
2) Uji Lagrange Multiplier (LM)
Uji autokorelasi dengan LM test terutama digunakan untuk sampel besar di
atas 100 observasi.
3) Uji Statistics Q: Box- Pierce dan Ljung Box
Digunakan untuk melihat autokorelasi dengan lag lebih dari dua.
4) Run Test
Run test sebagai bagian dari statistik non parametrik dapat pula digunakan
untuk menguji apakah antar residual terdapat korelasi yang tinggi. Jika antar
residual tidak terdapat hubungan korelasi maka dikatakan bahwa residual
adalah acak atau random. Run test digunakan untuk melihat apakah data
residual terjadi secara random atau tidak (sistematis).
KELOMPOK 7
Judul Materi: Model Regresi Variabel Dummy
Pokok Pembahasan:

A. Definisi Variabel Dummy


Donald Cooper dan Pamela Schindler (2000) mendefinisikan variabel dummy
sebagai sebuah variabel nominal yang diberi kode 0 dan 1. Nilai 0 biasanya
menunjukkan kelompok yang tidak mendapat sebuah perlakuan dan 1
menunjukkan kelompok yang mendapat perlakuan. Aplikasinya bisa berupa
perbedaan jenis kelamin (1= laki-laki, 0 = perempuan), ras (1 = kulit putih, 0 =
kulit berwarna), pendidikan (1 = sarjana, 0 = non-sarjana). Variabel kualitatif atau
variabel boneka (dummy) dapat dipergunakan dalam model regresi bersama
dengan variabel kualitatif. Oleh karena itu ahli ekonomi dapat menganalisis
masalah ekonomi dengan memasukkan pengaruh variabel-variabel non-ekonomis
seperti pendidikan dan kebudayaan, politik, agama, psikologi dan lain-lain
terhadap perubahan variabel-variabel ekonomi yang terjadi. Variabel dummy
merupakan alat yang penting untuk mengklasifikasikan data, variabel ini dapat
membagi suatu sampel menjadi berbagai kategori berdasarkan atribut misalnya
status perkawinan, suku bangsa, agama, tingkat pendidikan dan lain-lain yang
dapat dibuat regresi secara individu untuk setiap kelompok kecil.
B. Variabel Dummy dalam Regresi
Variabel dummy adalah variabel yang digunakan untuk mengkuantitatifkan
variabel yang bersifat kualitatif (misal: jenis kelamin, ras, agama, perubahan
kebijakan pemerintah, perbedaan situasi dan lain-lain). Variabel dummy
merupakan variabel yang bersifat kategorikal yang diduga mempunyai pengaruh
terhadap variabel yang bersifat kontinu. Variabel dummy sering juga disebut
variabel boneka, binary, kategorik atau dikotom. Variabel dummy hanya
mempunyai 2 (dua) nilai yaitu 1 dan nilai 0, serta diberi simbol D.
Nilai 0 biasanya menunjukkan kelompok yang tidak mendapat sebuah
perlakuan dan 1 menunjukkan kelompok yang mendapat perlakuan. Dalam regresi
berganda, aplikasinya bisa berupa perbedaan jenis kelamin (1 = laki-laki, 0 =
perempuan), ras (1 = kulit putih, 0 = kulit berwarna), pendidikan (1 = sarjana, 0 =
non-sarjana).

C. Model Regresi Berganda dengan Variabel Dummy


Variabel dummy digunakan sebagai upaya untuk melihat bagaimana
klasifikasi-klasifikasi dalam sampel berpengaruh terhadap parameter pendugaan.
Variabel dummy juga mencoba membuat kuantifikasi dari variabel kualitatif.
Berikut model matematika dari regresi variabel dummy:
1) 𝑌 = 𝑎 + 𝑏𝑋 + 𝑐𝐷1, (Model Dummy Intercept)
2) 𝑌 = 𝑎 + 𝑏𝑋 + 𝑐(𝐷1𝑋), (Model Dummy Slope)
3) 𝑌 = 𝑎 + 𝑏𝑋 + 𝑐(𝐷1𝑋) + 𝑑 𝐷1, (Model Dummy Kombinasi)
D. Macam- macam Variabel Dummy
Variabel dummy terbagi atas beberapa macam diantaranya adalah sebagai
berikut:
1) Model regresi dummy dengan satu variabel kualitatif
Model regresi dengan variabel dummy-nya sebagai berikut:
𝑌𝑖 = 𝑏0 + 𝑏1𝐷1 + 𝑏2𝑋𝑖 + 𝑒𝑖
2) Model regresi dengan lebih dari satu variabel dummy
Model regresi dengan variabel dummy-nya sebagai berikut:
𝑌𝑖 = 𝑏0 + 𝑏1𝐷1𝑖 + 𝑏2𝐷2𝑖 + 𝑏3𝑋𝑖 + 𝑒𝑖
3) Model regresi dengan banyak kategori dummy
Model regresi dengan variabel dummy-nya sebagai berikut:
𝑌𝑖 = 𝑏0 + 𝑏1𝐷1𝑖 + 𝑏2𝐷2𝑖 + 𝑏3𝑋𝑖 + 𝑒
E. Tujuan Pemanfaatan Regresi dengan Variabel Dummy
Tujuan menggunakan regresi berganda dummy adalah memprediksi besarnya
nilai variabel terikat/dependen atas dasar satu atau lebih variabel
bebas/independen, dimana satu atau lebih variabel bebas yang digunakan bersifat
dummy. Dalam kegiatan penelitian, kadang variabel yang akan diukur bersifat
kualitatif ,sehingga muncul kendala dalam pengukuran, dengan adanya variabel
dummy tersebut, maka besaran atau nilai variabel yang bersifat kualitatif dapat
diukur dan diubah menjadi kuantitatif.

F. Ketentuan Mengkuantitatifkan Variabel Kualitatif


Dalam mengkuantitatifkan variabel kualitatif pada model regresi, ada
beberapa ketentuan yang harus dipatuhi, antara lain:
1) Apabila terdapat n kategori, maka dapat dibentuk variabel dummy sebanyak
n-1.
2) Nilai 1 dan 0 pada variabel dummy, sifatnya arbiter. Artinya nilai tersebut
tidak baku.
3) Kategori 0 pada variabel dummy merupakan kategori dasar sebagai kelompok
pengontrol.
4) Koefisien (bi) pada variabel dummy disebut koefisien intersep pembeda.
Karena menunjukkan berapa besar perbedaan intersep yang bernilai 1 dengan
intersep dari kelompok pengontrol.
KELOMPOK 8
Judul Materi: Model Dinamis Distributed Lag
Pokok Pembahasan:
A. Pengertian Distribusi Lag
Distribution lag model adalah model regresi yang tidak hanya mencakup nilai
sekarang tetapi juga nilai masa lalu (lag) dari variabel penjelas (X) sedangkan
autoregressive distributed lag adalah model yang mencakup satu atau lebih nilai
masa lalu (lag) dari variabel terkait antara variabel penjelasnya. “Model regresi
yang memasukkan nilai variabel yang menjelaskan nilai masa kini atau nilai masa
lalu (lag) dari variabel tak bebas sebagai salah satu variabel penjelas disebut
autoregressive distributed lag (ARDL). Model ini dapat membedakan respon
jangka pendek dan jangka panjang dari variabel tak bebas terhadap suatu unit
perubahan dalam nilai variabel penjelas”. Keistimewaan dari model distribusi lag
adalah model tersebut membuat teori statis menjadi dinamis karena model regresi
yang biasanya mengabaikan pengaruh waktu, melalui model autoregressive dan
model distribusi lag, waktu ikut diperhitungkan dan panjang beda kala (lag)
diketahui.
B. Konsep Distribusi Lag
Dalam analisis regresi yang melibatkan data deret waktu, jika model regresi
memasukan tidak hanya nilai variabel yang menjelaskan (X) saat ini, tetapi juga
nilai masa lalu (lagged), model yang terbentuk disebut dengan model lagged yang
didistribusikan (distributed-lag-model).
Y t =α + β 0 X t + β 1 X t−1 + β 2 X t −2+ ut
C. Peran Waktu atau Lag dalam Ilmu Ekonomi
Misal:“Seorang menerima kenaikan gaji sebesar 2000 dolar dalam gaji
tahunan, dan misalkan bahwa ini merupakan peningkatan “permanen” dalam arti
bahwa peningkatan gaji tersebut dipertahankan. Apakah pengaruh dari pendapatan
ini atas belanja konsumsi tahunan orang tadi? Sekarang merupakan pengalaman
yang biasa bahwa setelah adanya peningkatan dalam pendapatan seperti itu, pada
umumnya orang tidak bergegas untuk menghabiskan semua peningkatan tadi
dengan segera. Jadi, orang yang menerima tadi bisa memutuskan untuk
meningkatkan belanja konsumsi 800 dolar dalam tahun pertama setelah
memperoleh peningkatan gaji sebagai pendapatannya, dengan 600 dolar yang lain
tahun berikutnya, dan dengan 400 dolar lagi dalam tahun berikutnya, serta
menabung sisanya. Pada akhir tahun ketiga, belanja konsumsi tahunan orang tadi
akan meningkat1800 dolar. Jadi kita dapat menuliskan fungsi konsumsi sebagai:
Y t =α + 0.4 X t +0.3 X t −1+0.2 X t −2+ ut
Dimana Y adalah belanja konsumsi dan X adalah pendapatan
Persamaan di atas, menunjukkan bahwa pengaruh peningkatan dalam
pendapatan 2000 dolar tersebar, atau didistribusikan untuk 3 periode tahun. Oleh
karena itu model tersebut dinamakan model lag yang didistribusikan (distributed
lag model) karena pengaruh dari suatu sebab tertentu (pendapatan) tersebar
selama sejumlah periode waktu. Secara lebih umum kita bisa menuliskan, 
Y t =α + β 0 X t + β 1 X t−1 + β 2 X t −2+ …+ β k X t −k +u t
k

∑ β i= β0 + β 1 + β 2+ …+ β k =β
i=0

Disebut multiplier lag yang didistribusikan jangka panjang atau total.


D. Alasan Terjadinya Distribusi Lag
Alasan terjadinya distribusi lag diantaranya adalah sebagai berikut:
1) Alasan Psikologis, disebabkan oleh kekuatan kebiasaan, orang tidak
mengubah kebiasaan konsumsi mereka dengan segera mengikuti penurunan
harga atau peningkatan pendapatan mungkin karena proses perubahan
melibatkan suatu kehilangan kegunaan yang segera. Jadi orang yang
mendadak jadi jutawan karena memenangkan lotre, mungkin tidak merubah
cara hidup yang telah terbiasa baginya untuk waktu yang lama karena mereka
mungkin tidak tahu bagaimana bereaksi terhadap keberuntungan yang tidak
disangka (windfall gain), dengan segera. Tentu saja, dengan waktu yang
cukup, mereka dapat belajar untuk hidup dengan keberuntungan yang baru
saja diterima. Juga, mungkin orang tahu apakah suatu perubahan adalah
“permanen” atau “sementara”. Jadi, reaksi terhadap peningkatan dalam
pendapatan akan tergantung pada apakah peningkatan tadi bersifat permanen
atau sementara.
2) Alasan yang bersifat teknologi, Misalkan harga modal dibandingkan dengan
tenaga kerja relatif menurun, yang menyebabkan subtitusi (pengganti) modal
untuk tenaga kerja secara ilmu ekonomis dimungkinkan. Tentu saja,
penambahan dalam modal memerlukan persiapan waktu (masa persiapan).
Lebih jauh lagi, jika penurunan dalam harga diharapkan hanya bersifat
sementara, perusahaan mungkin tak bergegas-gegas untuk menggantikan
modal untuk tenaga kerjanya, terutama jika mereka mengharapkan setelah
penurunan harga modal yang bersifat sementara mungkin akan meningkat di
atas tingkat sebelumnya. Kadang-kadang pengetahuan yang tidak sempurna
juga menyebabkan terjadinya lag.
3) Alasan- alasan kelembagaan, Misalnya, kewajiban yang bersifat kontrak
mungkin mencegah perusahaan untuk beralih dari satu sumber tenaga kerja
atau bahan mentah ke yang lainnya. Sebagai contoh, mereka yang telah
menempatkan dana dalam tabungan bank jangka panjang untuk periode
waktu yang tetap seperti 1 tahun, 3 tahun atau 7 tahun, pada dasarnya terkunci
meskipun kondisi pasar uang mungkin sedemikian rupa sehingga pendapatan
yang lebih tinggi tersedia di tempat lain.
E. Penaksiran Model Lag yang Didistribusikan
Dengan mempercayai bahwa model yang didistribusikan memainkan peranan
yang sangat berguna dalam ilmu ekonomi, bagaimana orang menaksir model
seperti itu? Khususnya misalkan kita memiliki model yang didistribusikan dalam
satu variabel yang menjelaskan berikut.
Y t =α + β 0 X t + β 1 X t−1 + β 2 X t −2+ …+ut
Karena variabel yang menjelaskan Xt diasumsikan nonstokastik (atau setidak-
tidaknya tidak berkorelasi dengan unsur gangguan ut), Xt-1, Xt-2 dan seterusnya
juga nonstokastik. Oleh karena itu, pada prinsipnya, kuadrat terkecil biasa (OLS)
dapat diterapkan terhadap persamaan di atas. Ini merupakan pendekatan yang
diambil oleh Alt dan Tinbergen. Mereka menyarankan bahwa untuk menaksir
persamaan lag yang didistribusikan orang bisa melangkah maju secara berurutan
(stepwise) yaitu mula-mula meregresikan Yt atas Xt, kemudian meregresi Yt atas
Xt dan Xt-1, kemudian meregresi Yt atas Xt, Xt-1 dan Xt-2, dan seterusnya. Prosedur
yang berurutan ini berhenti ketika koefisien regresi dari variabel lag mulai
menjadi tidak penting (tidak signifikan) secara statistik dan atau koefisien dari
setidak-tidaknya satu variabel berubah tanda dari positif ke negatif atau
sebaliknya.
KELOMPOK 9

Judul Materi: Model Dinamis Autoregressive


Pokok Pembahasan:
A. Model Dinamis Autoregressive
Model regresi yang memuat variabel tak bebas yang dipengaruhi oleh
variabel bebas pada waktu t, serta dipengaruhi juga oleh variabel tak bebas itu
sendiri pada waktu t −1 disebut model autoregressive. Waktu yang diperlukan
bagi variabel bebas X dalam mempengaruhi variabel tak bebas Y disebut bedakala
atau lag.
Ketika variabel tak bebas dipengaruhi oleh variabel bebas pada waktu t serta
dipengaruhi juga oleh variabel tak bebas itu sendiri pada waktu t - 1 maka model
tersebut disebut autoregressive dengan:
Y t =α + β 0 X t + β 1 Y t −1+ ε t
B. Uji Statistik Autokorelasi
Setelah mendapatkan persamaan autoregressive perlu dilakukan uji lanjutan
dengan menggunakan uji statistik h Durbin-Watson untuk mendeteksi
autokorelasi dalam model dinamis autoregressive. Uji statistik h Durbin-Watson
perlu dilakukan karena adanya t−1 Y sebagai variabel bebas dalam model dinamis
autoregressive kemungkinan menyebabkan autokorelasi.
Dalam melakukan deteksi autokorelasi, tidak akan terlepas dengan tabel
Durbin-Watson. Tabel tersebut menjadi alat pembanding terhadap nilai Durbin
Watson hitung. Maka dasar keputusan untuk menarik kesimpulan yaitu, jika:
d < dl atau d > 4 – du : Terdapat autokorelasi
du < d < 4 – du : Tidak terdapat autokorelasi
dl < d < du atau 4 – du < d < 4 – dl : Tidak ada kesimpulan

Keterangan:
du : Batas atas Durbin –Watson
dl : Batas bawah Durbin –Watson
d : Durbin–Watson hitung
C. Aplikasi Model Dinamis Autoregressive
Dalam aplikasi model dinamis autoregressive, data yang digunakan adalah
sebagai berikut:

Bulan/Tahun Penjualan (Y) Modal (X)


Mar-12 6,67 3
Apr-12 5,85 4,63
Mei-12 7,45 4,76
Jun-12 9,68 4,55
Jul-12 9,36 4,37
Agust-12 7,14 4,11
Sep-12 11,74 5,4
Okt-12 11,55 5,8
Nop-12 9,35 5,5
Des-12 8,7 5,4
Jan-13 11 5,11
Feb-13 12,8 5,77
Mar-13 10,5 6,8
Apr-13 13 8,76
Mei-13 15,87 8,7
Jun-13 15,4 8,4
Jul-13 14,8 9,3
Agust-13 16 9,35
Sep-13 15,35 10,5
Okt-13 20 10,45
Nop-13 17,8 10,6
Des-13 23,3 12,8

Analisis Data:
Regression Analysis: Yt versus Xt; Yt-1

The regression equation is


Yt = 0,97 + 1,45 Xt + 0,108 Yt-1

21 cases used, 1 cases contain missing values

Predictor Coef SE Coef T P VIF


Constant 0,966 1,206 0,80 0,434
Xt 1,4516 0,3087 4,70 0,000 4,532
Yt-1 0,1083 0,2050 0,53 0,604 4,532

S = 1,68195 R-Sq = 87,1% R-Sq(adj) = 85,7%

Analysis of Variance

Source DF SS MS F P
Regression 2 343,37 171,69 60,69 0,000
Residual Error 18 50,92 2,83
Total 20 394,29

Source DF Seq SS
Xt 1 342,58
Yt-1 1 0,79

Durbin-Watson statistic = 2,0615


Kesimpulan:
Dari analisis regresi di atas diperoleh persamaan sebagai berikut:

Y^ t =0,97+1,45 X t +0,108 Y t−1


Nilai Durbin-Watson diperoleh:
Durbin-Watson hitung  2,0615
Durbin-Watson tabel  dl = 1,147 dan du = 1,541
Keputusan:
du < d < 4 – du (Tidak terdapat autokorelasi)
1,541 < 2,0615 < 2,459
Jadi, tidak ada autokorelasi pada persamaan dinamis autoregressive.
KELOMPOK 10

Judul Materi: Regresi Logistik


Pokok Pembahasan:
A. Regresi Logistik
Analisis regresi logistik adalah metode regresi yang menggambarkan
hubungan antara beberapa variabel independen (explanatory) dengan
sebuah variabel respon dikotomus atau biner. Variabel respon (Y) pada metode
regresi logistik dikatakan biner karena terdiri atas dua kategori yaitu 0 dan 1
Berikut adalah model persamaan regresi logistic biner:

ln ( 1−^^p p )=B + B X
0 1

Dimana:
ln : Logaritma Natural.Di mana:
B0 + B1 X : Persamaan yang biasa dikenal dalam OLS.

Sedangkan P Hat adalah probabilitas logistik yang didapat rumus sebagai berikut:
exp ⁡( B0 + B1 X ) e
B +B X
0 1

^p= =
1+exp ⁡(B 0+ B1 x) 1+ e B + B x
0 1

Asumsi dalam Regresi Logistik:


1) Tidak mengasumsikan hubungan linier antar variabel dependen dan
independent.
2) Variabel dependen harus bersifat dikotomi (2 variabel).
3) Variabel independent tidak harus memiliki keragaman yang sama antar
kelompok variabel.
4) Kategori dalam variabel independen harus terpisah satu sama lain ataubersifat
eksklusif.
B. Tujuan Menggunakan Regresi Logistik
Adapun tujuan mengunakan regresi logistik adalah sebagai berikut:
1) Menghitung Peluang, Contoh yang dapat dipahami adalah proses pengajuan
kredit. Pihak bank biasanya melakukan evaluasi kelayakan seseorang layak
atau tidak untuk menerima kredit pinjaman dari bank. Beberapa pertanyaan
diberikan kepada pihak bank terhadap calon penerima kredit. Pertanyaan
yang diberikan seputar karakteristik variabel calon penerima modal tersebut
merupakan variabel independen yang akan diinput oleh petugas bank
kedalam model. Dalam model tersebut terdapat komponen bahwa biasanya
peminjam yang memiliki pendapatan dibawah sekian dengan pinjaman yang
telah dimiliki sebelumnya sekian, ditambah tanggungan kerja sekian,
memiliki peluang untuk mengembalikan pinjaman sebesar sekian (nilai 0 -1).
2) Melihat Karakteristik, Tujuan melihat karakteristik ini biasanya membahas
nilai odds ratio di masing masing variabel independen). Penjelasan nilai odds
ratio berbeda dari nilai koefisien regresi pada umumnya. Bila koefisien
regresi menjelaskan : “ jika variabel X naik 1 satuan, maka nilai Y akan naik
sebesar nilai koefisien satuan” maka exp(koefisien) atau odds ratio pada
regresi logistik menjelaskan : “ responden yang memiliki variabel x lebih
tinggi, maka akan berpeluang untuk memilih organik (contoh kasus diatas)
sebesar “exp(nilai koefisien) atau biasa disebut odds ratio” kali dibandingkan
responden yang memiliki variabel x lebih rendah”. Iya, nilai exp(koefisien)
pada regresi logistik atau disebut sebagai odds ratio menjelaskan peluang,
dan tidak menjelaskan berapa yang dimaksud “lebih tinggi” dari variabel X
tersebut.
3) Mengetahui Faktor yang Mempengaruhi, peneliti mampu mengetahui faktor
yang mempengaruhi mengapa terdapat perbedaan antara kedua kelompok
tersebut. Nilai odds ratio yang tinggi menandakan varaibel tersebut memiliki
pengaruh yang tinggi  terhadap pemilihan beda dari responden. Tujuan untuk
mengetahui faktor yang mempengaruhi ini adalah diharapkan faktor yang
signifikan mempengaruhi tersebut merupakan faktor yang bisa diatur oleh
peneliti atau pengambil kebijakan sehingga bisa menggiring responden
lainnya untuk berbuat yang sama terhadap responden yang bernilai 1
sebelumnya.
KELOMPOK 11

Judul Materi: Model Persamaan Simultan


Pokok Pembahasan:
A. Sifat Dasar Persamaan Simultan
Sebuah model persamaan simultan merupakan persamaan di mana variabel
tak bebas dalam satu atau lebih persamaan juga merupakan variabel bebas di
dalam persamaan lainnya. Maka, sebuah variabel memiliki dua peranan sekaligus
sebagai variabel bebas dan variabel tak bebas. Dalam sebuah persamaan simultan
dikenal istilah – istilah sebagai berikut:
1) Sistem persamaan simultan atau model adalah suatu himpunan persamaan
dimana variabel tak bebas dalam satu atau lebih persamaan juga merupakan
variabel bebas dalam beberapa persamaan lainnya,
2) Variabel endogen adalah variabel tak bebas dalam persamaan simultan yang
nilainya ditentukan di dalam sistem persamaan
3) Variabel predetermined adalah variabel yang nilainya tidak ditentukan secara
langsung di dalam sistem.
4) Model struktural adalah model yang terdiri dari beberapa persamaan yang
dibentuk berdasarkan landasan teori.
5) Bentuk persamaan sederhana/reduksi adalah sebuah penyelesaian sistem
persamaan simultan dimana variabel endogen dinyatakan dalam variabel
predetermine dan eror.
B. Identifikasi Persamaan Simultan
Pengidentifikasian adalah menaksir angka dari parameter persamaan
struktural apakah dapat diperoleh dari koefisien bentuk yang direduksi dapat
ditaksir. Jika ini dapat dilakukan, kita mengatakan bahwa persamaan tertentu
diidentifikasikan (identified). Suatu persamaan yang diidentifikasikan bisa berupa
tepat (sepenuhnya) diidentifikasikan (exactly atau fully atau just identified) atau
terlalu diidentifikasikan (overidentified).
Dikatakan tepat diidentifikasikan jika nilai angka yang unik dari parameter
struktural dapat diperoleh. Dikatakan terlalu diidentifikasikan (overidentified) jika
lebih dari satu nilai angka dapat diperoleh untuk beberapa parameter persamaan
struktural.
KELOMPOK 12

Judul Materi: Regresi Data Panel


Pokok Pembahasan:
A. Pengertian Data Panel
Data panel adalah gabungan antara data runtut waktu (time series) dan data
silang (cross section). Data runtut waktu biasanya meliputi satu objek/individu
(misalnya harga saham, kurs mata uang, SBI, atau tingkat inflasi), tetapi meliputi
beberapa periode (bisa harian, bulanan, kuartalan, atau tahunan). Data silang
terdiri dari atas beberapa atau banyak objek, sering disebut responden (misalnya
perusahaan) dengan beberapa jenis data (misalnya; laba, biaya iklan, laba ditahan,
dan tingkat investasi) dalam suatu periode waktu tertentu.
B. Keunggulan Regresi Data Panel
Keunggulan regresi data panel menurut Wibisono (2005) antara lain:
1) Panel data mampu memperhitungkan heterogenitas individu secara ekspilisit
dengan mengizinkan variabel spesifik individu;
2) Kemampuan mengontrol heterogenitas ini selanjutnya menjadikan data panel
dapat digunakan untuk menguji dan membangun model perilaku lebih
kompleks.
3) Data panel mendasarkan diri pada observasi cross-section yang berulang-
ulang (time series), sehingga metode data panel cocok digunakan sebagai
study of dynamic adjustment.
4) Tingginya jumlah observasi memiliki implikasi pada data yang lebih
informative, lebih variatif, dan kolinieritas (multiko) antara data semakin
berkurang, dan derajat kebebasan (degree of freedom/df) lebih tinggi
sehingga dapat diperoleh hasil estimasi yang lebih efisien.
5) Data panel dapat digunakan untuk mempelajari model-model perilaku yang
kompleks.
6) Data panel dapat digunakan untuk meminimalkan bias yang mungkin
ditimbulkan oleh agregasi data individu.
C. Pemodelan Data Panel
Model regresi linier menggunakan data cross section dan time series.

1) Model dengan data cross section


Yi = α + β Xi + εi ; i = 1,2,....,N (1)
N: banyaknya data cross section
2) Model dengan data time series
Yt = α + β Xt + εt ; t = 1,2,....,T (2)
N: banyaknya data time series
Mengingat data panel merupakan gabungan dari data cross section dan data
time series, maka modelnya dituliskan dengan:
Yit = α + β Xit + εit ; i = 1,2,....,N; t = 1,2,….., T (3)
Dimana:
N = banyaknya observasi
T = banyaknya waktu
N x T = banyaknya data panel 
D. Tahapan Regresi Data Panel
Regresi dengan menggunakan data panel memiliki tahapan
Yaitu: Eksplorasi, Identifikasi, Estimasi, Pengujian signifikansi, Uji asumsi
dan Goodness of fit model.
Tahapan yang harus dilalui:
- Penentuan Model Estimasi – Terkait dengan model yang digunakan, Fixed or
Random Effects.
- Penentuan Metode Estimasi
- Pengujian Asumsi dan Kesesuaian Model
- Interpretasi
E. Estimasi Regresi Data Panel
Untuk mengestimasi parameter model dengan data panel, terdapat beberapa
teknik yang ditawarkan, yaitu:
1) Koefisien Tetap Antar Waktu dan Individu (Common Effect): Ordinary Least
Square
Diasumsikan bahwa perilaku data antar perusahaaan sama dalam berbagai
kurun waktu.kalo kita punya asumsi bahwa α dan β akan sama (konstan)
untuk setiap data time series atau cross section, maka α dan β dapat
diestimasi dengan model berikut dengan menggunakan N*T pengamatan:
Yit = α + βxit + εit ; i = 1,2,....,N; t = 1,2,....,T
2) Model Efek Tetap (Fixed Effect)
Secara matematis, model FEM dinyatakan sebagai berikut:
Yit = α + βxit + γ²x²t + γ²x²i + δ²x²t + δ²x²i + εit
Keterangan:
Yit    = Variabel dependen untuk individu ke-i dan waktu ke-t
βxit   = Variabel independen untuk individu ke-i  dan waktu ke-t
Variabel dummy yang didefinisikan sebagai berikut:
γt      = 1 ; untuk waktu ke-t  ; i = 1,2,...,N
γi      = 0 ; untuk individu ke-  i
δt      = 1 ; untuk periode t; t = 1,2,...,T
δi      = 0 ; untuk observasi   i
3) Model Efek Random (Random Effect)
Persamaan REM diformulasikan sebagai berikut:
Yit = α + βxit + εit ; εit = ui + vt + wit
Dimana:
ui  = Komponen error cross section
vt  = Komponen error time series
wit = Komponen error gabungan
F. Pemilihan Teknik Estimasi Regresi Data Panel
Dari ketiga jenis teknik estimasi model regresi data panel di atas, tentu saja
perlu dilakukan pemilihan mana model yang paling tepat. Cara pemilihan teknik
tersebut sebagai berikut:
1) Uji Statistik F
Uji Statistik F digunakan untuk memilih antara metode OLS tanpa variabel
dummy atau Fixed Effect.
2) Uji Langrange Multiplier (LM)
Uji ini digunakan untuk memilih antara OLS tanpa variabel dummy atau
Random Effect.
3) Uji Hausman
Uji ini untuk memilih antara Fixed Effect atau Random Effect.

Anda mungkin juga menyukai