Anda di halaman 1dari 21

Rangkuman

Regresi Data Panel


Regresi adalah suatu metode analisis yang biasa digunakan untuk melihat pengaruh antara dua
atau banyak variabel.
 Analisis regresi digunakan untuk melakukan prediksi atau ramalan.
 Hubungan variabel tersebut bersifat fungsional yang diwujudkan dalam suatu model
matematis
 Data panel adalah gabungan antara data runtut waktu (time series) dan data silang (cross
section).
 Estimasi model regresi data panel bertujuan untuk memprediksikan parameter model
regresi yaitu nilai intersep atau konstanta (a) dan slope atau kefisien regresi (Bi).
Penggunaan data panel dalam regresi akan menghasilkan intersep dan slope yang berbeda
pada setiap perusahaan dan setiap periode waktu
Ada beberapa keuntungan yang diperoleh dengan menggunakan data panel :
 Pertama, data panel merupakan gabungan data data time seris dan cross section
mampu menyediakan data yang lebih banyak sehingga akan menghasilkan degree of
freedom yang lebih besar.
 Kedua, menggabungkan informasi dari data time series dan cross section dapat
mengatasi masalah yang timbul ketika ada masalah penghilangan variabel (ommited-
variable).
 Koefisien pada model regresi sebenarnya adalah nilai duga parameter di dalam model regresi
untuk kondisi yang sebenarnya (true condition), sama halnya dengan statistik mean (rata-rata)
pada konsep statistika dasar. Hanya saja, koefisien-koefisien untuk model regresi merupakan
suatu nilai rata-rata yang berpeluang terjadi pada variabel Y (variabel terikat) bila suatu nilai X
(variabel bebas) diberikan.
 Intersep (intercept) Intersep, definisi secara metematis adalah suatu titik perpotongan antara
suatu garis dengan sumbu Y pada diagram/sumbu kartesius saat nilai X = 0. Sedangkan definisi
secara statistika adalah nilai rata-rata pada variabel Y apabila nilai pada variabel X bernilai 0.
Dengan kata lain, apabila X tidak memberikan kontribusi, maka secara rata-rata, variabel Y
akan bernilai sebesar intersep. Perlu diingat, intersep hanyalah suatu konstanta yang
memungkinkan munculnya koefisien lain di dalam model regresi. Intersep tidak selalu dapat
atau perlu untuk diinterpretasikan. Apabila data pengamatan pada variabel X tidak mencakup
nilai 0 atau mendekati 0, maka intersep tidak memiliki makna yang berarti, sehingga tidak
perlu diinterpretasikan.
 Slope merupakan ukuran kemiringan dari suatu garis. Slope adalah koefisien regresi untuk
variabel X (variabel bebas). Dalam konsep statistika, slope merupakan suatu nilai yang
menunjukkan seberapa besar kontribusi (sumbangan) yang diberikan suatu variabel X
terhadap variabel Y. Nilai slope dapat pula diartikan sebagai ratarata pertambahan (atau
pengurangan) yang terjadi pada variabel Y untuk setiap peningkatan satu satuan variabel X.
Tahapan Regresi Data Panel

Pemodelan Data Panel


Model regresi linier menggunakan data cross section dan time series.
Model dengan data cross section
Yi = α + β Xi + εi ; i = 1,2,....,N
N: banyaknya data cross section
Mode dengan data time series
Yt = α + β Xt + εt ; t = 1,2,....,T (2)
N: banyaknya data time series
Mengingat data panel merupakan gabungan dari data cross section dan data time
series, maka modelnya dituliskan dengan:
Yit = α + β Xit + εit ; i = 1,2,....,N; t = 1,2,….., T
di mana :
N = banyaknya observasi
T = banyaknya waktu
N x T = banyaknya data panel

Estimasi Regresi Data Panel


Secara umum dengan menggunakan data panel kita akan menghasilkan intersep dan slope
koefisien yang berbeda pada setiap perusahaan dan setiap periode waktu. Oleh karena itu, di
dalam mengestimasi persamaan (3) akan sangat tergantung dari asumsi yang kita buat tentang
intersep, koefisien slope dan variabel gangguannya. Ada beberapa kemungkinan yang akan
muncul, yaitu:
a. Diasumsikan intersep dan slope adalah tetap sepanjang waktu dan individu
(perusahaan) dan perbedaan intersep dan slope dijelaskan oleh variabel gangguan
b. Diasumsikan slope adalah tetap tetapi intersep berbeda antar individu
c. Diasumsikan slope tetap tetapi intersep berbeda baik antar waktu maupun antar
individu
d. Diasumsikan intersep dan slope berbeda antar individu
e. Diasumsikan intersep dan slope berbeda antar waktu dan antar individu

TAHAPAN REGRESI DATA PANEL

ESTIMASI MODEL REGRESI DATA PANEL


1. Common Effect menggunakan pendekatan Ordinary Least Square (OLS)
 Model Common effect adalah model atau metode estimasi paling dasar dalam regresi
data panel, dimana tetap menggunakan prinsip ordinary least square atau kuadrat
terkecil.
 Metode ini disebut juga dengan istilah pooled least square (PLS)
 Metode ini dikenal dengan estimasi Common Effect.
 Koefisien Tetap Antar Waktu dan Individu
 Untuk data panel, sebelum membuat regresi kita harus menggabungkan data cross-
section dengan data time series (pool data).
 Kemudian data gabungan ini diperlakukan sebagai suatu kesatuan pengamatan untuk
mengestimasi model dengan metode OLS.
 kelemahan asumsi ini adalah ketidaksesuaian model dengan keadaan sesungguhnya.
Kondisi setiap objek saling berbeda secara individu ataupun waktu.
 Diasumsikan bahwa perilaku data antar perusahaaan sama dalam berbagai kurun waktu

Ringkasan Hasil Regresi Data Panel Model Common Effects sebagai berikut :

o Periods Include: Merupakan jumlah periode atau runtut waktu yang dilibatkan dalam
analisis.
o Cross section Include: Merupakan jumlah cross section atau panel yang dilibatkan dalam
analisis.
o Total Panel (Balanced) observations : adalah jumlah observasi yang dilibatkan dalam
analisis.
o Kolom Variable: adalah daftar variabel yang dianalisis.

Koefisien Regresi Data Panel Model Common Effects meliputi (Ghozali, 2016) :

o Coefficient: adalah koefisien beta regresi data panel sesuai dengan variabel yang ada
pada kolom variabel. Nilai koefisien ini digunakan untuk membentuk Persamaan Regresi
Data Panel.
o Standar error: adalah Standar Error dari nilai koefisien pada kolom coefficient.
o t-statistics: adalah nilai t parsial regresi data panel sesuai per variabel pada kolom
variable. Nilai t ini menunjukkan pengaruh parsial variabel prediktor terhadap variabel
response di dalam model regresi data panel.
o Prob: adalah nilai p value atau tingkat signifikansi dari t parsial di kolom t-statistics. Nilai
p value ini menunjukkan tingkat signifikansi t parsial dalam rangka menjawab hipotesis
uji parsial. Jika nilai p value kurang dari batas kritis, misalnya 0,05 maka jawaban
hipotesis adalah menerima H1 atau yang berarti variabel prediktor yang bersangkutan
memiliki pengaruh yang bermakna terhadap variabel response secara statistik.

2. Model Efek Tetap (Fixed Effect)


 Asumsi ini jelas sangat jauh dari kenyataan sebenarnya. Adanya variabel-variabel yang
tidak semuanya masuk dalam persamaan model memungkinkan adanya intercept yang
tidak konstan, atau dengan kata lain, intercept ini mungkin berubah untuk setiap
individu dan waktu.
 Fixed Effects menggunakan teknik variable dummy untuk menangkap perbedaan
intersep antar perusahaan, perbedaan intersep bisa terjadi karena perbedaan budaya
kerja, manajerial, dan insentif, namun demikian slopnya sama antar perusahaan.
 Model estimasi ini sering juga disebut dengan teknik Least Squares Dummy Variable
(LSDV).

3. Model Efek Random (Random Effect)


 Model ini akan mengestimasi data panel dimana variabel gangguan mungkin saling
berhubungan antar waktu dan antar individu.
 Bila pada Model Efek Tetap, perbedaan antar-individu dan atau waktu dicerminkan
lewat intercept, maka pada Model Efek Random, perbedaam tersebut diakomodasi
lewat error.
 Teknik ini juga memperhitungkan bahwa error mungkin berkorelasi sepanjang time
series dan cross section.
 Efek random digunakan untuk mengatasi kelemahan metode efek tetap yang
menggunakan variabel semu, sehingga model mengalami ketidakpastian.
 Keuntungan menggunkan model Random Effect yakni menghilangkan
heteroskedastisitas
 Model ini juga disebut dengan Error Component Model (ECM) atau teknik Generalized
Least Square (GLS) .

TEKNIK PEMILIHAN MODEL REGRESI


Seperti diketahui terdapat tiga jenis teknik estimasi model regresi data panel, yaitu model
dengan metode OLS (common), model Fixed Effect dan model Random Effect. Pertanyaan yang
muncul adalah teknik mana yang sebaiknya dipilih untuk regresi data panel

1. Uji Chow
Chow test adalah pengujian untuk menentukan model apakah Common Effect (CE)
ataukah Fixed Effect (FE) yang paling tepat digunakan dalam mengestimasi data panel.

2. Uji Langrange Multiplier (LM)


Uji ini digunakan untuk memilih antara OLS tanpa variabel dummy atau Random Effect

3. Uji Hausman
Uji ini untuk memilih antara Fixed Effect atau Random Effect

UJI ASUMSI KLASIK


1. Uji Normalitas
 Uji normalitas untuk menguji apakah nilai residual yang telah distandarisasi
pada model regresi berdistribusi normal atau tidak.
 Cara melakukan uji normalitas dapat dilakukan dengan pendekatan analisis
grafik normal probability Plot.
 Pada pendekatan ini nilai residual terdistribusi secara normal apabila garis (titik-
titik) yang menggambarkan data sesungguhnya akan mengikuti atau merapat ke
garis diagonalnya.
2. Uji Multikolinearitas
 Uji multikolinearitas bertujuan untuk menguji apakah model regresi terbentuk
adanya korelasi tinggi atau sempurna antar variabel bebas (independen).
 Jika ditemukan ada hubungan korelasi yang tinggi antar variabel bebas maka
dapat dinyatakan adanya gejala multikorlinear pada penelitian.
 Dalam pengujian asumsi OLS tidak terjadi Multikolinieritas sehingga bisa
dikatakan bahwa pengujian model tersebut bersifat BLUE (Best Linear Unbiased
Estimators), berarti adanya hubungan sempurna, linier dan pasti, diantara
beberapa atau semua variabel yang menjelaskan dari model regresi.
 VIF dilakukan setelah melakukan regresi dengan FE atau RE
 Jika nilai VIF lebih besar dari 10 atau tolerance (1/VIF) adalah .01 atau kurang
mengindikasikan adanya multikolinearitas
 Uji Multikolinearitas TIDAK dilakukan dalam regresi liear sederhana karena hanya
terdiri dari 1 variabel independen
3. Uji Heteroskedastisitas
 Uji heteroskedastisitas digunakan untuk mengetahui ada atau tidaknya
penyimpangan asumsi klasik.
 Heteroskedastisitas yaitu adanya ketidaksamaan varian dari residual untuk
semua pengamatan pada model regresi.
 Prasyarat yang harus terpenuhi dalam model regresi adalah tidak adanya gejala
heteroskedastisitas.
 Uji heterokedastisitas hanya dilakukan ketika menggunakan estimasi FE dan PLS.

4. Uji Autokorelasi
 Uji autokolerasi merupakan kolerasi yang terjadi antara residual pada satu
pengamatan dengan pengamatan lain pada model regresi.
 Autokorelasi dapat diketahui melalui Uji Durbin-Watson (D-W Test), adalah
pengujian yang digunakan untuk menguji ada atau tidak adanya korelasi serial
dalam model regresi atau untuk mengetahui apakah di dalam model yang
digunakan terdapat autokorelasi diantara variabel-variabel yang diamati

Mengatasi Permasalahan Tidak BLUE di Model Panel


 Mengatasi permasalahan BLUE di Model Panel tergantung model akhir apa yang kita
gunakan.
 KHUSUS Model Panel menggunakan Random Effect (RE) kita tidak perlu menguji atau
mengatasi permasalahan BLUE karena sudah menggunakan metode GLS.
 Jika Model Panel menggunakan Fixed Effect kita perlu mengkaji dengan robust dan GLS.
Setelah mengkaji ulang, jika hasilnya memungkinkan sama, berarti model yang paling
tepat digunakan adalah metode GLS.

UJI KELAYAKAN MODEL (Goodness of Fit)


1. Analisis Koefisien Determinasi (R2)
 Nilai Koefisien Determinasi ini mencerminkan seberapa besar variasi dari variabel
terikat dapat diterangkan oleh variabel bebas X
 Bila R2 = 0, artinya variasi dari Y tidak dapat diterangkan oleh X sama sekali.
 Bila R2=1 , artinya variasi Y secara keseluruhan dapat diterangkan oleh X
 Dengan kata lain , maka semua pengamatan berada tepat pada garis regresi. Dengan
demikian baik atau buruknya suatu persamaan regresi ditentukan oleh R2-nya yang
mempunyai nilai antara nol dan satu
 Uji kelayakan model adalah uji R2 untuk melihat kemampuan variable independen
dalam menjelaskan variable dependen.
 Nilai R2 berkisar antara 0 – 99, nilai R Square yang semakin mendekati 1 maka
semakin layak suatu model untuk digunakan.

2. Uji Hipotesis

a. Uji Koefisien Regresi Model secara Simultan (Uji F)


Uji Simultan (uji F) adalah uji yang dilakukan untuk melihat apakah semua variable
independen secara bersama-sama berpengaruh atau tidak terhadap variable dependen
dengan membandingkan nilai Fhitung dengan Ftabel.
 Jika nilai Fhitung > Ftabel maka hipotesis di tolak, artinya secara bersama-sama variable
independen tersebut berpengaruh terhadap variable dependen.
 Jika nilai Fhitung < Ftabel maka hipotesis di terima, artinya secara bersama-sama variable
independen tersebut tidak berpengaruh terhadap variable dependen.

b. Uji Koefisien Regresi Variabel Bebas Secara Parsial (Uji t)


Uji partial (uji t) adalah uji yang dilakukan untuk melihat apakah suatu variable
independen berpengaruh atau tidak terhadap variable dependen dengan
membandingkan nilai thitung dengan ttabel.
Kriteria pengujian uji t adalah sebagai berikut :
 Jika nilai thitung > ttabel maka hipotesis di tolak, artinya variable tersebut berpengaruh
terhadap variable dependen.
 Jika nilai thitung < ttabel maka hipotesis di terima, artinya variable tersebut tidak
berpengaruh terhadap variable dependen.
Pengenalan Eviews
 Eviews (Econometric Views) adalah software pengolahan data yang digunakan untuk
berbagai keperluan mulai dari Bisnis, Riset Internal serta penelitian.
 EViews menawarkan akses statistik yang kuat kepada peneliti akademis, perusahaan,
instansi pemerintah, dan siswa seperti peramalan (forecasting), hubungan (Correlation),
pengaruh dan sebagainya dengan antar muka (user interface) yang lebih friendly dan
mudah digunakan.

Langkah-langkah input data menggunakan Eviews

Klik file > new > workfile


1. Uji Asumsi Klasik
a. Uji Multikolinearitas
Ctrl + Klik variabel independen (variabel bebas), kemudian klik kanan, open as group,
Pilih quick, Group Statistic, Correlation, klik ok dan klik yes

Uji multikolinearitas bertujuan


untuk menguji apakah model
regresi terbentuk adanya korelasi
tinggi atau sempurna antar variabel
bebas (independen). Jika
ditemukan ada hubungan korelasi
yang tinggi antar variabel bebas
maka dapat dinyatakan adanya gejala multikorlinear pada penelitian. Nilai korelasi yang dapat
ditoleransi dalam uji multikolinearitas adalah 70 persen atau 80 persen (0,7 atau 0,8)

Dari hasil uji multikolinearitas di atas dapatdilihat bahwa nilai korelasinya adalah sebesar 0,654
< 0,7 sehingga dapat disimpulkan bahwa tidak terjadi masalah multikolinearitas pada variabel
penelitian tersebut. Dengan hasil ini maka satu uji asumsi klasik telah terpenuhi.

b. Uji Autokorelasi
Untuk melakukan uji autokorelasi maka langkah-langkahnya adalah sebagaia berikut :
Tekan Ctrl + klik variabel pdb pma pmdn (urutannya berdasarkan variabel Y X1 X2
dst…), klik kanan, open as equation , kemudian klik OK
Klik view, residual diagnostic , serial correlation LM test

Intrepetasi
 Uji autokolerasi merupakan kolerasi yang terjadi antara residual pada satu pengamatan
dengan pengamatan lain pada model regresi.
 Autokorelasi dapat diketahui melalui Uji Breusch-Godfrey, dimana jika nilai prob < 0,05
maka terjadi gejala autokorelasi sedangkan jika nilai prob > 0,05 maka tidak terjadi gejala
autokorelasi adalah pengujian yang digunakan untuk menguji ada atau tidak adanya
korelasi serial dalam model regresi atau untuk mengetahui apakah di dalam model yang
digunakan terdapat autokorelasi diantara variabel-variabel yang diamati.
 Dari hasil uji autokorelasi di atas dapat dilihat bahwa prob 0,6249 > 0,05 maka dapat
disimpulkan bahwa tidak terjadi gejala autokorelasi dalam model penelitian.
c. Uji Heteroskedastisitas
Untuk melakukan uji heteriskedastisitas, sebagai berikut :
Klik view, residual diagnostics, heteroskedasticity test, pilih white kemudian ok
Intrapetasi
 Uji heteroskedastisitas digunakan untuk mengetahui ada atau tidaknya penyimpangan
asumsi klasik.
 Heteroskedastisitas yaitu adanya ketidaksamaan varian dari residual untuk semua
pengamatan pada model regresi.
 Prasyarat yang harus terpenuhi dalam model regresi adalah tidak adanya gejala
heteroskedastisitas.
 Jika nilai prob nya < 0,05 maka terjadi gejala heteroskedastisitas dalam model penelitian
sedangkan jika nilai prob > 0,05 maka tidak terjadi gejala heteroskedastisitas dalam
model penelitian.
 Dari hasil uji heteroskedastisitas dengan menggunakan metode white, nilai prob nya
sebesar 0,597 > 0,05 sehingga dapat disimpulkan tidak terjadi gejala heteroskedastisitas
dalam modl penelitian.

d. Uji Normalitas
Klik view, residual diagnostics, histogram normality test
Intrapetasi

 Uji normalitas untuk menguji apakah nilai residual yang telah distandarisasi pada
model regresi berdistribusi normal atau tidak.
 Cara melakukan uji normalitas dapat dilakukan dengan pendekatan analisis grafik
normal probability Plot.
 Pada pendekatan ini nilai residual terdistribusi secara normal apabila garis (titik-
titik) yang menggambarkan data sesungguhnya akan mengikuti atau merapat ke
garis diagonalnya.
 Dari hasil uji di atas dapat dilihat bahwa nilai probability Jarque berra sebsar
0,1232 > 0,05, artinya residual data penelitian terdistribusi secara normal.

Regresi Linear Berganda


Tekan Ctrl + klik variabel pdb pma pmdn (urutannya berdasarkan variabel Y X1 X2 dst…),
klik kanan, open as equation , kemudian klik OK

Y = 4.490 + 130666.4+ 6.520

Koefisien Determinasi (R2)


Dari regresi di atas maka dapat di interpretasikan hasil penelelitian
 Nilai koefisien konstanta sebesar 4.490, artinya jika variable PMA dan PMDN dianggap
konstan maka PDB akan meningkat sebesar 4.490.
 Nilai koefisien PMA sebesar 130666,4, artinya jika PMA meningkat sebesar 1 unit maka
PDB akanmeningkat sebesar 130666,4 dengan asumsi variable lain tetap.
 Nilai koefisien PMDN sebesar 6,520, artinya jika PMDN meningkat sebesar 1 unit maka
PDB akan meningkat sebesar 6,520 dengan asumsi variable lain tetap.

Uji Parsial (Uji t ANOVA)


Uji t dilakukan untuk melihat pengaruh suatu variable independen terhadap variable dependen.
Dengan menggunakan hipotesis :
Ho : Tidak Berpengaruh
Ha : Berpengaruh
Jika nilai t hitung < t table , artinya Ho diterima
Jika nilai t hitung > t table , artinya Ho ditolak
Dengan jumlah n=16 maka nilai t tabel ya adalah n-1= df-1= 16, nilai t tabelnya adalah 1,76
 Variabel PMA memiliki nilai t hitung (8,350) > t table ( 1.761) , artinya PMA
berpengaruh terhadap PDB
 Variabel PMDN memiliki nilai t hitung (2,056) > t table ( 1.761) , artinya PMDN
berpengaruh terhadap PDB

Uji Simultan (Uji F)


Uji simultan dilakuakn untuk melihat pengaruh variable independen secara bersama-sama
terhadap variable dependen.
Nilai df1 = k-1 = 2-1= 1
df 2 = n-k = 16-2 = 14

Interprestasi
 Berdasarkan tabel F dengan nilai df 1 = 1 dan df 2 = 14 maka nilai F tabelnya adalah 4,54
 Dari hasil regresi di atas dapat dilihat bahwa nilai F hitung (84,29) > nilai F table (4,54),
 Dapat disimpulkan bahwa variable independen secara bersama-sama berpengaruh
terhadap variable dependen.

Anda mungkin juga menyukai