) berdistribusi normal.
3.5.1.2. Uji Heteroskedastisitas
Uji heteroskedastisitas bertujuan menguji apakah terjadi ketidaksamaan
varian dari residual satu pengamatan ke pengamatan yang lain dalam model
regresi. Jika varian dari residual satu pengamatan ke pengamatan lain tetap, maka
disebut homoskedastisitas dan jika berbeda disebut heteroskedastisitas. Model
regresi yang baik adalah yang homoskedastisitas atau tidak terjadi
heteroskedastisitas (Ghozali, 2006).
Cara untuk mendeteksi ada atau tidaknya heteroskedastisitas dapat
dilakukan dengan Uji Glejser. Uji Glejser dapat dilakukan dengan meregres nilai
absolut residual (AbsUt) terhadap variabel independen (Gujarati, 2003) dengan
persamaan regresi sebagai berikut:
|Ut| = + Xt + vt
Jika variabel independen signifikan secara statistik mempengaruhi variabel
dependen (nilai absolut residual), maka terdapat indikasi terjadi
heteroskedastisitas. Namun, jika variabel independen tidak signifikan secara
lix
statistik mempengaruhi variabel dependen (nilai absolut residual), maka tidak
terjadi heteroskedastisitas.
3.5.1.3 Uji Autokorelasi
Uji autokorelasi bertujuan menguji apakah terdapat korelasi antara
kesalahan pengganggu pada perioda t dengan kesalahan pengganggu pada perioda
t-1 (sebelumnya) dalam model regresi. Jika terjadi korelasi, maka dinamakan ada
masalah autokorelasi. Autokorelasi muncul karena observasi yang berurutan
sepanjang waktu berkaitan satu sama lain. Masalah ini timbul karena residual
(kesalahan pengganggu) tidak bebas dari satu observasi ke observasi lainnya
(Ghozali, 2006).
Model regresi yang baik adalah regresi yang bebas dari autokorelasi.
Pengujian autokorelasi dilakukan dengan Uji Lagrange-Multiplier. Uji ini dipilih
karena dalam meregresi model expected core earnings, salah satu variabel
independennya merupakan lag variabel dependen sehingga pengujian dengan
Durbin-Watson tidak sesuai untuk digunakan. Jika hasil pengujian signifikan
secara statistis, maka residual suatu observasi saling berhubungan dengan residual
observasi lainnya atau terkena autokorelasi. Namun apabila hasil pengujian tidak
signifikan secara statistis, maka residual suatu observasi tidak saling berhubungan
atau bebas dari masalah autokorelasi.
3.5.1.4 Uji Multikolonieritas
Uji multikolonieritas bertujuan untuk menguji apakah terdapat korelasi
antar variabel bebas (independen) di dalam model regresi. Model regresi yang
baik seharusnya tidak terjadi korelasi di antara variabel independen. Jika variabel
lx
independen saling berkorelasi, maka variabel-variabel ini tidak ortogonal.
Variabel ortogonal adalah variabel independen yang nilai korelasi antar variabel
independen adalah sama dengan nol (Ghozali, 2006). Prasyarat yang harus
terpenuhi dalam model regresi adalah tidak adanya multikolonieritas. Untuk
mengetahui ada atau tidaknya multikolonieritas adalah dengan menggunakan
ukuran tolerance (TOL), sebagai rule of thumb, TOL = 1 atau mendekati 1 jika
tidak ada multikolineritas. Selain itu dapat juga menggunakan Variance Inflation
Factor (VIF). Jika VIF dari suatu variabel melebihi 10 maka variabel dikatakan
berkorelasi sangat tinggi atau terkena multikolonieritas.
3.5.2. Teknik Analisis Data
Analisis data yang digunakan dalam penelitian ini adalah regresi berganda
(multiple regressions).Analisis regresi pada dasarnya dilakukan dengan tujuan
untuk mengukur kekuatan hubungan antara dua vairabel atau lebih, juga untuk
menunjukkan arah hubungan antara variabel dependen dengan independen.
Analisis regresi dalam penelitian ini akan dilakukan dengan uji koefisien
determinasi, uji signifikasi simultan (uji statistik F) dan uji signifikansi parameter
individual (uji statsitik t). (Ghozali, 2006)
Dalam penelitian ini ada 4 persamaan regresi yang digunakan:
= [
0
+ [
1
I + .(H1)
= [
0
+ [
1
I + .(H2)
= [
0
+ [
1
+ [
2
E + [
3
+(H1a,1b.1c)
= [
0
+ [
1
+ [
2
E + [
3
+(H2a,2b,2c)
Keterangan :
lxi
VAIC = Rasio Intellectual Capital
CEE = Capital Employed Efficiency
HCE = Human Capital Efficiency
SCE = Structure Capital Efficiency
ROA = Return On Asset
ROE = Return On Equity
3.5.2.1. Koefisien Determinasi (R
2
)
Koefisien ini mengukur seberapa jauh kemampuan model dalam
menerangkan variasi variabel dependen. Nilai Koefisien ini adalah antara nol dan
satu. Jika nilainya kecil, berarti kemampuan variabel-variabel independen dalam
menjelaskan variabel dependen amat terbatas. Jika nilainya mendekati satu, berarti
variabel-variabel independen mampu memberikan hampir semua informasi yang
dibutuhkan untuk memprediksi variasi variabel dependen.
Jika dalam uji empiris didapat nilai adjusted R
2
didapat nilai adjusted
negatif, maka nilai adjusted R
2
dianggap bernilai nol. Secara matematis jika nilai
R
2
= 1, maka adjusted R
2
= R
2
= 1 sedangkan jika nilai R
2
= 0, maka adjusted R
2
=
(1-k)/(n-k). Jika k > 1, maka adjusted R
2
akan bernilai negatif.
3.5.2.2. Uji Signifikansi Simultan ( Uji Statistik F )
Menurut Ghazali (2006), Uji Statistik F menunjukkan apakah semua
variabel independen atau bebas yang dimasukkan dalam model mempunyai
pengaruh secara bersama-sama terhadap variabel dependen.
lxii
Untuk menguji hipotesis ini digunakan statistik F dengan pengambilan
keputusan sebagai berikut :
1. Quick Lock : Bila nilai F lebih besar daripada 4 maka Ho dapat ditolak
pada derajat kepercayaan 5%. Artinya, kita menerima hipotesa alternatif,
yang menyatakan bahwa semua variabel independen secara serentak dan
signifikan mempengaruhi variabel dependen.
2. Membandingkan nilai F hasil perhitungan dengan nilai F menurut tabel.
Bila nilai F hitung lebih besar daripada nilai F tabel, maka Ho ditolak dan
menerima HA.
3.5.2.3. Uji Signifikan Parameter individual (Uji Statistik t)
Uji statistik t pada dasarnya menunjukkan seberapa jauh pengaruh satu
variabel penjelas/independen secara individual dalam menerangkan variasi
variabel dependen. (Ghazali, 2006)
Cara melakukan Uji t adalah sebagai berikut :
a) Quick Look : bila jumlah degree of freedom (df) adalah 20 atau lebih, dan
derajat kepercayaan sebesar 5%, maka Ho yang menyatakan bi = 0 dapat
ditolak bila nilai t lebih besar dari 2 (dalam nilai absolut). Sehingga
hipotesis alternatif diterima karena menjelaskan bahwa suatu variabel
independen secara individual mempengaruhi variabel dependen.
b) Membandingkan nilai statistik t dengan titik kritis menurut tabel. Apabila
nilai statistik t hasil perhitungan lebih tinggi dibandingkan nilai t tabel, kita
lxiii
menerima hipotesis alternatif yang menyatakan bahwa suatu variabel
independen secara individual mempengaruhi variabel dependen.