Anda di halaman 1dari 40

MODUL PELATIHAN

(Statistical Package for the Social Sciences)


ADVANCED PERTEMUAN II

OLEH :

NURJANNAH, S.Si
(Staf Pengajar Program Studi Statistika Univ. Brawijaya Malang)

Melbourne
Autumn, 2008

-aNNa- Pelatihan SPPS by MIIS, Melb 2008

Statistika Inferensi parametrik


1. Analisis Regresi
Analisis regresi adalah analisis tentang bentuk hubungan linier antara variabel dependen
(respon) dengan variabel independen (prediktor). Analisis regresi banyak dugunakan dalam
berbagai bidang seperti industri, teknik sipil, pertanian, kehutanan, lingkungan, kedokteran,
farmasi, permasaran, manajemen, kependudukan dan lain-lain. Analisis regresi sangat berguna
dalam berbagai penelitian antara lain:


Model regresi dapat digunakan untuk mengukur kekuatan hubungan antara variabel
respons dan variabel prediktor

Model regresi dapat digunakan untuk mengetahui pengaruh suatu atau beberapa variabel
prediktor terhadap variabel respon

Model regresi berguna untuk memprediksi pengaruh suatu atau beberapa variabel
prediktor terhadap variabel respon.

Model regresi memliliki variabel respon (y) dan variabel prediktor (x). Variabel respons
adalah variabel yang dipengaruhi suatu variabel prediktor. Variabel respons sering dikenal
sebagai variable dependen karena peneliti tidak bisa bebas mengendalikannya. Kemudian,
variabel prediktor digunakan untuk memprediksi nilai variabel respons dan sering disebut
variabel independen karena peneliti bebas mengendalikannya.

Analisis Regresi Sederhana


Apabila hanya melibatkan 1 variabel bebas (independen) maka disebut analisis regresi linier
sederhana.
Modelnya adalah :
Yi= 0 + 1X1i + i
Sedangkan model sampelnya adalah

y i = b 0 + b1 X 1i
Untuk mengetahui apakah model sampel representatif terhadap model populasi maka diperlukan
pengujian terhadap parameter-parameter regresi tersebut berdasarkan nilai-nilai statistiknya
dengan cara uji serempak (menggunakan tabel analisis ragam (statistik uji F)) atau uji parsial
dengan statistik uji t.
Kriteria pengujiannya dengan p-value (sig). Jika pengujian berdasarkan tabel ANOVA, maka :
Jika p-value > maka terima H0 berarti

tidak ada hubungan linier antar variabel. Dan

sebaliknya, jika p-value maka tolak H0 berari minimal ada salah satu variabel bebas
(prediktor) berhubungan linier dengan variabel tak bebas (respon).
Apabila pengujian berdasarkan statistik uji t maka : Jika p-value > maka terima H0 berarti
pada parameter koefisien regresi yang diuji (variabel X yang diuji) dinyatakan tidak ada

P age |1

-aNNa- Pelatihan SPPS by MIIS, Melb 2008


hubungan linier dengan variabel respon. Dan jika p-value maka tolak H0 berari pada
parameter koefisien regresi yang diuji (variabel X yang diuji) dinyatakan ada hubungan linier
dengan variabel respon.
Berikut contoh penerapan analisis regresi sederhana:
Sebuah Penelitian mengukur banyaknya gula yang terbentuk pada berbagai suhu. Datanya telah
dikodekan sebagai berikut :
Suhu (X)

Gula yang terbentuk (Y)

1.0

8.1

1.1

7.8

1.2

8.5

1.3

9.8

1.4

9.5

1.5

8.9

1.6

8.6

1.7

10.2

1.8

9.3

1.9

9.2

2.0

10.5

Perintah SPSS:
1) Klik Analyze > Regression > Linear
2) Kemudian masukkan Dependent Variable: y, Independent Variable: x lalu Klik OK
Output:
Model Summary
Model
1

Adjusted
R Square
.444

R
R Square
.707a
.500

Std. Error of
the Estimate
.63261

a. Predictors: (Constant), SUHU


ANOVAb
Model
1

Regression
Residual
Total

Sum of
Squares
3.600
3.602
7.202

df
1
9
10

Mean Square
3.600
.400

F
8.996

Sig.
.015a

t
6.936
2.999

Sig.
.000
.015

a. Predictors: (Constant), SUHU


b. Dependent Variable: GULA

Coefficientsa

Model
1

(Constant)
SUHU

Unstandardized
Coefficients
B
Std. Error
6.414
.925
1.809
.603

Standardized
Coefficients
Beta

a. Dependent Variable: GULA

P age |2

.707

-aNNa- Pelatihan SPPS by MIIS, Melb 2008


Interpretasi :
Dari nilai Adjusted R Square menunjukkan nilai sebesar 0.4444 = 44.4%. Artinya bahwa variabel
Y (Gula yang terbentuk) dipengaruh sebesar 44.4% oleh Suhu (X), sedangkan sisanya 55.6%
dipengaruhi oleh variabel lain di luar Suhu.
Adapun model persamaan regresi linier sederhana yang diperoleh adalah sebagai berikut:
Y= 6.414 + 1.809 X
i.

Interpretasi intersep (b0=6.414)  Pada saat X=0 (Suhu 0), maka gula yang terbentuk
sebanyak 6.414

ii.

Interpretasi slope (b1=1.809)  Setiap kenaikan suhu (X) sebesar satu satuan (derajat)
maka Gula yang terbentuk (Y) akan naik sebesar 1.80909

Model ini secara simultan terbukti signifikan karena nilai p-value pada uji F (ANOVA) sebesar
0.015 (kurang dari 0.05).
Untuk menguji hipotesis secara parsial digunakan uji t yaitu untuk menguji secara parsial variabel
bebas terhadap variabel terikat. Hasil perhitungan dijelaskan sebagai berikut: Uji t terhadap
variabel Suhu (X) didapatkan thitung sebesar 2.999 dengan p-value sebesar 0.015. Karena thitung
lebih besar ttabel (2.999 > 2.201) atau p-value t lebih kecil dari 5% (0,015 < 0,05), maka secara
parsial variabel Suhu (X) berpengaruh signifikan terhadap variabel Y (Gula yang terbentuk).

Analisis Regresi Berganda


Analisis Regresi Berganda merupakan perluasan dari analisis regresi sederhana jika jumlah dari
variabel bebas lebih dari satu.
Model Umum dari regresi berganda adalah :
Yi= 0 + 1X1i + .... + pXpi + i
Sedangkan model sampelnya adalah

y i = b0 + b1 X 1i + b2 X 2 i + ... + b p X pi
Untuk mengetahui apakah model sampel representatif terhadap model populasi maka diperlukan
pengujian terhadap parameter-parameter regresi tersebut berdasarkan nilai-nilai statistiknya
dengan cara uji serempak (menggunakan tabel analisis ragam (statistik uji F)) atau uji parsial
dengan statistik uji t.
Kriteria pengujiannya dengan p-value. Jika pengujian berdasarkan tabel ANOVA, maka : Jika pvalue > maka terima H0 berarti tidak ada hubungan linier antar variabel. Dan sebaliknya, jika
p-value maka tolak H0 berari minimal ada salah satu variabel bebas (prediktor) berhubungan
linier dengan variabel tak bebas (respon).
Apabila pengujian berdasarkan statistik uji t maka : Jika p-value > maka terima H0 berarti
pada parameter koefisien regresi yang diuji (variabel X yang diuji) dinyatakan tidak ada
hubungan linier dengan variabel respon. Dan jika p-value maka tolak H0 berari pada
parameter koefisien regresi yang diuji (variabel X yang diuji) dinyatakan ada hubungan linier
dengan variabel respon.

P age |3

-aNNa- Pelatihan SPPS by MIIS, Melb 2008


Berikut contoh penerapan analisis regresi berganda:
Data regresi adalah data hasil penelitian Pengaruh Kompensasi (Gaji, Bonus, Tunjangan,
Promosi, Tanggung Jawab, Kebijakan yang sehat, dan Lingkungan Kerja) Terhadap Kinerja
Karyawan perusahaan X. Metode analisis yang digunakan pada penelitian ini adalah regresi
berganda dengan rumus umum:
Y = b0+b1X1 +b2X2 +b3X3 +b4X4 +b5X5 +b6X6 +b7X7 + e
Y
X1
X2
X3

=
=
=
=

Kinerja Karyawan
Gaji
Bonus
Tunjangan

X4
X5
X6
X7

Variabel
Gaji (X1)

Bonus (X2)

Tunjangan (X3)

Promosi (X4)

Tanggung jawab (X5)

Kebijakan yang sehat (X6)

Lingkungan kerja (X7)

Kinerja Karyawan (Y)

=
=
=
=

Promosi
Tanggung jawab
Kebijakan yang sehat
Lingkungan kerja

X11.
X12.
X13.
X14.
X15.
X16.
X21.
X22.
X23.
X24.
X31.
X32.
X33.
X34.
X41.
X42.
X43.
X44.
X51.
X52.
X53.
X54.
X61.
X62.
X62.
X63.
X71.
X72.
X73.
X74.
X75.
X76.
X77.
Y1.
Y2.
Y3.
Y4.
Y5.

b0 = konstanta
b1..7 = koefisien regresi
e = kesalahan pengganggu

Item
Sistem pembayaran gaji
Kesesuaian dengan peker-jaan
Kesesuaian gaji dengan lama kerja
Kesesuaian gaji tingkat pendidikan
Kesesuaian gaji senioritas
Pemenuhan kebutuhan po-kok
Pemberian bonus yang di-laksanakan
Sistem pembayaran bonus
Kesuaian bonus dengan senioritas
Kesesuaian bonus dengan keahlian
Pemberian tunjangan
Kesesuian tunjangan dengan harapan
Kesesuian tunjangan dengan masa kerja
Sistem pemberian tunjangan
Prosedur promosi
Kesesuaian promosi dengan harapan
Kesesuaian promosi dengan masa kerja
Kesesuaian promosi dengan prestasi kerja
Prosedur pelaksanaan tang-gung jawab
Kesesuian tanggung jawab dengan harapan
Kesesuian tanggung jawab dengan keahlian
Kesesuaian tanggung jawab dengan pendidikan
Kebijakan yang diterapkan
Kesesuaian kebijakan dengan harapan
Kesesuaian kebijakan dengan masa kerja
Kebijakan dengan mengi-kuti Diklat
Suasana kerja
Kondisi tempat kerja
Fasilitas
Dukungan rekan kerja
Hubungan dengan rekan kerja
Kesulitan dengan melaku-kan kerjasama
Suasana lingkungan sekitar tempat kerja
Ketelitian kerja
Kebersihan kerja
Kerapian hasil kerja
Ketepatan waktu
Standar kerja

P age |4

-aNNa- Pelatihan SPPS by MIIS, Melb 2008


Untuk menguji regresi, pilih menu Analyze > Regression > Linear
Kemudian masukkan Dependent Variable: y, Independent Variable: X1 sampai X7, klik
Statistics pilih Descriptive dan Part and Partial Correlation, tekan OK
Correlations
Pearson Correlation

Sig. (1-tailed)

Y
1,000
,479
,756
,562
,406
,534
,460
,711
.
,000
,000
,000
,000
,000
,000
,000
80
80
80
80
80
80
80
80

Y
X1
X2
X3
X4
X5
X6
X7
Y
X1
X2
X3
X4
X5
X6
X7
Y
X1
X2
X3
X4
X5
X6
X7

X1
,479
1,000
,414
,193
,106
,115
,283
,284
,000
.
,000
,043
,176
,155
,005
,005
80
80
80
80
80
80
80
80

X2
,756
,414
1,000
,469
,339
,488
,436
,752
,000
,000
.
,000
,001
,000
,000
,000
80
80
80
80
80
80
80
80

X3
,562
,193
,469
1,000
,227
,386
,248
,459
,000
,043
,000
.
,021
,000
,013
,000
80
80
80
80
80
80
80
80

X4
,406
,106
,339
,227
1,000
,208
,100
,342
,000
,176
,001
,021
.
,032
,188
,001
80
80
80
80
80
80
80
80

X5
,534
,115
,488
,386
,208
1,000
,129
,441
,000
,155
,000
,000
,032
.
,128
,000
80
80
80
80
80
80
80
80

X6
,460
,283
,436
,248
,100
,129
1,000
,377
,000
,005
,000
,013
,188
,128
.
,000
80
80
80
80
80
80
80
80

X7
,711
,284
,752
,459
,342
,441
,377
1,000
,000
,005
,000
,000
,001
,000
,000
.
80
80
80
80
80
80
80
80

Model Summary
Model
1

Adjusted
R Square
,722

R
R Square
,864a
,746

Std. Error of
the Estimate
,39286

a. Predictors: (Constant), X7, X1, X4, X6, X5, X3, X2


ANOVAb
Model
1

Regression
Residual
Total

Sum of
Squares
32,687
11,112
43,800

df
7
72
79

Mean Square
4,670
,154

F
30,256

Sig.
,000a

a. Predictors: (Constant), X7, X1, X4, X6, X5, X3, X2


b. Dependent Variable: Y
Coefficientsa

Model
1

(Constant)
X1
X2
X3
X4
X5
X6
X7

Unstandardized
Coefficients
B
Std. Error
-,992
,463
,242
,074
,168
,081
,199
,078
,184
,084
,211
,078
,191
,093
,243
,103

Standardized
Coefficients
Beta
,217
,216
,178
,140
,191
,138
,221

t
-2,141
3,279
2,088
2,549
2,188
2,699
2,053
2,368

a. Dependent Variable: Y

P age |5

Sig.
,036
,002
,040
,013
,032
,009
,044
,021

Zero-order

Correlations
Partial

,479
,756
,562
,406
,534
,460
,711

,360
,239
,288
,250
,303
,235
,269

Part
,195
,124
,151
,130
,160
,122
,141

-aNNa- Pelatihan SPPS by MIIS, Melb 2008


Hasil SPSS ini berarti :
Uji hipotesis secara simultan yaitu untuk menguji pengaruh secara bersama-sama variabel bebas
terhadap variabel terikat digunakan uji F. Dari hasil perhitungan didapatkan nilai Fhitung sebesar
30,256 (signifikansi F= 0,000). Jadi Fhitung>Ftabel (30,256>3,292) atau Sig F < 5% (0,000<0,05).
Artinya bahwa secara bersama-sama variabel bebas yang terdiri dari variabel Gaji (X1), Bonus
(X2), Tunjangan (X3), Promosi (X4), Tanggung Jawab (X5), Kebijakan yang sehat (X6) dan
Lingkungan Kerja (X7) berpengaruh signifikan terhadap variabel Kinerja Karyawan (Y).
Dari nilai Adjusted R Square menunjukkan nilai sebesar 0,722 atau 72,2%. Artinya bahwa
variabel Y dipengaruh sebesar 72,2% oleh Gaji (X1), Bonus (X2), Tunjangan (X3), Promosi (X4),
Tanggung Jawab (X5), Kebijakan yang sehat (X6) dan Lingkungan Kerja (X7) sedangkan sisanya
27,8% dipengaruhi oleh variabel lain di luar 7 variabel bebas tersebut.
Adapun model persamaan regresi linier berganda yang diperoleh adalah sebagai berikut:
Y= -0,992+0,242X1+0,168X2+0,199X3+0,184X4+0,211X5+0,191X6+0,243X7
Untuk menguji hipotesis secara parsial digunakan uji t yaitu untuk menguji secara parsial variabel
bebas terhadap variabel terikat. Hasil perhitungan dijelaskan sebagai berikut:
a. Uji t terhadap variabel Gaji (X1) didapatkan thitung sebesar 3,279 dengan signifikansi t sebesar
0,002. Karena thitung lebih besar ttabel (3,279>1,993) atau signifikansi t lebih kecil dari 5%
(0,002<0,05), maka secara parsial variabel Gaji (X1) berpengaruh signifikan terhadap variabel
Kinerja Karyawan (Y)
b. Uji t terhadap variabel Bonus (X2) didapatkan thitung sebesar 2,088 dengan signifikansi t
sebesar 0,040. Karena thitung lebih besar ttabel (2,088>1,993) atau signifikansi t lebih kecil dari
5% (0,040<0,05), maka secara parsial variabel Bonus (X2) berpengaruh signifikan terhadap
variabel Kinerja Karyawan (Y)
c. Uji t terhadap variabel Tunjangan (X3) didapatkan thitung sebesar 2,549 dengan signifikansi t
sebesar 0,013. Karena thitung lebih besar ttabel (2,549>1,993) atau signifikansi t lebih kecil dari
5% (0,013<0,05), maka secara parsial variabel Tunjangan (X3) berpengaruh signifikan
terhadap variabel Kinerja Karyawan (Y)
d. Uji t terhadap variabel Promosi (X4) didapatkan thitung sebesar 2,188 dengan signifikansi t
sebesar 0,032. Karena thitung lebih besar ttabel (2,188>1,993) atau signifikansi t lebih kecil dari
5% (0,032<0,05), maka secara parsial variabel Promosi (X4) berpengaruh signifikan terhadap
variabel Kinerja Karyawan (Y)
e. Uji t terhadap variabel Tanggung Jawab (X5) didapatkan thitung sebesar 2,699 dengan
signifikansi t sebesar 0,009. Karena thitung lebih besar ttabel (2,699>1,993) atau signifikansi t
lebih kecil dari 5% (0,009<0,05), maka secara parsial variabel Tanggung Jawab (X5)
berpengaruh signifikan terhadap variabel Kinerja Karyawan (Y)
f. Uji t terhadap variabel Kebijakan yang sehat (X6) didapatkan thitung sebesar 2,053 dengan
signifikansi t sebesar 0,044. Karena thitung lebih besar ttabel (2,053>1,993) atau signifikansi t
lebih kecil dari 5% (0,044<0,05), maka secara parsial variabel Kebijakan yang sehat (X6)
berpengaruh signifikan terhadap variabel Kinerja Karyawan (Y)
P age |6

-aNNa- Pelatihan SPPS by MIIS, Melb 2008


g. Uji t terhadap variabel Lingkungan Kerja (X7) didapatkan thitung sebesar 2,368 dengan
signifikansi t sebesar 0,021. Karena thitung lebih besar ttabel (2,368>1,993) atau signifikansi t
lebih kecil dari 5% (0,021<0,05), maka secara parsial variabel Lingkungan Kerja (X7)
berpengaruh signifikan terhadap variabel Kinerja Karyawan (Y)
Untuk menguji variabel dominan, terlebih dahulu diketahui kontribusi masing-masing variabel
bebas yang diuji terhadap variabel terikat. Kontribusi masing-masing variabel diketahui dari
koefisien determinasi regresi sederhana terhadap variabel terikat atau diketahui dari kuadrat
korelasi sederhana variabel bebas dan terikat. Dari tabel di bawah diketahui bahwa variabel yang
paling dominan pengaruhnya adalah variabel Bonus (X2) yaitu memiliki kontribusi sebesar
57,15%.
Variabel

r2

Kontribusi (%)

Gaji (X1)
Bonus (X2)
Tunjangan (X3)
Promosi (X4)
Tanggung Jawab (X5)
Kebijakan yang sehat (X6)
Lingkungan Kerja (X7)

0,479
0,756
0,562
0,406
0,534
0,460
0,711

0,2304
0,5715
0,3158
0,1648
0,2852
0,2116
0,5055

23,04
57,15
31,58
16,48
28,52
21,16
50,55

Uji Asumsi yang Melandasi Analisis Regresi


a. Uji Asumsi Multikolinieritas
Artinya adanya korelasi linier yang tinggi (mendekati sempurna) diantara dua/lebih variabel bebas.
Multikolinieritas diuji dengan menghitung nilai VIF (Variance Inflating Factor). Bila nilai VIF lebih kecil
dari 5 maka tidak terjadi multikolinieritas atau non multikolinieritas.
Untuk menguji asumsi multikolinieritas, pilih menu Analyze > Regression > Linear
Kemudian masukkan Dependent Variable: y, Independent Variable: X1 sampai X7, klik
Statistics pilih Collinearity Diagnostics, tekan OK
Coefficientsa

Model
1

(Constant)
X1
X2
X3
X4
X5
X6
X7

Unstandardized
Coefficients
B
Std. Error
-,992
,463
,242
,074
,168
,081
,199
,078
,184
,084
,211
,078
,191
,093
,243
,103

Standardized
Coefficients
Beta
,217
,216
,178
,140
,191
,138
,221

t
-2,141
3,279
2,088
2,549
2,188
2,699
2,053
2,368

Sig.
,036
,002
,040
,013
,032
,009
,044
,021

Collinearity Statistics
Tolerance
VIF
,805
,331
,723
,860
,705
,775
,405

1,242
3,024
1,383
1,163
1,418
1,290
2,470

a. Dependent Variable: Y

Dari output SPSS diperoleh kesimpulan bahwa semua variabel bebas disifati nonmultikolinieritas
karena nilai VIF < 5.

P age |7

-aNNa- Pelatihan SPPS by MIIS, Melb 2008


b. Uji Asumsi Heteroskedastisitas
Heteroskedastisitas adalah suatu keadaan dimana masing-masing kesalahan pengganggu mempunyai
varian yang berlainan. Heteroskedastisitas diuji dengan menggunakan uji koefisien korelasi Rank
Spearman yaitu mengkorelasikan antara absolut residual hasil regresi dengan semua variabel bebas.
Bila signifikansi hasil korelasi lebih kecil dari 0,05 (5%) maka persamaan regresi tersebut
mengandung

heteroskedastisitas

dan

sebaliknya

berarti

non

heteroskedastisitas

atau

homoskedastisitas. Heteroskedastisitas diuji dengan menggunakan uji koefisien korelasi Rank


Spearman yaitu mengkorelasikan antara absolut residual hasil regresi dengan semua variabel bebas.
Hasil uji heteroskedastisitas ditunjukkan pada tabel berikut:
Untuk menguji asumsi heteroskedastisitas, pilih menu Analyze > Regression > Linear
Kemudian masukkan Dependent Variable: y, Independent Variable: X1 sampai X7, klik Save
pilih Unstandardized Residuals, tekan OK
Didapatkan pada worksheet muncul variabel res_1
Untuk mendapatkan nilai absolut residual, klik Transform > Compute, Target Variable: Abs_Res,
Numeric Expression: Abs(Res_1)
Lihat pada worksheet muncul variabel Abs_Res, yaitu variabel absolut residual.
Kemudian lakukan korelasi, pilih menu Analyze > Correlate > Bivariate
Masukkan Variables: X1 sampai X7, dan Abs_Res, hidupkan correlation coefficients Spearman,
dan matikan correlation coefficient pearson.
Correlations
X1
Spearma
n's rho

X1

X2

X3

X4

X5

X6

X7

ABS_
RES

Correlation
Coefficient
Sig. (2-tailed)
N
Correlation
Coefficient
Sig. (2-tailed)
N
Correlation
Coefficient
Sig. (2-tailed)
N
Correlation
Coefficient
Sig. (2-tailed)
N
Correlation
Coefficient
Sig. (2-tailed)
N
Correlation
Coefficient
Sig. (2-tailed)
N
Correlation
Coefficient
Sig. (2-tailed)
N
Correlation
Coefficient
Sig. (2-tailed)
N

1,000

X2

X3

X4

X5

X6

X7

ABS_
RES

,267*

,201

,047

,117

,254*

,110

-,008

.
80

,017
80

,074
80

,678
80

,303
80

,023
80

,333
80

,947
80

,267*

1,000

,337**

,300**

,260*

,390**

,594**

,017
80

.
80

,002
80

,007
80

,020
80

,000
80

,000
80

,201

,337**

1,000

,171

,236*

,232*

,365**

,074
80

,002
80

.
80

,129
80

,035
80

,038
80

,001
80

,857
80

,047

,300**

,171

1,000

,122

,041

,253*

-,011

,678
80

,007
80

,129
80

.
80

,279
80

,717
80

,023
80

,925
80

,117

,260*

,236*

,122

1,000

,104

,278*

-,006

,303
80

,020
80

,035
80

,279
80

.
80

,360
80

,013
80

,956
80

,254*

,390**

,232*

,041

,104

1,000

,023
80

,000
80

,038
80

,717
80

,360
80

.
80

,007
80

,911
80

,110

,594**

,365**

,253*

,278*

,301**

1,000

-,053

,333
80

,000
80

,001
80

,023
80

,013
80

,007
80

.
80

,641
80

-,008

-,046

-,020

-,011

-,006

-,013

-,053

1,000

,947
80

,686
80

,857
80

,925
80

,956
80

,911
80

,641
80

.
80

*. Correlation is significant at the 0.05 level (2-tailed).


**. Correlation is significant at the 0.01 level (2-tailed).

P age |8

,301**

-,046
,686
80
-,020

-,013

-aNNa- Pelatihan SPPS by MIIS, Melb 2008


Hasil output SPSS diperoleh interpretasi (pada baris terakhir atau kolom terakhir)
Variabel bebas
Gaji (X1)
Bonus (X2)
Tunjangan (X3)
Promosi (X4)
Tanggung Jawab (X5)
Kebijakan yang sehat (X6)
Lingkungan Kerja (X7)

r
-0,008
-0,046
-0,020
-0,011
-0,006
-0,013
-0,053

sig
0,947
0,686
0,857
0,925
0,956
0,911
0,641

Keterangan
Homoskedastisitas
Homoskedastisitas
Homoskedastisitas
Homoskedastisitas
Homoskedastisitas
Homoskedastisitas
Homoskedastisitas

Dari tabel di atas menunjukkan bahwa variabel yang diuji tidak mengandung heteroskedastisitas atau
homoskedastisitas. Artinya tidak ada korelasi antara besarnya data dengan residual sehingga bila
data diperbesar tidak menyebabkan residual (kesalahan) semakin besar pula.
c. Uji Asumsi Normalitas
Uji normalitas dimaksudkan untuk mengetahui apakah residual model regresi yang diteliti
berdistribusi normal atau tidak. Metode yang digunakan untuk menguji normalitas adalah dengan
menggunakan uji Kolmogorov-Smirnov. Jika nilai signifikansi dari hasil uji Kolmogorov-Smirnov > 0,05,
maka asumsi normalitas terpenuhi.
Untuk menguji asumsi normalitas, pilih menu Analyze > Nonparametric Tests > 1-sample K-S
Kemudian masukkan Test Variable List: Res_1, tekan OK
One-Sample Kolmogorov-Smirnov Test

N
Normal Parameters a,b
Most Extreme
Differences

Mean
Std. Deviation
Absolute
Positive
Negative

Kolmogorov-Smirnov Z
Asymp. Sig. (2-tailed)

Unstandardiz
ed Residual
80
,0000000
,37504965
,142
,071
-,142
1,273
,078

a. Test distribution is Normal.


b. Calculated from data.

Dari hasil pengujian di atas, diperoleh nilai signifikansi sebesar 0,078 > 0,05, maka asumsi normalitas
terpenuhi.
d. Uji Asumsi Autokorelasi
Autokorelasi adalah suatu keadaan di mana terdapat suatu korelasi (hubungan) antara residual tiap
seri. Pemeriksaan autokorelasi menggunakan metode Durbin-Watson, di mana jika nilai d dekat
dengan 2, maka asumsi tidak terjadi autokorelasi terpenuhi.

P age |9

-aNNa- Pelatihan SPPS by MIIS, Melb 2008


Untuk menguji asumsi autokorelasi, pilih menu Analyze > Regression > Linear
Kemudian masukkan Dependent Variable: y, Independent Variable: X1 sampai X7, klik
Statistics pilih Durbin-Watson, tekan OK
Model Summaryb
Model
1

R
R Square
,864a
,746

Adjusted
R Square
,722

Std. Error of
the Estimate
,39286

Durbin-W
atson
1,915

a. Predictors: (Constant), X7, X1, X4, X6, X5, X3, X2


b. Dependent Variable: Y

Dari output SPSS di atas diperoleh nilai d sebesar 1,915. Karena nilai ini sangat dekat dengan 2,
maka asumsi tidak terjadinya autokorelasi terpenuhi.
e. Uji Asumsi Linieritas
Pengujian linearitas ini perlu dilakukan, untuk mengetahui model yang dibuktikan merupakan model
linear atau tidak. Uji linieritas dilakukan dengan menggunakan curve estimation, yaitu gambaran
hubungan linier antara variabel X dengan variabel Y. Jika nilai sig f < 0,05, maka variabel X tersebut
memiliki hubungan linier dengan Y
Untuk menguji asumsi linieritas, pilih menu Analyze > Regression > Curve Estimation
Kemudian masukkan Dependent Variable: Y, Independent Variable: X1, tekan OK
Lakukan hal itu berulang dengan mengganti independent variable X2, lalu X3, sampai X7.

MODEL:

MOD_1.

Independent:

Dependent Mth

Rsq

d.f.

Sigf

b0

b1
,4286

X1

LIN

,230

78

23,25

,000

1,7561

X2

LIN

,572

78

104,06

,000

-,0181

,9693

X3

LIN

,316

78

36,00

,000

1,6421

,5015

X4

LIN

,165

78

15,36

,000

1,7378

,3090

X5

LIN

,285

78

31,12

,000

1,7506

,4820

X6

LIN

,211

78

20,91

,000

2,0232

,3336

X7

LIN

,505

78

79,61

,000

1,0361

,6465

Dari output di atas diperoleh semua nilai sigf < 0,05, maka asumsi linieritas terpenuhi.

P a g e | 10

-aNNa- Pelatihan SPPS by MIIS, Melb 2008

2. Analisis Path
Untuk mengetahui hubungan antara sejumlah variabel bebas, dengan variabel terikat dapat
digunakan analisis regresi berganda. Dalam analisis regresi berganda mesing-masing variabel bebas
harus saling bebas dan memiliki urutan waktu yang sama (tidak terjadi multiko) sehingga dapat
diduga pengaruh langsung secara kuantitatif dari masing-masing variabel bebas terhadap variabel
terikat.
Dalam praktiknya variabel bebas tidak selalu dapat mempengaruhi variabel terikat secara
langsung tetapi dapat pula variabel bebas mempengaruhi variabel terikat melalui variabel bebas
lainnya. Adanya hubungan antar variabel bebas berarti asumsi tidak adanya multikolinieritas tidak
dipenuhi. Ini berarti bahwa analisis regresi berganda tidak dapat digunakan, untuk mengatasi hal
tersebut digunakan analisis path.
Analisis path dikembangkan oleh Sewall Wright (1960) sebagai metode untuk mempelajari
pengaruh langsung dan tak langsung diantara variabel-variabel penjelas dan variabel-variabel terikat.
Tujuan dari Analisis path adalah menentukan besar pengaruh langsung dari sejumlah variabel
berdasarkan koefisien regresi beta (koefisien path). Analisis path bukanlah metode untuk menemukan
penyebab, namun hanya menguji kebenaran kausal yang telah diteorikan. Dalam analisis path dapat
ditarik kesimpulan tentang variabel mana yang memiliki pengaruh kuat terhadap variabel terikat.
Langkah-langkah analisis Path :
1.

Merancang model berdasarkan konsep dan teori. Berdasarkan hubungan variable secara teoritis
tersebut kemudian dibuat model dalam bentuk diagram path. Model tersebut juga dapat
dinyatakan dalam bentuk persamaan.

2.

Pemeriksaan terhadap asumsi yang melandasi, antara lain :


1) Di dalam analisis path hubungan antar variabel adalah linier dan aditif.
2) Hanya model rekursif yang dipertimbangkan, artinya hanya sistem aliran kasual ke satu arah.
3) Variabel endogen minimal dalam skala ukur interval
4) Observed variables diukur tanpa kesalahan (instrument pengukuran valid dan reliabel)
5) Model yang dianalisis dispesifikasi (diidentifikasi) dengan benar berdasarkan teori-teori dan
knsep-konsep yang relevan

3.

Pendugaan parameter atau perhitungan koefisien path dengan penjelasan sebagai berikut :
1) Untuk anak panah bolak balik (), koefisiennya merupakan koefisien korelasi r (dihitung
seperti biasanya)
2) Untuk anak panah satu arah (), digunakan perhitungan regresi variabel dibakukan secara
parsiil pada masing-masing persamaan dengan metode OLS (metode kuadrat terkecil biasa)

4.

Pemeriksaan validitas model. Sahih tidaknya suatu hasil analisis tergantung dari terpenuhi atau
tidaknya asumsi yang melandasinya. Telah disebutkan bahwa dianggap semua asumsi terpenuhi.
Terdapat dua indikator validitas model dalam analisis path yaitu :
1) Koefisien Determinasi Total

P a g e | 11

-aNNa- Pelatihan SPPS by MIIS, Melb 2008


Total

keragaman

data

yang

dapat

dijelaskan

oleh

model

diukur

dengan

R 2m = 1 Pe21 Pe22 ...Pep2


Dalam hal ini R m sama dengan interpretasi koefisien determinasi (R2) pada analisis regresi.
2

2) Theory Triming
Uji validasi koefisien path pada setiap jalur untuk pengaruh langsung adalah sama dengan
pada regresi yaitu menggunakan nilai p dari uji t, yaitu pengujian koefisien regresi variabel
dibakukan secara parsiil. Berdasarkan theory trimming maka jalur-jalur yang nonsignifikan
dibuang sehingga diperoleh model yang didukung oleh data empirik.
5.

Melakukan interpretasi hasil analisis. Pertama dengan memperhatikan hasil validitas model. Dan
yang kedua adalah menghitung total dari setiap variabel yang mempunyai pengaruh kasual ke
variabel endogen.

Bila analisis path telah dilakukan (berdasarkan sampel), maka dapat dimanfaatkan untuk :

Penjelasan (explanation) terhadap fenomena yang dipelajari atau permasalahan yang diteliti.

Prediksi nilai variable tergantung berdasarkan nilai variable bebas, yang mana prediksi dengan
analisis path ini bersifat kualitatif.

Faktor determinan yaitu penentuan variabel bebas mana yang berpengaruh dominan terhadap
variabel tergantung. Dan juga dapat digunakan untuk menelusuri mekanisme (jalur-jalur)
pengaruh variabel bebas terhadap variabel tergantung.

Pengujian model menggunakan theory trimming, baik untuk uji keajegan konsep yang sudah ada
maupun uji pengembangan konsep baru.

Contoh aplikasi, digunakan data path, dengan gambaran penelitian secara teoritis sebagai berikut:

Kualitas Kerja
(X1)

Imbalan Finansial
(X3)

Kuantitas Kerja
(X2)

Imbalan Interpersonal
(X4)

Kepuasan
Imbalan Ekstrinsik
(X5)

Langkah-langkah analisis path adalah sebenarnya melakukan tiga persamaan regresi, yaitu
1). Regresi antara X1 dan X2 terhadap X3
2). Regresi antara X1 dan X2 terhadap X4
3). Regresi antara X3 dan X4 terhadap X5
Untuk menguji regresi pertama, pilih menu Analyze > Regression > Linear
Kemudian masukkan Dependent Variable: X3, Independent Variable: X1 dan X2, tekan OK

P a g e | 12

-aNNa- Pelatihan SPPS by MIIS, Melb 2008


Untuk menguji regresi kedua, pilih menu Analyze > Regression > Linear
Kemudian masukkan Dependent Variable: X4, Independent Variable: X1 dan X2, tekan OK
Untuk menguji regresi pertama, pilih menu Analyze > Regression > Linear
Kemudian masukkan Dependent Variable: X5, Independent Variable: X1 sampai X4, tekan OK

Regression (X1, X2 terhadap X3)


Model Summary
Model
1

Adjusted
R Square
,584

R
R Square
,771a
,594

Std. Error of
the Estimate
,08872

a. Predictors: (Constant), X2, X1


ANOVAb
Model
1

Regression
Residual
Total

Sum of
Squares
,876
,598
1,474

df
2
76
78

Mean Square
,438
,008

F
55,641

Sig.
,000a

t
19,552
3,774
7,139

Sig.
,000
,000
,000

a. Predictors: (Constant), X2, X1


b. Dependent Variable: X3

Coefficientsa

Model
1

(Constant)
X1
X2

Unstandardized
Coefficients
B
Std. Error
3,150
,161
,152
,040
,178
,025

Standardized
Coefficients
Beta
,308
,583

a. Dependent Variable: X3

Regression (X1, X2 terhadap X4)


Model Summary
Model
1

R
R Square
,555a
,308

Adjusted
R Square
,289

Std. Error of
the Estimate
,19086

a. Predictors: (Constant), X2, X1


ANOVAb
Model
1

Regression
Residual
Total

Sum of
Squares
1,230
2,768
3,999

df
2
76
78

Mean Square
,615
,036

a. Predictors: (Constant), X2, X1


b. Dependent Variable: X4

P a g e | 13

F
16,884

Sig.
,000a

-aNNa- Pelatihan SPPS by MIIS, Melb 2008

Coefficientsa

Model
1

(Constant)
X1
X2

Unstandardized
Coefficients
B
Std. Error
2,383
,347
,329
,086
,120
,054

Standardized
Coefficients
Beta
,406
,239

t
6,878
3,804
2,239

Sig.
,000
,000
,028

a. Dependent Variable: X4

Regression (X1, X2, X3, dan X4 terhadap X5)


Model Summary
Model
1

R
,784a

Adjusted
R Square
,593

R Square
,614

Std. Error of
the Estimate
,11248

a. Predictors: (Constant), X4, X2, X1, X3


ANOVAb
Model
1

Regression
Residual
Total

Sum of
Squares
1,490
,936
2,426

df
4
74
78

Mean Square
,373
,013

F
29,442

Sig.
,000a

a. Predictors: (Constant), X4, X2, X1, X3


b. Dependent Variable: X5
Coefficientsa

Model
1

(Constant)
X1
X2
X3
X4

Unstandardized
Coefficients
B
Std. Error
1,526
,511
,174
,059
,128
,041
,188
,147
,182
,068

Standardized
Coefficients
Beta
,275
,325
,147
,233

t
2,987
2,960
3,103
1,281
2,660

Sig.
,004
,004
,003
,204
,010

a. Dependent Variable: X5

Interpretasi ketiga persamaan regresi:


Regresi 1
Variabel

Konstanta

3,150

Kualitas Kerja (X1)

0,152

Kuantitas Kerja (X2)

0,178

R Square

= 0,594

Adjusted R Square

= 0,584

Sig F

= 0,000

Beta

Sig t

Ket

19,552

0,000

0,308

3,774

0,000

Signifikan

0,583

7,139

0,000

Signifikan

P a g e | 14

-aNNa- Pelatihan SPPS by MIIS, Melb 2008


Regresi 2
Variabel

Konstanta

2,383

Kualitas Kerja (X1)

0,329

Kuantitas Kerja (X2)

0,120

R Square

= 0,308

Adjusted R Square

= 0,289

Sig F

= 0,000

Beta

Sig t

Ket

6,878

0,000

0,406

3,804

0,000

Signifikan

0,239

2,239

0,028

Signifikan

Regresi 3
Variabel

Konstanta
Kualitas Kerja (X1)
Kuantitas Kerja (X2)
Imbalan Finansial (X3)
Imbalan Interpersonal (X4)
R Square
Adjusted R Square
Sig F

1,526
0,174
0,128
0,188
0,182
= 0,614
= 0,593
= 0,000

Beta
0,275
0,325
0,147
0,233

t
2,987
2,960
3,103
1,281
2,660

Sig t

Ket

0,004
0,004
0,003
0,204
0,010

Signifikan
Signifikan
Tidak sig
Signifikan

Sehingga diperoleh gambaran path sebagai berikut:

Kuantitas Kerja
(X2)

80
0 ,5 0
= 0 ,0 0
p=
=
p = 0 ,4 0
0 ,0 6
00

= 0,239
p = 0,028

Imbalan Finansial
(X3)

Imbalan Interpersonal
(X4)

=
p = 0,14
0, 2 7
04
33
0 ,2
= 0,010
p=

5
27
0, 04
= ,0
=0
p

Kualitas Kerja
(X1)

= 0,308
p = 0,000

Kepuasan
Imbalan Ekstrinsik
(X5)
5
32
0, 003
= ,
=0
p

Dari gambar di atas diperoleh bahwa gambaran terdapat beberapa path yang signifikan. Koefisien
diatas adalah pengaruh langsung masing-masing variabel. Sedangkan pengaruh tidak langsung yang
bisa diukur adalah:
1.

Pengaruh X1 ke X5 melalui X3: 0,308 0,147 = 0,045

2.

Pengaruh X1 ke X5 melalui X4: 0,406 0,233 = 0,095

3.

Pengaruh X2 ke X5 melalui X3: 0,580 0,147 = 0,085

4.

Pengaruh X2 ke X5 melalui X4: 0,239 0,233 = 0,056

Berdasarkan model-model pengaruh tersebut, dapat disusun model lintasan pengaruh sebagai berikut.
Model lintasan ini disebut dengan analisis path, dimana pengaruh error ditentukan sebagai berikut:
Regresi 1 : Pe1 =

1 R 1 = 1 0,594 2 = 0,804

Regresi 2 : Pe2 =

1 R 2 = 1 0,308 2 = 0,951

P a g e | 15

-aNNa- Pelatihan SPPS by MIIS, Melb 2008

1 R3

Regresi 3 : Pe3 =

1 0,614 2 = 0,789

Sehingga Koefisien determinasi total


R2m = 1 Pe12 Pe22 Pe32 = 0,635
Artinya keragaman data yang dapat dijelaskan oleh model analisis path tersebut adalah sebesar 0,635
atau 63,5% atau dengan kata lain informasi yang terkandung dalam data 63,5% dapat dijelaskan
oleh model tersebut. Sedangkan yang 36,5% dijelaskan oleh variabel lain yang belum terdapat dalam
model dan error.
Langkah terakhir yang dilakukan adalah menguji asumsi linieritas masing-masing variabel.
Untuk menguji asumsi linieritas pertama, pilih menu Analyze > Regression > Curve Estimation
Kemudian masukkan Dependent Variable: X3, X4, dan X5, Independent Variable: X1, tekan OK
Untuk menguji asumsi linieritas kedua, pilih menu Analyze > Regression > Curve Estimation
Kemudian masukkan Dependent Variable: X3, X4, dan X5, Independent Variable: X2, tekan OK
Untuk menguji asumsi linieritas ketiga, pilih menu Analyze > Regression > Curve Estimation
Kemudian masukkan Dependent Variable: X5, Independent Variable: X3 tekan OK
Untuk menguji asumsi linieritas keempat, pilih menu Analyze > Regression > Curve Estimation
Kemudian masukkan Dependent Variable: X5, Independent Variable: X4 tekan OK
Curve Fit
MODEL:

MOD_1.

Independent:

X1

Dependent Mth

Rsq

d.f.

Sigf

b0

b1

X3

LIN

,317

78

36,15

,000

3,4131

,2764

X4

LIN

,264

78

27,92

,000

2,5572

,4143

X5

LIN

,471

78

69,57

,000

2,8334

,3906

Curve Fit
MODEL:

MOD_2.

Independent:

X2

Dependent Mth

Rsq

d.f.

Sigf

b0

b1

X3

LIN

,510

78

81,19

,000

3,6229

,2190

X4

LIN

,176

78

16,63

,000

3,4041

,2112

X5

LIN

,437

78

60,50

,000

3,4700

,2347

Rsq

d.f.

Sigf

b0

b1

,449

78

63,45

,000

,9545

,7758

Curve Fit
MODEL:

MOD_3.

Independent:

X3

Dependent Mth
X5

LIN

Curve Fit
MODEL:

MOD_4.

Independent:

X4

Dependent Mth

X5

LIN

Rsq

d.f.

,313

78

Sigf

35,60

,000

b0

2,8154

P a g e | 16

b1

,3946

-aNNa- Pelatihan SPPS by MIIS, Melb 2008

3. Analisis Diskriminan
Analisis ini mirip dengan regresi, akan tetapi variabel dependennya bersifat kategori
(nonmetrik). Ciri-ciri dari metode analisis ini adalah :
 Input data : Data dari observable variable dan bukan data dari indikator variabel latent
(konstruks). Variabel dependen memiliki data nonmetrik dan variabel independen berupa data
kategori (nonmetrik) dan atau metrik.
 Metode Perhitungan : Konsep eigen value dan eigen vector.
 Output : Berupa fungsi (diskriminan)
 Kegunaan : Merupakan alat untuk prediksi alternatif, alat pengelompokkan obyek dan faktor
determinan, yaitu dapat digunakan untuk menentukan variabel mana yang merupakan
pembeda terkuat.
Analisis diskriminan merupakan suatu teknik statistik untuk mencapai tujuan sebagai berikut:
1. Menemukan variabel yang membedakan secara signifikan antara dua kelompok.
2. Menyusun suatu persamaan atau fungsi untuk menghitung nilai indeks yang akan mewakili
secara tepat perbedaan antara dua kelompok.
3. Menggunakan indeks yang terhitung sebagai pedoman untuk mengklasifikasikan observasi
selanjutnya ke dalam salah satu kelompok tersebut.
Sebagai ilustrasi digunakan data diskriminan, yang berisi penelitian tentang analisis kinerja
keuangan dengan menggunakan analisis diskriminan pada perusahaan Food and Beverages yang Go
Public di BEJ. Adapun definisi variabel adalah sebagai berikut:
X1 : Rasio Lancar

X7 : Marjin Laba Kotor

X2 : Rasio cair

X8 : Rasio Laba Operasi bersih Terhadap Penjualan

X3 : Rasio perputaran persediaan

X9 : Rasio Laba Operasi bersih Terhadap Total Aktiva

X4 : Rasio Perputaran Tabel Aktiva

X10 : Rasio Hasil Pengembalian atas Ekuitas

X5 : Rasio Hutang terhadap Aktiva

: Kategori awal perusahaan (sehat dan tidak sehat)

X6 : Rasio Hutang terhadap Ekuitas


Untuk melakukan analisis diskriminan, pilih menu Analyze > Classify > Discriminant
Kemudian masukkan Grouping Variable: y, lalu Define Range: minimum 0 dan maximum 1,
continue.
-

Hidupkan Use Stepwise Method, dan pada bagian Method, hidupkan mahalanobis distance,
dan use probability of F.

Pada bagian statistics, hidupkan means, univariate ANOVA, function coefficient hidupkan
unstandardized.

Pada bagian classification, klik casewise result, dan leave-one out classification.

Pada bagian save, hidupkan predicted group membership.

Klik OK.

P a g e | 17

-aNNa- Pelatihan SPPS by MIIS, Melb 2008


Discriminant
Group Statistics

Y
,00

1,00

Total

X1
X2
X3
X4
X5
X6
X7
X8
X9
X10
X1
X2
X3
X4
X5
X6
X7
X8
X9
X10
X1
X2
X3
X4
X5
X6
X7
X8
X9
X10

Mean
,8511
,5558
5,8368
,8689
,6926
,5089
,1847
-,0374
-9,1942
-21,6105
1,5879
,9061
5,5280
,9861
,5400
,7482
,2174
,0500
7,2089
14,1602
1,4129
,8229
5,6014
,9583
,5763
,6914
,2096
,0292
3,3131
5,6646

Std. Deviation
,89764
,49082
,99584
,41808
,13295
,82179
,06769
,04382
6,55686
6,33255
,92453
,44088
1,11652
,61649
,12724
,54300
,06522
,04872
6,01210
12,88835
,96557
,47436
1,09099
,57532
,14351
,62314
,06685
,06033
9,30537
19,23399

Valid N (listwise)
Unweighted Weighted
19
19,000
19
19,000
19
19,000
19
19,000
19
19,000
19
19,000
19
19,000
19
19,000
19
19,000
19
19,000
61
61,000
61
61,000
61
61,000
61
61,000
61
61,000
61
61,000
61
61,000
61
61,000
61
61,000
61
61,000
80
80,000
80
80,000
80
80,000
80
80,000
80
80,000
80
80,000
80
80,000
80
80,000
80
80,000
80
80,000

Tests of Equality of Group Means

X1
X2
X3
X4
X5
X6
X7
X8
X9
X10

Wilks'
Lambda
,893
,900
,985
,992
,793
,973
,956
,615
,430
,366

F
9,325
8,666
1,163
,597
20,414
2,167
3,566
48,742
103,326
135,279

df1

P a g e | 18

df2
1
1
1
1
1
1
1
1
1
1

78
78
78
78
78
78
78
78
78
78

Sig.
,003
,004
,284
,442
,000
,145
,063
,000
,000
,000

-aNNa- Pelatihan SPPS by MIIS, Melb 2008


Analysis 1
Summary of Canonical Discriminant Functions
Eigenvalues
Function
1

Eigenvalue % of Variance
3,198a
100,0

Canonical
Correlation
,873

Cumulative %
100,0

a. First 1 canonical discriminant functions were used in the


analysis.

Wilks' Lambda
Wilks'
Lambda
,238

Test of Function(s)
1

Chi-square
104,726

df
10

Sig.
,000

Functions at Group Centroids


Function
1
-3,164
,985

Y
,00
1,00

Unstandardized canonical discriminant


functions evaluated at group means

Classification Statistics
Classification Resultsb,c

Original

Count
%

Cross-validated a

Count
%

Y
,00
1,00
,00
1,00
,00
1,00
,00
1,00

Predicted Group
Membership
,00
1,00
19
0
1
60
100,0
,0
1,6
98,4
18
1
3
58
94,7
5,3
4,9
95,1

Total
19
61
100,0
100,0
19
61
100,0
100,0

a. Cross validation is done only for those cases in the analysis. In


cross validation, each case is classified by the functions derived
from all cases other than that case.
b. 98,8% of original grouped cases correctly classified.
c. 95,0% of cross-validated grouped cases correctly classified.

Analisis Diskriminan dengan metode langsung digunakan untuk melakukan uji terhadap
semua variabel bebas secara serentak terhadap variabel terikat untuk membedakan kinerja keuangan
perusahaan food and beverages dalam dua kelompok, yaitu kelompok perusahaan dengan kinerja
keuangan yang sehat dan tidak sehat.

P a g e | 19

-aNNa- Pelatihan SPPS by MIIS, Melb 2008


Dengan menggunakan metode langsung, maka 10 rasio keuangan dari perusahaan food and
beverages dalam penelitian ini dimasukkan secara serempak. Hasil analisis tersebut adalah sebagai
berikut:
Koefisien Fungsi Diskriminan Standardized dan Unstandardized dengan Metode Langsung
No.
1.
2.
3.
4.
5.
6.
7.
8.
9.
10.

Rasio Keuangan
Rasio Lancar (X1)
Rasio Cair (X2)
Rasio Perputaran Persediaan (X3)
Rasio Perputaran Total Aktiva (X4)
Rasio Hutang Terhadap Aktiva (X5)
Rasio Hutang Terhadap Ekuitas (X6)
Marjin Laba Kotor (X7)
Rasio Laba Operasi Bersih Terhadap
Penjualan (X8)
Rasio Laba Operasi Bersih Terhadap Total
Aktiva (X9)
Rasio Hasil Pengembalian Atas Ekuitas
(X10)
Constanta

Standardized
0,254
0,003
-0,247
-0,405
-0,246
0,075
-0,028

Unstandardized
0,277
0,006
-0,227
-0,702
-1,913
0,121
-0,429

-0,005

-0,108

0,415

0,068

0,835

0,071
2,031

Dari tabel di atas dapat diketahui bahwa nilai koefisien fungsi diskriminan standardized dari
10 variabel pembeda berperan dalam mengelompokkan perusahaan food and beverages yang
berkinerja sehat dan perusahaan food and beverages yang berkinerja tidak sehat.
Koefisien fungsi diskriminan unstandardized dapat digunakan untuk melihat kontribusi
variabel X terhadap skor diskriminan apabila terjadi semua variabel X bernilai 0 (X=0), maka skor
diskriminannya adalah sebesar 2,031, yang berarti bahwa tanpa kontibusi dari variabel X, maka kodisi
keuangan suatu perusahaan menjadi positif sehingga cenderung masuk ke dalam kelompok
perusahaan yang berkinerja sehat.
Dari hasil struktur matrik dengan metode langsung dapat diketahui urutan dari variabel
pembeda yang paling memberikan kontribusi pada model diskriminan dengan metode langsung, yaitu
rasio hasil pengembalian atas ekuitas (X10), rasio laba operasi bersih terhadap total aktiva (X9), rasio
laba operasi bersih terhadap penjualan (X8), rasio hutang terhadap aktiva (X5), rasio lancar (X1), rasio
cair (X2), marjin laba kotor (X7), rasio hutang terhadap ekuitas (X6), rasio perputaran persediaan (X3),
dan rasio perputaran total aktiva (X4).
Pengelompokan perusahaan food dan beverages yang berkinerja sehat dan tidak sehat dapat
dilihat dari perhitungan rata rata nilai diskriminan. Function at group of centriods dengan
menggunakan metode langsung dari masing masing kelompok perusahaan food and beverages
adalah sebagai berikut:


Centroid dari kelompok perusahaan yang berkinerja sehat adalah 0.989.

Centriod dari kelompok perusahaan yang berkinerja tidak sehat adalah -3.176.

Batas nilai Z antara kelompok peruahaan yang berkinerja sehat dan perusahaan yang berkinerja
sehat adalah :

P a g e | 20

-aNNa- Pelatihan SPPS by MIIS, Melb 2008

Z CU =

Z CU =

N AZB + N B Z A
N A + NB

(61) (-2.984) + (19) (0.930)


= -2.054425
( 61 + 19)

Berdasarkan nilai ZCU, maka suatu perusahaan dikatakan berkinerja sehat apabila mempunyai
nilai Z< -2,1786.
Untuk mengetahui hubungan antara variabel pembeda dengan variabel terikat, dan juga seberapa
besar variabel terikat dapat dijelaskan oleh variabel pembeda, dapat dilihat dari nilai Canonical

Corelation Metode Langsung dari hasil penelitian ini.Koefisien determinasi Koefisien (R2) atau disebut
juga dengan Fit Model, dimana mempunyai nilai yang bergerak antara 0 1 atau ( 0 < R2 <1),
digunakan untuk mengukur variasi variabel terikat yang dapat dijelaskan oleh variabel bebas dalam
suatu model. Nilai R2 dapat diperoleh dengan mengkuadratkan nilai canonical coralation. Nilai

canonical coralation dengan menggunakan metode langung dalam penelitian ini adalah 0,873, maka
nilai R2 = (0,873)2 = 0,7621 atau R2 = 76,21%. Ini berarti kesepuluh variabel rasio keuangan yang
digunakan dalam penelitian ini mampu menjelaskan pemisahan antara perusahaan yang mempunyai
kinerja sehat dan tidak sehat sebesar 76,21%.

Hasil Pengelompokkan Berdasarkan Nilai Z Menurut Sampel Analisis Pada Kedua Kelompok
Perusahaan dengan Metode Langsung
Kinerja

Jumlah Kasus

Perusahaan
Tidak Sehat ( 0 )

Sehat ( 1 )

19

61

Prediksi Kategori Perusahaan


Tidak Sehat

Sehat

19

( 100%)

(0)

60

(1.6%)

( 98,4%)

Hasil dari analisis diskriminan masing-masing variabel yang diuji, yang dapat dilihat pada Test
of Equality of Group Means, diperoleh nilai Wilks Lambda, F ratio, dan tingkat signifikansi masingmasing variabel.
Dari output diatas diketahui bahwa dengan menggunakan tingkat signifikansi = 0,05,
ternyata terdapat empat variabel penelitian yang tidak signifikan, karena mempunyai nilai signifikan
of F di atas nilai (0,05), yaitu marjin laba kotor (X7), rasio hutang terhadap ekuitas (X6), rasio
perputaran persediaan (X3), rasio perputaran total aktiva (X4), sedangkan sisanya signifikan.

P a g e | 21

-aNNa- Pelatihan SPPS by MIIS, Melb 2008

4. Analisis Faktor
Maholtra (1996) mengatakan bahwa dalam analisis faktor ini tidak dibedakan antara variabel
independen dan variabel dependen dimana seluruh variabel yang ada diteliti, mempunyai hubungan
saling tergantung. Maholtra (1996) menjelaskan bahwa melalui analisis faktor akan diperoleh hasil:
1. Identifikasi dimensi-dimensi atau faktor-faktor mendasar yang dapat menjelaskan korelasi dari
serangkaian variabel.
2. Identifikasi variabel-variabel baru yang lebih kecil untuk menggantikan variabel yang tidak
berkorelasi dari serangkaian variabel asli (asal) yang berkorelasi dari analisa multivariate (analisa
regresi atau diskriminan).
3. Identifikasi variabel-variabel kecil yang menonjol (dari variabel yang lebih besar) dari suatu
analisis multivariate.
Jika variabel-variabel tersebut dibakukan model faktornya adalah sebagai berikut:
Xi = Ai1 F1 + Ai2 F2 + Ai3 F3 + + Aim Fm + Vi Ui
Dimana:
Xi = Variabel standar ke-i

Vi = Koefisien standar regresi dari variabel

Aij = Koefisien multiple regression dari variabel

i pada faktor khusus i

i pada common factor j

Ui = Faktor khusus dari variabel i

= Common Factor (faktor umum)

m = jumlah dari faktor-faktor umum.

Faktor-faktor tidak berkorelasi satu sama lain, juga tidak ada korelasinya dengan faktor-faktor
umum. Faktor-faktor umum dapat dinyatakan sebagai kombinasi linier dari variabel-variabel yang
dapat diamati. Dengan formula sebagai berikut:
Fi = Wi1 X1 + Wi2 X2 + Wi3 X3 + + Wik Xk
Dimana:
Fi

Estimasi faktor ke-i

Wi

Bobot atau koefisien nilai factor ;

k = Jumlah variabel

Merumuskan masalah
Menyusun Matriks Korelasi
Menentukan Jumlah Faktor
Merotasi Faktor-faktor
Menafsirkan Faktor-faktor

Menghitung
Skor Faktor

Memilih variabel
pengganti

Menentukan model yang tepat

P a g e | 22

-aNNa- Pelatihan SPPS by MIIS, Melb 2008


Berdasarkan gambar di atas secara umum penggunaan Analisis Faktor akan melalui beberapa
tahap antara lain:
1.

Uji Independensi Variabel dalam Matrik Korelasi


Pada tahap ini semua data yang masuk dengan bantuan komputer akan dapat diidentifikasi.
Variabel-variabel tertentu yang hampir tidak mempunyai korelasi dengan variabel lain sehingga
dapat dikeluarkan dari analisis, dalam waktu yang bersamaan juga dapat diketahui variabelvariabel yang menimbulkan masalah multikolinieritas dengan koefisien korelasi lebih tinggi dari
0,800. Jika terjadi demikian, maka variabel ini nantinya dijadikan satu atau dipilih salah satu
untuk analisis lebih lanjut (Barletts Test of Sphericity), untuk mengukur signifikansi uji ini
digunakan chi-square tabel. Kemudian dilakukan uji Keiser-Meyer-Olkin (KMO) untuk mengetahui
kecukupan sampelnya. Nilai KMO kurang dari 0,50 mensiratkan bahwa teknik analisis faktor
tidak tepat untuk digunakan dalam studi ini. Sedangkan semakin tinggi nilai KMO akan semakin
baik penggunaan model analisis faktor.

2.

Ekstraksi Faktor/Metode Analisis Faktor


Terdapat sejumlah teknik atau metode untuk melakukan ekstraksi dalam analisis faktor. Dalam
studi ini penentuan teknik analisis faktor akan dilakukan dengan teknik PCA (Principal
Component Analysis). Dengan teknik ini diharapkan dapat diperoleh hasil yang dapat
memaksimumkan prosentase varian yang mampu dijelaskan oleh model.

3.

Menentukan Jumlah Faktor dan Rotasi Faktor


Setelah variabel disusun berdasarkan pola korelasi hasil langkah pertama kemudian menentukan
jumlah faktor yang diperlukan untuk mewakili data. Pada langkah ini akan diketahui sejumlah
faktor yang dapat diterima atau layak mewakili seperangkat variabel yang dianalisis dengan
melihat dari besarnya nilai eigen value serta presentase varian total. Dalam penelitian ini
meskipun pada mulanya variabel-variabel yang dianalisis telah dikelompokkan secara apriori ke
dalam beberapa faktor, namun untuk analisis dan interpretasi selanjutnya akan didasarkan pada
hasil analisis statistik dengan teknik PCA dimana untuk memilih faktor inti yang dapat mewakili
sekelompok variabel adalah yang mempunyai nilai eigen value minimal sama dengan 1,00 (satu).
Hasil dari ekstraksi faktor yang masih kompleks kadangkala masih sulit untuk dapat
diinterpretasikan, oleh karena itu bila dari matriks faktor mula-mula ternyata masih sulit
diinterpretasikan maka diperlukan rotasi faktor yang dapat memperjelas dan mempertegas
factor loading dalam setiap faktor sehingga lebih mudah untuk diinterpretasikan. Selanjutnya
memperhatikan matrik faktor mula-mula, eigen value, persentase varian dan factor loading
minimum kita dapat menentukan suatu variabel masuk faktor yang mana, sehingga dapat
diidentifikasi nama atau sebutan lain dari variabel yang bergabung tadi.

4.

Perhitungan Skor Faktor


Perhitungan skor faktor pada dasarnya dimaksudkan untuk mencari nilai faktor yang dapat
digunakan untuk analisis multivariate selanjutnya.

5.

Pemilihan Surrogate Variabel

P a g e | 23

-aNNa- Pelatihan SPPS by MIIS, Melb 2008


Di samping mencari nilai skor faktor, cara lain yang dapat digunakan untuk keperluan analisis
multivariate selanjutnya adalah dengan mencari salah satu variabel dalam setiap faktor sebagai
wakil dari masing-masing faktor yang bersangkutan atau juga dikenal dengan surrogate variabel.
Pada umumnya penentuan surrogate variabel didasarkan pada nilai factor loading.
6.

Menentukan Ketetapan Model


Sama halnya dengan sejumlah model analisis statistik lainnya, untuk mengetahui apakah model
mampu menjelaskan dengan baik fenomena data yang ada perlu diuji terlebih dahulu
ketepatannya. Untuk menguji ketepatan model analisis faktor dengan teknik PCA dapat
dilakukan dengan melihat besarnya prosentase korelasi residual di atas 5% atau 10%. Semakin
tinggi nilai prosentase tersebut akan semakin buruk kemampuan model dalam menjelaskan
fenomena data yang ada. Tidak ada ketentuan yang baku mengenai batas maksimum
prosentase residual yang dapat diterima, namun bila tingkat residual mencapai lebih dari 50%
maka tingkat ketepatan teknik PCA akan semakin melemah, sehingga perlu dicari teknik analisis
faktor lain yang dapat meminimumkan nilai prosentase residual tersebut.

Contoh: Faktor-faktor apa sajakah yang dipertimbangkan konsumen dalam keputusan pembelian
deterjen Rinso
1.

2.

Variabel yang terkait dengan Internal Konsumen:


X1

Kebutuhan

X2

Pengalaman

X3

Persepsi

X4

Usia

X5

Gaya Hidup

X6

Kepribadian

X7

Sikap Pendirian

Variabel yang terkait dengan Budaya:


X3

3.

5.

Kebiasaan

Variabel yang terkait dengan Kelas Sosial:


X9

4.

Pendapatan

X10 :

Tingkat Pendidikan

X11 :

Pekerjaan

Variabel yang terkait dengan Kelompok Sosial dan Referensi:


X12 :

Keluarga

X13 :

Teman Sejawat

X14 :

Opini Pemimpin

Variabel yang terkait dengan Produk:


X15 :

Kemasan

X16 :

Kualitas

X17 :

Keistimewaan

P a g e | 24

-aNNa- Pelatihan SPPS by MIIS, Melb 2008

6.

7.

8.

X18 :

Merek

X19 :

Ukuran

X20 :

Manfaat

Variabel yang terkait dengan Harga:


X21 :

Harga Produk

X22 :

Diskon/Potongan Harga

X23 :

Pemberian Hadiah

Variabel yang terkait dengan Distribusi:


X24 :

Ketersediaan Produk

X25 :

Lokasi

Variabel yang terkait dengan Promosi:


X26 :

Frekuensi Penayangan

X27 :

Isi Peran Iklan

X28 :

Tokoh Pendukung

Tahap I
Masuk ke menu Analyze > Data Reduction > Factor. Masukkan semua variabel ke dalam
variables. Pada bagian Descriptives hidupkan KMO and Bartlett`s test of sphericity and Anti Image.

Nilai MSA
X1
X2
X3
X4
X5
X6
X7
X8
X9
X10
X11
X12
X13
X14

0,912
0,906
0,851
0,449 *
0,863
0,881
0,893
0,63
0,857
0,892
0,875
0,859
0,861
0,612

X15
X16
X17
X18
X19
X20
X21
X22
X23
X24
X25
X26
X27
X28

0,318*
0,905
0,925
0,913
0,896
0,923
0,764
0,276*
0,865
0,834
0,834
0,864
0,887
0,915

Angka MSA (Measure of Sampling Adequacy) berkisar antara 0 dan 1, jika




MSA = 1, berarti variabel tersebut dapat diprediksi tanpa kesalahan oleh variabel yang lain

MSA > 0,5, berarti variabel masih bisa diprediksi dan bisa dianalisis lebih lanjut

MSA < 0,5, berarti variabel tidak bisa diprediksi dan tidak bisa dianalisis lebih lanjut, atau
dikeluarkan dari variabel lainnya.

Pada analisis faktor tahap 1 yang melibatkan 28 variabel yang diuji, terdapat tiga variabel (tanda *)
yang tidak memenuhi persyaratan MSA (nilai MSA di bawah 0,5). Dengan demikian ketiga variabel
tersebut dikeluarkan dari model sehingga tersisa 25 variabel yang diuji kembali pada tahap II.
P a g e | 25

-aNNa- Pelatihan SPPS by MIIS, Melb 2008


Tahap II
Masuk ke menu Analyze > Data Reduction > Factor. Masukkan semua variabel kecuali ketiga
variabel yang tidak diikutkan, ke dalam variables. Pada bagian Descriptives hidupkan KMO and
Bartlett`s test of sphericity and Anti Image.
Nilai MSA
X1
X2
X3
X5
X6
X7
X8
X9
X10
X11
X12
X13

0,916
0,917
0,866
0,866
0,890
0,891
0,638
0,867
0,891
0,890
0,863
0,862

X14
X16
X17
X18
X19
X20
X21
X23
X24
X25
X26
X27
X28

0,649
0,909
0,929
0,914
0,899
0,923
0,788
0,873
0,836
0,831
0,889
0,886
0,919

Pada analisis faktor tahap II yang melibatkan 25 variabel, terdapat 2 variabel yang tidak memenuhi
persyaratan komunalitas (komunalitas di bawah 0,5) yaitu;
a. Pakar/ahli (X14) dengan komunalitas sebesar 0,464
b. Tokoh pendukung (X28) dengan komunalitas sebesar 0,456
Dengan demikian kedua variabel tersebut dikeluarkan dari model sehingga tersisa 23 variabel untuk
diuji kembali pada tahap III.
Komunalitas menunjukkan proporsi ragam yang dapat dijelaskan oleh p faktor bersama.
Tahap III
Masuk ke menu Analyze > Data Reduction > Factor. Masukkan semua variabel kecuali kelima
variabel yang tidak diikutkan, ke dalam variables.
-

Pada bagian Extraction, method pilih Principal Components, hidupkan unrotated factor solution
dan scree plot, hidupkan eigenvalue over 1 (dengan mengacu angka eigen value, bila nilai < 1,
maka akan dikeluarkan).

Pada bagian Rotation, hidupkan varimax, rotated solution, dan loading plot. Loading plot
menyajikan korelasi antara variabel tertentu dengan faktor yang terbentuk.

Pada bagian Scores, hidupkan save as variables.

Uji Determinant of Correlation Matrix


Matrik korelasi dikatakan antar variabel saling terkait apabila determinan bernilai mendekati
nilai 0. Hasil perhitungan menunjukkan nilai Determinant of Correlation Matrix sebesar 0,0000000.
Nilai ini mendekatai 0, dengan demikian matrik korelasi antara variabel saling terkait.

P a g e | 26

-aNNa- Pelatihan SPPS by MIIS, Melb 2008


Uji Kaiser Meyer Olkin Measure of Sampling (KMO)
Kaiser Meyer Olkin Measure of Sampling (KMO) adalah indek perbandingan jarak antara
koefisien korelasi dengan koefisien korelasi parsialnya. Jika jumlah kuadrat koefisen korelasi parsial di
antara seluruh pasangan variabel bernilai kecil jika dibandingkan dengan jumlah kuadrat koefisien
korelasi, maka akan menghasilkan nilai KMO mendekati 1. Nilai KMO dianggap mencukupi jika lebih
dari 0,5. Hasil penelitian menunjukkan bahwa nilai Kaiser Meyer Olkin Measure of Sampling sebesar
0,88267. Dengan demikian persyaratan KMO memenuhi persyaratan karena memiliki nilai di atas 0,5.

Barlett Test of Sphericity


Rumus yang digunakan untuk Barlett Test of Sphericity adalah sebagai berikut:

Barlett Test = - ln R n 1

2p + 5

Dimana

Nilai determinan

n = Jumlah data

p =

jumlah variabel

Hasil perhitungan dengan SPSS dihasilkan nilai Barlett Test of Spehricity sebesar 1971,8988
dengan signifikansi sebesar 0,0000. Dengan demikian Barlett Test of Spehricity memenuhi
persyaratan karena signifikansi di bawah 0,05 (5%)
Measures of Sampling Adequacy (MSA)
Pengujian persyaratan MSA terhadap 23 variabel yang tersisa dijelaskan tabel
berikut:
Hasil Uji Persyaratan MSA
Variabel
Kebutuhan (X1)
Pengalaman (X2)
Persepsi (X3)
Gaya hidup (X5)
Kepribadian (X6)
Sikap (X7)
Kebiasaan (X8)
Pendapatan (X9)
Tingkat pendidikan (X10)
Pekerjaan (X11)
Keluarga (X12)
Teman (X13)
Kualitas (X16)
Keistemawaan (X17)
Merek (X18)
Ukuran (X19)
Manfaat (X20)
Harga produk (X21)
Pemberian hadiah (X23)
Ketersediaan produk (X24)
Lokasi (X25)
Frekuensi penayangan (X26)
Isi peran iklan (X27)

MSA
0,91403
0,91703
0,86474
0,87181
0,89890
0,89083
0,65265
0,87487
0,88776
0,89010
0,86005
0,85838
0,91421
0,92747
0,90996
0,89275
0,91718
0,78607
0,87853
0,82935
0,82640
0,88432
0,88008

P a g e | 27

-aNNa- Pelatihan SPPS by MIIS, Melb 2008


Dari tabel di atas menunjukkan bahwa 23 variabel diuji memenuhi persyaratan MSA yaitu di
atas 0,5 sehingga dapat digunakan untuk pengujian selanjutnya
Komunalitas
Hasil pengujian persyaratan komunalitas dijelaskan tabel berikut ini:
Variabel
Kebutuhan (X1)
Pengalaman (X2)
Persepsi (X3)
Gaya hidup (X5)
Kepribadian (X6)
Sikap (X7)
Kebiasaan (X8)
Pendapatan (X9)
Tingkat pendidikan (X10)
Pekerjaan (X11)
Keluarga (X12)
Teman (X13)
Kualitas (X16)
Keistemawaan (X17)
Merek (X18)
Ukuran (X19)
Manfaat (X20)
Harga produk (X21)
Pemberian hadiah (X23)
Ketersediaan produk (X24)
Lokasi (X25)
Frekuensi penayangan (X26)
Isi peran iklan (X27)

Komunalitas
0,80487
0,70451
0,82335
0,84493
0,64873
0,80047
0,97894
0,7035
0,75516
0,69591
0,70538
0,79594
0,65984
0,67212
0,62720
0,62089
0,68048
0,78399
0,70879
0,74090
0,73866
0,77228
0,85696

Dari tabel di atas menujukkan 23 variabel diuji memenuhi persyaratan komunalitas yaitu lebih
besar dari 0,5.
Rotasi Faktor
Hasil rotasi faktor dengan metode varimax dijelaskan tabel berikut ini:
Tabel 11. Hasil Rotasi Faktor dengan Varimax
No
1
2
3
4
5
6
7
8
9
10
11
12
13

Variabel
Isi peran iklan (X27)
Frekuensi penayangan (X26)
Manfaat (X20)
Keistemawaan (X17)
Kualitas (X16)
Merek (X18)
Ukuran (X19)
Gaya hidup (X5)
Persepsi (X3)
Sikap (X7)
Kebutuhan (X1)
Pengalaman (X2)
Kepribadian (X6)

Faktor

Eigen Value
7,68744

% variance
33,4

3,21645

14,0

Faktor 1
(Promosi)

Faktor 2
(Individual
Konsumen )

P a g e | 28

-aNNa- Pelatihan SPPS by MIIS, Melb 2008


Teman (X13)
Tingkat pendidikan (X10)
Pekerjaan (X11)
Keluarga (X12)
Pendapatan (X9)
Harga produk (X21)
Lokasi (X25)
Ketersediaan produk (X24)
Pemberian hadiah (X23)
Kebiasaan (X8)

14
15
16
17
18
19
20
21
22
23

2,94558

12,8

2,27223

9,9

1,00212

4,4

Faktor 3
(Lingkungan)

Faktor 4
(Harga)
Faktor 5 (Budaya)

Total varians dari 5 faktor adalah 74,5% sehingga memenuhi persyaratan varian yaitu sebesar 0,6.
Pengertian total varian 74,5% adalah kelima faktor tersebut menjadi bahan pertimbangan konsumen
sebesar 74,5% sedangkan sisanya (25,5%) faktor-faktor lain di luar 5 faktor tersebut.

5. DESAIN EKSPERIMEN
A. Pengantar Desain Eksperimen
Desain Eksperimen merupakan salah satu metode statistik yang digunakan sebagai salah satu
alat untuk meningkatkan dan melakukan perbaikan kualitas. Perubahan-perubahan terhadap
variabel suatu proses atau sistem diharapkan akan memberi hasil (respon) yang optimal dan
cukup memuaskan.
Definisi Desain Eksperimen:


suatu uji atau rentetan uji dengan mengubah-ubah variabel input (faktor) suatu proses
sehingga bisa diketahui penyebab perubahan output (respons)

Istilah-Istilah Dalam Desain Eksperimen




Unit Eksperimen
unit dasar di mana ukuran respons dikumpulkan

Faktor
tipe kondisi berbeda dalam Eksperimen yang bisa diubah-ubah.

Level
cara / mode berbeda suatu faktor.

Perlakuan (treatment)
kombinasi level pada faktor yang berbeda

Replikasi / ulangan
banyaknya perulangan unit Eksperimen pada perlakuan tertentu

Tujuan Desain Eksperimen




Menentukan variabel input (faktor) yang berpengaruh terhadap respons

Menentukan variabel input yang membuat respons mendekati nilai yang diinginkan

Menentukan variabel input yang menyebabkan variasi respons kecil

P a g e | 29

-aNNa- Pelatihan SPPS by MIIS, Melb 2008


Prinsip Dasar Desain Eksperimen
1. Replikasi / Ulangan


terdapat pengulangan yang sama pada unit Eksperimen yang berbeda

melalui ulangan dapat diketahui variabilitas alami dan kesalahan pengukuran

sifat 1  penyimpangan taksiran / dugaan dalam Eksperimen

sifat 2  rata-rata sampel yang digunakan untuk menaksir pengaruh suatu faktor dalam
Eksperimen

2. Randomisasi / Pengacakan


Perlakuan harus diberikan secara acak pada unit-unit Eksperimen. Secara umum, metode
statistik mengharapkan bahwa pengamatan atau error adalah variabel independen,
random, dan berdistribusi tertentu

3. Kontrol Lokal


Artinya sebarang metode yang dapat menjelaskan dan mengurangi variabilitas alami.
Prinsip dilakukan dengan mengelompokkan satuan unit eksperimen yang mirip ke dalam
blok (kelompok) tertentu. Pengelompokan (blocking) bertujuan meningkatkan ketepatan
eksperimen.

Langkah - Langkah Desain Eksperimen




Mengenali permasalahan

Memilih Variabel Respons

Menentukan Faktor dan Level

Memilih metode Desain Eksperimen

Melaksanakan Eksperimen

Analisis data

Membuat suatu keputusan

ANALISIS RAGAM (Analysis of Variance)




ANOVA digunakan untuk menyelidiki hubungan antara variabel respons (dependen)


dengan 1 atau beberapa variabel prediktor (independen).

ANOVA pada prinsipnya sama dengan regresi, tetapi skala data variabel independen
adalah kategorik, yaitu skala ordinal atau nominal

B. Desain Eksperimen Satu Faktor


One-way ANOVA:


MODEL : yij = + i + ij
dengan :

i =1

dan

=0

i =1

menyatakan rataan keseluruhan (grand mean) dan i disebut sebagai efek atau pengaruh
perlakuan ke-i

P a g e | 30

-aNNa- Pelatihan SPPS by MIIS, Melb 2008




Hipotesis yang ingin diuji adalah :


H0 : 1 = 2 = = r = 0
H1 : paling sedikit satu i tidak sama dengan nol

Contoh Penerapan :
Dalam suatu percobaan industri seorang insinyur ingin menyelidiki bagaimana rataan penyerapan
uap air dalam beton berubah di antara lima adukan beton yang berbeda. Adukan beton ini
berbeda dalam persen berat komponen penting. Sampel dibiarkan kena uap air selama 48 jam.
Dari tiap adukan diambil 6 sampel untuk diuji, sehingga seluruhnya diperlukan 30 sampel. Ujilah
kesamaan rata-rata pada taraf signifikansi 0.05 mengenai penyerapan uap air oleh berbagai jenis
adukan semen!

ADUKAN BETON (% BERAT)


Ulangan

551

595

639

417

563

457

580

615

449

631

450

508

511

517

522

731

583

573

438

613

499

633

648

415

656

632

517

677

555

679

TOTAL

3320

3416

3663

2791

3664

16854

RATAAN

553.33

569.33

610.5

465.17

610.67

561.8

Langkah membuat ANOVA (Analisis Ragam) :


1. Pilih Analyze > General Linear Model > Univariate
2. Isikan uap air pada kotak Dependent Variable dan beton pada kotak Fixed Factor
3. Klik Post Hoc ; masukkan beton pada kotak Post Hoc test for
4. Beri tanda cek () untuk LSD, Tukey, dan Dunnett
5. Dalam box Control Category, pilih first
6. Klik Continue, OK

Output :

Tests of Between-Subjects Effects


Dependent Variable: UAP_AIR
Source
Corrected Model
Intercept
BETON
Error
Total
Corrected Total

Type III Sum


of Squares
85356.467a
9468577.200
85356.467
124020.333
9677954.000
209376.800

df
4
1
4
25
30
29

Mean Square
21339.117
9468577.200
21339.117
4960.813

a. R Squared = .408 (Adjusted R Squared = .313)

P a g e | 31

F
4.302
1908.674
4.302

Sig.
.009
.000
.009

-aNNa- Pelatihan SPPS by MIIS, Melb 2008

Post Hoc Tests


BETON
Multiple Comparisons
Dependent Variable: UAP_AIR

Tukey HSD

(I) BETON
1

LSD

Dunnett t (2-sided)a

2
3
4
5

(J) BETON
2
3
4
5
1
3
4
5
1
2
4
5
1
2
3
5
1
2
3
4
2
3
4
5
1
3
4
5
1
2
4
5
1
2
3
5
1
2
3
4
1
1
1
1

Mean
Difference
(I-J)
-16.0000
-57.1667
88.1667
-57.3333
16.0000
-41.1667
104.1667
-41.3333
57.1667
41.1667
145.3333*
-.1667
-88.1667
-104.1667
-145.3333*
-145.5000*
57.3333
41.3333
.1667
145.5000*
-16.0000
-57.1667
88.1667*
-57.3333
16.0000
-41.1667
104.1667*
-41.3333
57.1667
41.1667
145.3333*
-.1667
-88.1667*
-104.1667*
-145.3333*
-145.5000*
57.3333
41.3333
.1667
145.5000*
16.0000
57.1667
-88.1667
57.3333

Std. Error
40.66454
40.66454
40.66454
40.66454
40.66454
40.66454
40.66454
40.66454
40.66454
40.66454
40.66454
40.66454
40.66454
40.66454
40.66454
40.66454
40.66454
40.66454
40.66454
40.66454
40.66454
40.66454
40.66454
40.66454
40.66454
40.66454
40.66454
40.66454
40.66454
40.66454
40.66454
40.66454
40.66454
40.66454
40.66454
40.66454
40.66454
40.66454
40.66454
40.66454
40.66454
40.66454
40.66454
40.66454

Sig.
.995
.630
.224
.627
.995
.847
.109
.845
.630
.847
.012
1.000
.224
.109
.012
.012
.627
.845
1.000
.012
.697
.172
.040
.171
.697
.321
.017
.319
.172
.321
.001
.997
.040
.017
.001
.001
.171
.319
.997
.001
.984
.444
.123
.441

Based on observed means.


*. The mean difference is significant at the .05 level.
a. Dunnett t-tests treat one group as a control, and compare all other groups against it.

P a g e | 32

95% Confidence Interval


Lower Bound Upper Bound
-135.4265
103.4265
-176.5932
62.2598
-31.2598
207.5932
-176.7598
62.0932
-103.4265
135.4265
-160.5932
78.2598
-15.2598
223.5932
-160.7598
78.0932
-62.2598
176.5932
-78.2598
160.5932
25.9068
264.7598
-119.5932
119.2598
-207.5932
31.2598
-223.5932
15.2598
-264.7598
-25.9068
-264.9265
-26.0735
-62.0932
176.7598
-78.0932
160.7598
-119.2598
119.5932
26.0735
264.9265
-99.7502
67.7502
-140.9168
26.5835
4.4165
171.9168
-141.0835
26.4168
-67.7502
99.7502
-124.9168
42.5835
20.4165
187.9168
-125.0835
42.4168
-26.5835
140.9168
-42.5835
124.9168
61.5832
229.0835
-83.9168
83.5835
-171.9168
-4.4165
-187.9168
-20.4165
-229.0835
-61.5832
-229.2502
-61.7498
-26.4168
141.0835
-42.4168
125.0835
-83.5835
83.9168
61.7498
229.2502
-90.0084
122.0084
-48.8418
163.1751
-194.1751
17.8418
-48.6751
163.3418

-aNNa- Pelatihan SPPS by MIIS, Melb 2008

Homogeneous Subsets
UAP_AIR
Subset
BETON
Tukey HSDa,b 4
1
2
3
5
Sig.

N
6
6
6
6
6

1
465.1667
553.3333
569.3333

.109

2
553.3333
569.3333
610.5000
610.6667
.627

Means for groups in homogeneous subsets are displayed.


Based on Type III Sum of Squares
The error term is Mean Square(Error) = 4960.813.
a. Uses Harmonic Mean Sample Size = 6.000.
b. Alpha = .05.

Interpretasi :


KEPUTUSAN : TOLAK H0 (karena Fhit > F tabel) (4.30 > 2.76)

KESIMPULAN : Bahwa kelima adukan tidak mempunyai rataan penyerapan yang sama. p

value (nilai peluang) untuk F = 4.30 lebih kecil dari 0.01




Hasil ANOVA menyatakan terdapat perbedaan yang signifikan dari rataan penyerapan uap
air dalam beton berdasarkan persentase berat adukan beton. Oleh karena itu kita perlu
melakukan uji untuk mengetahui level yang berbeda. Terdapat tiga uji yang dapat digunakan,
yaitu Dunnets Test, Tukeys Test, dan Fishers Test.

Dunnetts test menggunakan level kontrol persentase berat adukan beton 1 dan tingkat
kesalahan 5%. Kita dapat melakukan interpretasi dengan melihat interval rata-rata. Aturan
keputusannya adalah apabila dalam interval rata-rata atau antara nilai terendah (lower) sampai
nilai tertinggi (upper) mencakup bilangan 0 (nol), maka kesimpulannya adalah tidak ada
perbedaan rata-rata penyerapan uap air antar level adukan. Output di atas menunjukkan bahwa
keseluruhan dari interval mencakup nilai nol. Sehingga melalui uji Dunnett dapat disimpulkan
bahwa perlakuan adukan 2, 3, 4, dan 5 tidak mempunyai perbedaan yang cukup signifikan
dengan rata-rata perlakuan adukan 1 (sebagai kontrol). Atau dengan kata lain adukan 2, 3, 4 dan
5 relatif sama pengaruhnya dengan adukan 1 terhadap penyerapan uap air yang dihasilkan.

Tukeys test melakukan perbandingan untuk semua level faktor agar memperoleh suatu
kesimpulan yang cukup memuaskan. Cara membaca output Tukeys test tidak berbeda jauh
dengan output Dunnetts test, Yakni apabila dalam interval rata-rata atau antara nilai terendah
(lower) sampai nilai tertinggi (upper) mencakup bilangan 0 (nol), maka kesimpulannya adalah
tidak ada perbedaan rata-rata penyerapan uap air antar level adukan yang bersangkutan. Dari
output terlihat bahwa yang berbeda adalah antara adukan 3 dan 4; dan adukan 4 dan 5.
Sedangkan pasangan yang lain relatif sama pengaruhnya karena interval melewati nilai 0.

P a g e | 33

-aNNa- Pelatihan SPPS by MIIS, Melb 2008


Fishers test sering juga disebut Least Significant Difference (LSD). Seperti halnya Tukeys
test, Fishers test pun melakukan uji perbandingan untuk semua kemungkinan level. Cara
menginterpretasikan output juga sama dengan Tukey. Dari output terlihat bahwa ada sedikit
perbedaan yang dihasilkan, yakni pasangan perlakuan yang berbeda sekarang adalah : adukan 1
dan 4 ; 2 dan 4 ; 3 dan 4 ; serta 4 dan 5.
Two-way ANOVA:
Misalkan kita tidak hanya ingin melihat perbedaan pengaruh perlakuan, namun juga pengaruh
ulangan. Yakni ingin diketahui apakah masing-masing ulangan mempunyai perbedaan yang
signifikan terhadap penyerapan uap air?
Maka karena kita ingin melihat tidak hanya pengaruh dari perlakuan namun juga ulangan maka
dilakukan Two-way ANOVA.
1. Pilih Analyze > General Linear Model > Univariate
2. Isikan uap air pada kotak Dependent Variable dan beton dan ulangan pada kotak
Fixed Factor
3. Klik Model, masukkan beton dan ulangan pada kotak Model
4. Klik Post Hoc ; masukkan beton pada kotak Post Hoc test for
5. Beri tanda cek () untuk LSD, Tukey, dan Dunnett
6. Dalam box Control Category, pilih first
7. Klik Continue, OK

Univariate Analysis of Variance


Tests of Between-Subjects Effects
Dependent Variable: UAP_AIR
Source
Corrected Model
Intercept
BETON
ULANGAN
Error
Total
Corrected Total

Type III Sum


of Squares
121330.867a
9468577.200
85356.467
35974.400
88045.933
9677954.000
209376.800

df
9
1
4
5
20
30
29

Mean Square
13481.207
9468577.200
21339.117
7194.880
4402.297

a. R Squared = .579 (Adjusted R Squared = .390)

P a g e | 34

F
3.062
2150.827
4.847
1.634

Sig.
.018
.000
.007
.197

-aNNa- Pelatihan SPPS by MIIS, Melb 2008

Post Hoc Tests


BETON
Multiple Comparisons
Dependent Variable: UAP_AIR

Tukey HSD

(I) BETON
1

LSD

Dunnett t (2-sided)a

2
3
4
5

(J) BETON
2
3
4
5
1
3
4
5
1
2
4
5
1
2
3
5
1
2
3
4
2
3
4
5
1
3
4
5
1
2
4
5
1
2
3
5
1
2
3
4
1
1
1
1

Mean
Difference
(I-J)
-16.0000
-57.1667
88.1667
-57.3333
16.0000
-41.1667
104.1667
-41.3333
57.1667
41.1667
145.3333*
-.1667
-88.1667
-104.1667
-145.3333*
-145.5000*
57.3333
41.3333
.1667
145.5000*
-16.0000
-57.1667
88.1667*
-57.3333
16.0000
-41.1667
104.1667*
-41.3333
57.1667
41.1667
145.3333*
-.1667
-88.1667*
-104.1667*
-145.3333*
-145.5000*
57.3333
41.3333
.1667
145.5000*
16.0000
57.1667
-88.1667
57.3333

Std. Error
38.30708
38.30708
38.30708
38.30708
38.30708
38.30708
38.30708
38.30708
38.30708
38.30708
38.30708
38.30708
38.30708
38.30708
38.30708
38.30708
38.30708
38.30708
38.30708
38.30708
38.30708
38.30708
38.30708
38.30708
38.30708
38.30708
38.30708
38.30708
38.30708
38.30708
38.30708
38.30708
38.30708
38.30708
38.30708
38.30708
38.30708
38.30708
38.30708
38.30708
38.30708
38.30708
38.30708
38.30708

Sig.
.993
.579
.185
.576
.993
.817
.086
.815
.579
.817
.009
1.000
.185
.086
.009
.009
.576
.815
1.000
.009
.681
.151
.032
.150
.681
.295
.013
.293
.151
.295
.001
.997
.032
.013
.001
.001
.150
.293
.997
.001
.980
.397
.100
.395

Based on observed means.


*. The mean difference is significant at the .05 level.
a. Dunnett t-tests treat one group as a control, and compare all other groups against it.

P a g e | 35

95% Confidence Interval


Lower Bound Upper Bound
-130.6291
98.6291
-171.7958
57.4625
-26.4625
202.7958
-171.9625
57.2958
-98.6291
130.6291
-155.7958
73.4625
-10.4625
218.7958
-155.9625
73.2958
-57.4625
171.7958
-73.4625
155.7958
30.7042
259.9625
-114.7958
114.4625
-202.7958
26.4625
-218.7958
10.4625
-259.9625
-30.7042
-260.1291
-30.8709
-57.2958
171.9625
-73.2958
155.9625
-114.4625
114.7958
30.8709
260.1291
-95.9072
63.9072
-137.0738
22.7405
8.2595
168.0738
-137.2405
22.5738
-63.9072
95.9072
-121.0738
38.7405
24.2595
184.0738
-121.2405
38.5738
-22.7405
137.0738
-38.7405
121.0738
65.4262
225.2405
-80.0738
79.7405
-168.0738
-8.2595
-184.0738
-24.2595
-225.2405
-65.4262
-225.4072
-65.5928
-22.5738
137.2405
-38.5738
121.2405
-79.7405
80.0738
65.5928
225.4072
-85.5537
117.5537
-44.3870
158.7204
-189.7204
13.3870
-44.2204
158.8870

-aNNa- Pelatihan SPPS by MIIS, Melb 2008

Homogeneous Subsets
UAP_AIR

Tukey HSDa,b

BETON
4
1
2
3
5
Sig.

N
6
6
6
6
6

Subset
1
2
465.1667
553.3333
553.3333
569.3333
569.3333
610.5000
610.6667
.086
.576

Means for groups in homogeneous subsets are displayed.


Based on Type III Sum of Squares
The error term is Mean Square(Error) = 4402.297.
a. Uses Harmonic Mean Sample Size = 6.000.
b. Alpha = .05.

C. Desain Faktorial
Desain faktorial digunakan apabila eksperimen terdiri atas dua faktor atau lebih. Desain faktorial
memungkinkan kita melakukan kombinasi antar level faktor. Kita memerlukan desain faktorial
apabila interaksi antarfaktor mungkin mempengaruhi kesimpulan.
Gambar berikut menunjukkan contoh hirarki desain faktorial untuk 2 faktor.

A1

Faktor A

Faktor B
Replikasi

B1

B2

A2

....

Bb

B1

B2

....

....

Aa

Bb

B1

B2

....

Bb
-

Contoh Penerapan :
Berikut adalah ilustrasi desain faktorial untuk 2 faktor. Kasus yang akan diangkat mengenai
desain baterai dengan waktu hidup lebih lama. Berikut adalah datanya :
Tipe Material

Temperatur
0

15 F

70 F

125 F

130
155
74
180
150
188
159
126
138

34
40
80
75
136
122
106
115
174

20
70
82
58
25
70
58
45
96

110

120

104

168

150

82

160

139

60

P a g e | 36

-aNNa- Pelatihan SPPS by MIIS, Melb 2008


Ahli baterai memperkirakan ada dua faktor yang memiliki pengaruh terhadap lama waktu hidup
baterai, yaitu tipe material yang dijadikan bahan baterai dan temperatur yang digunakan.
Eksperimen mengidentifikasikan 3 tipe material yang diperkirakan mempengaruhi baterai dan
dapat memaksimalkan waktu hidupnya. Pada eksperimen, ahli baterai mengetahui bahwa rentang
temperatur tertentu dapat pula memaksimalkan waktu hidup. Untuk memaksimalkannya
temperatur dikendalikan dalam 3 level untuk tiap-tiap material, yaitu 150 F, 700 F, dan 1250 F.
Pada eksperimen, ahli baterai menguji 4 baterai di tiap kombinasi level tipe material dan
temperatur sehingga total ada 36 pengamatan yang dilakukan.
1. Pilih Analyze > General Linear Model > Univariate
2. Isikan wkt_hdp pada kotak Dependent Variable dan material dan suhu pada kotak
Fixed Factor
3. Klik Model, pilih full factorial
4. Klik Post Hoc ; masukkan material dan suhu pada kotak Post Hoc test for
5. Klik Plots; masukkan suhu pada Horisontal Axis dan material pada Separate Lines, klik
add
6. Klik Continue, OK
Output :
Tests of Between-Subjects Effects
Dependent Variable: WKT_HDP
Source
Corrected Model
Intercept
MATERIAL
SUHU
MATERIAL * SUHU
Error
Total
Corrected Total

Type III Sum


of Squares
59416.222a
400900.028
10683.722
39118.722
9613.778
18230.750
478547.000
77646.972

df
8
1
2
2
4
27
36
35

Mean Square
7427.028
400900.028
5341.861
19559.361
2403.444
675.213

F
11.000
593.739
7.911
28.968
3.560

a. R Squared = .765 (Adjusted R Squared = .696)

Profile Plots
Estimated Marginal Means of WKT_HDP
180

160

Estimated Marginal Means

140

120
100

MATERIAL
80

60

40

15

70

SUHU

P a g e | 37

125

Sig.
.000
.000
.002
.000
.019

-aNNa- Pelatihan SPPS by MIIS, Melb 2008


Interpretasi :
Tabel ANOVA dapat digunakan untuk mengetahui pengaruh tiap faktor atau interaksi antar faktor
terhadap variabel respons (waktu hidup baterai).
Dalam kasus ini, ada 2 faktor dan 1 interaksi sehingga ada 3 hipotesis yang harus dirumuskan,
yaitu uji hipotesis untuk mengetahui pengaruh tipe material, pengaruh temperatur dan pengaruh
interaksi antara tipe material dan temperatur.

Memeriksa Pengaruh Tipe Material Terhadap Waktu Hidup Baterai


Hipotesis :
H0 :

1 = 2 =3 = 0
(tipe material tidak berpengaruh terhadap waktu hidup baterai)

H1 :

paling sedikit satu i 0

i = 1, 2, 3

(tipe material berpengaruh terhadap waktu hidup baterai)


Untuk melihat hasil uji hipotesis adalah dengan cara melihat nilai p-value yang dihasilkan dari
tabel ANOVA untuk Tipe Material.
Dari output dihasilkan p-value adalah sebesar 0.002. Nilai ini kurang dari sebesar 0.05.
Sehingga H0 ditolak dan dapat disimpulkan bahwa terdapat pengaruh yang signifikan dari tipe
material terhadap waktu hidup baterai.

Memeriksa Pengaruh Temperatur Terhadap Waktu Hidup Baterai


Hipotesis :
H0 :

1 = 2 =3 = 0
(temperatur tidak berpengaruh terhadap waktu hidup baterai)

H1 :

paling sedikit satu j 0

j = 1, 2, 3

(temperatur berpengaruh terhadap waktu hidup baterai)


Untuk melihat hasil uji hipotesis adalah dengan cara melihat nilai p-value yang dihasilkan dari
tabel ANOVA untuk Temperatur.
Dari output dihasilkan p-value adalah sebesar 0.000. Nilai ini kurang dari sebesar 0.05.
Sehingga H0 ditolak dan dapat disimpulkan bahwa terdapat pengaruh yang signifikan dari
temperatur terhadap waktu hidup baterai.

Memeriksa Pengaruh Interaksi antar Faktor terhadap Waktu Hidup Baterai


Hipotesis :
H0 :

()ij = 0 untuk semua i, j


(interaksi antar faktor tidak berpengaruh terhadap waktu hidup baterai)

H1 :

()ij 0
(interaksi antar faktor berpengaruh terhadap waktu hidup baterai)

Untuk melihat hasil uji hipotesis adalah dengan cara melihat nilai p-value yang dihasilkan dari
tabel ANOVA untuk Interaction effect Tipe Material*Temperatur.
P a g e | 38

-aNNa- Pelatihan SPPS by MIIS, Melb 2008


Dari output dihasilkan p-value adalah sebesar 0.019. Nilai ini kurang dari sebesar 0.05.
Sehingga H0 ditolak dan dapat disimpulkan bahwa terdapat pengaruh yang signifikan dari
interaksi antara tipe material dan temperatur terhadap waktu hidup baterai.

GRAFIK UNTUK DESAIN FAKTORIAL


Interpretasi :
Gambar di atas memperlihatkan bahwa tipe material 3 dan temperatur 150F memiliki pengaruh
besar terhadap waktu hidup baterai. Kedua jenis faktor memiliki pengaruh yang berlawanan.
Semakin tinggi level tipe material, semakin besar pengaruhnya terhadap waktu hidup baterai.
Sebaliknya, semakin tinggi temperaturnya maka akan memberi pengaruh yang semakin kecil
terhadap waktu hidup baterai.
Dari analisis plot interaksi antara tipe material dan temperatur, kita mengetahui bahwa interaksi
faktor yang cukup mempengaruhi waktu hidup baterai adalah interaksi antara tipe material
dengan temperatur pada saat temperaturnya 700 F.

P a g e | 39

Anda mungkin juga menyukai