Anda di halaman 1dari 11

Kamis,16 Maret 2017

1. Akan diuji apakah residual atau error memiliki distribusi normal


( Asumsi Normalitas )

Dengan menggunakan software R

> data=read.csv("anreg.csv",header=TRUE,sep=",")
> data
X1 X2 X3 Y
1 80 27 89 42
2 80 27 88 37
3 75 25 90 37
4 62 24 87 28
5 62 22 87 18
6 62 23 87 18
7 62 24 93 19
8 62 24 93 20
9 58 23 87 15
10 58 18 80 14
11 58 18 89 14
12 58 17 88 13
13 58 18 82 11
14 58 19 93 12
15 50 18 89 8
16 50 18 86 7
17 50 19 72 8
18 50 19 79 8
19 50 19 80 9
20 56 20 82 15
21 70 20 91 15
> attach(data)
> dataku=data.frame(X1,X2,X3,Y)
> plot(X1,Y)
> abline(lm(Y~X1))
> hasil=lm(Y~X1)
> hasil
Call:
lm(formula = Y ~ X1)

Coefficients:
(Intercept) X1
-44.13 1.02
Didapatkan model :
Y= -44.13+ 1.02 X1

Artinya setiap penambahan 1 satuan X maka Y akan meningkat


sebesar 1.02 satuan.

Dari gambar diatas dapat kita lihat bahwa titik data tidak mengikuti
garis lurus,namun untuk memastikan apakah error berdistribusi
normal atau tidak maka perlu dijum normalitas error dengan
mengitung error terlebih dahulu dengan rumus sebagai berikut :

e= Y-Yi
dengan
Y= b0+b1Xi

>
reg=function(X,Y,n){
+ b1=((sum(X*Y))-(sum(X)*sum(Y)/n))/((sum(X^2))-
((sum(X))^2)/n)
+ b0=(sum(Y)/n)-b1*(sum(X)/n)
+ model=cat("model regresinya adalah
y=",b0,"+",b1,"X","\n")
+ return(model)
+}
> reg(X1,Y,n)
model regresinya adalah y= -44.13202 + 1.020309 X
NULL

> ytopi=-44.132025+(1.0200309*X1)
> ytopi
[1] 37.47045 37.47045 32.37029 19.10989 19.10989
19.10989 19.10989 19.10989
[9] 15.02977 15.02977 15.02977 15.02977 15.02977
15.02977 6.86952 6.86952
[17] 6.86952 6.86952 6.86952 12.98971 27.27014
> e=(ytopi)-Y
>e
[1] -4.5295530 0.4704470 -4.6297075 -8.8901092
1.1098908 1.1098908
[7] 0.1098908 -0.8901092 0.0297672 1.0297672
1.0297672 2.0297672
[13] 4.0297672 3.0297672 -1.1304800 -0.1304800
-1.1304800 -1.1304800
[19] -2.1304800 -2.0102946 12.2701380
> qqnorm(e)
> qqline(e)

Dilihat dari gambar plot antara residual(e) dengan Y dapat


kita tarik kesimpulan bahwa data mendekatri garis linear yang
menandakan bahwa data berdistribusi normal namun untuk
memastikan bahwa data berdistribusi normal maka akan diuji
dengan menggunakan Uji Kolmogorov Smirnov (Alasan
mengapa menggunakan Uji Kolmogorov Smirnov karena n
data<30), Uji sebagai berikut :

> z=rnorm(n=length(e),mean=mean(e),sd=sd(e))
> ks.test(e,z)

Two-sample Kolmogorov-Smirnov test

data: e and z
D = 0.19048, p-value = 0.8407
alternative hypothesis: two-sided

Warning message:
In ks.test(e, z) : cannot compute exact p-value with ties
Interpretasi :
Didapatkan hasil analisis bahwa p-value= 0.8407>
=0.05 maka H0 diterima artinya error berdistribusi
normal. Maka asumsi normalitas pertama terpenuhi.

2. Uji Asumsi Homokedastisitas

Untuk membuktikan apakah data diatas homoskedastisitas


maka lakukan plot antara penaksir dengan residual.

> plot(ytopi,e)
Interpretasi :

Dari plot antara penaksir dan residual dapat kita lihat


bahwa tidak adanya pola yang terbentuk artinya eror
memenuhi asumsi homokedastisitas.

3. Asumsi Non Autokorelasi


Untuk meguji apakah residual memenuhi asumsi non
autokorelasi maka perlu dilakukan uji dengan menggunakan
Uji Durbin Watson.

H0 : error tidak terjadi auto korelasi


H1: error terjadi auto korelasi
Alpha : 5%
Statistik Uji :
> library(lmtest)
> fit=lm(Y~X1)
> dwtest(fit)

Durbin-Watson test

data: fit
DW = 1.2642, p-value = 0.02299
alternative hypothesis: true autocorrelation is greater than
0

Interpretasi :

p-value<alpha maka Ho ditolak artinya terjadi autokorelasi


pada error

4. Tidak ada Outlier


> regresi(X1,Y)
bo b1
-44.132025 1.020309
> ytopi=-44.132025+(1.020309*X1)
> ytopi
[1] 37.492695 37.492695 32.391150 19.127133 19.127133
19.127133 19.127133
[8] 19.127133 15.045897 15.045897 15.045897 15.045897
15.045897 15.045897
[15] 6.883425 6.883425 6.883425 6.883425 6.883425
13.005279 27.289605
> e=ytopi-Y
>e
[1] -4.507305 0.492695 -4.608850 -8.872867 1.127133
1.127133 0.127133
[8] -0.872867 0.045897 1.045897 1.045897 2.045897
4.045897 3.045897
[15] -1.116575 -0.116575 -1.116575 -1.116575 -2.116575
-1.994721 12.289605
> boxplot(e)

Interpretasi :
Dari boxplot diatas dapat kita amati bahwa terdapat
outlier didalam data maka dapat disimpulkan bahwa
analisis residual ini tidak memenuhi asumsi ke 4.

Analisis Dengan Menggunakan SPSS :


Uji Asumsi 1 (Normalitas)

Langkah-langkah :
1. Masukan DataAnalyzeRegressionLinear
2. Masukan variabel dependent dan independent
3. Lalu klik plot dan masukan ZRESID ke variable Y dan
ZPRED ke variable X,klik Normal Probability Plot.Klik
Continue dan Ok. Maka akan keluar output sebagai berikut

Interpretasi :
Dari Uji Normal P-P Plot dapat kita lihat bahwa sebaran data mendekati garis
lurus, maka dapat dikatakan bahwa data cenderung mengikuti distribusi normal.
Namun dalam P-P Plot ini memiliki kelemahan karena dalam penentuan data
berdistribusi normal atau tidak hanya secara subjektif,artinya bersifat individu jadi
bisa saja pendapat para pengamat berbeda antara satu dengan yang lainnya.

2. Homokedastistitas :

Dengan menggunakan cara yang sama dengan asumsi pertama


didapatkan plot sebagai berikut :
Interpretasi :

Dari gambar plot diatas dapat kita lihat bahwa data tersebar secara merata tidak
membentuk pola apapun oleh karena itu dapat disimpulkan bahwa data non
heterokedastisitas atau homokedastisitas artinya memiliki variansi yang sama atau
tidak berbeda.Sama seperti penentuan uji normalitas karena scatter plot dilihat dan
dianalisis dengan menggunakan gambar scatter plot. Hal ini mengakibatkan
terjadinya penyimpulan keputusan yang subjektif yang akan menimbulkan perbedaan
pendapat antara pengamat satu dengan yang lainnya.

3. Asumsi Autokorelasi

Langkah-langkah :

1. Klik AnalyzeRegressionLinear

2. Lalu Klik StatisticsDurbin WatsonColeniarrity diagnotistics

Maka didapatkan hasil sebagai berikut :


Model Summaryb

Model R R Square Adjusted R Std. Error of the Durbin-Watson


Square Estimate
1 .956a .914 .898 3.24210 1.461

a. Predictors: (Constant), X3, X2, X1


b. Dependent Variable: Y

Interpretasi :

Nilai durbin Watson (dw) adalah 1.461 maka akan dibandingkan


dengan nilai durbin aupper (du) dan durbin lower (dl),yang nilai du
dan dlnya dapat dilihat dalam table-dw dengan n=21 dan k=3
dimana (n=jumlah sampel ; k=variable bebas).

Dapat dilihat dalam table sebagai berikut :

Dengan nilai durbin Watson 1.461 Maka dapat di simpulkan bahwa


nilai dw berada pada rentang antara dl dan du.Artinya autokorelasi
bersifat ragu-ragu,dimana kita mengatahui bahwa tujuan
autokorelasi adalah untuk melihat apakah ada korelasi antara eror
dalam satu pengamatan dengan pengamatan lain. Ternyata hasil
analisis menunjukan bahwa autokorelasi bersifat ragu-ragu berarti
bisa jadi terdapat autokorelasi bisa juga tidak.

5. Asumsi Multikolinearitas

Langkah-langkah :
1. Klik AnalyzeRegressionLinear
2. Klik StatisticsColinearity Diagnostics

Maka didapatkan hasil :

Coefficientsa

Model Unstandardized Standardized t Sig. Collinearity Statistics


Coefficients Coefficients

B Std. Error Beta Tolerance VIF

(Constant) -38.792 11.848 -3.274 .004

X1 .704 .137 .635 5.134 .000 .332 3.009


1
X2 1.318 .374 .413 3.523 .003 .370 2.702

X3 -.162 .156 -.085 -1.037 .314 .750 1.334

a. Dependent Variable: Y

Interpretasi :

Uji Multikolinearitas dapat diperiksa dengan memerhatikan Nilai Tolerance dan VIF
jika nilai VIF< 10,00 dan nilai Tolerance>0.01 maka dapat dikatakan bahwa data
tidak multikolinearitas. Karena ketiga variable bebas diatas memiliki VIF<10,00 dan
Tolerance>0,01 maka dapat disimpulkan bahwa data bebas dari adanya
multikolinearitas.

Yuhuuuu semangat saaar wkwkwk

Anda mungkin juga menyukai