Anda di halaman 1dari 26

MAKALAH EKONOMETRIKA

“Multikolinearitas”

OLEH:

KELOMPOK V

SRI MUSLIHAH BAKHTAR (60600115014)

NURUL RIHLAH (60600115062)

HUSNUL HATIMA (60600115055)

YUSRIANTO (60600110046)

JURUSAN MATEMATIKA

FAKULTAS SAINS DAN TEKNOLOGI

UNIVERSITAS ISLAM NEGERI ALAUDDIN MAKASSAR

2018
KATA PENGANTAR

Alhamdulilahi Robbil’Alamin puji dan syukur penulis panjatkan kehadirat

Allah S.W.T. karena dengan berkat dan rahmat dan hidayah-Nya lah sehingga

penulis dapat menyusun dan menyelesaikan laporan lengkap “[mata kuliah]” ini

yang insya Allah dapat bermanfaat. Tak lupa penulis kirimkan salam dan shalawat

kepada nabi Muhammad S.A.W. karena berkat beliaulah, sehingga ummat

manusia dapat terlepas dari zaman jahilia menuju zaman modern seperti saat ini.

Ucapan terima kasih penulis sampaikan kepada orang tua yang telah

menjadi sumber motivasi bagi penulis. Tak lupa penulis ucapkan terima kasih

kepada teman-teman atas bantuan dan kerjasamanya dalam menyelesaikan

makalah ini .

Penulis menyadari bahwa dalam makalah ini masih terdapat banyak

kesalahan. Oleh karena itu, kritik dan saran sangat dibutuhkan, agar makalah

selanjutnya dapat lebih baik lagi. Semoga makalah ini dapat memberikan

konstribusi pengetahuan yang bermanfaat bagi pembaca.

Samata,27 Mei 2018

Penulis

Kelompok V
DAFTAR ISI

SAMPUL
KATA PENGANTAR ............................................................................................ ii
DAFTAR ISI ......................................................................................................... iii
BAB I PENDAHULUAN ....................................................................................... 1
A. Latar Belakang ............................................................................................. 1
B. Rumusan Masalah ........................................................................................ 2
C. Tujuan .......................................................................................................... 2
BAB II TINJAUAN PUSTAKA............................................................................. 3
A. Pengertian Multikolinearitas ........................................................................ 3
B. Gejala Multikolinearitas ............................................................................... 5
C. Penyebab Multikolinearitas .......................................................................... 6
D. Dampak dari Multikolinearitas .................................................................... 7
E. Cara Mendeteksi Adanya Multikolinearitas................................................. 7
F. Cara Mengatasi Multikolinearitas .............................................................. 10
BAB III PEMBAHASAN .................................................................................... 14
BAB IV PENUTUP .............................................................................................. 26
A. Kesimpulan ................................................................................................ 26
B. Saran ........................................................................................................... 26
DAFTAR PUSTAKA ……………………………………………………………26
BAB I

PENDAHULUAN
A. Latar Belakang

Analisis regresi merupakan suatu alat statistik yang seringkali

digunakan sebagai peramalan suatu data untuk masa yang akan datang.

Analisis regresi digunakan untuk membangun suatu model matematis yang

dapat digunakan untuk meramalkan atau menduga nilai variabel Y (variabel

terikat/ dependen/ respon) berdasarkan pada nilai-nilai variabel X (variabel

bebas/ independen/ prediktor).

Model regresi yang paling sederhana adalah regresi linear sederhana

dimana dalam model regresi tersebut hanya terdapat satu variabel bebas

saja.Sedangkan jika variabel bebas yang digunakan dalam model regresi lebih

dari satu makadisebut regresi linear berganda.

Analisis regresi linear berganda lebih kompleks dari pada analisis

regresi linear sederhana karena lebih banyak melibatkan variabel yang dapat

menimbulkan permasalahan statistik yang berbeda. Salah satu permasalahan

yang sering muncul dalam analisis regresi linear berganda adalah terjadinya

multikolinearitas.

Dampak dari multikolinearitas ini dapat mengakibatkan koefisien

regresi yang dihasilkan oleh suatu analisis regresi linear berganda menjadi

sangat lemah sehingga tidak dapat memberikan hasil analisis yang mewakili

sifat atau pengaruh dari variabel bebas yang bersangkutan (Montgomery dan
Hines, 1990). Dalam banyak hal masalah multikolinearitas dapat

menyebabkan uji T menjadi tidak signifikan. Padahal jika masing-masing

variabel bebas diregresikan secara terpisah dengan variabel tak bebas (simple

regression), uji T menunjukkan hasil yang signifikan.

B. Rumusan Masalah

Adapun rumusan masalah pada makalah ini adalah bagaimana

penyebab adanya Multikolinearitas?

C. Tujuan

Tujuan dari makalah ini adalah untuk mengetahui penyebab adanya

Multikolinearitas
BAB II

TINJAUAN PUSTAKA

A. Pengertian Multikolinearitas

Multikolinearitas adalah suatu masalah yang timbul karena adanya

hubungan linear atau kolerasi antar variabel bebas dalam analisis regresi

linear berganda ( Chattejee dan Bertram 1991). Gangguan Multikolinearitas

terjadi jika dalam sebuah model terdapat korelasi antara dua atau lebih

variabel bebas. Logikanya jika kita ingin mencari pengaruh A,B dan C

terdapat D, muka seharusnya tidak ada korelasi baik antara A dan B, A dan C,

ataupun B dan C.

Multikolinearitas adalah sebuah situasi yang menunjukkan adanya

korelasi atau hubungan kuat antara dua variabel bebas atau lebih dalam

sebuah model regresi berganda. Model regresi yang dimaksud dalam hal ini

antara lain: regresi linear, regresi logistik, regresi data panel dan cox

regression.

Hubungan linear antara variabel-variabel bebas dapat terjadi dalam

bentuk hubungan linear yang sempurna (mulikolinearitas sempurna). Suatu

analis linear berganda tidak mungkin dapa dilakukan jika

terdapatmultikolinearitas sempurna antar variabel bebas. Akibat yang dapat

terjadi adalahpenduga kuadrat terkecil tidak bisa ditentukan serta varians dan

kovarians dari parameter menjadi tidak terhingga.

Uji Multikolinearitas untuk mengetahui adanya hubungan antara

beberapa atau semua variabel yang menjelaskan dalam model regresi. Jika
dalam model terdapat multikolinearitas maka model tersebut memiliki

kesalahan standar yang besar sehingga koefisien tidak dapat ditaksir dengan

ketepatan yang tinggi. Salah satu cara mendeteksi ada tidaknya

multikolinearitas adalah dengan uji Farrar-Glauber (perhitungan ratio-F untuk

menguji lokasi multikolinearitas). Hasil dari Fstatistik (Fi) dibandingkan

dengan F tabel. Kriteria pengujiannya adalah apabila F tabel > Fi maka

variabel bebas tersebut kolinear terhadap variabel lainnya. Sebaliknya, jika F

tabel < Fi, maka variabel bebas tersebut tidak kolinear terhadap variabel

bebas yang lain. Adanya multikolinearitas dapat mengakibatkan penduga

kuadrat terkecil menjadi tidak efisien dan kesimpulan antara uji statistik F

dan uji statistik T dalam pengujian hipotesis tentang parameter regresi

memiliki kesimpulan yang berbeda. Selain itu, adanya multikolinearitas

dalam analisis regresi linear berganda ini juga dapat menyebabkan standar

deviasi dari penduga nilainya akan meningkat sehingga nilai penduga

parameter yang dihasilkan dari analisis regresi akan tidak tepat. Standar

deviasi penduga merupakan akar varians dari penduga (Sarwoko, 2005).

Adanya multikolinearitas masih dapat menghasilkan penduga yang

bersifat tidak bias, tetapi dapat menyebabkan suatu model regresi berganda

mempunyai varians dan standar error yang besar. Ini dapat dilihat dari

persamaan-persamaan berikut ini:

∑ e2
σ2 = n−pi

σ2
var(bk−1 ) = 2 )
∑ Xi,k−1 (1 − rxx
Dimana :

ei = nilai kesalahan (error/galat)

n = jumlah observasi

p = banyaknya variabel bebas ditambah intersep

σ2 = variansi sisaan

var(bk−1 ) = variansi (bk−1 )

rxx = korelasi antara variabel-variabel bebas

B. Gejala Multikolinearitas

Dalam situasi terjadi multikolinearitas dalam sebuah model regresi

berganda, maka nilai koefisien beta dari sebuah variabel bebas atau variabel

predictor dapat berubah secara dramatis apabila ada penambahan atau

pengurangan variabel bebas di dalam model. Oleh karena itu,

multikolinearitas tidak mengurangi kekuatan prediksi secara simultan, namun

mempengaruhi nilai prediksi dari sebuah variabel bebas. Nilai prediksi

sebuah variabel bebas disini adalah koefisien beta. Oleh karena itu, sering kali

kita bisa mendeteksi adanya multikolinearitas dengan adanya nilai standar

error yang besar dari sebuah variabel bebas dalam model regresi.
Berdasarkan penjelasan di atas, maka dapat disimpulkan bahwa, jika

terjadi multikolinearitas, maka sebuah variabel yang berkorelasi kuat dengan

variabel lainnya di dalam model, kekuatan prediksinya tidak handal dan tidak

stabil. Dan pengertian multikolinearitas adalahsesungguhnya terletak pada

ada atau tidak adanya korelasi antar variabel bebas.

C. Penyebab Multikolinearitas
Penyebab multikolinearitas adalah adanya korelasi atau hubungan

yang kuat antara dua variabel bebas atau lebih, seperti yang sudah dijelaskan

di atas. Namun penyebab lainnya yang dapat menyebabkan hal tersebut

secara tidak langsung adalah, antara lain:

1. Penggunaan variabel dummy yang tidak akurat di dalam model regresi.

Akan lebih beresiko terjadi multikolinearitas jika ada lebih dari 1 variabel

dummy di dalam model.

2. Adanya perhitungan sebuah variabel bebas yang didasarkan pada variabel

bebas lainnya di dalam model. Hal ini bisa dicontohkan sebagai berikut:

dalam model regresi anda, ada variabel X1, X2 dan Perkalian antara X1

dan X2 (X1*X2). Dalam situasi tersebut bisa dipastikan, terdapat

kolinearitas antara X1 dan X1*X2 serta kolinearitas antara X2 dengan

X1*X2.

3. Adanya pengulangan variabel bebas di dalam model, misalkan:

Y = Alpha + Beta1 X1 + Beta2 X1*5 + Beta3 X3 + e.


D. Dampak dari Multikolinearitas
Dampak dari multikolinearitas antara lain:

1. Koefisien Partial Regresi tidak terukur secara presisi. Oleh karena itu nilai

standar errornya besar.

2. Perubahan kecil pada data dari sampel ke sampel akan menyebabkan

perubahan drastis pada nilai koefisien regresi partial.

3. Perubahan pada satu variabel dapat menyebabkan perubahan besar pada

nilai koefisien regresi parsial variabel lainnya.

4. Nilai Confidence Interval sangat lebar, sehingga akan menjadi sangat sulit

untuk menolak hipotesis nol pada sebuah penelitian jika dalam penelitian

tersebut terdapat multikolinearitas.

E. Cara Mendeteksi Adanya Multikolinearitas

Menurut Gujarati (1978) gejala multikolinearitas ini dapat dideteksi

dengan beberapa cara antara lain :

1. Menghitung koefisien korelasi sederhana (simple correlation) antara

sesama variabel bebas, jika terdapat koefisien korelasi sederhana yang

mencapai atau melebihi 0,8 maka hal tersebut menunjukkan terjadinya

masalah multikolinearitas dalam regresi.

2. Menghitung nilai Toleransi atau VIF (Variance Inflation Factor), jika

nilai Toleransi kurang dari 0,1 atau nilai VIF melebihi 10 maka hal
tersebut menunjukkan bahwa multikolinearitas adalah masalah yang

pasti terjadi antar variabel bebas.

3. TOL yakni ukuran toleransi untuk mendeteksi multikolinearitas

1
TOLi = = 1 − R2i
FIFi

4. Lakukan regresi antar variabel bebas, kemudian melakukan uji–F dan

bandingkan dengan Ftabel. Jika nilai Fhitung melebihi nilai Ftabel

berarti dapat dinyatakan bahwa Xi kolinear dengan X yang lain.

5. Dengan Nilai Eigen dan Indeks Kondisi (IK).

Output SAS dari F. Produksi Cobbdouglas menggunakan nilai eigen dan

Indeks Kondisi untuk mengdiagnosis multikolinearitas.

λmax
Bilangan Kondisi : K = , λ = niai eigen
λmin

Indeks Kondisi : ID = √K

Jika : 100 ≤ K ≤ 1000 : dari sedang menuju kuat

K> 100 : sangat lemah

ID < 10 : lemah

10 ≤ ID ≤ 30 : sedang menuju kuat

ID > 30 : sangat kuat

Kapan Bisa Dipertahankan?

Ada kalanya kita tetap mempertahankan adanya multikolinearitas di

dalam model regresi. Yaitu jika kita berada dalam kondisi sebagai berikut:
Nilai VIF tinggi hanya pada variabel kontrol, sedangkan pada variabel

interest, nilai VIF rendah.

Meskipun pada variabel kontrol nilai VIF tinggi, tetapi pada variabel

interest nilai VIF rendah, maka dapat diartikan bahwa nilai prediksi dari

variabel yang menjadi bahan perhatian dalam model tetap dapat mengukur

variabel terikat secara presisi. Mengapa bisa seperti itu? kami akan

ilustrasikan, misalkan model kita ada 3 variabel, yang menjadi variabel

interest adalah variabel dummy, yaitu Jenis Kelamin (Laki-laki dan

perempuan). Sedangkan variabel kontrol ada 2, yaitu penghasilan bulanan dan

belanja bulanan. Dalam hal ini, antara kedua variabel kontrol terdapat

korelasi yang kuat, sehingga VIF keduanya tinggi. Namun keduanya tidak

berkorelasi dengan Jenis Kelamin yang menjadi variabel interest. Sehingga

nilai VIF Jenis Kelamin rendah.

Nilai VIF tinggi yang disebabkan oleh sebab inklusi karena hasil

perkalian atau kuadrat di dalam model, namun kedua variabel tersebut

berkorelasi kuat terhadap hasil perkaliannya.


F. Cara Mengatasi Multikolinearitas
Cara mengatasi multikolinearitas adalah dengan cara:

1. Jika jumlah variabel banyak, maka kita dapat melakukan Analisis

Faktor sebelum regresi. Setelah analisis faktor, variabel baru yang

terbentuk kita gunakan sebagai variabel di dalam model regresi.

2. Dengan cara memilih salah satu diantara variabel bebas yang berkorelasi

kuat. Oleh karena itu, sebelumnya anda harus mencari variabel yang nilai

VIFnya tinggi dan nilai korelasinya dengan variabel bebas lainnya kuat.

3. Dengan cara melakukan operasi matematis antar variabel bebas yang

berkorelasi kuat sehingga didapat variabel baru hasil operasi tersebut yang

kemudian dimasukkan ke dalam model regresi sebagai perwakilan dari

variabel yang menjadi sumber operasi matematis tersebut.

4. Melakukan standarisasi terhadap variabel yang menjadi penyebab inklusi

perkalian antara variabel, dimana hasil perkalian setelah standarisasi

tersebut yang dimasukkan ke dalam model bersama-sama dengan variabel

yang sudah distandarisasi.


BAB III

PEMBAHASAN

Contoh Kasus:

1. Kasus 1

Sebagai contoh kasus kita mengambil contoh kasus pada uji

normalitas pada pembahasan sebelumnya. Pada contoh kasus tersebut setelah

dilakukan uji normalitas dan dinyatakan data berdistribusi normal, maka

selanjutnya akan dilakukan pengujian multikolinearitas. Contoh kasus sebagai

berikut:

Seorang mahasiswa bernama Bambang melakukan penelitian tentang

faktor-faktor yang mempengaruhi harga saham pada perusahaan di BEJ.

Data-data yang di dapat berupa data rasio dan ditabulasikan sebagai

berikut:

Tabel. Tabulasi Data (Data Fiktif)

Tahun Harga Saham (Rp) PER (%) ROI (%)

1
990 8300 4.90 6.47

1
991 7500 3.28 3.14

1 8950 5.05 5.00


992

1
993 8250 4.00 4.75

1
994 9000 5.97 6.23

1
995 8750 4.24 6.03

1
996 10000 8.00 8.75

1
997 8200 7.45 7.72

1
998 8300 7.47 8.00

1
999 10900 12.68 10.40

2
000 12800 14.45 12.42

2
001 9450 10.50 8.62

2
002 13000 17.24 12.07

2
003 8000 15.56 5.83

2
004 6500 10.85 5.20

2
005 9000 16.56 8.53

2
006 7600 13.24 7.37

2
007 10200 16.98 9.38
Bambang dalam penelitiannya ingin mengetahui bagaimana hubungan

antara rasio keuangan PER dan ROI terhadap harga saham. Dengan ini

Bambang menganalisis dengan bantuan program SPSS dengan alat analisis

regresi linear berganda.

Tabel. Hasil Uji Multikolinearitas

Dari hasil di atas dapat diketahui nilai variance inflation factor (VIF)

kedua variabel yaitu PER dan ROI adalah 1,899 lebih kecil dari 10 dan

Tolerance lebih dari 0,100, sehingga bisa disimpulkan bahwa antar variabel

independen tidak terjadi persoalan multikolinearitas.

Dengan membandingkan nilai koefisien determinasi individual (r2) dengan

nilai determinasi secara serentak (R2)

Dalam metode ini, cara yang ditempuh adalah dengan meregresikan

setiap variabel independen dengan variabel independen lainnya, dengan

tujuan untuk mengetahui nilai koefisien r2 untuk setiap variabel yang

diregresikan. Selanjutnya nilai r2 tersebut dibandingkan dengan nilai


koefisien determinasi R2. Kriteria pengujian yaitu jika r2 > R2maka terjadi

multikolinearitas dan jika r2 < R2 maka tidak terjadi multikolinearitas.

2. Kasus 2

Akan dilakukan analisis regresi untuk mengetahui pengaruh biaya

produksi, distribusi, dan promosi terhadap tingkat penjualan. sebelumnya

dilakukan uji asumsi klasik multikolinearitas, data sebagai berikut:

Tingkat Biaya Biaya Biaya

Tahun penjualan produksi distribusi promosi

1996 127300000 37800000 11700000 8700000

1997 122500000 38100000 10900000 8300000

1998 146800000 42900000 11200000 9000000

1999 159200000 45200000 14800000 9600000

2000 171800000 48400000 12300000 9800000

2001 176600000 49200000 16800000 9200000

2002 193500000 48700000 19400000 12000000

2003 189300000 48300000 20500000 12700000


2004 224500000 50300000 19400000 14000000

2005 239100000 55800000 20200000 17300000

2006 257300000 56800000 18600000 18800000

2007 269200000 55900000 21800000 21500000

2008 308200000 59300000 24900000 21700000

2009 358800000 62900000 24300000 25900000

2010 362500000 60500000 22600000 27400000


Berikut ini ringkasan tabel hasil uji multikolinearitas:

Variabel Dependen Variabel Independen Nilai r square (r2)

Biaya produksi Biaya distribusi 0,797

Biaya produksi Biaya promosi 0,843

Biaya distribusi Biaya promosi 0,728

Nilai R2 0,983

Dari tabel di atas dapat diketahui bahwa nilai koefisien r2 yang

diperoleh seluruhnya bernilai lebih kecil dari pada nilai koefisien determinasi

(R2). Dengan demikian dapat disimpulkan bahwa tidak terjadi masalah

multikolinearitas pada model regresi.

3. Kasus 3

Berikut ini akan diuji multikolinieritas sebuah model regresi dengan

variabel Kepuasan Kerja (X1), Gaya Kepemimpinan (X2), dan Motivasi


(X3). Variabel dependen adalah kinerja (Y) Data dikumpulkan dari angket

dengan jumlah sampel sebanyak 60 orang pegawai.

Data ditampilkan sebagai berikut :

NO Kep Gaya Mot KINERJA

1 55 76 83 65

2 60 82 92 70

3 61 80 77 70

4 53 70 74 60

5 62 88 97 70

6 62 72 77 71

7 54 78 86 64

8 59 72 90 68

9 64 81 96 72

10 55 74 90 66

11 53 65 85 64

12 65 84 92 72

13 50 63 74 56

14 52 71 87 64

15 56 82 84 66

16 53 72 79 65

17 60 85 92 70

18 56 76 86 67
19 54 65 80 62

20 53 74 72 57

21 52 75 75 55

22 62 80 95 70

23 65 72 96 66

24 58 70 82 63

25 60 85 86 63

26 64 88 96 74

27 60 84 98 72

28 64 89 82 75

29 64 85 92 72

30 58 78 76 67

31 60 77 86 68

32 54 78 86 64

33 39 52 55 41

34 64 89 96 74

35 54 75 79 62

36 57 84 82 66

37 60 74 88 69

38 54 69 80 61

39 53 76 81 64

40 63 87 97 71
41 71 58 102 79

42 51 72 81 58

43 64 87 95 69

44 65 71 96 72

45 54 81 82 64

46 60 83 79 68

47 64 72 86 72

48 60 81 86 70

49 55 82 78 64

50 64 86 93 72

51 49 67 74 55

52 46 66 74 58

53 58 82 78 67

54 51 63 83 58

55 63 93 96 71

56 58 75 80 65

57 50 77 73 56

58 55 68 80 58

59 57 69 81 64

60 61 87 92 68
Perhatikan nilai koefisien determinasi sebesar 0.931 yang mendekati

1, namun secara individual melalui uji t dua variabel : kepuasan kerja dan

motivasi yang berpengaruh signifikan, sementara gaya kepemimpinan

memiliki nilai sig 0.70 (sig > 0.05)

Nilai VIF (variance index factor) tidak menunjukkan adanya

multikolinieritas (VIF kurang dari 10), sementara tolerance juga tidak ada

kurang dari 0.10. Deteksi multiko melalui dua uji menunjukkan tidak adanya

multiko, namun perhatikan output selanjutnya

Pada bagian Coeffisien correlation, Korelasi antara motivasi dengan

kepuasan kerja tinggi yaitu sebesar -0.726. Korelasi antar independen ini

berada dalam kategori kuat sehingga meski nilai VIF dan Tolerance tidak

mengindikasikan adanya masalah multikolinier namun dapat dipastikan hal

ini menyebabkan tidak signifikannya pengaruh gy kepemimpinan terhadap

kinerja
Meregresikan Prediktor secara Bergantian

Alternatif uji untuk kasus di atas adalah dengan meregresikan

predictor secara bergantian. Kriteria model tidak terkena multiko adalah

ketika nilai R Square untuk masing-masing predictor tidak melebihi model

utama.

Model Utama : Kinerja = Kepuasan + gaya kep + Motivasi

Model perbandingan :

Kepuasan = kinerja + gaya kep + motivasi

Gaya kep = kinerja + kepuasan + Motivasi

Motivasi = kinerja + kepuasan kerja + gaya kep

Langkah Uji

Lakukan uji regresi dengan menempatkan variabel independen

menjadi dependen secara bergantian. dengan demikian akan dihasilkan output

4 model regresi (1 model utama dan 3 model perbandingan)

Interprestasi

 Model Utama, R Square = 0.867

 Kepuasan sebagai dependen, R Square = 0.855

 Gaya kepemimpinan sebagai dependen, R Square = 0.359

 Motivasi sebagai dependen, R Square = 0.676


Dari perbandingan 4 model ini dapat diketahui bahwa model utama

memiliki R Square lebih besar dibanding model perbandingan lainnya.

Dengan demikian dapat dinyatakan model tidak terkena masalah

Multikolinier
BAB IV

PENUTUP

A. Kesimpulan

Adapun kesimpulan pada makalah ini adalah Penyebab yang dapat

menyebabkan multikolinearitas secara tidak langsung adalah, antara lain:

1. Penggunaan variabel dummy yang tidak akurat di dalam model regresi.

Akan lebih beresiko terjadi multikolinearitas jika ada lebih dari 1 variabel

dummy di dalam model.

2. Adanya perhitungan sebuah variabel bebas yang didasarkan pada variabel

bebas lainnya di dalam model. Hal ini bisa dicontohkan sebagai berikut:

dalam model regresi anda, ada variabel X1, X2 dan Perkalian antara X1

dan X2 (X1*X2). Dalam situasi tersebut bisa dipastikan, terdapat

kolinearitas antara X1 dan X1*X2 serta kolinearitas antara X2 dengan

X1*X2.

3. Adanya pengulangan variabel bebas di dalam model, misalkan:

Y = Alpha + Beta1 X1 + Beta2 X1*5 + Beta3 X3 + e.

B. Saran

Adapun saran pada makalah ini adalah agar penulis lebih fokus dan detail

dalam menjelaskan tentang makalah ini dengan sumber-sumber atau referensi

yang lebih banyak lagi.

Anda mungkin juga menyukai