Anda di halaman 1dari 31

CHAPTER 9 & 10

TESTING HYPOTHESES IN MULTIPLE REGRESSION &


CORRELATIONS: MULTIPLE, PARTIAL, AND MULTIPLE PARTIAL

DOSEN MATA KULIAH :


Dr. Rina Br. Bukit S.E, M.Si, Ak., CA

DISUSUN OLEH :
Kelompok 1
Yuni Budianingsih (190503063)
Natasya Inriani Pasaribu (190503065)
Filbert Gian Kosasih (190503082)
Marcella Lee (190503086)

PROGRAM STUDI S1 AKUNTANSI


FAKULTAS EKONOMI DAN BISNIS
UNIVERSITAS SUMATERA UTARA
2021
PRAKATA

Puji syukur kehadiran Tuhan Yang Maha Esa yang telah memberikan anugrah dan
rahmat-Nya sehingga kami dapat menyelesaikan tugas makalah Bab 9 dan 10 yang berjudul
Testing hypothesis in multiple regression dan correlation : multiple, partial and multiple
partial.

Adapun tujuan dari penulisan dari makalah ini adalah untuk memenuhi tugas Dr. Rina
Br. Bukit S.E, M.Si, Ak., CA pada mata kuliah Statistika Penelitian. Selain itu, makalah ini
juga bertujuan untuk menambah wawasan tentang analisis regresi garis lurus dan koefisien
korelasi bagi para pembaca dan juga bagi penulis.

Kami mengucapkan terima kasih kepada Dr. Rina Br. Bukit S.E, M.Si, Ak., CA,
selaku dosen mata kuliah Statistika Penelitian yang telah memberikan tugas ini sehingga
dapat menambah pengetahuan dan wawasan sesuai dengan bidang studi yang kami tekuni.

Kami menyadari, makalah yang kami tulis ini masih jauh dari kata sempurna. Oleh
karena itu, kritik dan saran yang membangun akan kami nantikan demi kesempurnaan
makalah ini.

Medan, 15 September 2021

Kelompok 1

i
DAFTAR ISI

KATA PENGANTAR …………………………………………………………………………………… i


DAFTAR ISI ………………………………………………………………………………………………. ii
BAB I................................................................................................................
PENDAHULUAN ……………………………………………………………………………………….. 1
1.1 LATAR BELAKANG ………………………………………………………………………………. 1
1.2 RUMUSAN MASALAH …………………………………………………………………………. 1
1.3 TUJUAN DAN MNFAAT PENELITIAN ……………………………………………………. 2
BAB II ............................................................................................................... 3
PEMBAHASAN …………………………………………………………………………………………… 3
2.1 Pendahuluan ……………………………………………………………………………………….. 3
2.2 Uji Regresi Keseluruhan Signifikan ……………………………………………………….. 4
2.3 Uji F Parsial................................................................................................ 5
2.3.1 Hipotesis Null............................................................................... 6
2.3.2 Prosedur ...................................................................................... 7
2.3.3 Alternatif Uji t............................................................................... 9
2.4 Uji F Parsial Ganda..................................................................................... 11
2.4.1 Hipotesis Nol................................................................................ 11
2.4.2 Prosedur....................................................................................... 11
2.5 Strategi untuk Menggunakan Tes F Parsial............................................... 11
2.5.1 Prinsip Dasar................................................................................ 11
2.6 Tes yang Melibatkan Intersep................................................................... 12

ii
KORELASI : BERGANDA,PARSIAL DAN PARSIAL BERGANDA............................ 12
2.7 Pratinjau.............................................................................................. 12
2.8 Matriks Korelasi................................................................................... 13
2.9 Koefisien Korelasi Berganda................................................................. 14
2.10 Hubungan R Y |X 1, X 2,…., X k terhadap Distribusi Normal Multivariat..................... 16
2.11 Koefisien Korelasi Parsial.................................................................... 17
2.11.1Uji Signifikansi untuk Korelasi Parsial..................................... 18
2.11.2 Menghubungkan Uji Korelasi Parsial dengan Uji F Parsial...... 19
2.11.3 Cara Lain Menggambarkan Korelasi Parsial............................... 19
2.11.4 Korelasi Parsial sebagai Korelasi Residual Regresi..................... 21
2.11.5 Korelasi Semiparsial................................................................... 21
2.11.6 Ringkasan Fitur Koefisien Korelasi Parsial.................................. 22
2.12 Representasi Alternatif Model Regresi................................................... 23
2.13 Korelasi Parsial Berganda........................................................................ 25
BAB III
PENUTUP ………………………………………………………………………………………………… 26
KESIMPULAN …………………………………………………………………………………………… 26
DAFTAR PUSTAKA …………………………………………………………………………………… 27

iii
BAB I

PENDAHULUAN

1.1 Latar Belakang


Dalam suatu penelitian, pada beberapa kenyataan akan ada lebih dari satu variabel
independen yang mempengaruhi variabel dependen yang kita inginkan. Misalnya, keadaan
dimana kemampuan komunikasi adalah variabel yang mempengaruhi nilai prestasi kerja.
Keadaan demikian kelihatannya sangat tidak realistik. Kenyataannya, yang mempengaruhi
prestasi kerja tidak hanya kemampuan komunikasi namun dapat pula dilihat misalnya dari
kemampuan bekerjasama, kemampuan IT, kemampuan berbahasa inggrisnya dan lainnya.
Untuk menganalisis beberapa variabel yang mempengaruhi satu variabel lain
maka kita menggunakan analisis regresi linear berganda. Regresi pertama-tama
dipergunakan sebagai konsep statistik pada tahun 1877 oleh Sir Francis Galton, seorang
ilmuwan asal Inggris yang melakukan studi tentang kecenderungan tinggi badan anak. Hasil
studi tersebut memberikan suatu kesimpulan bahwa kecenderungan tinggi badan anak yang
lahir terhadap orangtuanya adalah menurun (regress) mengarah pada tinggi badan rata-rata
penduduk. Istilah regresi pada mulanya bertujuan untuk membuat perkiraan nilai satu
variabel (tinggi badan anak) terhadap satu variabel yang lain (tinggi badan orangtua).
Selanjutnya berkembang menjadi alat untuk membuat perkiraan nilai suatu variabel dengan
menggunakan beberapa variabel lain yang berhubungan dengan variabel tersebut. Regresi linear
adalah alat statistik yang dipergunakan untuk mengetahui pengaruh antara satu atau beberapa
variabel terhadap satu buah variabel. Variabel “penyebab” atau yang dikenal sebagai
variabel yang mempengaruhi disebut dengan bermacam-macam istilah: variabel
independen, variabel bebas, variabel penjelas, variabel eksplanatorik, atau variabel X
(karena seringkali digambarkan dalam grafik sebagai absis, atau sumbu X). Sedangkan,
variabel “akibat” dikenal sebagai variabel yang dipengaruhi, variabel dependen, variabel
terikat, atau variabel Y. Secara umum, persamaan regresi dapat terdiri dari satu atau lebih
peubah bebas namun hanya memiliki satu peubah terikat.
1.2 Rumusan Masalah
1. Bagaimana kontribusi variable independen terhadap variable Y?
2. Apakah seluruh rangkaian variabel independen (atau secara setara, model yang
dipasang itu sendiri) berkontribusi signifikan terhadap prediksi y?
3. Bagaimana pengaruh signifikan Uji parsial F terhadap variable dependen dan variable
independen ?

1
4. Apakah penambahan satu variabel independen tertentu yang menarik menambah
secara signifikan produksi y yang dicapai oleh variabel independen lain yang sudah ada
dalam model?
5. Apakah penambahan beberapa kelompok variabel independen yang diinginkan
menambah secara signifikan prediksi y yang diperoleh melalui variabel independen lain
yang sudah ada dalam model ?
6. Apa itu Korelasi Matriks?
7. Apa itu Koefisien Korelasi Berganda?
8. Apa itu Koefisien Korelasi Parsial?
9. Bagaimana perwakilan dari sebuah model regresi ?
1.3 Tujuan
1. Untuk membuat perkiraan nilai suatu variabel terikat jika nilai variabel bebas
yang berhubungan dengannya sudah ditentukan.
2. Untuk menguji hipotesis signifikansi pengaruh dari variabel bebas terhadap
variabel terikat.
3. Untuk mengetahui penggunaan koefisien korelasi parsial dan koefisien korelasi parsial
berganda.

2
BAB II

ISI

2.1 Pendahuluan
Setelah kita cocok dengan model regresi berganda dan memperoleh perkiraan untuk berbagai
parameter yang diinginkan, kita ingin menjawab pertanyaan tentang kontribusi berbagai variabel
independen terhadap produksi Y. Pertanyaan tersebut meningkatkan kebutuhan akan tiga jenis
tes dasar:
1. Tes keseluruhan. Secara kolektif, apakah seluruh rangkaian variabel independen (atau
secara setara, model yang dipasang itu sendiri) berkontribusi signifikan terhadap prediksi
y?
2. Uji penambahan satu variabel. Apakah penambahan satu variabel independen tertentu
yang menarik menambah secara signifikan produksi y yang dicapai oleh variabel
independen lain yang sudah ada dalam model.
3. Uji penambahan sekelompok variabel. Apakah penambahan beberapa kelompok variabel
independen yang diinginkan menambah secara signifikan prediksi y yang diperoleh
melalui variabel independen lain yang sudah ada dalam model
Pertanyaan-pertanyaan ini biasanya dijawab dengan melakukan uji statistik hipotesis. Hipotesis
nol untuk pengujian dapat dinyatakan dalam parameter yang tidak diketahui (koefisien regresi)
dalam model. Bentuk hipotesis ini berbeda tergantung pada pertanyaan yang diajukan dan
diminta. (Dalam Bab 10 kita akan melihat cara alternatif tetapi setara untuk menyatakan
hipotesis nol tersebut dalam hal koefisien korelasi populasi.)
Pada bagian berikut, kami akan menjelaskan uji statistik yang sesuai untuk masing-masing
pertanyaan sebelumnya. Masing-masing pengujian ini dapat dinyatakan sebagai uji F; yaitu,
statin uji akan memiliki distribusi F ketika hipotesis nol yang dinyatakan benar. Dalam beberapa
kasus, tes dapat diekspresikan secara ekuivalen sebagai tes. (Untuk review materi tentang
distribusi F dan t, lihat Bab 3.)
Semua uji F yang digunakan dalam analisis regresi melibatkan rasio dua estimasi independen
dari varians-katakanlah. F = σ^ 20 ̸ σ^ 2 Berdasarkan asumsi untuk regresi linier berganda standar
analisis yang diberikan sebelumnya, istilah σ^ 20perkiraan σ 2 jika H 0 adalahbenar; istilah σ^ 2
memperkirakan σ 2 apakah h benar atau tidak.
Bentuk spesifik yang digunakan oleh estimasi varians ini akan dijelaskan di bagian selanjutnya.
Secara umum, masing-masing adalah istilah kuadrat rata-rata yang dapat ditemukan dalam tabel

3
ANOVA yang sesuai. Jika H 0 tidak benar, maka σ^ 20 memperkirakan beberapa kuantitas yang
lebih besar dari σ 2. Jadi, kita mengharapkan nilai F yang mendekati 1 (=σ 2 /σ 2) jika H 0 benar,
tetapi lebih besar dari 1 jika H 0tidak benar. Semakin besar nilai F, maka semakin besar
kemungkinan H 0 tidak benar.
Karakteristik umum lain dari tes yang akan dibahas dalam bab ini adalah bahwa setiap tes dapat
diartikan sebagai perbandingan dua model. Salah satu model ini akan disebut sebagai model
penuh atau lengkap; yang lain akan disebut model tereduksi (yaitu, model yang model
lengkapnya tereduksi di bawah hipotesis nol).
Sebagai contoh sederhana, perhatikan dua model berikut:
Y = β0+ β1 X 1+ β2 X2+ E
Dan
Y = β0+ β1 X1+ E

Di bawah H 0 : β2 =0, model yang lebih besar (penuh) direduksi menjadi model yang lebih kecil
(dikurangi). Uji H 0 : β2 =0dengan demikian pada dasarnya setara dengan menentukan mana dari
dua model ini yang lebih tepat.
Seperti yang ditunjukkan oleh contoh ini, himpunan variabel bebas dalam model tereduksi (yaitu,
X₁) adalah bagian dari variabel bebas dalam model penuh (yaitu, X₁ dan X₂). Ini adalah
karakteristik umum untuk semua jenis tes dasar yang akan dijelaskan dalam bab ini. (Lebih
umum, karakteristik himpunan bagian ini tidak perlu selalu ada. Misalkan, misalnya, kita
memiliki H 0 : β1 =β2 .Kemudian, model tereduksi dapat ditulis sebagai Y=
β + βX + E , dan β=β =β dan X= X 1 + X 2¿
0 1 2
¿

2.2Uji Regresi Keseluruhan Signifikan


Kami sekarang mempertimbangkan kembali pertanyaan pertama kami, mengenai tes keseluruhan
untuk model yang mengandung k variabel independen-katakanlah.
Y = β 0 + β 1 X 1 + β 2 X 2 +…+ β k X k + E

Hipotesis nol untuk pengujian ini secara umum dapat dinyatakan sebagai H 0"Semua k variabel
bebas yang dipertimbangkan bersama-sama tidak menjelaskan sejumlah besar variasi dalam Y."
Secara setara, kita dapat menyatakan hipotesis nol sebagai H 0: "Tidak ada regresi keseluruhan
yang signifikan menggunakan semua k variabel independen dalam model," atau sebagai H 0:
β 1=β 2 …=β k =0 Di bawah versi terakhir dari Ho, model penuh direduksi menjadi model yang
hanya berisi istilah intersep β 0
Untuk melakukan pengujian, kami menggunakan jumlah rata-rata kuadrat yang disediakan dalam
tabel ANOVA kami (lihat Tabel 8-2 dari Bab 8). Kami menghitung statistik F

4
MS regression ( SSY −SSE)/k
F= =
MSresidual SSE/(n−k −1)
n n
di mana SSY = ∑ ¿¿dan SSE = ∑ ¿¿masing-masing adalah jumlah total dan kesalahan kuadrat.
i=1 i=1

Nilai F yang dihitung kemudian dapat dibandingkan dengan titik kritis F k ,n−k−1,1−α ,di mana n
adalah tingkat signifikansi yang dipilih sebelumnya. Kami akan menolak H 0, jika F yang
dihitung melebihi titik kritis. Atau, kita dapat menghitung nilai-P untuk pengujian ini sebagai
area di bawah kurva distribusi di sebelah kanan statistik F yang dihitung. Dapat ditunjukkan
bahwa ekspresi yang setara untuk (9.1) dalam hal R2 adalah

R2 /k
F= 2
(1−R )/(n−k −1)
Untuk contoh yang diringkas dalam Tabel 8.2, yang berkaitan dengan regresi WGT pada HGT,
AGE, dan ( AGE)2 untuk sampel dari n = 12 anak, kami memiliki

K= 3, MS Regression = 231.02, MS Residual = 24.,40, dan R2 = 0.7802, sehingga


231.02 0.7802/3
F= = =9.47
24.40 ( 1−0.7802)/(12−3−1)

Titik kritis untuk α=.01 adalah F 3,8,0.99=7.59 . Jadi, kita akan menolak H 0 pada α =.01 karena
nilai P lebih kecil dari .01. (Kita biasanya menyatakan P<.01 dengan menambahkan ** ganda di
sebelah F yang dihitung, seperti pada Tabel 8.2. Ketika .01 < P < 05, kami biasanya hanya
menggunakan satu*.)
Dalam menafsirkan hasil teks ini, kami dapat menyimpulkan bahwa, berdasarkan data yang
diamati, himpunan variabel HGT, AGE, dan ( AGE)2 secara signifikan membantu untuk
memprediksi WGT. Kesimpulan ini tidak berarti bahwa ketiga variabel diperlukan untuk
prediksi Y yang signifikan mungkin hanya satu atau dua dari mereka yang cukup. Dengan kata
lain, model yang lebih kecil daripada yang melibatkan ketiga variabel mungkin cukup. Untuk
menentukan hal ini diperlukan pengujian lebih lanjut, yang akan dijelaskan pada bagian
selanjutnya. Suku sisa rata-rata kuadrat dalam uji F keseluruhan, yang merupakan penyebut dari
F dalam (9,1), berwarna hijau dengan rumus.
n
1 1
SSE= ∑ ¿¿¿
n−k−1 n−k −1 i=1

Kuantitas ini memberikan perkiraan σ 2 di bawah model yang diasumsikan. Istilah regresi kuadrat
n
rata-rata ∑ ¿¿ yang merupakan pembilang F in (9.1), memberikan perkiraan independen dari σ 2
i=1
hanya jika hipotesis nol dari tidak ada regresi keseluruhan yang signifikan adalah benar. Namun,
jika σ 2 tidak benar (yaitu, satu atau lebih dari β 1 , β 2, … βk tidak sama dengan noll, maka
pembilang melebih-lebihkan σ 2; inilah mengapa nilai-F yang "terlalu besar" mendukung

5
penolakan terhadap H 0. Jadi, statistik F (9.1) adalah rasio dua estimasi independen dari varians
yang sama hanya jika hipotesis nol H 0: β 1=β 2 …=β k =0 adalah benar
2.3 Uji F Parsial
Beberapa informasi tambahan penting mengenai model regresi pas dapat diperoleh dengan
menyajikan tabel ANOVA seperti yang ditunjukkan pada Tabel 9-1. Dalam representasi ini,
kami telah membagi jumlah regresi kuadrat menjadi tiga komponen:
1. SS (X₁): jumlah kuadrat yang dijelaskan hanya dengan menggunakan X₁ = HGT untuk
memprediksi Y.
2. SS(X₂|X₁) :jumlah kuadrat tambahan yang dijelaskan dengan menggunakan X₂ = AGE
selain X₁ untuk memprediksi Y.
3. SS( X 3 ∨X 1 , X 2) Jumlah tambahan kuadrat yang dijelaskan dengan menggunakan
X 3 ( AGE)2selain X 1 dan X 2 memprediksi Y.

Kita dapat menggunakan informasi tambahan dalam tabel untuk menjawab pertanyaan-
pertanyaan berikut:
1. Apakah X₁ = HGT saja secara signifikan membantu dalam memprediksi Y?
2. Apakah penambahan X₂= AGE berkontribusi secara signifikan terhadap prediksi Y
setelah kita memperhitungkan (atau mengontrol) kontribusi X₁ ?
3. Apakah penambahan X 3 ( AGE)2berkontribusi signifikan terhadap prediksi Y setelah kita
memperhitungkan kontribusi X 1 dan X 2 ?
Untuk menjawab pertanyaan 1, kita cukup menyesuaikan model regresi garis lurus,
menggunakan X₁ sebagai variabel independen tunggal. Oleh karena itu, nilai 588,92 adalah
jumlah regresi kuadrat = HGT untuk model regresi garis lurus ini. SSE untuk model ini dapat
diperoleh dari Tabel 9-1 dengan menjumlahkan 195,19, 103,90, dan 0,24 bersama-sama, yang
menghasilkan jumlah kuadrat 299,33, yang memiliki 10 derajat kebebasan (yaitu, 10 = 8 + 1 +
1). Statistik F untuk menguji apakah ada regresi garis lurus yang signifikan bila kita hanya
menggunakan X 1 = HGT kemudian diberikan oleh F = (588.92/1)/(299.33/10) = 19.67, yang
memiliki nilai P kurang dari 0,01 (yaitu, X 1 berkontribusi secara signifikan terhadap prediksi
linier Y).
Untuk menjawab pertanyaan 2 dan 3, kita harus menggunakan apa yang disebut uji F parsial. Tes
ini menilai apakah penambahan setiap variabel independen tertentu, diberikan lain sudah dalam
model. secara signifikan memberikan kontribusi terhadap prediksi Y. Tes. oleh karena itu,
memungkinkan untuk penghapusan variabel yang tidak membantu dalam memprediksi Y dan
dengan demikian memungkinkan seseorang untuk mengurangi himpunan variabel independen
yang mungkin menjadi seperangkat prediktor "penting" yang ekonomis.
2.3.1Hipotesis Null
Misalkan kita ingin menguji apakah penambahan variabel X ¿ secara signifikan meningkatkan
prediksi Y mengingat variabel X 1 , X 2 , … , X psudah ada dalam model. Hipotesis nol kemudian

6
dapat dinyatakan sebagai H 0 :X tidak secara signifikan menambah prediksi Y, mengingat bahwa
X 1 , X 2 , … , X psudah ada dalam model," atau setara, sebagai H 0 : β¿ =0 pada model
¿ ¿
Y = β 0 + β 1 X 1 + β 2 X 2 +…+ β p X p + β X + E
Seperti yang dapat disimpulkan dari pernyataan kedua, prosedur pengujian pada dasarnya
membandingkan dua model: model lengkap berisi X 1 , X 2 , … , X p dan X ¿ sebagai variabel
independen; model tereduksi mengandung X 1 , X 2 , … , X p, tetapi tidak X ¿ (karena β ¿ = 0 di bawah
hipotesis nol). Tujuannya adalah untuk menentukan model mana yang lebih sesuai berdasarkan
seberapa banyak informasi tambahan yang diberikan X ¿ tentang Y atas yang sudah disediakan
oleh X 1 , X 2 , … , X p. Dalam bab berikutnya, kita akan melihat bahwa pernyataan equivalen H 0
dapat diberikan dalam bentuk koefisien korelasi parsial

Tabel 9-1
Tabel ANOVA untuk WGT yang diregresi pada HGT, AGE, dan (AGE), berisi komponen
jumlah kuadrat regres
Sumber d.f SS MS F r2
X1 1 588,92 588,92 I9,67** 0.7802
Regresi
{ X 2 ∨X 1 1
X 3∨ X 1 , X 2
1
103,90
0,24
103,90
0,24
4.78 (.06<P < .10
0.01
Residual
8 195,19 24,40
Total 11 888,25

2.3.2Prosedur
Untuk melakukan uji F parsial yang melibatkan variabel X 1 , mengingat variabel X 1 , X 2 , … , X p,
sudah ada dalam model, pertama-tama kita harus menghitung jumlah kuadrat tambahan dari
penambahan X 1 yang diberikan X 1 , X 2 , … , X p, yang kami tempatkan di tabel ANOVA kami di
¿
bawah judul sumber "Regresi X ∨X 1 , X 2 , … , X p, " Jumlah kuadrat ini dihitung dengan rumus

jumlah kuadrat ekstra Jumlah kuadrat regresi Jumlah kuadrat regresi

[ dari penambahan X ¿
diberikan
X 1, X2 , … , X p
=
][
ketika X 1 , X 2 , … , X p
¿
dan X semuanya
ada dalam model
][
-
ketika X 1 , X 2 , … , X p
(dan bukan X ¿ )
ada dalam model
]
Atau lebih tepat

7
SS( X ¿ ¿¿∨X ¿ ¿1 , X 2 , … , X p)¿ ¿= Regresi SS ( X 1 , X 2 , … , X p,X ¿ ¿– Regresi SS ( X 1 , X 2 , … , X p ¿
n
Untuk model apapun ∑ ¿¿ ¿ dapat dibagi menjadi dua komponen-jumlah kuadrat regresi dan
i=1
jumlah sisa kuadrat. Karena itu,
SS( X ¿ ¿¿∨X ¿ ¿1 , X 2 , … , X p)¿ ¿= Residu SS ( X 1 , X 2 , … , X p ¿−¿ Residu SS ( X 1 , X 2 , … , X p,X ¿ ¿
adalah bentuk yang setara.
Jadi, untuk contoh kita,

SS( X 2| X 1 )=¿ Regresi SS ( X 1 , X 2 ¿– Regresi SS ( X 1 ¿

= 692.82-588.92
= 103.90
Dan

SS( X 3| X 1 , X 2 )=¿Regresi SS ( X 1 , X 2 , X 3 ¿ – Regresi SS ( X 1 , X 2 ¿

= 693.06-692.82
= 0.24
Untuk menguji hipotesis nol H 0: "Penambahan X* ke model yang sudah mengandung
X 1 , X 2 , … X p tidak secara signifikan meningkatkan prediksi Y, " kami menghitung

¿ Jumlah kuadrat ekstra dari penambahan X ¿ , jika diketahui X 1 , X 2 , … X p ,


F ( X ¿ X 1 , X 2 ,… , X p ) =
Residual mean−square untuk model yang memuat semua variabel X 1 , X 2 , … X p , X ¿

Atau lebih tepatnya


( X ¿ ¿ ¿∨X ¿ ¿1 , X 2 , … , X p)
F ( X ¿ ¿ X 1 , X 2 ,… , X p ) =SS ¿¿
MS Residu( X 1 , X 2 , … X p , X ¿ )

Statistik F ini memiliki distribusi F dengan derajat kebebasan 1 dan n-p-2 di bawah H 0, jadi kita
harus menolak H 0, jika F yang dihitung melebihi F ,n− p−2,1−α Sebagai contoh, statistik F parsial
adalah (dari Tabel 9.1).
SS ( X 2 ¿ X 1 ) 103.90
F ( X 2 ¿ X 1) = = =4.78
MS Residu( X 1 , X 2) (195.19+0.24) /9

dan
SS ( X 3 ¿ X 1 , X 2 ) 0.24
F ( X3¿ X 1, X 2)= = =0.01
MS Residu( X 1 , X 2 , X 3 ) 24.40

8
Besaran MS Residual (X₁, X₂) dapat diperoleh langsung dari tabel ANOVA hanya untuk X₁, dan
X₂ atau secara tidak langsung dari tabel ANOVA yang dipartisi untuk X 1 , X 2 dan X 3, dengan
menggunakan rumus
( X ¿ ¿ 3 ¿ X 1 , X 2)
MS residual ( X 1 , X 2) =Residual SS ( X 1 , X 2 , X 3 ) + SS ¿
8+ 1

Statistik F ( X 2 ¿ X 1) =¿ 4,78 memiliki nilai P yang memenuhi .05 <P<.10, karena F 1,9,0,90=3.36
dan F 1,9,0,95=5.12. Jadi, kita harus menolak H 0, pada α= .10 dan menyimpulkan bahwa
penambahan X 2 setelah memperhitungkan X 1 secara signifikan menambah prediksi Y pada
tingkat α = .10. Pada α = 0,05, bagaimanapun, kami tidak akan menolak H 0

Statistik F ( X 3 ¿ X 1 , X 2 ) sama dengan 0,01, Jadi H 0, tidak boleh ditolak, terlepas dari tingkat
signifikansi; oleh karena itu, menyimpulkan bahwa, sekali X 1 =¿HGT dan X₂ = AGE berada
dalam model, penambahan X 3 (AGE¿2 berlebihan.
2.3.3Alternatif Uji t
Cara yang setara untuk melakukan ujiF parsial untuk variabel yang ditambahkan terakhir adalah
dengan menggunakan uji t . (Anda mungkin ingat bahwa statistik F dengan 1 dan n – k - 1 derajat
kebebasan adalah kuadrat dari statistik dengan n – k - 1 derajat kebebasan) Alternatif pengujian
¿
berfokus pada pengujian hipotesis nol H 0 : β =0 dimanaβ ¿ adalah koefisien dari X ¿ dalam
¿ ¿
persamaan regresi Y = β 0 + β 1 X 1 + β 2 X 2 +…+ β p X p + β X + E . Statistik ekivalen untuk menguji
hipotesis nol ini adalah

β^ ¿
T=
S β^
¿

di mana ^β ¿adalah koefisien perkiraan yang sesuai dan S ^β adalah perkiraan kesalahan standar dari
¿

^β ¿, keduanya dihasilkan oleh program regresi standar. Dalam melakukan pengujian ini, kami
¿
menolak H 0 : β =0 jika

|T|> t (uji dua sisi ; H A : β¿ ≠ 0)

{
α
n− p−2,1−
2
T >t n− p−2,1−α (uji satu sisi bawah; H A : β ¿ >0)
T ←t n− p−2,1−α (uji satu sisi bawah ; H A : β ¿ <0)

Dapat ditunjukkan bahwa uji t dua sisi ekivalen dengan uji F parsial yang dijelaskan sebelumnya.
Sebagai contoh, pada pengujian H 0 : β3 =0 pada model Y = β0 + β 1 X 1 + β 2 X 2 +…+ β p X p + β X + E
¿ ¿

sesuai dengan data pada Tabel 8.1, kita menghitung

β^ ¿ −0.0417
T= = =−0.10
S β^
¿ 0.4224

Kuadratkan:

9
T 2=0.01=∂ F ( X 3 ¿ X 1 , X 2 )

2.3.4 Komentar
Aplikasi umum yang penting dari uji F parsial menyangkut kontrol variabel asing (misalnya,
perancu, yang akan dibahas dalam Bab 11). Pertimbangkan, misalnya, situasi dengan satu
variabel studi utama yang menarik, S dan p variabel kontrolC 1 , C2 , … , C p Pengaruh S pada hasil
yang dapat Y. mengendalikan C 1 , C2 , … , C p dapat dinilai dengan mempertimbangkan model
Y = β0 + β 1 C 1 + β 2 C 2+ …+ β p C p + β p+1 S + E

Hipotesis nol yang sesuai adalah H 0 : β p +1=0 . Statistik F parsial dalam situasi ini diberikan oleh
F(S |C 1 , C2 , … , C p ¿menggunakan (9.4) dengan X ¿ =S dan C i=X 1untuk i=1.2...p

Ketika beberapa variabel studi (yaitu, beberapa S’s) terlibat, tugas tersebut mencakup
menentukan mana dari S’s yang penting dan bahkan mungkin mengurutkannya berdasarkan
kepentingan relatifnya. Tugas semacam itu sama dengan menemukan model terbaik, topik yang
akan kita bahas di Bab 16 (di mana istilah terbaik akan didefinisikan dengan cermat). Untuk saat
ini, kami mencatat bahwa satu strategi (dirinci dalam Bab 16) adalah bekerja mundur dengan
menghapus variabel studi (S ), satu per satu, sampai model terbaik diperoleh. Ini memerlukan
beberapa pengujian F parsial (seperti yang dijelaskan dalam Bab 16). Jika model awal yang
menarik adalah
Y = β0 + β 1 C 1 +…+ β p C p + β p +1 S1 +…+ β p +k S k + E

Maka langkah mundur pertama melibatkan pertimbangan k uji F parsial F(


Si∨C 1 ,C 2 ,… , C p , S1 , S 2 , … , S k kecuali S i), di mana i=1,2......k. Hipotesis nol (terpisah) yang
sesuai adalah H 0 : β1 =0, di mana i= p + 1, p + 2, …., p + k. Prosedur mundur yang biasa
mengidentifikasi variabel Si, terkait dengan nilai F parsial terkecil. Variabel ini menjadi yang
pertama dihapus dari model, asalkanF parsialnya tidak signifikan. Kemudian proses eliminasi
dimulai dari awal lagi untuk model tereduksi dengan Sidihilangkan. Tentu saja, jika nilai F
parsial terkecil signifikan, tidak ada variabel S yang dihapus.

Setiap uji F parsial yang dilakukan pada langkah mundur pertama menimbang kontribusi
variabel S tertentu mengingat itu adalah variabel S terakhir yang masuk ke model. Oleh karena
itu, tidak tepat untuk menghapus lebih dari satu variabel S pada langkah pertama ini. Misalnya,
tidak tepat untuk menghapus secara bersamaan semua variabel S dari model semua F’s parsial
tidak signifikan pada langkah pertama ini. Ini karena, mengingat bahwa satu variabel S tertentu
(katakanlah, Si) dihapus, variabel S yang tersisa mungkin menjadi penting dengan pertimbangan
F’s parsial mereka di bawah model yang direduksi).

Untuk contoh, misalkan dengan model


Y = β0 + β 1 C 1 + β 2 S1 + β 3 S 2+ E

Dan dapatkan hasil F parsial berikut

10
F ( S1|C1 , C2 ) =0.01( P=.90)

F ( S2|C1 , C1 ) =0.85(P=.25)

Kemudian S1 "kurang signifikan" dari S2, mengendalikan C 1, dan variabel S lainnya. Di bawah
strategi eliminasi mundur, S1, harus dihapus sebelum eliminasi S2 dipertimbangkan; namun,
untuk menghapus S1 dan S2 pada titik ini akan salah. Bahkan, ketika mempertimbangkan model
tereduksi Y = β0 + β 1 C 1 + β 2 S2 + E statistik F parsial F ( S2|C1 )mungkin sangat signifikan. Dengan
kata lain, jika S1, tidak signifikan jika diberikan S2, dan C 1 . dan jika S2 tidak signifikan jika
diberikan S1, dan C 1, tidak serta merta berarti bahwa S2 tidak penting dalam model tereduksi
yang mengandung S2 dan C 1 tetapi tidak S1.
2.4Uji F Parsial Ganda
Prosedur pengujian ini membahas masalah yang lebih umum dalam menilai kontribusi tambahan
dari dua atau lebih variabel independen di atas dan di atas kontribusi yang dibuat oleh variabel
lain yang sudah ada dalam model. Berbeda dengan uji F parsial yang dibahas pada bagian 9-3,
uji F parsial ganda membahas penambahan simultan dua atau lebih variabel ke model. Namun
demikian, prosedur pengujian merupakan perpanjangan langsung dari uji F parsial.
2.4.1Hipotesis Nol
Untuk menguji apakah penambahan variabel k, secara signifikan meningkatkan prediksi Y,
mengingat bahwa variabel p sudah seperti contoh model.
2.4.2Prosedur
Seperti dalam kasus uji F parsial, kita harus menghitung jumlah kuadrat tambahan karena
penambahan suku X ke model. Kita harus membagi jumlah kuadrat tambahan dengan k, jumlah
koefisien regresi yang ditentukan menjadi nol di bawah hipotesis nol yang menarik. Angka
variabel k ini juga merupakan angka atau derajat kebebasan untuk statistik F. Penyebut dari
statistik F adalah residual rata-rata untuk model penuh, derajat kebebasannya adalah n-(p+1+1),
yaitu n-1 dikurangi jumlah variabel dalam model ini (yaitu, p+ k). Cara alternatif untuk menulis
statistik F ini adalah

Seperti halnya uji F parsial, uji parsial ganda/berguna untuk menilai pentingnya variabel asing.
Secara khusus, ini sering digunakan untuk menguji apakah "potongan" variabel memiliki
beberapa sifat yang sama adalah penting ketika dipertimbangkan bersama-sama.
2.5 Strategi untuk Menggunakan Tes F Parsial
Output komputer yang menyertainya adalah dari program komputer regresi khas untuk model
tersebut

11
2.5.1Prinsip Dasar
Dua metode (untuk strategi) banyak digunakan untuk mengevaluasi apakah suatu variabel harus
dimasukkan dalam model: parsial (Tipe 1) uji F untuk variabel yang ditambahkan secara
berurutan, dan parsial (uji Tipe III) untuk variabel yang ditambahkan terakhir.
1. Untuk yang pertama (variabel-ditambahkan secara berurutan), prosedur berikut
digunakan:
 urutan untuk menambahkan variabel satu per satu ditentukan
 signifikansi model (garis lurus) yang hanya melibatkan variabel yang diurutkan
terlebih dahulu dinilai
 tanda-tanda penambahan variabel kedua ke model yang hanya melibatkan
variabel pertama dinilai
 signifikansi penambahan variabel ketiga pada model yang mengandung variabel
pertama dan kedua dinilai, dan seterusnya.

2. Untuk metode kedua (variabel-tambahan terakhir), prosedur berikut digunakan:


 model awal yang berisi dua atau lebih variabel ditentukan
 signifikansi setiap variabel i model awal dinilai secara terpisah, seolah-olah itu
adalah variabel terakhir yang masuk ke model (yaitu, jika variabel berada dalam
model awal, maka A variabel ditambahkan pengujian terakhir dilakukan. Dalam
kedua metode, setiap pengujian dilakukan dengan menggunakan uji F parsial
untuk menambahkan variabel tunggal.

2.6Tes yang Melibatkan Intersep


Intersep diartikan sebagai nilai rata-rata Y bila nilai X sama dengan nol. Banyak program
komputer hanya menyediakan uji t yang melibatkan intersep. Statistik uji t untuk intersep pada
keluaran komputer sebelumnya sama persis dengan uji f parsial untuk menambahkan intersep
terakhir. Kedua model yang dibandingkan adalah

12
KORELASI : BERGANDA,PARSIAL DAN PARSIAL BERGANDA

2.7 Pratinjau
Seperti yang dilihat pada Bab 5 bahwa fitur penting berikut dapat dijelaskan dalam hal
koefisien korelasi r. Fitur-fitur tersebut diringkas sebagai berikut:
1. Koefisien korelasi r 2 menjelaskan hubungan yang kuat antara variable dependen Y dan
variable independen X. Nilai r 2 yang semakin mendekati 1 menandakan hubungan yang
kuat antara variable X dan Y dan nilai r 2 yang semakin mendekati 0 menandakan
hubungan yang lemah antara variable X dan Y.
2 SSY −SSE
2. r = , Pengurangan yang sebanding pada total sum of squares yang didapat
SSY
antara X untuk memprediksi Y.
Sx
3. r = ^β1 ( )
Sy
, ^β 1 menunjukkan estimasi slope dari garis regresi

4. r ( r xy ) adalahestimasi dari parameter populasi ρ ( ρ xy ) yang menjelaskan korelasi antara X


dan Y.
5. r dapat digunakan sebagai index umum dalam hubungan linear antara 2 variable acak
dalam arti sebagai berikut :
- Semakin tinggi nilai r positif, semakin positif juga hubungan linearnya yang artinya
seorang individu dengan nilai yang tinggi dari satu variabel kemungkinan akan memiliki
nilai yang tinggi dari yang lain, dan seorang individu dengan nilai yang rendah dari satu
variabel mungkin akan memiliki nilai yang rendah dari yang lain.
- Semakin tinggi nilai r negative, semakin negative juga hubungan linearnya yang artinya
seorang individu dengan nilai yang tinggi dari satu variable kemungkinan memiliki nilai
yang rendah pada variable lainnya dan juga sebaliknya.
- Jika r mendekati 0, semakin sedikit bukti dari hubungan linearnya, yang menunjukkan
adanya hubungan nonlinear atau sama sekali tidak ada hubungan.
Hubungan antara regresi dan korelasi dapat diperluas pada kasus regresi berganda, seperti
yang dibahas pada bab ini. Ketika beberapa variable independen terlibat, meskipun demikian,
fitur penting dalam regresi tidak dijelaskan oleh koefisien korelasi tunggal tetapi oleh beberapa
korelasi. Hal ini termasuk Korelasi Zero order seperti r, ditambah seluruh kelompok indeks
tinggi yang disebut korelasi ganda, korelasi parsial dan korelasi parsial ganda
2.8Matriks Korelasi
Ketika berhadapan dengan lebih dari satu variable independen, kita dapat mewakili
sekumpulan koefisien korelasi zero order yang ada pada matriks korellasi. Seperti contoh,

13
diberikan nilai k = 3, variable independen X 1, X2, X3 dan satu variable dependen Y, terdapat C 42=
6 korelasi zero order dan matriks korelasinya memiliki bentuk yang umum.

Disini, ryj (j = 1,2,3) adalah korelasi antara Y dan X j dan rij (I,j = 1,2,3) adalah korelasi antara X i
dan Xj. Seperti data pada table 8-1, bentuk matriksnya adalah

Diambil secara terpisah, masing-masing korelasi ini menggambarkan kekuatan hubungan


linear antara dua variable yang terlibat. Secara khusus, korelasi r y1 = 0.814, ry2= 0,770 dan ry3 =
0.767 mengukur kekuatan hubungan linear dengan variable dependen WGT untuk masing-
masing variable independen yang diambil secara terpisah. Seperti yang kita liat, HGT(ry1 =
0.814)adalah variable independen dengan hubungan linear terkuat dengan WGT, diikuti oleh
AGE dan (AGE)2.
Namun demikian, korelasi orde nol tidak menggambarkan (1) Hubungan antara variable
dependen WGT dengan Variabel independen HGT, AGE, AGE 2 atau (2) Hubungan antara WGT
dan AGE setelah mengontrol variable HGT atau (3) Hubungan antara WGT dan variable
campuran AGE dan AGE2 setelah mengontrol HGT. Pengukuran yang menjelaskan hubungan (1)
disebut koefisien korelasi berganda WGT pada HGT,AGE dan AGE2. Pengukuran yang
menjelaskan hubungan (2) disebut koefisien korelasi parsial antara WGT dan AGE mengontrol
HGT. Pada akhirnya, pengukuran yang menjelaskan hubungan (3) disebut koefisien korelasi
parsial berganda antara WGT dan kombinasi dari AGE dan AGE2 mengontroll HGT.
Meskipun AGE dan (AGE)2berkorelasi sangat tinggi dalam contoh tadi, mungkin jika
hubungan umum AGE dan WGT adalah nonlinear bahwa AGE2 akan secara signifikan terkait
dengan WGT bahkan setelah AGE dikendalikan. Faktanya, inilah yang terjadi secara umum
ketika penambahan suku orde kedua dalam regresi polynomial secara signifikan meningkatkan
prediksi variable dependen.

2.9Koefisien Korelasi Berganda

14
Koefisien korelasi berganda dilambangkan dengan R Y |X , adalah ukuran hubungan 1, X 2,…., X k

linear dari 1 variabel Y dengan beberapa variable bebas lainnya X 1,X2,…..,Xk. “Asosiasi Linear”
yang dimaksud adlaah R Y |X mengukur kekuatan hubungan antara Y dan kombinasi linear
1, X 2,…., X k

terbaik dari X, yang merupakan solusi kuadrat kecil Y^ = ^β0 + β^ 0 X 1 +…+ β^ k X k . Faktanya, tidak ada
kombinasi linear lain dari X yang memiliki korelasi besar dengan Y. Juga, R Y |X , selalu 1, X 2,…., X k

nonnegative. Koefisien korelasi berganda sederhana r untuk kasus beberapa variable independen.
Kami telah berurusan dengan nama R, yang merupakan kuadrat dari koefisien korelasi berganda.
Dua formula komputasional menyediakan interpretasi yang berguna untuk koefisien
korelasi berganda R Y |X dan kuadratnya : 1, X 2,…., X k

∑ (Yi ¿−   Ý )(Y^ 1−Y^´ )


i=1 SSY −SSE
R Y |X = ¿ R 2Y | X =
1, X 2,…., X k n n SSY
√∑
1 ,X 2, …., X k

(Y i−Ý )2 ∑ ( Y^ i−Y^´ )2
i=1 i=1

Dimana Y^ = ^β0 + β^ 0 X 1 +…+ β^ k X k (nilai yang diprediksi untuk individual). Rumus(2), yang telah
kita lihat beberapa kali sebelumnya (sebagai R), paling vebrguna untuk menilai kecocokan
model regresi. Rumus (1) menunjukkan bahwa R Y |X =r y , ^y ,adalah korelasi linear sederhana
1, X 2,…., X k

antara nilai pengamatan Y dan nilai prediksi Y.


Sebagai contoh numerik, mari kita perhatikan kembali data pada table 8-1, dimana X 1=
HGT, X2= AGE dan Y = WGT. Dengan hanya menggunakan X1 dan X2 dalam model, persamaan
regresi yang dipasang adalah Y=6,553 + 0,722X1 + 2,050X2 dan nilai yang diamati dan
diprediksi seperti yang diberikan pada table 10-1.
Keluaran SAS berikut menunjukkan bahwa nilai R yang dihitung adalah 0,78 untuk
model yang berisi X1 dan X2. Ini memberi tahu kita bahwa 78% dari variasi Y dijelaskan oleh
model regresi. Koefisien korelasi berganda R Y |X =R adalah 0,8832, meskipun nilai ini tidak
1, X 2,…., X k

ditampilkan dalam output. Nilai 0,8832 dapat diperoleh dengan mengambil akar kuadrat positif
0,7800. Secara umum, R didefiniskan sebagai akar kuadrat dari R 2, sehinhgga selalu memiliki
nilai non-negatif.

15
2.10 Hubungan R Y |X 1, X 2,…., X k
terhadap Distribusi Normal Multivariat

Cara yang informatif untuk melihat koefisien korelasi ganda sampel R Y |X dianggap 1, X 2,…., X k

sebagai penduga paramet5er populasi yang mencirikan distribusi gabungan semua variable Y,
X1,X2,…,Xk diambil bersama-sama. Ketika kami memiliki dua variable X dan Y dan
diasumsikan bahwa distribusi gabungan mereka adalah bivariate normal N 2 (μY , μ X , σ 2Y , σ 2 X , ρxy),
2 2 2 2 2
kami melihat rxy mengestimasi ρxy, dimana rumus ρ xy =(σ Y −σ Y |X )/σ Y , dimana σ Y |X adalah
varians dari distribusi kondisional Y yang diberikan X. Sekarang, ketika kita memiliki variable
independen k dan satu variable dependen, kita mendapatkan hasil analog jika kita diasumsikan
bahwa distribusi bersama mereka ada multivariate normal. Sekarang mari kita perhatikan apa
yang terjadi hanya dengan dua variable bebas. Dalam hal ini distribusi normal trivariat dari Y,X 1
dan X2 dapat digambarkan sebagai

adalah populasi analog dari sampel koefisien korelasi berganda R Y |X dan kita
2
Parameter ρ Y |X 1 , X2 1, X 2

2 2
menulis ρ μY |X 1 , X 2 dengan ρ Y | X 1 , X2 .

2
σ 2Y −σ 2Y |X , X2
ρ Y |X 1 , X2 = 2
1

σ Y

16
Menggeneralisasi temuan ini untuk kasus k variabel independen, kita dapat meringkas
karakteristik dari koefisien korelasi ganda R Y |X sebagai berikut :
1, X 2,…., X k

2
1. R Y | X mengukur pengurangan yang proporsional dalam total jumlah
1 ,X 2, …., X k ∑ (Y i−Ý )2
hingga ∑ (Y i−Y^ i)2

2. R Y |X adalah korelasi r Y , Y^ dari


1, X 2,…., X k
nilai observasi (Y) dengan nilai prediksi(Y^ ), dan
korelasi ini selalu nonnegative.

3. R Y |X adalah estimasi dari ρ y| X 1 , X X . Korelasi Y dengan nilai regresi yang


1, X 2,…., X k 2,… ., k

sebenarnya β 0+ β 1X1+……+ β kXk , dimana X dinyatakan acak.


2
4. R Y | X 1 ,X 2, …., X k
adalah estimasi dari pengurangan proporsional dalam varians tak bersyarat dari

2
σ 2Y −σ 2Y| X
y karena kondisi pada X1,X2,…,Xk yang diperkirakan ρ X 1 , X Y| Xk = 2
1 ,X 2, …., X k

2, ….,
σ Y

2.11 Koefisien Korelasi Parsial


Koefisien korelasi parsial adalah ukuran kekuatan hubungan linear antara dua variable
setelah kita mengontrol pengaruh variable lain. Jika dua variable yang diinginkan adalah Y dan
X dan variable control adalah Z1,Z2,….,Zp. maka kita menyatakan koefisien korelasi parsial yang
sesuai dengan r YX|Z; parsial orde kedua memiliki bentuk r YX|Z Z dan secara umum parsial orde – p
1 2

memiliki bentuk r YX|Z Z ….. Z . 1 2 k

Untuk tiga variable bebas HGT,AGE dan AGE2 dalam contoh kita, parsial orde tertinggi
yang mungkin adalah orde kedua. Nilai sebagian besar korelasi parsial yang dapat dihitung dari
kumpulan data yang diberikan pada table 10-2. Cara termudah untuk mendapatkan korelasi
parsial adalah dengan menggunakan program computer standar. Rumus komputasi yang
membantu menyoroti struktur koefisien korelasi parsial akan diberikan nanti. Namun, pertama-
tama, mari kita lihat bagaimana kita dapat menggunakan informasu pada table 10-2 untuk
menggambarkan table 10-2 untuk menggambarkan data kita. Melihat kembali matriks korelasi
kami, kami melihat bahwa variable yang paling berkorelasi dengan WGT adalah
HGT(rY=0,814), jadi dari ketiga variable bebas yang kita pertimbangkan, HGT adalah yang
paling penting menurut kekuatan hubungan linearnya dengan WGT : urutan korelasi parsial A.

17
Setelah HGT, variable apa yang terpenting berikutnya untuk prediksi linear WGT? Sejak
orde pertama partial RWGT,AGEIHGT= 0,589 lebih besar dari rWGT,AGE2IHGT=0,580, disimpulkan bahwa
AGE adalah kepentingan berikutnya, setelah kami memperhitungkan HGT. Kami ingin menguji
signifikasi koefisien korelasi parsial ini, kami akan menggunakan uji pasti F, seperti yang
dijelaskan dalam BAB 9.
Satu-satunya variable yang tersisa untuk dipertimbangkan adalah AGE 2. Tapi begitu kita
menghitung HGT dan AGE, apakah AGE2 menambah pengetahuan kita tentang WGT? Untuk
menjawab ini, kita melihat korelasi parsial orde kedua TWGT,AGE 2?Perhatikan bahwa besarnya
korelasi parsial ini sangat kecil. Jadi ,kami cenderung menyimpulkan bahwa AGE2 pada dasarnya
tidak memberikan informasi tambahan tentang WGT setelah HGT dan AGE digunakan bersama
sebagai predictor.
Prosedur untuk memilih variable yang baru saja dijelaskan, Mulai dengan langkah yang
paling penting dan berkelanjutan untuk menambahkan variable dalam urutan kepentingan yang
menurun sambil mengontrol variaabel yang sudah dipilih, disebut prosedur pemilihan maju.
ALternatifnya, kita dapat menangani masalah pemilihan variable dengan bekerja mundur-mulai
dengan semua variable dan menghapus variable yang tidak banyak berkontribusi pada deskripsi
variable terikat.
Output dari prosedur REG SAS dapat digunakan untuk menentukan korelasi parsial yang
disebutkan dalam diskusi sebelumnya. Output berikutnya untuk model dengan WGT sebagai
variable dependen, dan HGT,AGE dan AGE2 sebagai variable independen. Opsi PCORRI
digunakan dalam SAS untuk mendapatkan korelasi parsial kuadrat berurutan atau variable
2
ditambahkan urutan. Output melaporkan R WGT , AGE|HGT =0.3471. Untuk menentukan R WGT , AGE| HGT
, akar kuadrat dari 0,3471 pertama diambil.Tanda korelasi parsial ditentukan dari tanda perkiraan
kemiringan untuk AGE dalam regresi WGT pada AGE dan HGT. Karen tanda dari perkiraan
kemiringan untuk AGE adalah positif dalam regresi ini, tanda dari R WGT , AGE| HGT juga positif. Jadi
R WGT , AGE| HGT = +0,589.

2.11.1Uji Signifikansi untuk Korelasi Parsial

Terlepas dari prosedur yang kita gunakan untuk memilih variabel, kita harus memutuskan pada
setiap langkah apakah koefisien korelasi parsial tertentu berbeda secara signifikan dari nol.
Kami telah menjelaskan bagaimana menguji signifikansi tersebut dalam konteks yang sedikit
berbeda, sehubungan dengan berbagai penggunaan tabel ANOVA dalam analisis regresi. Ketika
kami ingin menguji apakah menambahkan variabel ke model regresi bermanfaat, mengingat

18
variabel tertentu lainnya sudah ada dalam model, kami menggunakan uji F parsial. Dapat
ditunjukkan bahwa uji F parsial ini sama persis dengan uji signifikansi untuk koefisien korelasi
parsial yang sesuai. Jadi, untuk menguji apakah Ryx|Z1.Z2…,ZP berbeda secara signifikan dari
nol, kami menghitung parsial yang sesuai F(X| Z 1.Z2…,ZP) dan menolak hipotesis nol jika
statistik F ini melebihi nilai kritis yang sesuai dari distribusi F1, n-p-2 . Misalnya, dalam menguji
apakah rWGT.(AGE)2 |HGT.AGE adalah signifikan, kami menemukan bahwa parsial F[(AGE) 2| HGT,
AGE] = 0,010 tidak melebihi F 1.12-2-2.0.90 = F1.8.0.90 = 3,46. Oleh karena itu, kami menyimpulkan
bahwa korelasi parsial ini tidak berbeda secara signifikan dari nol sehingga (AGE) 2 tidak
berkontribusi pada prediksi WGT setelah kami memperhitungkan HGT dan AGE.
Hipotesis nol untuk pengujian ini dapat dinyatakan secara lebih formal dengan
mempertimbangkan analog populasi dari koefisien korelasi parsial sampel Ryx|Z1.Z2…,ZP . Parameter
populasi yang sesuai ini, biasanya dilambangkan dengan. ρ yx|Z1.Z2…Zp, disebut koefisien korelasi
parsial populasi. Hipotesis nol kemudian dapat dinyatakan sebagai Ho: ρ yx|Z1.Z2…Zp = 0, dan
hipotesis alternatif terkait sebagai HA: ρ yx|Z1.Z2…Zp≠0.
2.11.2 Menghubungkan Uji Korelasi Parsial dengan Uji F Parsial
Struktur korelasi parsial populasi membantu kita menghubungkan bentuk korelasi tingkat tinggi
ini dengan regresi. Untuk mempermudah, mari kita pertimbangkan hubungan ini untuk kasus
khusus dua variabel bebas. Rumus kuadrat dari ρ YX1|x2 dapat ditulis sebagai:

Jadi, kuadrat dari korelasi parsial sampel r YX1|x2 adalah perkiraan pengurangan proporsi dalam
varians bersyarat Y yang diberikan X2 karena pengkondisian pada X1 dan X2. Kemudian
mengikuti rumus analog untuk korelasi parsial sampel kuadrat koefisien adalah:

Dari pembahasan statistik F parsial pada Bab 8 dan 9 mengapa uji Ho:ρ YX1|x2 = 0 dilakukan
dengan menggunakan F(X1|X2) sebagai statistik uji.

19
2.11.3 Cara Lain Menggambarkan Korelasi Parsial
Cara lain untuk menghitung korelasi parsial orde pertama adalah dengan menggunakan rumus:

Korelasi parsial ρ YX1|x2 juga dapat digambarkan sebagai korelasi orde nol untuk distribusi bivariat
bersyarat. Jika distribusi gabungan Y, X1, dan X2 adalah trivariat normal, distribusi gabungan bersyarat
dari Y dan X1 jika diberikan X2, adalah normal bivariat. Korelasi orde nol antara Y dan X 1 untuk
distribusi bersyarat ini adalah apa yang kita sebut ρ YX1|x2, ini persisnya korelasi parsial antara X 1 dan Y,
mengendalikan X2.

Sebagai contohnya, untuk menghitung rWGT,AGE|HGT, kita mengkalkulasi:

Perhatikan bahwa korelasi pertama dalam pembilang adalah korelasi orde nol sederhana antara Y
dan X. Variabel kontrol Z muncul dalam ekspresi kedua dalam pembilang (di mana ia
berkorelasi secara terpisah dengan masing-masing variabel Y dan X) dan dalam kedua istilah
dalam penyebut. Dengan menggunakan (10.3), kita dapat menginterpretasikan koefisien korelasi
parsial sebagai penyesuaian koefisien korelasi sederhana untuk memperhitungkan pengaruh
variabel kontrol. Misalnya, jika ryz dan rxz memiliki tanda yang berlawanan, mengendalikan Z
selalu meningkatkan ryx. Namun, jika ryz dan rxz memiliki tanda yang sama, maka ryx|z bisa lebih
besar atau lebih kecil dari ryx.
Untuk menghitung korelasi parsial orde tinggi, kita cukup menerapkan kembali rumus ini
menggunakan parsial orde bawah berikutnya yang sesuai. Misalnya, korelasi parsial orde kedua
adalah penyesuaian dari parsial orde pertama, yang, pada gilirannya, merupakan penyesuaian
dari korelasi orde nol sederhana. Secara khusus, kami memiliki rumus umum berikut untuk
korelasi parsial orde kedua:

20
Untuk menghitung rWGT.(AGE)2 |HGT.AGE, misalnya, kita mempunyai

2.11.4 Korelasi Parsial sebagai Korelasi Residual Regresi


Koefisien korelasi parsial kuadrat dapat diartikan kuadrat koefisien korelasi sederhana.
Pertimbangkan regresi berganda dari Y dengan X1 dan X2. Misalkan kita melakukan regresi Y
pada X2 dan mendapatkan residualnya:

Misalkan kita regresi lebih lanjut X1 pada X2 dan mendapatkan residual:

Koefisien korelasi kuadrat antara dua set residual adalah korelasi parsial kuadrat r 2YX 1∨ X 2. Itu
adalah,

Hubungan ini mengukur hubungan antara Y dan X1 setelah kedua variabel telah disesuaikan
untuk hubungan liniernya terhadap X2.
2.11.5 Korelasi Semiparsial
Sebuah alternatif dari korelasi parsial kadang-kadang dipertimbangkan. Korelasi parsial hanya
dicirikan sebagai korelasi antara Y yang disesuaikan dengan Z dan X yang disesuaikan dengan
Z. beberapa ahli statistik menyebut ini sebagai parsial penuh, karena kedua variabel yang
dikorelasikan telah disesuaikan.
Cara lain untuk menggambarkan semiparsial ini adalah dalam hal korelasi orde nol berikut:

21
Ketiga korelasi tersebut memiliki interpretasi yang berbeda. Mereka masing-masing
menggambarkan hubungan antara Y dan X, tetapi dengan penyesuaian untuk jumlah yang
berbeda. Ry(x|z) semiparsial adalah korelasi antara Y dan X dengan X yang disesuaikan untuk Z;
RX(Y|Z) semiparsial adalah korelasi antara Y dan X dengan Y yang disesuaikan untuk Z. Akhirnya,
Ry(x|z) parsial penuh adalah korelasi antara Y dan dengan Y dan X yang disesuaikan untuk Z.
2.11.6 Ringkasan Fitur Koefisien Korelasi Parsial
1. Korelasi parsial r yx|Z1.Z2…Zp mengukur kekuatan hubungan linier antara dua variabel X dan Y
sambil mengontrol variabel Z1, Z2,.. Zp.

22
2. Kuadrat dari korelasi parsial r yx|Z1.Z2…Zp mengukur proporsi jumlah sisa kuadrat yang
diperhitungkan dengan penambahan X ke model regresi yang sudah melibatkan Z 1, Z2..., Zp; itu
adalah,

3. Koefisien korelasi parsial r yx|Z1.Z2…Zp merupakan estimasi dari parameter populasi ρ yx|Z1.Z2…Zp
yang merupakan korelasi antara Y dan X dalam distribusi joint bersyarat dari Y dan X yang
diberikan Z1 , Z2,..., Zp. Kuadrat dari koefisien korelasi parsial populasi ini diberikan oleh rumus
yang setara

di mana σ 2y∨Z 1.Z 2 … Zp, adalah varians dari distribusi bersyarat dari Y yang diberikan Z 1. Z2,..., Zp
(dan di manaσ 2y∨Z 1.Z 2 … Zp didefinisikan dengan cara yang sama).

4. Statistik F parsial F(X |Z1,Z2,... Zp) digunakan untuk menguji Ho: ρ yx|Z1.Z2…Zp = 0.
5. Koefisien korelasi parsial (orde pertama) ryx|z adalah penyesuaian dari (orde nol) korelasi ryx
yang memperhitungkan pengaruh variabel kontrol Z. Hal ini dapat dilihat dari rumus

Korelasi parsial orde tinggi dihitung dengan menerapkan kembali rumus ini, menggunakan
parsial orde bawah berikutnya.
6. Korelasi parsial ryx|z dapat didefinisikan sebagai korelasi residual dari regresi garis lurus Y
pada Z dan X pada Z; yaitu, ryx|z = ry-Y^ x- ^x
,

2.12 Representasi Alternatif Model Regresi

23
Dengan analog korelasi regresi berganda, kita dapat menyatakan model regresi
μY ∨x 1, x 2, … xk =β 0+ β 1 x 1+ β 2 x 2+…+ βkXk dalam hal koefisien korelasi parsial dan
varians bersyarat. Ketika k = 3, representasi ini mengambil bentuk

di mana, misalnya, ρ y1|23 = ρ YX1|X2,X3, dan di mana kita mendefinisikan

Perhatikan kesamaan antara representasi ini dan representasi untuk kasus garis lurus, di mana
sama dengan ρ (σ y/σ x). Juga di sini

Metode yang setara dengan kuadrat terkecil untuk memperkirakan koefisien βo, β1. β2, dan β3
adalah untuk menggantikan parameter populasi dalam rumus sebelumnya dengan perkiraan yang
sesuai

24
2.13 Korelasi Parsial Berganda
Koefisien korelasi parsial adalah ukuran hubungan linier antara variabel terikat dan dua atau
lebih variabel bebas setelah kita mengontrol pengaruh variabel lain.
Kuadrat dari Ry(x1,…,xk)z1,…,zp didefinisikan

Rumus yang setara adalah

¿ ¿
Uji H: ρ y(x1,…,xk)z1,…,zp ekuivalen dengan uji H0 : β 1 = 。。。= β k = 0 di dalam model.

25
BAB III

SIMPULAN

3.1 Simpulan
1. Karakteristik umum lain dari tes yang akan dibahas dalam bab ini adalah bahwa setiap
tes dapat diartikan sebagai perbandingan dua model. Salah satu model ini akan disebut
sebagai model penuh atau lengkap; yang lain akan disebut model tereduksi (yaitu,
model yang model lengkapnya tereduksi di bawah hipotesis nol.
2. Hipotesis Null atau hipotesis nol, H0 adalah fakta yang diterima umum; itu adalah
kebalikan dari hipotesis alternatif.
3. Cara yang setara untuk melakukan ujiF parsial untuk variabel yang ditambahkan
terakhir adalah dengan menggunakan uji t . Alternatif pengujian berfokus pada
¿
pengujian hipotesis nol H 0 : β =0 dimanaβ ¿ adalah koefisien dari X ¿ dalam persamaan
¿ ¿
regresi Y = β 0 + β 1 X 1 + β 2 X 2 +…+ β p X p + β X + E .
4. Setiap uji Fparsial yang dilakukan pada langkah mundur pertama menimbang
kontribusi variabel S tertentu mengingat itu adalah variabel S terakhir yang
masuk ke model. Oleh karena itu, tidak tepat untuk menghapus lebih dari satu
variabel S pada langkah pertama ini.
5. Intersep diartikan sebagai nilai rata-rata Y bila nilai X sama dengan nol
6. Semakin tinggi nilai r positif, semakin positif juga hubungan linearnya yang artinya
seorang individu dengan nilai yang tinggi dari satu variabel kemungkinan akan
memiliki nilai yang tinggi dari yang lain, dan seorang individu dengan nilai yang rendah
dari satu variabel mungkin akan memiliki nilai yang rendah dari yang lain.
7. Semakin tinggi nilai r negative, semakin negative juga hubungan linearnya yang artinya
seorang individu dengan nilai yang tinggi dari satu variable kemungkinan memiliki nilai
yang rendah pada variable lainnya dan juga sebaliknya.
8. Jika r mendekati 0, semakin sedikit bukti dari hubungan linearnya, yang menunjukkan
adanya hubungan nonlinear atau sama sekali tidak ada hubungan.
9. Koefisien korelasi berganda adalah ukuran hubungan linear dari 1 variabel Y dengan
beberapa variable bebas lainnya X1,X2,…..,Xk.

26
10. Koefisien korelasi parsial adalah ukuran kekuatan hubungan linear antara dua variable
setelah kita mengontrol pengaruh variable lain.

Daftar Pustaka
Applied Regression Analysis and Others Multivariable Methods, David G. Kleinbaun;
Lawrence L. Kupper; Keith E. Muller; Azhar Nizam
https://youtu.be/laxbM4C0Yys
https://youtu.be/qp_MhDHNlx0

27

Anda mungkin juga menyukai