Tugas Kelompok 6
Tugas Kelompok 6
FITRI ARIANI
SITI ARDIANTI
AYU LESTARI
NURFARIZAH
DOSEN PEMBIMBING
Segala puji bagi Allah Subhanhu Wa Ta’ala yang telah memberikan karunia dan
rahmat-Nya kepada penulis, sehingga penulis dapat menyelesaikan penyusunan
Makalah dengan judul “STATISTIK INFERENSIAL REGRESI LINEAR
BERGANDA”. Makalah sederhana ini penulis susun dalam rangka memenuhi salah
satu tugas pelajaran manajemen analisa data Prodi s1 Keperawatan, Fakultas Ilmu
Kesehatan, Universitas Pahlawan Tuanku Tambusai.
Penulis menyadari, bahwa makalah ini tidak dapat diselesaikan tanpa dukungan
dan bantuan dari berbagai pihak. Oleh karena itu, penulis berterimakasih kepada semua
pihak yang memberikan kontribusi dan dukungan dalam penyusunan makalah ini.
Tak ada gading yang tak retak, tak ada yang sempurna didunia ini. Demikian
pula dangan penulisan makalah ini. Kritik dan saran sangatlah penulis harapkan dan
dapat disampaikan secara langsung maupun tidak langsung. Semoga makalah ini
menjadi tambahan khazanah pengetahuan bagi siapapun yang membacanya.
Kelompok 6
DAFTAR ISI
1. Kata pengantar
2. BAB I PENDAHULUAN
1. LATAR BELAKANG
2. Rumusan masalah
3. Tujuan penulisan
4. Metode Penulisan
3. BAB II LANDASAN TEORI
1. Pengertian Regresi
2. Analisis Regresi Linear Berganda
4. BAB III PEMBAHASAN
1. Analisis Regresi
2. Regresi Linear Berganda
3. Pengujian Analisis Linear Berganda
5. BAB IV PENUTUP
1. Kesimpulan
6. DAFTAR PUSTAKA
BAB I
PENDAHULUAN
1. Latar belakang
Statistika adalah ilmu yang mempelajari bagaimana merencanakan,
mengumpulkan, menganalisis dan mempresentasikan data. Singkatnya, statistika
adalah ilmu yang berkenan dengan data. Statistika dibagi menjadi dua, yaitu
Statistika Deskriptif dan Statistika Inferensial. Statistika deskriptif berkenaan
dengan deskripsi data, misalnya dari menghitung rata-rata dan varians dari data
mentah; mendeksripsikan menggunakan tabel-tabel atau grafik sehingga data
mentah lebih mudah “dibaca” dan lebih bermakna. Sedangkan statistika
inferensial lebih dari itu, misalnya melakukan pengujian hipotesis,
melakukan prediksi observasi masa depan, atau membuat model regresi.
Analisa regresi berganda adalah salah satu metode statistika yang sering
digunakan untuk mengetahui sejauh mana ketergantungan dan hubungan sebuah
variabel tak bebas dengan sebuah atau lebih variabel bebas, bila dalam
analisisnya hanya melibatkan sebuah variabel bebas maka regresi linier
sederhana. Sedangkan bila dalam analisisnya melibatkan dua atau lebih variabel
bebas maka analisis yang digunakan adalah analisis linear berganda. Hubungan
dan pengaruh dua variabel tersebut bermanfaat untuk mengetahui kondisi atau
dampak yang terjadi akibat adanya perubahan suatu variabel terhadap variabel
lainnya, sehingga dapat disusun suatu rencana dalam menghadapi dampak
tersebut Seringkali digunakan untuk mengatasi permasalahan analisis regresi yang
melibatkan hubungan dari dua atau lebih variabel bebas. Maka dari itu, kami
membuat makalah ini dengan judul “Analisis Regresi Linear Berganda”
2. Rumusan Masalah
Berdasarkan latar belakang di atas, dapat di rumuskan sebuah permasalahan
sebagai berikut:
3. Tujuan Penulisan
1. Pengertian Regresi
Istilah regresi pertama kali diperkenalkan oleh Sir Francis Galton pada
tahun 1886. Galton menemukan adanya tendensi bahwa orang tua yang memiliki
tubuh tinggi memiliki anak-anak yang tinggi, orang tua yang pendek memiliki anak-
anak yang pendek pula. Kendati demikian. Ia mengamati bahwa ada
kecenderungan tinggi anak cenderung bergerak menuju rata-rata tinggi populasi
secara keseluruhan. Dengan kata lain, ketinggian anak yang amat tinggi atau orang
tua yang amat pendek cenderung bergerak kearah rata-rata tinggi populasi. Inilah
yang disebut hukum Golton mengenai regresi universal. Dalam bahasa galton, ia
menyebutkan sebagai regresi menuju mediokritas.
Hukum regresi semesta (law of universal regression) dari Galton diperkuat oleh
temannya Karl Pearson, yang mengumpulkan lebih dari seribu catatan tinggi
anggota kelompok keluarga. Ia menemukan bahwa rata-rata tinggi anak laki-laki
kelompok ayah (yang) pendek lebih besar dari pada tinggi ayah mereka, jadi
“mundurnya” (“regressing”) anak laki-laki yang tinggi maupun yang pendek serupa
kea rah rata-rata tinggi semua laki-laki. Dengan kata lain Galton, ini adalah
“kemunduran kearah sedang”.
Dalam kajian ilmu sosial maupun kependidika sering terjad sifat hubungan
berjenjang. Ini berarti bahwa variabel bebas dalam mempengaruhi variabel terikat
tidak terjadi secara langsung, tetapi melalui variavel lain. Variabel lain
menjembatani pengaruh variabel bebas terhadap variabel terikat tersebut dengan
variabel antara. Disamping itu, antar variabel bebas itu sendiri mempunyai pola
hubungan yang tidak tetap artinya bisa benar-benar bebas, berkorelasi tetapi
tidak signifikan, mempunyai hubungan yang tidak erat.
terikat. Dalam kondisi ini antar variabel bebas tidak terdapat hubungan yang
signifikan. Jika kondisi ini yang dijumpai, maka hasil perhitungan kuadrat
koefisien merupakan jumlah sumbangan/kontribusi variabel bebas terhadap
variabel terikat. Besarnya kontribusi total variabel bebas terhadap variabel
terikat merupakan jumlah kontribusi masing-masing variabel bebas terhadap
variabel terikat.
PEMBAHASAN
1. Analisis Regresi
Analisis regresi merupakan studi dalam menjelaskan dan mengevaluasi
hubungan antara suatu peubah bebas (independent variable) dengan satu peubah
tak bebas (dependent variable) dengan tujuan untuk mengestimasi dan atau
meramalkan nilai peubah tak bebas didasarkan pada nilai peubah bebas yang
diketahui (Widarjono, 2005).
Analisis regresi adalah teknik statistika yang berguna untuk memeriksa dan
memodelkan hubungan diantara variabel-variabel. Penerapannya dapat dijumpai
secara luas di banyak bidang seperti teknik, ekonomi, manajemen, ilmu-ilmu
biologi, ilmu-ilmu sosial, dan ilmu-ilmu pertanian. Pada saat ini, analisis regresi
berguna dalam menelaah hubungan dua variabel atau lebih, dan terutama untuk
menelusuri pola hubungan yang modelnya belum diketahui dengan sempurna,
sehingga dalam penerapannya lebih bersifat eksploratif.
Analisis regresi dikelompokkan dari mulai yang paling sederhana sampai yang
paling rumit, tergantung tujuan yang berlandaskan pengetahuan atau teori
sementara, bukan asal ditentukan saja. jika dalam persamaan regresi hanya
terdapat satu variabel terikat,maka disebut sebagai regresi sederhana. Sedangkan
jika variabel bebasnya lebih dari satu, maka disebut sebagai persamaan regresi
berganda
𝑌 = 𝛽0 + 𝛽1 𝑋1 + 𝛽2 𝑋2 + ⋯ + 𝛽𝑘 𝑋𝑘 + 𝜀
1. Asumsi Eksistensi
Untuk setiap kombinasi khusus nilai-nilai tetap dari variabel bebas (dasar)
𝑋1 , 𝑋2 , … , 𝑋𝑘 (misalnya X1= 57, X2 = 8) adalah variabel acak (univariate) dengan
distribusi peluang tertentu yang mempunyai nilai rata-rata dan variansi
terhingga.
2. Asumsi Kebebasan
Nilai-nilai Y adalah hasil pengamatan yang bebas statistik antara satu dengan
lainnya.
3. Asumsi kelinearan
Atau
𝑌 = 𝛽0 + 𝛽1 𝑋1 + 𝛽2 𝑋2 + ⋯ + 𝛽𝑘 𝑋𝑘 + 𝜀
4. Asumsi Kehomogenan
Variansi Y sama untuk setiap kombinasi tertentu dari 𝑋1 , 𝑋2 , … , 𝑋𝑘 , yakni
2
𝜎𝑌|𝑋1 ,𝑋2 ,…,𝑋𝑘
≡ 𝑉𝑎𝑟(𝑌|𝑋1 , 𝑋2 , … , 𝑋𝑘 ) ≡ 𝜎 2
5. Asumsi Kenormalan
Untuk setiap nilai kombinasi tertentu 𝑋1 , 𝑋2 , … , 𝑋𝑘 , Y mempunyai distribusi
normal. Kita gunakan simbol
𝑌 = 𝑁(𝜇𝑌|𝑋1 ,𝑋2,…,𝑋𝑘 , 𝜎 2 )
yang berarti Y berdistribusi normal dengan rata-rata 𝜇𝑌|𝑋1 ,𝑋2 ,…,𝑋𝑘 dan variansi
𝜎 2 . Asumsi ini tidak diperlukan untuk membuat model regresi akan tetapi
umumnya diperlukan untuk membuat inferensi.
𝑏0 = 𝑌̅ − 𝑏1 𝑋̅1 − 𝑏2 𝑋̅2
(∑𝑛 2 𝑛 𝑛 𝑛
𝑖=1 𝑥2𝑖 )(∑𝑖=1 𝑥1𝑖 𝑦𝑖 )−(∑𝑖=1 𝑥1𝑖 𝑥2𝑖 ) (∑𝑖=1 𝑥2𝑖 𝑦𝑖 )
𝑏1 = 2
(∑𝑛 2 𝑛 2 𝑛
𝑖=1 𝑥1𝑖 )(∑𝑖=1 𝑥2𝑖 )− (∑𝑖=1 𝑥1𝑖 𝑥2𝑖 )
(∑𝑛 2 𝑛 𝑛 𝑛
𝑖=1 𝑥1𝑖 )(∑𝑖=1 𝑥2𝑖 𝑦𝑖 )−(∑𝑖=1 𝑥1𝑖 𝑥2𝑖 ) (∑𝑖=1 𝑥1𝑖 𝑦𝑖 )
𝑏2 = 2
(∑𝑛 2 𝑛 2 𝑛
𝑖=1 𝑥1𝑖 )(∑𝑖=1 𝑥2𝑖 )− (∑𝑖=1 𝑥1𝑖 𝑥2𝑖 )
1. Ukuran Sampel
Masalah berkenaan ukuran sampel di sini adalah generabilitas. Dengan sampel
kecil anda tidak bisa melakukan generalisasi (tidak bisa diulang) dengan sampel
lainnya. Berbeda penulis berbeda berapa sampel yang seharusnya dalam uji Regresi
Berganda. Stevens (1996, p.72) merekomendasikan bahwa “untuk penelitian ilmu
sosial, sekitar 15 sampel per prediktor (variabel bebas) dibutuhkan untuk mengisi
persamaan uji regresi.” Tabachnick and Fidell (1996, p.132) memberi rumus guna
menghitung sampel yang dibutuhkan uji Regresi, berkaitan dengan jumlah variabel
bebas yang digunakan:
n > 50 + 8m
Dimana :
n = Jumlah Sampel
m = Jumlah Variabel Bebas
2. Outlier
Regresi Berganda sangat sensitif terhadap Outlier (skor terlalu tinggi atau
terlalu rendah). Pengecekan terhadap skor-skor ekstrim seharusnya dilakukan
sebelum melakukan Regresi Berganda. Pengecekan ini dilakukan baik terhadap
variabel bebas maupun terikat. Outlier bisa dihapus dari data atau diberikan skor
untuk variabel tersebut yang tinggi, tetapi tidak terlampau beda dengan kelompok
skor lainnya. Prosedur tambahan guna mendeteksi outlier juga terdapat pada
program SPSS file mah_1. Outlier pada variabel terikat dapat diidentifikasi dari
Standardised Residual plot yang dapat disetting. Tabachnick and Fidell (1996, p.
139) menentukan outlier adalah nilai-nilai Standardised Residual di atas 3,3 (atau < -
3,3).
Outlier juga bisa dicek menggunakan jarak Mahalanobis yang tidak diproduksi
oleh program Regresi Berganda SPSS ini. Ia tidak terdapat dalam output SPSS. Untuk
mengidentifikasi sampel mana yang merupakan Outlier, anda perlu menentukan
nilai kritis Chi Square, dengan menggunakan jumlah variabel bebas yang digunakan
dalam penelitian sebagai “degree of freedom-nya” atau derajat kebebasan. Pallant
menggunakan Alpha 0,001 agar lebih meyakinkan, yang rinciannya sebagai berikut:
3. Normalitas Residu
Normalitas adalah residu yang seharusnya terdistribusi normal seputar skor-
skor variabel terikat. Residu adalah sisa atau perbedaan hasil antara nilai data
pengamatan variabel terikat terhadap nilai variabel terikat hasil prediksi. Untuk
melihat apakah residu normal atau tidak, dapat dilakukan dengan cara berikut:
Melihat grafik Normal P-P Plot, dan
Uji Kolmogorov-Smirnov
Pada grafik Normal P-P Plot, residu yang normal adalah data memencar mengikuti
fungsi distribusi normal yaitu menyebar seiring garis z diagonal. Residu normal dari
uji Kolmogorov-Smirnov adalah diperolehnya nilai p > 0,05.
Linieritas adalah residual yang seharusnya punya hubungan dalam bentuk “straight-
line” dengan skor variabel terikat yang diprediksi. Homoskedastisitas adalah varians
residual seputar skor-skor variabel terikat yang diprediksi seharusnya sama bagi
skor-skor yang diprediksi secara keseluruhan.
4. Multikolinieritas
Uji Regresi mengasumsikan variabel-variabel bebas tidak memiliki hubungan
linier satu sama lain. Sebab, jika terjadi hubungan linier antarvariabel bebas akan
membuat prediksi atas variabel terikat menjadi bias karena terjadi masalah
hubungan di antara para variabel bebasnya.
Dalam Regresi Berganda dengan SPSS, masalah Multikolinieritas ini ditunjukkan
lewat tabel Coefficient, yaitu pada kolom Tolerance dan kolom VIF (Variance
Inflated Factors). Tolerance adalah indikator seberapa banyak variabilitas sebuah
variabel bebas tidak bisa dijelaskan oleh variabel bebas lainnya. Tolerance dihitung
dengan rumus 1 – R2 untuk setiap variabel bebas. Jika nilai Tolerance sangat kecil (<
0,10), maka itu menandakan korelasi berganda satu variabel bebas sangat tinggi
dengan variabel bebas lainnya dan mengindikasikan Multikolinieritas. Nilai VIF
merupakan invers dari nilai Tolerance (1 dibagi Tolerance). Jika nilai VIF > 10, maka
itu mengindikasikan terjadinya Multikolinieritas.
5. Autokorelasi
Autokorelasi juga disebut Independent Errors. Regresi Berganda
mengasumsikan residu observasi seharusnya tidak berkorelasi (atau bebas). Asumsi
ini bisa diuji dengan teknik statistik Durbin-Watson, yang menyelidiki korelasi
berlanjut antar error (kesalahan). Durbin-Watson menguji apakah residual yang
berdekatan saling berkorelasi. Statistik pengujian bervariasi antara 0 hingga 4
dengan nilai 2 mengindikasikan residu tidak berkorelasi. Nilai > 2 mengindikasikan
korelasi negatif antar residu, di mana nilai < 2 mengindikasikan korelasi positif. >
6. Homoskedastisitas
Uji Regresi bisa dilakukan jika data bersifat Homoskedastisitas bukan
Heteroskedastisitas. Homoskedastisitas adalah kondisi dalam mana varians dari
data adalah sama pada seluruh pengamatan. Terdapat sejumlah uji guna
mendeteksi gejala heteroskedastisitas misalnya uji Goldfeld-Quandt dan Park.
Namun, Wang and Jain beranggapan bahwa Uji Park dapat lebih teliti dalam
memantau gejala heteroskedastisitas ini. Dengan demikian, penelitian ini akan
menggunakan Uji Park guna menentukan gejala heteroskedastisitas variabel-
variabelnya.
Uji Park dilakukan dengan meregresikan nilai residual (Lne2) dengan masing-
masing variabel independent. “The Park test suggests that if heteroscedasticity is
present, the heteroscedastic varianc eσ_i^2 may be systematically related to one or
more of the explanatory variables.” Rumus uji Park sebagai berikut:
Cara melakukan Uji Park adalah sebagai berikut:
1. Dengan SPSS klik Analyze -->Regression --> Linear --> Masukkan variabel y ke
Dependent --> Masukkan variabel x1, x2, x3, x4 ke Independent(s) --> Klik Save --
> Pada Residual klik Unstandardized --> Continue --> OK
2. Pada SPSS klik Data View --> Cek bahwa ada satu variabel baru bernama res_1.
Ini merupakan nilai ε_i^ . Nilai ini harus dikuadratkan dengan cara (pada SPSS)
klik Transform --> Compute --> Isi Target Variable dengan ε_i^2 --> Pada operasi
hitung kalikan nilai ε_i^ dengan ε_i^ . Pada Variable View SPSS muncul variabel
baru bernama ε_i^2.
3. Dengan SPSS, tepatnya menu Transform --> Compute lakukan perubahan nilai
ε_i^2, X1, X2, X3, X4 ke dalam bentuk logaritma natural (Ln) [caranya dengan Klik
Ln lalu pindahkan variabel] Ln(ε_i^2 ) yaitu regresi unstandardized residual pada
Target Variable dinamai Lnei2; X1 yaitu variabel x1 pada Target Variable dinamai
Lnx1; X2 yaitu variabel x2 pada Target Variable dinamai Lnx2; x3 yaitu variabel x3
pada Target Variable dinamai Lnx3; x4 yaitu variabel x4 pada Target Variable
dinamai Lnx4.
4. Setelah diperoleh nilai variabel-variabel baru Lnei2, LnX1, LnX2, LnX3, dan LnX4.
5. Lakukan uji regresi kembali secara satu per satu.
6. Pertama, klik Analyze --> Regression>Linear --> Masukkan variabel Lnei2 ke kotak
Dependent --> Masukkan variabel LnX1 ke Independent(s) --> OK. Sementara
hasil belum dihiraukan.
7. Kedua, klik Analyze --> Regression --> Linear --> Variabel Lnei2 masih ada di
Dependent, biarkan > Keluarkan LnX1 dan masukkan LnX2 ke Independent(s) >
OK. Sementara hasil belum dihiraukan.
8. Ketiga, klik Analyze --> Regression --> Linear --> Variabel Lnei2 masih ada di
Dependent, biarkan > Keluarkan LnX2 dan masukkan LnX3 ke Independent(s) >
OK. Sementara hasil belum dihiraukan.
9. Keempat, klik Analyze --> Regression --> Linear --> Variabel Lnei2 masih ada di
Dependent, biarkan > Keluarkan LnX3 dan masukkan LnX4 ke Independent(s) >
OK. Sementara hasil belum dihiraukan.
10. Perhatikan Output SPSS. Pada output, terdapat hasil perhitungan Park bagi
variabel x1, x2, x3 dan x4, tepatnya adalah hasil uji Lnei2 dengan LnX1, dan uji
Lnei2 dengan LnX2, uji Lnei2 dengan LnX3, dan uji Lnei2 dengan LnX4.
11. Peneliti akan memperbandingkan apa yang tertera di tabel Coefficients, yaitu
nilai t.
12. Guna memastikan apakah ada gejala heteroskedastisitas, peneliti akan
memperbandingkan nilai thitung dengan ttabel. Nilai ttabel dapat dicari pada
Tabel t, yaitu dengan menentukan df = n - 4 . n adalah jumlah sampel dan 4
karena jumlah variabel independen penelitian adalah 4. Sehingga nilai df = 48 – 4
= 44. Dalam taraf 0,05 uji yang dilakukan adalah 2 sisi sehingga singnifikansi pada
tabel adalah 0,025.
Dengan mempertemukan nilai 46 dan 0,025 dan uji 2 sisi pada taraf 95% (0,025) pada
Tabel t diperoleh nilai t tabel penelitian sebesar ......
Caranya dengan melihat grafik persilangan SRESID dengan ZPRED pada output hasil
SPSS. Caranya sebagai berikut:
Homoskedastisitas terjadi jika tidak terdapat pola tertentu yang jelas, serta titik-titik
menyebar di atas dan di bawah angka 0 pada sumbu Y. Heteroskedastisitas terjadi jika
terdapat titik-titik memili pola tertentu yang teratur seperti bergelombang, melebar
kemudian menyempit.
Setelah uji Regresi Berganda selesai dilakukan, peneliti harus melakukan interpretasi.
Rumus Regresi Berganda (standar) adalah sebagai berikut:
Setelah pengujian Regresi Berganda dengan SPSS selesai, hal-hal penting untuk
interpretasi adalah apa yang tercantum pada tabel-tabel pada output SPSS.
Tabel Descriptives
Pada tabel Descriptive dapat dilihat nilai Standar Deviasi. Nilai ini terdapat pada
kolom Std. Deviation. Nilai ini nanti akan diperbandingkan dengan nilai Std. Error of
the Estimate.
Kolom Model. Menunjukkan berapa buah model analisis yang kita bentuk.
Std. Error of the Estimate. Kolom ini menjelaskan seberapa kuat variabel-variabel
bebas bisa memprediksi variabel terikat. Nilai Std. Error of the Estimate
diperbandingkan dengan nilai Std. Deviation (bisa dilihat pada tabel Descriptives). Jika
Std. Error of the Estimate < Std. Deviation, maka Std. Error of the Estimate baik untuk
dijadikan prediktor dalam menentukan variabel terikat. Jika Std. Error of the Estimate >
Std. Deviation, maka Std. Error of the Estimate tidak baik untuk dijadikan prediktor
dalam mementukan variabel terikat.
Tabel Coefficients
Pada tabel Coefficient, mohon perhatikan lalu jelaskan nilai-nilai yang tertera
pada kolom-kolom berikut ini:
Model. Kolom ini menjelaskan berapa banyak model analisis yang dibuat peneliti. Pada
kolom ini juga terdapat nama-nama variabel bebas yang digunakan dalam penelitian.
Variabel-variabel tersebut diberi label “Constant” yaitu nilai konstanta yang digunakan
dalam persamaan uji Regresi Berganda (a).
Unstandardized Coefficient. Kolom ini terdiri atas b dan Std. Error. Kolom b
menunjukkan Koefisien b, yaitu nilai yang menjelaskan bahwa Y (variabel terikat) akan
berubah jika X (variabel bebas) diubah 1 unit.
Tolerance. Kolom ini menjelaskan banyaknya varians pada suatu variabel yang tidak
bisa dijelaskan oleh variabel prediktor lainnya. Kisarannya 0 hingga 1, di mana semakin
mendekati 1 maka semakin mengindikasikan prediktor-prediktor lain tidak bisa
menjelaskan varians di variabel termaksud. Nilai yang semakin mendekati 0 artinya
hampir semua varians di dalam variabel bisa dijelaskan oleh variabel prediktor lain.
Nilai Torelance sebaiknya ada di antara 0,10 hingga 1.
Tabel ANOVA
Sig. Tabel ANOVA menunjukkan besarnya angka probabilitas atau signifikansi
pada perhitungan ANOVA. Nilai yang tertera digunakan untuk uji kelayanan Model
Analisis [dimana sejumlah variabel x mempengaruhi variabel y] dengan ketentuan
angka probabilitas yang baik untuk digunakan sebagai model regresi harus < 0,05. Nilai
ini bisa dilihat pada kolom Sig. Jika Sig. < 0,05, maka Model Analisis dianggap layak. Jika
Sig. > 0,05, maka Model Analisis dianggap tidak layak.
Pada tabel ANOVA terdapat kolom F. Nilai yang tertera pada kolom F tersebut disebut
sebagai F hitung. F hitung ini diperbandingkan dengan F tabel. Peraturannya:
Cara menentukan Koefisien Determinasi sangatlah mudah. Peneliti tinggal melihat nilai
pada kolom R2 dikalikan 100%. Misalnya nilai R2 adalah 0,7777. Dengan demikian
Koefisien Determinasinya = 0,7777 x 100% = 77,77%. Jadi, secara serentak variabel-
variabel bebas mempengaruhi variabel terikat sebesar 77,77%. Sisanya, yaitu 100 –
77,77% = 22,23% ditentukan oleh variabel-variabel lain yang tidak disertakan di dalam
penelitian.
Pada Tabel Coefficient, pengujian Hipotesis akan dilakukan. Uji hipotesis dilakukan
dengan menggunakan Uji t. Pernyataan Hipotesis yang hendak diuji sebagai berikut:
Nilai t hitung bisa dilihat pada kolom t bagi masing-masing variabel bebas.
DATA
Data diatas untuk melihat bagaimana Berat badan sebagai Variabel Dependen yang
dinotasikan dengan (Y) bervariasi menurut Tinggi Badan (cm) yang dinotasikan dengan
X1 dan Umur (thn) yang dinotasikan dengan (X2).
Data diatas akan dilakukan analisis regresi berganda dengan bantuan sofware
SPSS 17 menggunakan tingkat signifikansi 0,05 dengan hasil pengolahan data sebagai
berikut:
Variables Entered/Removed
Variables Variables
Model Entered Removed Method
Variables Variables
Model Entered Removed Method
Model Summaryb
b. Dependent Variable: y
Model Summaryb
Change Statistics
R Square Durbin-
Model Change F Change df1 df2 Sig. F Change Watson
b. Dependent Variable: y
ANOVAb
Sum of
Model Squares df Mean Square F Sig.
Total 264.917 11
b. Dependent Variable: y
Coefficientsa
Unstandardized Standardized
Coefficients Coefficients
a. Dependent Variable: y
Residuals Statisticsa
a. Dependent Variable: y
b0 : 1.939
b1 : 0,423
b2 : 0,886
PENUTUP
Kesimpulan
5. Fox, J. (1997). Applied Regression Analysis, Linear Models and Related Methods.
Sage