Anda di halaman 1dari 3

Summary Kuliah MAP 18 September 2023 (Analisis Regresi)

Definisi
Metode yang sangat fleksibel dan sangat penting untuk menggambarkan dan menjelaskan hubungan antar
variabel (X terhadap Y) serta membuat prediksi. (Klaus Backhaus, 2022).

Keunggulan
Analsis regresi merupakan salah satu jenis analisis data yang sering digunakan, karena memiliki beberapa
keunggulan antara lain;
• Kemampuan untuk Menganalisis Hubungan Kausal (X &Y)
• Kemudahan Penggunaan, terdapat banyak software yang bisa digunakan (SPSS, R, Pyhton)
• Fleksibel
• Pengukuran dan Prediksi (tingkat hubungan)
• Hasil yang Interpretabel (mudah diinterpretasi)
• Penggunaan dalam Penelitian Lintas Disiplin

Tujuan
• Mengukur variabel independen yang memengaruhi variabel dependen
• Membuat prediksi tentang nilai variabel dependen berdasarkan nilai-nilai variabel independent
• Menjelaskan dan menginterpretasikan dampak variabel independent terhadap variabel dependen
• Mengidentifikasi faktor-faktor yang paling berpengaruh atau signifikan dalam memengaruhi
variabel dependen
• Menguji hipotesis statistik tertentu tentang hubungan antara variabel-variabel

Jenis analisis regresi linier


• Regresi Linier Sederhana -> digunakan ketika hanya ada satu variabel independent yang
digunakan untuk memprediksi variabel terikat
• Regresi Linier Berganda -> digunakan Ketika ada sua atau lebih variabel independent yang
digunakan untuk memprediksi variabel terikat

Persamaan
Y= b0 + b1x1 + b2x2 + … + bjxj + … + bJXJ
Dimana Y adalah variabel dependen, X1, X2, ...,Xk adalah variabel independent dan B0,B1, B2 adalah
parameter populasi yang nilainya tidak diketahui.

Pengambilan Keputusan
Dilakukan dengan melakukan uji T dan Uji F

Hasil Uji T Uji F


Terdapat pengaruh nilai sig < 0,05 atau t hitung > T tabel nilai sig < 0,05 atau f hitung > F tabel
Tidak Ada Pengaruh nilai sig > 0,05 atau t hitung < T tabel nilai sig > 0,05 atau f hitung < F tabel
Cara mencari ttabel = (α/2;n-k-1)
Cara mencari ftabel= (k;n-k)

Proses/Metode Analisis Regresi Linier Sederhana


Uji Linearitas -> Uji Multikolinearitas -> Uji Homoskedastisitas -> Uji normalitas

• Uji Linearitas
Jika Deviation from Linearity Sig. > 0,05 maka ada hubungan linear antar variabel independent
dengan dependen dan sebaliknya.

• Uji Multikolinearitas
Jika Nilai Tolerance > 0,100 dan ViF <10,00 maka tidak ada gejala multikolinearitas (dua atau lebih
variabel independent saling berkorelasi kuat).
• Uji Homoskedastisitas
Homoskedastisitas terjadi apabila terdapat pola yang terbentuk pada scatterplot.
• Uji Normalitas
Umumnya Menggunakan uji statistik seperti ujiKolmogorov-Smirnov atau uji Shapiro-Wilk. Jika
nilai p atau sig lebih besar dari 0,05, maka data dianggapterdistribusi secara normal.

Regresi Berganda
Terdiri dari 3 jenis, yaitu:
• Regresi Berganda Standar
Menilai hubungan antara variabel dan menjawab pertanyaan dasar tentang korelasi Berganda
yang bersifat teoritis, memiliki keterbatasan pada jumlah sampel yang terbatas serta variabel
independent yang dimasukkan secara bersamaan.
• Regresi Berganda Hirarkis
Regresi hirarkis variabel independen dimasukkan ke dalam persamaan dalam urutan yang
ditentukan oleh peneliti yang dinilai berdasarkan kontribusinya terhadap persamaan
• Stepwise Regression
Kombinasi dari kedua pendekatan Forward dan Backward Selection. Metode ini digunakan untuk
mengeliminasi variabel yang tidak berpengaruh dalam proses analisis.

Catatan:
1. Uji T digunakan untuk melihat hubungan secara terpisah antar masing-masing variabel
independen dengan variabel dependen.
2. Uji F digunakan untuk melihat hubungan yang simultan antara variabel independent dan variabel
dependen.
3. Pada regresi benganda standar, irisan/korelasi antar independen variabel tidak dilihat.
4. Pada regresi berganda hirarkis, irisan/korelasi antar independen variabel dilihat (dipengaruhi oleh
urutan kapan variabel tersebut dimasukkan ke dalam persamaan.
5. Sebelum melakukan analisis regresi, penting dilakukan uji multikolinearitas agar koefisien yang
dihasilkan dapat stabil.
6. Jika terjadi multikolinearitas, terdapat beberapa langkah yang dapat dilakukan, antara lain.
• Menghilangkan variabel dengan korelasi yang tinggi
• Menggabungkan variabel (dengan analisis faktor)
7. Variabel dapat dihilangkan apabila nilai signifikansinya kurang dari sama dengan 0,05.
8. Sisa nilai R square tidak dapat memperlihatkan jumlah variabel lain yang berpengaruh namun
belum dianalisis.
9. Data nominal/ordinal dapat dianalisis menggunakan analisis regresi dengan catatan dta tersebut
menjadi variabel dependen. Hal ini dilakukan dengan menggunakan metode dummy
(menggunakan bilangan biner).

Anda mungkin juga menyukai