Anda di halaman 1dari 5

perbedaan One Way Anava dan Two Way Anava  

Dalam penelitian eksperimen, sangat diperlukan analisis statistic untuk menyimpulkan hasil
eksperimen. Salah satu teknik analisis yang cocok untuk ini adalah ANAVA (analisis varian)
atau dalam bahasa Inggris ANOVA (Analysis of variance). Dalam statistic dikenal istilah one
way ANOVA (ANAVA satu jalur) dan two way ANOVA (ANAVA dua jalur). Apa perbedaan
dari kedua istilah tersebut?

ANAVA satu jalur sering pula disebut COMPLETELY RANDOMIZED DESIGN (CRD) karena
berlaku jika variabel-variabel yang digunakan dalam penelitian diambil secara acak dari setiap
kelompok. Dalam menganalisis perbedaan tiga variabel atau lebih, ANAVA satu jalur sangat
berguna untuk dimanfaatkan. Jika variabel-variabel tiap kelompok tidak diambil secara acak
melainkan ditempatkan dalam cluster-cluster tertentu sesuai dengan karakteristik yang mungkin
ada dalam variabel itu, maka teknik analisisnya adalah two way ANOVA.

Sebagai contoh ANAVA satu jalur, jika kita melakukan analisis untuk membedakan 4 buah
metode mengajar, maka nilai yang diperoleh setiap siswa dapat dibuat tabel seperti berikut ini:

Akan tetapi, dalam ANAVA dua jalur setiap variabel di bagi lagi ke dalam kelompok tertentu
yang memiliki karakteristik khusus. Dengan demikian, akan ada kluster-kluster yang lebih kecil
dari setiap variabel. Dalam contoh di atas, jika kita menggolongkan siswa kedalam dua
kelompok, misalnya laki-laki dan perempuan, maka teknik ANAVA yang digunakan adalah
ANAVA dua jalur. Tabel yang kita buat akan seperti ini: 
Analisis Regresi: Sebuah Pengantar  
Salah satu teknik analisis data yang sedang ngetrend belakangan ini adalah regresi. Regresi
adalah salah satu metode peramalan yang dikenal dalam statistic. dalam dunia pendidikan,
regresi sangat sering digunakan oleh mahasiswa yang sedang menyelesaikan tugas akhir.

Analisis regresi berguna untuk mengetahui pengaruh antara variable bebas (yang juga dikenal
dengan prediktor) yang disimbolkan dengan X dan variable terikat (yang juga dikenal dengan
kriterium) yang disimbolkan dengan Y.

Istilah variable bebas dan variable terikat berasal dari matematika. Dalam penelitian, variable
bebas adalah variable yang dimanipulasikan oleh peneliti. Misalnya seorang peneliti di bidang
pendidikan yang mengkaji akibat dari berbagai metode pengajaran. Peneliti dapat menentukan
metode (sebagai variable bebas) dengan menggunakan berbagai macam metode. Dalam bahasa
yang lebih lugas, variable bebas adalah variable yang meramalkan sedangkan variable terikat
adalah variable yang diramalkan. Variable terikat adalah akibat yang di duga mengikuti
perubahan dari variable bebas.

Sebagai contoh, misalnya kita mengkaji tentang hubungan antara kecerdasan dan prestasi
sekolah, maka kecerdasan adalah variable bebas dan prestasi sekolah adalah variable terikat. Jika
kita meneliti hubungan antara merokok dan penyakit kanker, maka merokok adalah variable
bebas dan penyakit kanker adalah variable terikat.

Dalam melakukan penentuan variable bebas dan variable terikat harus dilandasi dengan teori
yang kuat. Hal ini karena statistic tidak dapat membedakan data yang memiliki teori dengan data
yang tidak berteori. Jika data yang kita gunakan tidak memiliki landasan teori yang kuat, maka
kesimpulan yang kita ambil akan sangat menyesatkan. Misalnya, kita memprediksi prestasi
belajar dengan hasil panen padi. Secara statistic, bisa jadi prestasi belajar dipengaruhi oleh panen
padi. Akan tetapi dalam kenyataannya, hasil analisis ini tidak dapat dibuktikan.

Model regresi bermacam-macam. Misalnya, regresi linear, regresi parabola, regresi hiperbola,
regresi fungsi pangkat tiga dan lain-lain. Akan tetapi, regresi yang paling sering digunakan
adalah regresi linear. model regresi linear dapat dituliskan dalam bentuk matematis sebagai
berikut:

β0 = intersep Y untuk populasi


β0 = slope untuk populasi
ε = random error dalam Y untuk observasi ke-i

Dalam menentukan persamaan model regresi linear sederhana diperlukan metode tertentu.
Metode yang paling sering digunakan adalah metode kuadrat terkecil (Least Square method).
Pada dasarnya, least square method adalah metode meminimasi persamaan kuadrat. Dengan
meminimasi persamaan kuadrat tersebut, maka akan didapatkan nilai untuk slope dan nilai untuk
intersep yang akan membuat persamaan itu menjadi yang paling baik.

Misalnya, jika kita ingin meramal hubungan antara intelejensi dan prestasi belajar. Dengan
menggunakan metode regresi linear sederhana, kita mendapatkan persamaan sebagai berikut:
Y = 2,55 + 0,93 (X) Maka -12,77 disebut intersep dan 0,93 disebut slope. Slope sebesar 0,93
berarti bahwa setiap peningkan 1 unit X (intelejensi), maka diperkirakan akan terjadi
peningkatan sebesar 0,93 pada prestasi belajar. Nilai 2,55 melambangkan prestasi belajar. Kita
bias gunakan model regresi yang telah kita hasilkan tersebut untuk memprediksi prestasi belajar
seorang anak apabila dia memiliki intelejensi tertentu.

Pengujian Linearitas  
Salah satu teknik analisis regresi yang paling sering digunakan adalah regresi linear. regresi
linear dapat digunakan apabila asumsi linearitas dapat terpenuhi. Apabila asumsi ini tidak
terpenuhi, maka kita tidak dapat menggunakan analisis regresi linear. akan tetapi kita bias
menggunakan analisis regresi nonlinear.

Asumsi linearitas adalah asumsi yang akan memastikan apakah data yang kita miliki sesuai
dengan garis linear atau tidak. Asumsi ini dapat diketahui dengan mencari nilai deviation from
linearity dari uji F linear. untuk mengetahui nilai tersebut, kita akan menggunakan data yang kita
miliki pada postingan sebelum ini. 

Masukkan variable science pada kotak Dependent List dan math pada kotak Independent List.
Kemudian klik option dan tandai test for linearity. Kemudian klik OK.
pada output SPSS, akan kita dapatkan hasil pengujian yang dirangkum dalam table analisis
varian (ANOVA Table) seperti berikut ini:

Jika angka pada Deviation From Linearity lebih besar dari 0,05 ( > 0,05), berarti hubungan
antara variable dependen dengan variable independen adalah linear. berdasarkan hasil pengujian
terlihat bahwa nilai Sig. untuk Deviation from Linearity sebesar 0,133 yang berarti lebih besar
dari 0,05 dengan demikian, dapat disimpulkan bahwa terdapat hubungan yang linear antara
variable dependen dan independen.

Uji F (Two Way Anova)


Fungsi: Two way anova berguna untuk melihat apakah dua atribut (variabel) secara
terpisah maupun bersama-sama memiliki pengaruh terhadap satu variabel lain. Variabel
lain biasanya merupakan variabel yang mengukur capaian.
Kasus 1
Ingin diketahui apakah letak barang dan jenis kemasan dapat mempengaruh penjualan
suatu barang. Pengamatan memperlihatkan data penjualan sebagai berikut:
Penyelesaian Kasus 1
• Perhitungan akan terlalu kompleks jika dilakukan secara manual, oleh karena itu
kita gunakan SPSS untuk menyelesaikannya.

Dari hasil perhitungan di atas selidiki bagaimana nilai pada kolom F diperoleh,
sebagai contoh:
914,042 42,514
21,500
= ; atas dasar perhitungan ini kita tahu nilai F tabel dicari pada
F(α, 2, 12)

Karena saudara sudah mempelajari langkah-langkah uji F pada bahasan Oneway


Anova, lakukan uji F masing-masing untuk variabel lokasi, kemasan, dan interaksi
antara variabel lokasi*kemasan, gunakan α = 0,05

hutaru
ronaldinho

Anda mungkin juga menyukai