Anda di halaman 1dari 41

Modul Statistik

Nama: Aurelia Pratama

NIM: 13150035

Kelas: 2PPS2

Jurusan Psikologi

Ilmu Sosial dan Humaniora

2015/2016
Chapter 1

Introduction to Statistics

1.1 Statistics, Science, and Observartions.


Statistic terdiri dari fakta-fakta seperti pendapatan rata-rata, tingkat kriminalitas,
tingkat kelahiran, rata-rata curah hujan, dan sebagainya. Statistic ini biasanya informative
dan menghemat waktu karena mengubah kuantitas informasi yang besar menjadi lebih
sedikit. Pengertian statistic merujuk kepada prosedur matematis dalam mengatur,
meringkas, dan menginterpretasi informasi. Prosedur statistical membantu untuk
memastikan validitas dari informasi atau hasil observasi secara akurat dan informative.
1.2 Populasi dan Sampel.
Populasi berarti sekumpulan orang yang hendak diteliti. Karena merupakan
sekumpulan orang, maka peneliti hanya mengambil beberapa individu yang memenuhi
criteria tertentu untuk diteliti yang biasa disebut dengan sampel. Sampel adalah sebagian
kecil dari populasi yang akan diteliti, biasanya merupakan representasi dari criteria yang
dikehendaki oleh para peneliti. Lebih jelasnya, ketika peneliti telah meneliti sampel, hasil
dari penelitin tersebut akan digeneralisasikan, oleh sebab itu syarat utama dari pemilihan
sampel adalah harus bersifat representative atau mewakili criteria yang ingin diteliti.
Dalam penelitian, terdapat hal-hal yang dapat mempengaruhi hasil penelitian,
diantaranya adalah Independent variable atau variabel bebas dan dependent variable atau
variabel terikat. IV merupakan variabel yang mempengaruhi DV. IV dapat dimanipulasi
oleh peneliti. Sedangkan DV merupakan variabel yang dipengaruhi oleh DV. Misalnya
seorang peneliti ingin meneliti tentang penggunaan gadget terhadap prestasi belajar siswa.
Yang menjadi IV adalah penggunaan gadget karena dapat dimanipulasi lama penggunaan
gadgetnya sedangkan prestasi siswa merupakan DV karena hasil tersebut dipengaruhi
oleh lama penggunaan gadget/IV. Untuk mendemonstrasikan perubahan dalam variabel,
sangat penting untuk melakukan pengukuran dari variabel yang akan diuji. Pengukuran
yang meliputi masing-masing variabel disebut dengan data. Ketika menggambarkan data,
penting untuk mengetahui apakah datanya berasal dari populasi atau sampel.
Karakteristik yang menggambarkan populasi-seperti misalnya rata-rata populasi- disebut
parameter, sedangkan pada sampel disebut statistic.
Metode deskriptif dan inferensial
Statistic deskriptif terdiri dari prosedur statistic yang digunakan untuk menyederhanakan
dan merangkum data. Statistic inferensial terdiri dari teknik yang mengijinkan kita untuk
mempelajari sampel dan membuat generalisasi dari populasi. Sampling error merupakan
jumlah kesalahan yang terjadi antara sampel statistic dan parameter populasi.
1.3 Data Structures, research methods, and statistics.
Terdapat dua struktur data, yaitu:
1. Mengukur dua variabel dari maing-masing individu: metode korelasional. Sebuah
metode untuk menguji adanya hubungan antara dua variabel adalah dengan
mengobservasi kedua variabel tersebut.
2. Membandingkan dua atau lebih grup skor: metode eksperimental dan
noneksperimental. Dalam metode eksperimental, salah satu variabel dimanipulasi (IV)
dan variabel lainnya akan diukur (DV). Dalam studi noneksperimental, IV yang biasa
digunakan untuk membuat perbedaan skor disebut quasi-independent variable.
1.4 Variable and measurement.
Variabel diskrit terdiri dari kategori-kategori yang terpisah. Tidak ada nilai diantara
dua kerabat kategori. Misalnya tidak mungkin kita dapat mengobservasi nilai diantara 18
murid dan 19 murid. Sedangkan variabel kontinu berarti ada kemungkinan angka yang
tidak terhingga diantara dua nilai yang diobservasi. Contohnya mengukur tinggi badan,
berat badan, dan waktu.
Skala pada pengukuran terdiri dari skala nominal, skala ordinal, skala rasio, dan skala
interval. Pada skala nominal terdiri dari beberapa jenis kategori yang memiliki nama
yang berbeda. Tujuannya adalah untuk mengkategorikan sesuatu. Dalam skala ordinal
terdiri dari beberapa set kategori yang disusun berdasarkan urutan. Skala rasio dan skala
interval terdiri dari beberapa urutan kategori, sama seperti skala ordinal. Yang
membedakan adalah skala rasio memiliki skala nol mutlak, yang berarti nol tidak
memiliki makna, sedangkan pada skala interval nol memiliki makna, misalnya nol
derajat, bukan berarti suhunya tidak ada.
1.5 Statistical notation.
Pengukuran yang terkandung dalam penelitian menyediakan data dalam analisis
statistical. Kebanyakan analiis statistical akan menggunakan operasi matematika secara
umum. Sebagai contoh misalnkan X adalah skor, maka ∑X berarti jumlah dari skor
tersebut, sedangkan ∑X2 berarti jumlah dari X yang dikuadratkan.
Contoh: nilai x terdiri dari 3, 4, 5, 6,dan 9. Tentukan ∑X!
1.6 Skema.

Populasi dan
Sampel

Data Structures,
Statistics,
research
Science, and
methods, and
Observartions
statistics
Introduction
to Statistics

variable and statistical


measurement notation

Chapter 2
Frequency Distributions
2.1 Introduction to frequency distribution.
Frekuensi distribusi adalah penyusunan tabulasi dari suatu angka dari individu
yang terletak pada setiap kategori dalam skala pengukuran. Frekuensi distribusi dapat
dibuat dalam bentuk table, paragraph, tetapi pada dasarnya distribusi terdiri dari dua
elemen:
1. Set kategori yang menentukan skala pengukuran.
2. Record dari frekuensi, atau angka dari individu untuk setiap kategori.
2.2 Frequency Distribution Table.
Cara termudah dalam menyajikan frekuensi distribusi dalam skala pengukuran
adalah dengan mengurutkan kategori pengukuran (nilai X) dalam kolom dari yang
tertinggi hingga terendah. Sedangkan di kolom kedua berupa frekuensi atau
banyaknya angka yang tertera pada data. Jumlah frekuensi (f) sama dengan jumlah
sampel data(N) sehingga dapat ditulis ∑f=N.

Proporsi dan persentase. Sebagai tambahan, ada pengukuran lain yang


mendeskripsikan skor distribusi dan dapat dihubungkan kedalam tabel. Yang paling
umum adalah proporsi dan persentase. Proporsi mengukur pecahan dalam keseluruhan
kelompok yang dihubungkan dengan satu sama lain. Misalnya ada dua dari 10 orang
yang mendapatkan skor X=3, berarti proporsi yang mendapatkan skor tersebut adalah

2
10

f
Rumus : Proportion= p=
N

Karena proporsi mendeskripsikan hubungan frekuensi terhadap total


keseluruhan, proporsi sering disebut juga dengan frekuensi relative. Pada presentase,
hasil dari proporsi seringkali dirubah kedalam presentase. Untuk mendapatkan
persentase, cukup mengalikan 100 kepada proporsi.

f
Rumus: percentage= p(100)= ( 100 )
N
2.3 Frequency distribution graphs.

Ketika data terdiri dari skor numerik yang diukur dalam skala rasio atau interval,
terdapat dua pilihan dalam membuat grafik frekuensi distribusi yaitu histogram dan
polygon. Untuk membuat histogram, pertama-tama memasukkan skor numeric
(kategori pengukuran) ke sumbu x, kemudian kita menggambar bar diatas nilai X
sehingga :

a. tinggi dari bar berkorespondensi terhadap frekueni dari kategori tersebut.


b. lebar bar memisahkan batas tepi dalam kategori tersebut.

Ketika data telah dikelompokkan kedalam kelas interval, histogram dibuat


dengan cara menggambar bar pada setiap interval. Histogram yang dimodifikasi
merupakan bentuk histogram yang lebih mudah digambar dan mudah untuk dipahami
Karena terdiri dari blok yang setiap bloknya mewakili individu.

Untuk membuat polygon, caranya hampir serupa yaitu memasukkan skor


numeric pada sumbu x, bedanya adalah yang digambar bukanklah bar, melainkan titik
yang berada pada setiap kategori, kemudian menghubungkannya dengan garis. Pada
diagram batang, hampir mirip dengan histogram tetapi diagram batang memiliki jarak
antara kategori.
2.4 The shape of a requency distribution.

Distribusi simetris atau distribusi normal:

Distribusi juling atau Scewed Distribution:

2.5 Percentiles, percentile rank, and interpolation.


Percentile rank dijabarkan sebagai persentase tiap individu dalam distribusi
mengenai skor atau dibawah nilai tertentu. Ketika skor diidentifikasi oleh persentil
rank, skor tersebut disebut dengan persentil. Interpolasi merupakan sebuah cara
untuk menemukan persentil atau persentil rank yang tidak tercantum didalam
table. Interpolasi dapat diaplikasikan ke berbagai hal yang berhubungan dengan
statistic (misalnya mencari z score atau proporsi).
2.6 Stem and leaf displays.
Pada tahun 1977, J.W. Tukey menemukan teknik alternatif dalam
mengorganisir data yang disebut batang dan daun (stem and leaf display). Digit
pertama disebut dengan stem dan digit terakhir disebut dengan leaf. Perbandingan
stem and leaf dengan frekuensi distribusi:
1. stem and leaf display lebih mudah dibuat. Hanya dengan menggunakan data
yang ada, kita dapat membuat display yang lengkap.
2. Stem and leaf display mengijinkan kita untuk mengidentifikasi setiap skor
individu.
3. Stem and leaf display menyediakan baik list dari skor dan gambar dari
distribusi. Apabila display tersebut dilihat dari samping, bentuknya akan
serupa dengan histogram.
7
6
30-39
5
40-49
4 50-59
3 60-69
70-79
2 80-89
1 90-99
0
Category 1

3 2 3
4 2 6
5 6 2 7 9
6 2 8 3
7 1 6 4 3 8 4 6
8 3 5 2 1
9 3 7
2.7 Skema.
Chapter 2: frequency
stem and leaf
Frequency distribution
displays
Distributions graphs

introduction to the shape of a


frequency requency
distribution distribution

percentiles,
frequency
percentile rank,
distribution table
and interpolation

Chapter 3

Central Tendency

3.1 Overview.

Tujuan umum dari metode statistical deskriptif adalah untuk mengorganisi dan
merangkum sekumpulan skor. Tendensi pusat merupakan suatu pengukuran statistic
untuk menentukan sejumlah skor yang berada di distribusi pusat. Tujuan dari tendensi
pusat adalah untuk menemukan skor tunggalyang paling mewakili keseluruhan
kelompok.

3.2 Mean.
Mean atau yang disebut juga rata-rata aritmatik, dihitung dengan cara
menjumlahkan skor yang ada pada distribusi dan membaginya dengan jumlah data
yang ada. Mean pada populasi dinotasikan sebagai µ (dibawa mu) dan pada sampel
dinotasikan sebagai M atau X bar.

Weighted mean merupakan gabungan rata-rata dari sejumlah data.

Rumus: combined
∑¿ ¿=
∑ X 1+ ∑ x 2
combined n n 1+n 2

Karakteristik dari mean


 Changing a score
 Introducing a new score or removing a score
 Adding or substracting a constant from each score
 Multiplying or dividing each score by a constant
3.3 Median.

Median merupakan skor yang dibagi menjadi setengah dari distribusi jadi ada
50% skor yang berada diatas atau dibawah median/nilai tengah. Untuk data majemuk,
rumus yang digunakan adalah:

1
Me= XBb+ 2
( )
n−fk
fi
.c

Keterangan :

XBb=Batas tepi bawah skor median

N=jumlah data

Fk=frekuensi kumulatif sebelum frekuensi median

Fi=frekuensi median

C=lebar kelas atau interval antar skor

3.4 Mode.
Mode atau modus merupakan angka yang paling sering muncul, misalnya
dalam sebuah data ada skor 3,4,5,7,8,6,7,7,9,7,4 maka modusnya adalah 7
(karena muncul paling banyak). Untuk data majemuk, rumus yang digunakan
adalah:
d1
Mo= XBn= d 1+ d 2 . c

Keterangan:
d1=Frekuensi modus kurang frekuensi sebelum modus.
d2=Frekuensi modus kurang frekuensi sesudah modus.
3.5 Selecting a measure of central tendency.
Extreme or skewed distribution median digunakan apabila ada skor yang
memiliki jarak yang jauh antara satu dengan yang lain, misalnya 8, 4, 5, 89, 2, 3 maka
mean tidak dapat menjadi perwakilan distribusi yang baik karena dapat
mempengaruhi nilai rata-rata. Sedangkan median tidak.

Undetermined value apabila kita dihadapkan dengan sebuah situasi dimana


salah satu skor individu tidak diketahui atau tidak dapat ditentukan. Dalam psikologi,
kejadian ini seringkali terjadi. Sangat tidak mungkin menggunakan mean karena ada
data yang tidak diketahui nilainya, tetapi sangat mungkin untuk menggunakan
median.

Open-ended distributions sebuah distribusi dikatakan open-ended ketika


tidak ada lagi batas atas dalam satu kategori, misalnya

Jumlah anggota keluarga Frekuensi


5 atau lebih 3
4 4
3 8
2 5
1 8
Yang berjumlah 5 atau lebih disebut open-ended. Kita tidak dapat
menghitung mean karena tidak ada batasan jumlah anggota keluarga yang tetap.

Ordinal scale banyak peneliti yang percaya bahwa mean tidak dapat
menggambarkan tendensi pusat pada skala ordinal. Median sangat kompatibel dengan
tipe pengukuran ini karena dijelaskan berdasarkan arah : setengah dari skor berada
diatas dan dibawah media. Sedangkan mean menjelaskan jarak, mengingat mean
adalah poin rata-rata dalam distribusi, maka jaraknya diatas atau dibawah dari rata-rata
(balanced points).

When to use mode nominal scales keuntungan utama dalam menggunakan modus
adalah modus dapat digunakan untuk mengukur dan mendeskripsikan tendensi pusat
yang diukur dengan menggunakan skala nominal. Karena skala nominal tidak
mengukur kuantitas (jarak atau arah)sehingga tidak memungkinkan menggunakan
mean dan median.

Discrete variables dalam banyak situasi, khususnya variabel diskrit, orang-orang lebih
nyaman menggunakan angka yang realistis dan bulat dengan menggunakan modus.
Describing shape karena modus membutuhnkan sedikit perhitungan, sering
dimasukkan kedalam pengukuran suplementer bersamaan dengan mean dan median.
Nilai dalam modus dalam situasi ini memberikan indikasi dalam bentuk distribusi
sebaik pengukuran tendensi pusat.

3.6 Central tendency and the shape of the distribution.

Dalam distribusi simetris bagian kanan kurva merupakan cerminan dari kurva
kiri, begitu juga sebaliknya, median persis berada di pusat karena median berarti tepat
separuh dari distribusi. Hal ini juga berarti mean dan median juga berada dipusat
sehingga mean=median=modus.

Dalam skewed distribution, apabila grafik menunjukkan skewed positif,


berarti modus>median>mean. Sedangkan dalam skewed negatif, berarti
modus<median<mean.
3.7 Skema.

median mode

selecting a
measure of
mean
central
tendency

chapter 3 :
chapter 3 central
tendency and
central
tendency
: central the shape of
tendency the distribution

Chapter 4
Variability
4.1 Overview.
Variabilitas menyediakan pengukuran kuantitatif dalam derajat tertentu dimana
skor dalam distribusi akan disebar. Secara umum, pengukuran yang baik dalam
variabilitas mencakup dua tujuan:
1. variabilitas menggambarkan distribusi.
2. Variabilitas mengukur seberapa baik suatu skor mewakili keseluruhaan
distribusi.
4.2 The range and interquartile range.

Range merupakan suatu jarak yang terletak diantara skor tertinggi (Xmax)
dengan skor terendah (Xmin). dalam menentukan jarak, kita perlu menghitung batas
tepi dalam nilai X maksimum dan minimum sehingga dapat dirumuskan

Range= XBa-XBb.
Interquartile range merupakan range yang melingkupi setengah dari distribusi
pusat.
Rumus: Interquartile= Q3-Q1
Q3−Q1
Semi-interquartile adalah setengah dari interkuartil =
2
4.3 Standard deviation and variance for a population.

Standar deviasi merupakan pengukuran yang paling sering digunakan dalam


variabilitas. Standar deviasi menggunakan mean dalam distribusi sebagai nilai
acuan dan mengukur variabilitas berdasarkan jarak antara setiap skor dan mean.
Deviasi merupakan jarak dari rata-rata

Rumus : Skor deviasi= X- µ

Populasi varian sama dengan standar deviasi dikuadratkan.

Sum of square deviation (SS)= sum of squared deviation/number of scores

4.4 Standard deviation and variance for samples.

Faktanya ada sampel yang variabelnya lebih sedikit dibandingkan dengan rata-
rata populasi biasanya terjadi bias dalam estimasi variabilitas populasi. Bias ini
akan mengarah pada penyimpangan arah nilai populasi.

4.5 More about variance and standard deviation.


Sampel statistic dapat menjadi bias apabila nilai rata-rata statistic, secara
spesifik dilebihkan atau direndahkan dari parameter koresponden populasi. Dalam
nilai rata-rata statistic sama dengan parameter populasi, dikatakan tidak bias/
unbiased. Transformation of scale. Cara termudah untuk menentukan efek dari
transformasi adalah dengan mengingat standar deviasi digunakan untuk mengukur
jarak. Apabila kita memilih dua skor dan melihat apa yang terjadi dengan jarak
diantara keduanya, kita dapat mencari tahu apa yang terjadi dengan standar deviasi.

1. Adding a constant to each scores does not change the standard


deviation.
2. Multiplying each score by a constant causes the standard deviation to
the multiplied by the same constant.
4.6 Comparing measures of variability.

1. Extreme score, dari ketiga jenis pengukuran dalam variabilitas, range


paling dipengaruhi oleh skor ekstrim. Standar deviasi dan varian juga
dipengaruhi oleh skor ekstrim. Karena pengukurannya berdasarkan kuadrat
deviasi, satu nilai yang ekstrim dapat membuat efek dispropostional.

2. Sample size, kita dapat menambahkan jumlah skor pada sampel dan
meningkatkan range karena setiap nilai skor yang ditambahkan memiliki
potensi untuk menggantikan nilai tertinggi maupun terendah dalam
sekumpulan data.

3. Stability under sampling. Ketika standar deviasi dan varian digunakan


untuk mengukur variabilitas, sampel akan cenderung memiliki variabilitas
yang sama. Karena alasan inilah standar deviasi dan varian dikatakan stabil.

4. Open-ended distributions. Ketika distribusi tidak memiliki batasan yang


spesifik antara skor tertinggi maupun terendah, akan terjadi open-ended. Hal
ini dapat terjadi ketika kita memiliki skor yang tidak terbatas atau tidak
ditentukan.

Relationship between other statistical measurement. Varian dan standar


deviasi dimasukkan dalam skor kuadrat deviasi . karena mereka berdasarkan jarak
yang dikuadratkan, pengukuran yang pas dalam sistem koheren. Karena itu mean dan
standar deviasi dilaporkan bersama. Range tidak memiliki hubungan langsung dengan
pengukuran statistic, karena itulah range jarang digunakan dalam konjungsi dengan
teknik statistic lain.

4.7 Skema.

overview

the range and


interquartile range

standard deviation
and variance for a
population
chapter 4 :
variability
standard deviation
and variance for
samples

more about
variance and
standard deviation

comparing
measures of
ariability

Chapter 6

Probability

6.1 Introduction to probability.


Dalam sebuah situasi dalam beberapa kemungkinan yang ada, probabilitas
didefinisikan sebagai pecahan atau proporsi dari kemungkinan yang ada. Random sample
berarti setiap populasi memiliki kesempatan yang sama untuk dipilih. Sangat penting bagi
banyak formula statitik menyatakan bahwa probabilitas harus konstan dari satu pilihan ke
pilihan selanjutnya jika lebih dari satu individu yang terpilih. Rumus :

P(A)= number outcomes classified as A

Total number of possible outcomes

6.2 Probability and the normal distribution.

Distribusi dalam bentuk normal juga dideskripsikan dengan area proporsi yang terdiri dari
setiap bagian dalam distribusi. Biasanya identifikasi bagian dari distribusi normal
menggunakan z score. Hubungan antara z score dan proporsi disediakan dalam unit table
normal. List table proporsi dalam distribusi normal untuk full range pada nilai z score yang
memungkinkan. Untuk membuat unit table normal, ada beberapa fakta yang harus diingat:

1. Body selalu berkorespondensi pada bagian distribusi yang lebih besar baik itu di
bagian kiri atau kanan. Sedangkan tail bagian yang lebih kecil.
2. Karena distribusi normal berbentuk simetris, proporsi dari sisi kiri dan kanan bernilai
sama.
3. Meskipun nilai z score terdapat tanda positif dan negatif, proporsinya selalu bernilai
positif.

Finding z score location that corresponds to specific proportion. Secara umum, unit
table z score pada normalnya dapat digunakan untuk dua tujuan, pertama jika kita
mengetahui nilai z score secara spesifik pada distribusi normal, kita dapat mencari
proporsinya; yang kedua jika kita mengetahui proporsi tertentu, kita dapat mencari nilai z
score dengan menggunakan table.

6.3 Probabilities and proportions for scores from a normal distribution.

Finding proportions located between two scores. Mencari proporsi yang berada
diantara dua nilai. Misalnya p(55<X<65)=? Maka langkah pertama yang harus dilakukan
adalah mengubah nilai X menjadi z score, kemudian baru mencari nilai proporsi dengan
bantuan grafik.
Finding scores corresponding to specific proportions or probabilities. Mencari z
score jika diketahui adalah probabilitasnya dalam bentuk persentase, maka kita harus
merubah persentase itu menjadi pecahan decimal dan menentukan letak probabilitas tersebut.
sebagai contoh, jika diketahui probabilitas sebesar 15%, maka nilai proporsinya adalah 0.15
dan berbentuk one-tail. Kemudian dengan melihat table, kita mencari nilai z score yang
mendekati dan menemukan nilai z= 1.04.

6.4 Probability and binomial distribution.

Ketika variabel yang diukur dalam skala terdiri dari dua kategori saja, hasil datanya
disebut binomial. Kata binomial dapat diterjemahkan sebagai “dua nama” ditujukan kepada
dua kategori dalam skala pengukuran. Data binomial dapat terjadi apabila variabelnya secara
alami hanya terdiri dari dua kategori, misalnya laki-laki dan perempuan, angka atau
gambar( pada koin). Rumus :

p+q=1

µ=pn

σ=√ npq

X−µ X− pn
z= =
σ √npq

Keterangan :

p= peluang berhasilnya suatu variabel.

q= peluang tidak berhasil.

6.5 Looking ahead to inferential statistics.

Probabilitas membentuk hubungan langsung antara sampel dan populasi. Hubungan ini
akan menjadi fondasi bagi statistic inferensial.permasalahan yang dialami oleh para peneliti
adalah menentukan apa yang dimaksud dengan skor sample berbeda dengan mean populasi.
Misalkan rata-rata populasi adalah sebesar 400, dan sampel memperoleh skor sebesar 415,
apakah sudah terjadi perubahan? Bagaimana dengan sampel yang mendapatkan skor 420 atau
450? Z score hanya menyediakan sebuah metode dalam pemecahan masalah dan bersifat
arbitrasi, sekarang karena kita telah mempelajari probabilitas, hal ini dapat membantu kita
untuk memutuskan nilai yang tepat untuk mencari hubungannya.

6.6 Skema.

Chapter 6 : probability

introduction to probability

probability and the normal distribution

probabilities and proportions for scores from a


normal distribution

probability and binomial distribution

looking ahead to inferential statistics

Chapter 8

Introduction to hypothesis testing

8.1 The logic of hypothesis testing.

Uji Hipotesis adalah sebuah metode statistic yang menggunakan data sampel untuk
mengevaluasi sebuah hipotesis mengenai populasi. Uji hipotesis biasanya digunakan
dalam konteks studi penelitian dimana peneliti telah menyelesaikan penelitian dan
menggunakan uji hipotesis untuk mengevaluasi hasil.

Tujuan dari uji hipotesis adalah untuk menentukan apakah treatment menghasilkan
efek pada individu dalam populasi. Biasanya populasi awal sebelum mendapat perlakuan
ditampilkan pada bagan sebelah kiri dan populasi yang tidak diketahui setelah
mendapatkan perlakuan ditampilkan pada bagan sebelah kanan. Populasi yang tidak
diketahui disebut hypothetical. Proses dari pengujian hipotesis biasanya dimulai dengan
memberikan hipotesis mengenai populasi yang tidak diketahui. Pernyataannya terdiri dari
dua bagian yang saling beroposisi, yaitu h0 (h null) dan h1 (h alternative). H0 menyatakan
bahwa dalam populasi secara umum, tidak ada pengaruh, atau perbedaan antara variabel
yang diuji. Sedangkan h1 menyatakan ada pengaruh, atau perbedaan antara ariabel yang
hendak diuji.

Untuk mengetahui apakah hipotesis (h0) diterima atau ditolak, pertama-tama harus
menentukan alpha level atau yang disebut juga dengan level of significance yaitu nilai
probabilitas yang digunakan untuk mengetahui apakah hipotesis null benar atau tidak.
Critical region adalah nilai ekstrim sampel yang digunakan untuk menolak hipotesis
null. Biasanya ditentukan dari alpha level, dan apabila hasil skor (biasanya z score)
terletak di area tersebut, maka hipotesis null berarti ditolak.

8.2 Uncertainty and errors in hypothesis testing.

Pengujian hipotesis adalah sebuah proses inferensial, yang berarti ada batasan
informasi sebagai dasar untuk mencapai kesimpulan umum. Lebih spesifik, sampel hanya
menyediakan informasi yang terbatas atau tidak lengkap mengenai keseluruhan populasi,
tetapi pengujian hipotesis menggunakan sampel untuk memperkirakan kesimpulan
mengenai populasi. Berdasarkan situasi tersebut, pasti ada kemungkinan terjadinya
kesimpulan yang tidak tepat atau error. Dalam uji hipotesis, terdapat dua jenis error,
yaitu:

1. Type I error: tipe ini dapat terjadi apabila peneliti menolak hipotesis null padahal
kenyataannya hipotesis null diterima. Tipe I error berarti peneliti menyimpulkan
bahwa treatment memiliki efek padahal tidak. Kesalahan dalam tipe I dapat berakibat
serius karena peneliti mempercayai bahwa treatment menghasilkan efek dan
kemudian mempublikasikannya, hingga dapat diartikan sebagai false report atau hasil
palsu.
2. Type II error: tipe ini dapat terjadi apabila peneliti gagal untuk menolak hipotesis
null dan menganggap hipotesis null diterima sehingga peneliti menyimpulkan tidak
ada efek yang dihasilkan, padahal kenyataannya ada efek yang dihasilkan. Kesalahan
ini dapat terjadi pada saat rata-rata sampel tidak berada di critical region meskipun
treatment memiliki efek pada sampel. Kesalahan ini tidak seberbahaya yang pertama
karena peneliti dapat menerima hasil tersebut dan mengulang kembali penelitiannya.

8.3 An example of a hypothesis test.


Tahap-tahap untuk melakukan uji hipotesis diantaranya sebagai berikut:

1. Nyatakan hipotesis dan menentukan alpha level


2. Menentukan criteria yang hendak dipilih dengan memilih critical region
3. Kumpulkan data, dan masukkan ke dalam uji statistic.
4. Buat kesimpulan, apakan h null ditolak atau diterima, dan buat interpretasinya.

Sebuah hasil dapat dikatakan signifikan jika h null ditolak sehingga dapat
disimpulkan treatment tersebut memiliki dampak terhadap variabel yang diuji.

Rumus :
M −μ σ
Z= σM σM=
√n

8.4 Directional (one-tailed) hypothesis tests.

Pengujian one-tailed adalah hipotesis statistic (ho dan h1) yang memiliki asumsi,
baik itu berupa efek meningkatkan atau menurunkan dalam skor rata-rata populasi.
Pernyataan ini dibuat mengenai efek yang dihasilkan.

Misalnya peneliti ingin menguji apakah dengan belajar setiap hari dapat
meningkatkan hasil ujian siswa. Maka hipotesis penelitiannya berupa:

Ho: hasil ujian siswa tidak meningkat.


H1: hasil ujian siswa meningkat.
Sedangkan hipotesis statistiknya:
H0: μ ≤ 0
H1: µ>0

8.5 The general elements of hypothesis testing : a review.

Pengujian hipotesis terdiri dari lima elemen dasar yang diatur dalam pola
logical. Kelma elemen ini diantaranya adalah:
1. Hypothesized population parameter. Tahap pertaa dalam pengujian hipotesis
adalah dengan menyatakan hipotesis null. Nilai spesifik yang diprediksi oleh
hipotesis null adalah elemen pertama dalam uji hipotesis.
2. Sample statistics. Sampel data digunakan untuk menghitung statistic sampel
yang berkorespondensi dengan parameter populasi yang telah dihipotesis.
3. Estimate of error. Untuk mengevaluasi penemuan, kita harus mengetahui tipe
kesalahan apa yang dapat terjadi. Umumnya pengukuran standard error
digunakan untuk menyediakan informasi seperti ini. Tujuannya secara umum
adalah untuk mengukur seberapa banyak perbedaan yang beralasan untuk
memperkirakan terjadinya kesalahan data antara statistic sampel dengan
parameter populasi.
4. The test statistic. Dalam bab ini, pengujian statistiknya menggunakan z score.
Z score menyediakan model statistic dalam rasio. Numerator dari rasio
diperoleh dari perbedaan antara rata-rata sampel dan rata-rata populasi.
Sedangkan denominatornya diperoleh dari rasio standar error yang diduga.
5. The alpha level. Elemen terakhir dalam uji hipotesis adalah alpha level atau
level of significance. Alpha level menyediakan criteria untuk menginterpretasi
hasil statistic.

8.6 Concerns about hypothesis testing: measuring effect size.

Kritik yang paling serius dalam uji hipotesis adalah interpretasi dari hasil
signifikan. Terdapat dua batasan yang serius ketika menggunakan uji hipotesis dalam
signifikansi efek dari treatment. Yang pertama adalah focus dari uji hipotesis terletak
pada data daripada hasil hipotesis itu sendiri yang kedua adalah mendemosntrasi efek
treatment yang signifikan tidak mengindikasikan efek substansial dari treatment.
Signifikansi statistic tidak menyediakan informasi yang sebenarnya mengenai ukuran
efek treatment yang mutlak. Oleh karena itu, pengukuran dari effect size diadakan
untuk menyediakan pengukuran dari kekuatan mutlak dari efek treatment. Pengukuran
yang digunakan yaitu cohen’s d dengan rumus:

mean difference Mtreatment−μ no treatment


D= standard deviation = σ

Magnitude of d Evaluation of effect size


D=0.2 Efek kecil
D=0.5 Efek sedang
D=0.8 Efek besar
8.7 Statistical power.

Kekuatan dari pengujian statistic aalah probabilitas bahwa pengujian akan menolak
hipotesis null. Kekuatan dari probabilitas bahwa pengujian akan mengidentifikasi efek
treatment sebagai hal yang nyata.
Hal-hal yang mempengaruhi kekuatan adalah ukuran sampel, alpha level, dan one-
tailed tests.

8.8 Skema.

Chapter 8 : uncertainty and


the logic of
introduction to errors in hypothesis
hypothesis testing
hypothesis testing testing

the general
directional (one-
elements of an example of a
tailed) hypothesis
hypothesis testing : hypothesis test
tests
a review

concerns about
hypothesis testing:
statistical power
measuring effect
size.

Chapter 9

Introduction to the t- statistic

9.1 The t statistic : an alternative to z.

Estimated standard error (SM) digunakan untuk mengestimasi standard error σM ketika
nilai σ tidak diketahui. Hasilnya diperoleh dengan memasukkan varian sampel atau standar
deviasi sampel dan menyediakan estimasi dari jarak standar antara sampel mean dan populasi
mean. T statistic digunakan pada pengujian hipotesis apabila rata-rata populasi tidak
diketahui dan nilai dari σ juga tidak diketahui. Rumus dari t statistic memiliki struktur yang
serupa dengan z score, hanya saja t statistic menggunakan estimated standard error sebagai
denominator.

Rumus:
M −μ
T=
SM

Degrees of freedom atau derajat kebebasan menjelaskan penomoran skor pada sampel
yang independent. Karena rata-rata sampel menempatkan batasan pada nilai dari satu skor
pada sampel, maka derajat kebebasannya adalah n-1 pada sampel. Bentuk distribusi t
memasukkan setiap kemungkinan dari sampel acak untuk ukuran sampel yang spesifik (n)
atau derajat kebebasan yang spesifik (df). Bentuk dostribusi t adalah distribusi normal atau
simetris.

9.2 Hypothesis tests with the t statistics.

Sama seperti rumus z score, t statistic membentuk rasio. Numerator mengukur


perbedaan aktual antara data sampel (M) dan populasi hipotesis (µ). Sedangkan pada
denominator adalah estimated standard error yang mengukur seberapa banyak perbedaan
untuk memperkirakan rata-rata sampel dan rata-rata populasi.

Dua asumsi dasar yang penting bagi pengujian hipotesis menggunakan t statistic:

1. Nilai sampel harus terdiri dari observasi independent.


2. Sampel populasi harus normal.

9.3 Measuring effect size for the t statistic.

M −μ 2 t2
Cohen’s d= s atau r = 2
t +df

r2<0.01 = efek kecil

0.01<r2<0.09 = efek sedang

r2>0.25 = efek besar

9.4 Directional hypothesis and one-tailed tests.

Nondirectional (two-tailed) lebih sering digunakan daripada one-tailed. Di sisi lain,


one-tailed dapat digunakan dalam pengujian tertentu, misalnya mengeksplorasi investigasi
atau studi pilot.
9.5 Skema.

Chapter 9: introduction to the t-


statistic

the t
hypothesis meauring directional directional
statistic :
tests with effect size hypothesis hypothesis
an
the t for the t and one- and one-
alternative
statistics statistic tailed tests tailed tests
to z

Chapter 10

The t test for two independent samples

10.1 Introduction to independent-measures designs.

Sebuah desain penelitian yang menggunakan sampel yang terpisah untuk setiap
kondisi treatment disebut desain pengukuran independen atau between-subjects design.

10.2 The t statistic for an independent-measures research design.

Hipotesis statistic:

H0 : µ1 - µ2=0

H1 : µ1 - µ2≠ 0

Rumus :
(M 1 – M 2) – (µ1−µ 2)
t= s( M 1 – M 2)

s21 s22
S(M1-M2)=
√ +
n1 n2

2 SS1 + SS2
Pooled variance= s p=
df 1 +df 2

10.3 Hypothesis tests and effect size with the independent-measures t-statistics.

Pengukuran t statistic pada independent-measures menggunakan data dari dua sampel


yang terpisah untuk membantu menentukan apakah ada perbedaan rata-rata secara signifikan
antara dua populasi atau antara dua kondisi treatment.

M 1 −M 2 t2
Pengukuran effect size: d = 2 dan r2=
√s p t 2 +df

10.4 Assumptions underlying the independent-measures t formula.

Ada tiga asumsi yang harus dipenuhi sebelum kita menggunakan pengukuran independent
pada t test untuk pengujian hipotesis:

1. The observations within each sample must be independent.


2. The two populations from which the samples are selected must be normal.
3. The two populations from which the samples are selected must have equal variances.

Asumsi ketiga dikategorikan sebagai homogeneity of variance dan pernyataan bahwa


kedua populasi yang dibandingkan harus memiliki varian yang sama.

Hartley’s F-Max test digunakan untuk mengetahui apakah homogenitas dari varian
dipenuhi atau tidak. F-max didasarkan pada prinsip bahwa varian sampel menyediakan
estimasi yang tidak bias dari varian populasi. Karena itu, jika populasi varian sama, maka
sampel varian kemungkinan akan serupa. Prosedur yang dilakukan ketika menggunakan
pengujian F-max sebagai berikut:

1. Masukkan nilai sample variance, s2= SS/df, untuk setiap sampel yang terpisah.
2. Pilih nilai sample variance terbesar dan terkecil dan masukkan kedalam
rumus:
s 2(largest )
F-max=
s 2(smallest )
3. Nilai F-max hitung dibandingkan dengan nilai F-max table. Jika nilai sampel
lebih besar daripada nilai table, dapat disimpulkan bahwa varian berbeda dan
asumsi homogenitas tidak valid. Untuk menemukan nilai pada table, kita perlu
mengetahui,
a. K= jumlah sampel yang terpisah. (pada pengukuran independen, k=2.)
b. Df= n-1 untuk setiap varian sampel.
c. Pada table disediakan alpha level 0.05 dan 0.02. umumnya pengujian
homogenitas akan melihat alpha level yang lebih besar.

10.5 Skema.

Chapter 10: the t the t statistic for an


introduction to
test for two independent-
independent-
independent measures research
measures designs
samples design

hypothesis tests and assumptions


effect size with the underlying the
independent- independent-
measures t-statistics measures t formula

Chapter 11

The t test for two related samples

11.1 Introduction to repeated-measures designs.

Repeated-measures design atau within-subject design adalah satu dari sampel tunggal
yang diukur lebih dari sekali pada variabel terikat yang sama. Subjek yang sama digunakan
dalam segala kondisi treatment.
Dalam studi matched-subjects, setiap individu pada satu sampel dicocokkan dengan
individu pada sampel yang lain. Ketika sudah dipasangkan, dapat dilihat apakah dua individu
ekuivalen dengan menghargai variabel spesifik yang hendak dikontrol oleh para penelliti.

11.2 The t statistic for a repeated-measures research design.

Desain dalam pengujian t statistic untuk pengukuran berulang memiliki struktur yang
sama dengan t statistic lainnya. Bedanya,kita melihat perbedaan skor dan
mengembangkannya kedalam t statistic untuk pengujian berulang.

Difference score= D= X2- X1

Sedangkan untuk hipotesis statistiknya adalah:

H0: µD=0

H1: µD≠ 0

11.3 Hypothesis tests and effect size for the repeated-measures design.

M D− μ
t= D

SM D

MD t2
Effect size: estimated d= dan r2= 2
s t +df

Variability as a measure of consistency for the treatment effect. Dalam studi pengujian
berulang, variabilitas dari perbedaan skor menjadi relative konkrit dan mudah untuk
dimengerti. Khususnya, variabilitas sampel mendeskripsikan konsistensi dari efek treatment.

11.4 Uses and assumptions for repeated measures t tests.

Pada pengukuran independen menggunakan dua sampel yang terpisah sedangkan


pada pengukuran berulang hanya menggunakan satu sampel dalam treatment yag berbeda.
Secara umum, pengukuran berulang memiliki banyak keuntungan.

Number of subjects. Subjek yang digunakan dalam desain penelitian ini lebih sedikit
dibandingkan dengan pengukuran independen.
Study changes over time. Pengukuran berulang didesain untuk studi pembelajaran,
perkembangan, atau perubahan lainnya yang memakan waktu. Dengan cara ini, peneliti dapat
mengobsersi perkembangan atau perubahan dari waktu ke waktu.

Individual differences. Keuntungan utama dari pengujian ini adalah untuk mengurangi atau
mengeliminasi masalah yang disebabkan oleh perbedaan individu seperti usia, gender, IQ,
kepribadian dan sebagainya. Adanya perbedaan individu akan mempengaruhi hasil
penelitian.

Counterbalancing. Salah satu cara untuk menghadapi urusan mengenai waktu dan efek yang
dihasilkan adalah dengan mengurutkan presentasi dari perlakuan tersebut tujuannya adalah
untuk membagi efek dari luar kepada dua jenis treatmen.

11.5 Skema.

Chapter 11: the t test for two


related samples

introduction to repeated-
measures designs

the t statistic for a repeated-


measures research design

hypothesis tests and effect size


for the repeated-measures design

uses and assumptions for


repeated=measures t tests

Chapter 16

Correlation

16.1 Overview.
Korelasi adalah teknik statistic yang digunakan untuk mengukur dan menggambarkan
hubungan antara dua variabel. Biasanya kedua variabel tersebut diobservasi secara alami dari
lingkungan- tidak dikontrol ataupun dimanipulasi. Korelasi adalah nilai numeric yang
menggambarkan dan mengukur tiga karakteristik dari hubungan antara x dan y. ketiga
karakteristik tersbut adalah:

1. The direction of the relationship. Tanda dari korelasi,baik positif atau negatif
mendeskripsikan arah dari hubungan.
Dalam korelasi positif, kedua variabel cenderung bergerak kea rah yang sama.
Apabila X meningkat maka Y juga meningkat, demikian sebaliknya.
Sedangkan dalam korelasi negatif, kedua variabel bergerak ke arah yang berlawanan.
Apabila x meningkat maka y menurun, sebaliknya.
2. The form of the relationship. Bentuk hubungannya dapat berupa garis linear dan
kurva.
3. The strength or consistency of the relationship. Pada hubungan linear, poin data
akan berada pada garis lurus, setiap kali x bertambah 1 poin, maka nilai y akan
berubah secara konsisten dan dapat diprediksi.

Meskipun korelasi diaplikasikan ke contoh yang berbeda-beda, beberapa contoh spesifik


dihadirkan untuk memberikan indikasi dari pengukuran statistic.

1. Prediction. Jika dua variabel diketahui memiliki hubungan dalam cara sistematis,
kemungkinan dapat digunakan untuk memprediksi antara dua variabel.
2. Validity. Salah satu teknik untuk menguji validitas adalah dengan menggunakan
korelasi.
3. Reability. Prosedur pengukuran yang reliable menghasilkan skor yang sama
ketika individu yang sama diukur dlam situasi yang serupa.
4. Theory verification. Banyak teori psikologi yang membuat prediksi khusu
mengenai hubungan antara dua variabel. Dalam kasus ini, prediksi dari teori dapat
diuji dengan menentukan korelasi diantara dua variabel.

16.2 The pearson correlation.

Pengukuran korelasi Pearson mengukur derajar dan arah dari hubungan linear antara
dua variabel. Korelasi Pearson diidentifikasi dengan huruf r. secara konsep, korelasiini
dihitung dengan
¿
R= degree ¿ w hic h X ∧Y vary toget h er degree ¿ w hic h X ∧Y vary separately ¿

The sum of products of deviations (SP)

∑ X ∑Y
SP= ∑(X-MX)(Y-MY) atau SP= ∑XY-
n

SP
R=
√(SS ¿¿ X )(SSY ) ¿
16.3 Understanding and interpreting the pearson correlation.

Kesalahan yang paling sering terjadi dalam menginterpretasi korelasi adalah dengan
mengasumsikan korelasi memiliki hubungan sebab-akibat antara dua variabel. Perlu diingat
korelasi hanya mencari tahu mengenai hubungan antara dua variabel, bukan sebab-akibat.

Coefficient of determination atau r2 disebut demikian karena pengukuran dari


variabilitas satu variabel dapat dipengaruhi dari hubungan dengan variabel lain. Sebuah
korelasi r=0.80 sebagai contoh, berarti r2=0.64 (atau 64%) variablilitas dari skor Y dapat
diprediksi oleh X.

16.4 Hypothesis tests with the Pearson correlation.

Hipotesis statistic pada korelasi menggunakan ᵨ sebagai acuan.

Tanpa asumsi (two-tailed)

H0 : ᵨ=0

H1 : ᵨ≠ 0

Ada asumsi (one-tailed)

H0 : ᵨ≤0

H1 : ᵨ>0

16.5 The Spearman correlation.

Korelasi Pearson digunakan untuk mengukur derajat dari hubungan linear antara dua
variabel ketika data (X dan Y) terdiri dari skor numeric dari skala pengukuran interval atau
rasio. Bagaimanapun, korelasi lain telah dikembangkan untuk hubungan non linear dan untuk
tipe data lainnya. Salah satunya adalah korelasi Spearman yang digunakan dalam dua situasi.
Yang pertama untuk mengukur hubungan antara variabel X dan Y ketika kedua vriabel
diukur menggunakan skala ordinal. Yang kedua digunakan ketika peneliti ingin mengukur
konsistensi dari suatu hubungan antara X dan Y. dalam kasus ini, skor original akan dirubah
menjadi ranking dan menggunakan rumus Pearson yang digunakan pada ranking. Ketika ada
konsistensi hubungan satu arah antara dua variabel, hubungan itu dikatakan monotonic.
Korelasi spearman dapat digunakan untuk mengukur derajat dari monotonic antara dua
variabel.

16.6 Other measures of relationship.

Meskipun korelasi Pearson paling sering digunakan untuk mengevaluasi hubungan


antara dua variabel, ada banyak pengukuran lain, seperti korelasi Spearman dan versi lain
dari korelasi Pearson yaitu pont-biserial correlation. Point-biserial correlation digunakan
untuk mengukur hubungan antara dua variabel dimana satu variabel terdiri dari skor numeric
dan regular, tetapi variabel kedua hanya memiliki dua nilai yang disebut variabel dikotomi
atau dichotomous variable. Beberapa contoh dari variabel dikotomi:

1. Pria versus wanita


2. Pelajar versus non pelajar
3. Anak pertama versus anak terakhir.

Untuk menghitung korelasi point-biserial, variabel dikotomi dirubah terlebih dahulu


menjadi nilai numeric dengan mengganti nilai nol (0) pada kategori pertama dan nilai satu (1)
untuk kategori kedua. Lalu menggunakan rummus korelasi Pearson seperti biasa.

Ketika kedua variabel merupakan variabel dikotomi, maka korelasi diantara kedua
variabel disebut dengan phi-coefficient. Untuk memasuki phi (ᵩ) harus mengikuti prosedur
sebagai berikut.

1. Mengubah setiap variabel dikotomi menjadi nilai numeric dengan mengganti nilai
0 pada kategori pertama dan 1 untuk kategori kedua.
2. Gunakan rumus Pearson dengan menggunakan skor yang telah dirubah.
16.7 Skema.

understanding
hypothesis tests
Chapter 16: the pearson and interpreting the Spearman the Spearman
overview with the Pearson
correlation correlation the pearson correlation correlation
correlation
correlation

Chapter 17

Introduction to regression

17.1 Introduction to linear equations and regression.

Secara umum, hubungan linear antara dua variabel X dan Y dapat ditunjukkan dengan
persamaan:

Ŷ =bX +a

Dimana a dan b merupakan konstanta tetap.

b disebut dengan slope sedangkan a disebut dengan y intercept.


SP
b=
SS x

a=M Y −bM X

Teknik statistic untuk menemukan garis lurus yang paling tepat untuk sekumpulan data
disebut dengan regresi, dan hasil dari garis lurusnya disebut garis regresi.

The standard error of estimate memberikan jarak standar dari regresi dan dua point
yang aktual.

Untuk menghitung standard error of estimate dengan rumus sebagai berikut :

standard error of estimate=


SS residual
df√ =
√ ∑ (Y −Ŷ )
n−2

Relationship between the standard error and correlation :

Jika korelasi semakin mendekati 1 atau 1.00 maka data standard error estimate
semakin kecil. Sebaliknya, jika korelasi semakin mendekati 0 maka standard error estimate
semakin besar. r 2 bisa disebut juga dengan coefficient of determination karena menemukan
proporsi pada variabilitas Y yang didapat diprediksi oleh hubungan dengan X.

Predicted variability=SSregression=r 2 SS y

Unpredicted variability =SS residual =( 1−r 2 ) SS y

17.2 Testing the significance of the regression equation: Analysis of regression.

Analisis pada regresi menggunakan persamaan F-ratio untuk menentukan apakah


jumlah varian dicatat dengan persamaan regresi secara signifikan lebih besar dari yang
diharapkan secara kebetulan saja. F-ration adalah rasio pada dua varians, atau nilai mean
square (MS), dan masing-masing varian diperoleh dari membagi nilai SS dengan df.
Pembilang dari F-ration adalah Msregression, mengukur varian yang diprediksi oleh persamaan
regresi. Penyebutnya adalah Ms residual, yang mengukur varian yang tidak diperkirakan, dua
bilangan Ms didefinisikan sebagai berikut :
SS regression
Msregression= ; df =1
df regression

SSresidual
MS residual = ; df =n−2
df residual

Dan F-ratio adalah :

Msregression
F= dengan df =1 , n−2
Msresidual

17.3 Introduction to multiple regression with two predictor variables .

Regression equations with two predictors : X 1 dan X 2 sebagai prediksi dari Y.


Bentuk persamaan dari persamaannya adalah : Ŷ =b1 X 1+ b2 X 2 +a

Dengan :

( SP X 1Y ) ( SS X 2 ) −( SP X 1 X 2 ) ( SP X 2 Y )
b 1= 2
( SS X 1 ) ( SS X 2 ) −( SP X 1 X 2 )

( SP X 2Y ) ( SS X 1 ) −( SP X 1 X 2 ) ( S P X 1 Y )
b 2= 2
( SS X 1 ) ( SS X 2 )−( SP X 1 X 2)

a=M Y + b1 M X 1 −b2 M X 2

Percentage of variance accounted for and residual variance :

Dengan cara yang sama kita menghitung r 2untuk mengukur percentage of variance. Tetapi
untuk multiple-regression menggunakan simbol R2.

SSregression
R 2= atau SS regression=R2 SS y
SS y

Untuk menghitung regresi dengan dua predictor, R2dapat dihitung dengan :

b1 SP X 1 Y + b2 SP X 2 Y
R 2=
SS y

Standard error of estimate untuk multiple-regression :


SSresidual =( 1−R 2) SS y dengan df =n−3

Dari kedua persamaan tersebut kita dapat menghitung MS residual.

SSresidual
MS residual =
df

SEE=√ MS residual

Testing the significance of the multiple equation : Analysis and Regression

Dengan kedua persamaan MS kita dapat menghitung F-ratio pada Multiple-regression, yaitu :

SS regression
MS regression=
2

SSresidual
MS residual =
n−3

SSregression=R 2 SS y

SSresidual =( 1−R 2) SS y

MSregression
Jadi, F=
MS residual

17.4 Evaluating the contribution of each predictor variable.

Multiple regression and partial correlations :

Partial correlation mengukur hubungan antara dua variabel sambil mengontrol pengaruh
variable ketiga dengan memegangnya dengan konstan.

Dalam sebuah situasi dengan tiga variabel, X, Y, dan Z, akan mungkin menghitung Pearson
correlation tiga individu :

1. r XY untuk mengukur korelasi antara X dan Y.


2. r XZ untuk mengukur korelasi antara X dan Z.
3. r YZ untuk mengukur korelasi antara Y dan Z.

Ketiga individu korelasi ini dapat digunakan dengan perhitungan partial korelasi.
r XY −( r XZ r YZ )
r XY .Z =
2
√ (1−r XZ )( 1−r 2YZ )

17.5 Skema.

testing the
Chapter 17: introduction to
significance of the
introduction to linear equations and
regression equation:
regression regression
analysis of variable

introduction to evaluating the


multiple regression contribution of each
with two predictor predictor variable

Chapter 13

Analysis of Variance (Anova)

13.1 Introduction.

Analysis of variance atau anova adalah sebuah pengujian hipotesis yang digunakan
untuk mengevaluasi perbedaan rata-rata antara dua atau lebih treatment (atau populasi).
Anova menggunakan sampel data berdasarkan gambaran umum mengenai kesimpulan
mengenai populasi. Anova dan t test merupakan dua cara yang berbea dalam menanggapi
persoalan yang sama: kedua pengujian tersebut digunakan untuk mencari perbedaan rata-rata.
Yang mengungtungkan dari pemakaian anova ini adalah anova dapat digunakan untuk
membandingkan dua atau lebih treatment, sedangkan t test hanya dapat membandingkan dua
treatment saja. Dalam anova, variabel (baik independent maupun quasi-independent) didesain
dalam kelompok yang dibandingkan disebut dengan faktor. Condisi individu atau nilai yang
membentuk faktor disebut dengan faktor level. Sebuah studi yang menggunakan dua faktor
disebut dengan desain factorial atau desain dua faktor (two-factor design).

Hipotesis statistic dalam anova dilambangkan dengan rata-rata populasi (µ).

H0: µ1= µ2= µ3

H1: µ1≠ µ2≠ µ3

13.2 The logic of analysis of variance.

Ketika dalam suatu kalkulasi ditemukan bahwa tidak semua skor memiliki hasil yang
sama, skor tersebut dikatakan variabel. Kita harus mencari tahu jumlah dari perbedaan
tersebut dan mencari tahu mengapa skornya berbeda. Tahap pertama untuk menentukan total
variabilitas adalah dengan mengatur seluruh data. Ketika kita sudah mengukur keseluruhan
data, kita mulai membagi setiap bagian menjadi komponen yang terpisah. Proses analisis
inidibagi menjadi dua komponen dasar.

1. Between-treatments variance
2. Within-treatments variance

Disamping itu, ada dua kemungkinan yang dapat menjelaskan adanya perbedaan
diantara treatments:

1. Systematic differences caused by the treatments.


2. Random, unsystematic differences.
a. Perbedaan individual.
b. Kesalahan eksperimental.

Ketika kita sudah menganalisis total variabilitas kedalam dua komponen (between dan
within), kita kemudian membandingkannya perbandingan dibuat dengan memasukkan
statistic yang disebut dengan F-ratio. Untuk pengukuran independent, F-ratio memiliki
struktur sebagai berikut:
MS Between
F=
MS Wit h∈¿ ¿

Pada anova, denominator pada F-ratio disebut dengan error term. Kesalahan tersebut
menyediakan pengukuran varian karena perbedaan random yang tidak sistematis. Ketika efek
treatment adalah nol (H0 diterima), error term mengukur sumber dari varian yang sama dengan
numerator, sehingga F-ratio dianggap mendekati atau sama dengan 1.00.

13.3 Anova notation and formulas.

Karena anova sering digunakan untuk menguji data lebih dari dua perlakuan, kita
membutuhkan sistem notasi yang membantu untuk memperoleh keseluruhan skor individu
yaitu:

1. Huruf k digunakan untuk mengidentifikasi jumlah kondisi treatment. Jika ada tiga
perlakuan, maka nilai k=3.
2. Penomoran skor untuk setiap treatment ditandai dengan huruf n.
3. Total penomoran skor dalam keseluruhan studi ditandai dengan huruf N.
4. Jumlah skor untuk setiap treatment ditandai dengan huruf T.
5. Jumlah keseluruhan skor dalam studi ditandai dengan huruf G.
6. Memasukkan rumus SS dan M.

Untuk meminimalisir terjadinya kesalahan dalam perhitungan, kita harus mengetahui


urutan dalam memasukkan rumus kedalam tiga tahapan.

1. Total sum of squares (SStotal)


2 G
SStotal= ∑ X −
N
2. Within-treatments Sum of squares (SSwithin)
SSwithin= ∑SSinside each treatment
3. Between-treatments Sum of squares (SSbetween)
T 2 G2
SSbetween= ∑ −
n N
Dengan dftotal =N-1; dfwithin =N-k; dfbetween =k-1

13.4 The distribution of F-ratios.

Dalam anova, F-ratio dikonstruksikan sedemikian rupa sehingga numerator dan


denominator dalam rasio diukur sama persis dengan varian ketika h0 diterima. Dalam situasi
ini, kita mengharapkan nilai dari F berada di kisaran 1.00. pertanyaannya adalah menentukan
nilai berapakah yang mendekati satu dan nilai berapakah yang jauh dari satu? Untuk
menjawab pertanyaan tersebut, kita harus melihat distribusi dari F-ratio pada table dengan
melihat dua karakteristik berikut.

1. Karena F-ratio dimasukkan dari dua varian (numerator dan denominator), F-ratio
selalu bernilai positif.
2. Ketika H0 diterima, kita dapat membuat sketsa distribusi dari F-ratio.

13.5 Examples of hypothesis testing and effect size of anova.

Proses dalam penggunaan anova dibagi menjadi empat tahap:

1. Menentukan hipotesis dan alpha level (pada anova α=0.05).


2. Masukkan critical region untuk F-ratio, sebelumnya tentukan derajat kebebasan
untuk MSbetween dan MSwithin (numerator dan denominator pada F-ratio).
SS between
MSbetween=
df between
SS wit h∈¿
MSwithin= ¿
df wit h∈¿ ¿
3. Masukkan F-ratio kedalam data dengan cara:
a. Analisis SS untuk mencari SSbetween dan SSwithin.
b. Menggunakan nilai SS dan nilai df, hitung MSbetween dan MSwithin.
c. Terakhir, gunakan dua nilai MS untuk dimasukkan kedalam F-ratio.
4. Buatlah kesimpulan dan interpretasinya, apakah H0 ditolak atau diterima.
Mengukur effect size pada annova dapat menggunakan r2 dan ᶯ2. r2digunakan
untuk mengukur efek size untuk t tes dan ᶯ2 digunakan pada anova untuk
mengukur perserntase dari varian.
SS between
r2=
SS total
¿
ᶯ2= SS ¿ t h e treatment total SS
Secara konsep, numerator pada F-ratio selalu mengukur seberapa besar perbedaan
yang muncul diantara treatment.
MSwithin dan pooled variance.
2 SS1 + SS2
Pooled variance= s p=
df 1 +df 2
SSwit h∈¿
¿
MSwithin= SS 2+¿ SS
df wit h∈¿ =SS 1 + 3+ …
¿¿
df 1+ df 2+df 3 +…

13.6 Post hoc tests.

Post hoc tests (atau posttests) merupakan uji hipotesis tambahan yang dilakukan setelah
anova untuk menentukan dengan pasti manakah perbedaan rata-rata yang signifikan dan yang
tidak. Tes ini dilakukan apabila kita menolah H0 dan ada tiga atau lebih treatment. Secara
umum, pengujian post hoc mengijinkan kita untuk melihat melalui data dan membandingkan
treatment tiap individu sewaktu-waktu. Dalam statistic, hal ini disebut dengan membuat
perbandingan berpasangan (pairwise comparisons). Ketika kita melihat banyak pengujian
yang terpisah, resiko terjadinya tipe I error diakumulasi dan disebut dengan experimentwise
alpha level.

Statistikawan sering menyebut perbandingan terencana dan tidak terencana (planned and
unplanned comparisons). Sesuai dengan namanya, perbandingan tereencana tertuju pada
perbedaan rata-rata yang relevan pada hipotesis yang spesifik dan peneliti telah
memperkirakannya sebelum dikemukakan hasilnya.

Sedangkan pada perbandingan yang tidak terencana, dugaan peneliti mengenai suatu
penelitian tidak terbukti karena adanya pengaruh dari luar yang tidak dapat disangka-sangka
yang umumnya mengarah ke kesalahan tipe I. pada akhirnya, cara paling aman untuk
melakukan post test adalah dengan menggunakan salah satu dari prosedur khusus (Tukey dan
Scheffé) untuk semua post test baik itu yang terencana maupun tidak.

Tukey’s Honestly Significant Difference (HSD) Test merupakan pengujian yang paling
sering digunakan dalam penelitian psikologi. Pengujian Tukey ini mengijinkan kita untuk
memasukkan nilai tunggal yang menentukan perbedaan rata-rata minimum antara treatment
yang signifikan. Apabila perbedaan rata-ratanya melebihi Tukey’s HSD, maka dapat
disimpulkan adanya perbedaan yang signifikan antara treatment.
MS wit h∈ ¿
HSD= q
√ n
¿

Scheffé test merupakan uji post yang paling aman karena memiliki resiko terjadinya
kesalahan tipe I yang terkecil. Scheffé test menggunakan F-ratio untuk mengevaluasi
perbedaan signifikan antara dua kondisi treatment. Numerator dalam F-ratio adalah
MSbetween yang dikalkulasikan hanya dari dua treatment yang ingin dibandingkan.
Sedangkan pada denominator menggunakan MS within yang sama dalam keseluruhan anova.

Ada dua poin menarik yang dibuat dari post test yang dihadirkan kedalam dua contoh.
Pertama, tes Scheffé dikenal sebagai teknik post test yang paling aman karena menyediakan
proteksi terhebat dari type I. untuk menyediakan perlindungan ini, test Scheffé menggunakan
perbedaan sampel mean yang besar antara dua treatment. Poin kedua yang harus diperhatikan
dalam Scheffé menghasilkan hasil yang bersifat kontradiksi.

13.7 The relationship between anova and t tests.

Ketika kita mengevaluasi perbedaan rata-rata dari pengukuran independen hanya


membandingkan dua treatment sehingga kita dapat memilih menggunakan t test atau anova.
Hubungan dasar antara t statistic dan F-ratio dapat dijabarkan kedalam perhitungan:

F=t2

Fakta bahwa t statistic didasarkan pada perbedaan dan F-ratio berdasarkan pada perbedaan
kuadrat yang menjadikan perhitungan demikian.

Pada pengukuran independen, anova membutuhkan tiga asumsi yang sama seperti pada t test:

1. Observasi within setiap sampel harus bersifat independent.


2. Populasi dimana sampel dipilih harus normal.
3. Populasi dimana sampel dipilih harus memiliki variansi yang sama (homogenitas
dalam varian).

13.8 Skema.
Chapter 13: examples of
Analysis of hypothesis
Post hoc
testing and
Variance tests
effect size of
(Anova) anova

the
the relationship
Introduction distribution between
of F-ratios
anova and t
tests

the logic of anova


analysis of notation and
variance formulas

Anda mungkin juga menyukai