NIM: 13150035
Kelas: 2PPS2
Jurusan Psikologi
2015/2016
Chapter 1
Introduction to Statistics
Populasi dan
Sampel
Data Structures,
Statistics,
research
Science, and
methods, and
Observartions
statistics
Introduction
to Statistics
Chapter 2
Frequency Distributions
2.1 Introduction to frequency distribution.
Frekuensi distribusi adalah penyusunan tabulasi dari suatu angka dari individu
yang terletak pada setiap kategori dalam skala pengukuran. Frekuensi distribusi dapat
dibuat dalam bentuk table, paragraph, tetapi pada dasarnya distribusi terdiri dari dua
elemen:
1. Set kategori yang menentukan skala pengukuran.
2. Record dari frekuensi, atau angka dari individu untuk setiap kategori.
2.2 Frequency Distribution Table.
Cara termudah dalam menyajikan frekuensi distribusi dalam skala pengukuran
adalah dengan mengurutkan kategori pengukuran (nilai X) dalam kolom dari yang
tertinggi hingga terendah. Sedangkan di kolom kedua berupa frekuensi atau
banyaknya angka yang tertera pada data. Jumlah frekuensi (f) sama dengan jumlah
sampel data(N) sehingga dapat ditulis ∑f=N.
2
10
f
Rumus : Proportion= p=
N
f
Rumus: percentage= p(100)= ( 100 )
N
2.3 Frequency distribution graphs.
Ketika data terdiri dari skor numerik yang diukur dalam skala rasio atau interval,
terdapat dua pilihan dalam membuat grafik frekuensi distribusi yaitu histogram dan
polygon. Untuk membuat histogram, pertama-tama memasukkan skor numeric
(kategori pengukuran) ke sumbu x, kemudian kita menggambar bar diatas nilai X
sehingga :
3 2 3
4 2 6
5 6 2 7 9
6 2 8 3
7 1 6 4 3 8 4 6
8 3 5 2 1
9 3 7
2.7 Skema.
Chapter 2: frequency
stem and leaf
Frequency distribution
displays
Distributions graphs
percentiles,
frequency
percentile rank,
distribution table
and interpolation
Chapter 3
Central Tendency
3.1 Overview.
Tujuan umum dari metode statistical deskriptif adalah untuk mengorganisi dan
merangkum sekumpulan skor. Tendensi pusat merupakan suatu pengukuran statistic
untuk menentukan sejumlah skor yang berada di distribusi pusat. Tujuan dari tendensi
pusat adalah untuk menemukan skor tunggalyang paling mewakili keseluruhan
kelompok.
3.2 Mean.
Mean atau yang disebut juga rata-rata aritmatik, dihitung dengan cara
menjumlahkan skor yang ada pada distribusi dan membaginya dengan jumlah data
yang ada. Mean pada populasi dinotasikan sebagai µ (dibawa mu) dan pada sampel
dinotasikan sebagai M atau X bar.
Rumus: combined
∑¿ ¿=
∑ X 1+ ∑ x 2
combined n n 1+n 2
Median merupakan skor yang dibagi menjadi setengah dari distribusi jadi ada
50% skor yang berada diatas atau dibawah median/nilai tengah. Untuk data majemuk,
rumus yang digunakan adalah:
1
Me= XBb+ 2
( )
n−fk
fi
.c
Keterangan :
N=jumlah data
Fi=frekuensi median
3.4 Mode.
Mode atau modus merupakan angka yang paling sering muncul, misalnya
dalam sebuah data ada skor 3,4,5,7,8,6,7,7,9,7,4 maka modusnya adalah 7
(karena muncul paling banyak). Untuk data majemuk, rumus yang digunakan
adalah:
d1
Mo= XBn= d 1+ d 2 . c
Keterangan:
d1=Frekuensi modus kurang frekuensi sebelum modus.
d2=Frekuensi modus kurang frekuensi sesudah modus.
3.5 Selecting a measure of central tendency.
Extreme or skewed distribution median digunakan apabila ada skor yang
memiliki jarak yang jauh antara satu dengan yang lain, misalnya 8, 4, 5, 89, 2, 3 maka
mean tidak dapat menjadi perwakilan distribusi yang baik karena dapat
mempengaruhi nilai rata-rata. Sedangkan median tidak.
Ordinal scale banyak peneliti yang percaya bahwa mean tidak dapat
menggambarkan tendensi pusat pada skala ordinal. Median sangat kompatibel dengan
tipe pengukuran ini karena dijelaskan berdasarkan arah : setengah dari skor berada
diatas dan dibawah media. Sedangkan mean menjelaskan jarak, mengingat mean
adalah poin rata-rata dalam distribusi, maka jaraknya diatas atau dibawah dari rata-rata
(balanced points).
When to use mode nominal scales keuntungan utama dalam menggunakan modus
adalah modus dapat digunakan untuk mengukur dan mendeskripsikan tendensi pusat
yang diukur dengan menggunakan skala nominal. Karena skala nominal tidak
mengukur kuantitas (jarak atau arah)sehingga tidak memungkinkan menggunakan
mean dan median.
Discrete variables dalam banyak situasi, khususnya variabel diskrit, orang-orang lebih
nyaman menggunakan angka yang realistis dan bulat dengan menggunakan modus.
Describing shape karena modus membutuhnkan sedikit perhitungan, sering
dimasukkan kedalam pengukuran suplementer bersamaan dengan mean dan median.
Nilai dalam modus dalam situasi ini memberikan indikasi dalam bentuk distribusi
sebaik pengukuran tendensi pusat.
Dalam distribusi simetris bagian kanan kurva merupakan cerminan dari kurva
kiri, begitu juga sebaliknya, median persis berada di pusat karena median berarti tepat
separuh dari distribusi. Hal ini juga berarti mean dan median juga berada dipusat
sehingga mean=median=modus.
median mode
selecting a
measure of
mean
central
tendency
chapter 3 :
chapter 3 central
tendency and
central
tendency
: central the shape of
tendency the distribution
Chapter 4
Variability
4.1 Overview.
Variabilitas menyediakan pengukuran kuantitatif dalam derajat tertentu dimana
skor dalam distribusi akan disebar. Secara umum, pengukuran yang baik dalam
variabilitas mencakup dua tujuan:
1. variabilitas menggambarkan distribusi.
2. Variabilitas mengukur seberapa baik suatu skor mewakili keseluruhaan
distribusi.
4.2 The range and interquartile range.
Range merupakan suatu jarak yang terletak diantara skor tertinggi (Xmax)
dengan skor terendah (Xmin). dalam menentukan jarak, kita perlu menghitung batas
tepi dalam nilai X maksimum dan minimum sehingga dapat dirumuskan
Range= XBa-XBb.
Interquartile range merupakan range yang melingkupi setengah dari distribusi
pusat.
Rumus: Interquartile= Q3-Q1
Q3−Q1
Semi-interquartile adalah setengah dari interkuartil =
2
4.3 Standard deviation and variance for a population.
Faktanya ada sampel yang variabelnya lebih sedikit dibandingkan dengan rata-
rata populasi biasanya terjadi bias dalam estimasi variabilitas populasi. Bias ini
akan mengarah pada penyimpangan arah nilai populasi.
2. Sample size, kita dapat menambahkan jumlah skor pada sampel dan
meningkatkan range karena setiap nilai skor yang ditambahkan memiliki
potensi untuk menggantikan nilai tertinggi maupun terendah dalam
sekumpulan data.
4.7 Skema.
overview
standard deviation
and variance for a
population
chapter 4 :
variability
standard deviation
and variance for
samples
more about
variance and
standard deviation
comparing
measures of
ariability
Chapter 6
Probability
Distribusi dalam bentuk normal juga dideskripsikan dengan area proporsi yang terdiri dari
setiap bagian dalam distribusi. Biasanya identifikasi bagian dari distribusi normal
menggunakan z score. Hubungan antara z score dan proporsi disediakan dalam unit table
normal. List table proporsi dalam distribusi normal untuk full range pada nilai z score yang
memungkinkan. Untuk membuat unit table normal, ada beberapa fakta yang harus diingat:
1. Body selalu berkorespondensi pada bagian distribusi yang lebih besar baik itu di
bagian kiri atau kanan. Sedangkan tail bagian yang lebih kecil.
2. Karena distribusi normal berbentuk simetris, proporsi dari sisi kiri dan kanan bernilai
sama.
3. Meskipun nilai z score terdapat tanda positif dan negatif, proporsinya selalu bernilai
positif.
Finding z score location that corresponds to specific proportion. Secara umum, unit
table z score pada normalnya dapat digunakan untuk dua tujuan, pertama jika kita
mengetahui nilai z score secara spesifik pada distribusi normal, kita dapat mencari
proporsinya; yang kedua jika kita mengetahui proporsi tertentu, kita dapat mencari nilai z
score dengan menggunakan table.
Finding proportions located between two scores. Mencari proporsi yang berada
diantara dua nilai. Misalnya p(55<X<65)=? Maka langkah pertama yang harus dilakukan
adalah mengubah nilai X menjadi z score, kemudian baru mencari nilai proporsi dengan
bantuan grafik.
Finding scores corresponding to specific proportions or probabilities. Mencari z
score jika diketahui adalah probabilitasnya dalam bentuk persentase, maka kita harus
merubah persentase itu menjadi pecahan decimal dan menentukan letak probabilitas tersebut.
sebagai contoh, jika diketahui probabilitas sebesar 15%, maka nilai proporsinya adalah 0.15
dan berbentuk one-tail. Kemudian dengan melihat table, kita mencari nilai z score yang
mendekati dan menemukan nilai z= 1.04.
Ketika variabel yang diukur dalam skala terdiri dari dua kategori saja, hasil datanya
disebut binomial. Kata binomial dapat diterjemahkan sebagai “dua nama” ditujukan kepada
dua kategori dalam skala pengukuran. Data binomial dapat terjadi apabila variabelnya secara
alami hanya terdiri dari dua kategori, misalnya laki-laki dan perempuan, angka atau
gambar( pada koin). Rumus :
p+q=1
µ=pn
σ=√ npq
X−µ X− pn
z= =
σ √npq
Keterangan :
Probabilitas membentuk hubungan langsung antara sampel dan populasi. Hubungan ini
akan menjadi fondasi bagi statistic inferensial.permasalahan yang dialami oleh para peneliti
adalah menentukan apa yang dimaksud dengan skor sample berbeda dengan mean populasi.
Misalkan rata-rata populasi adalah sebesar 400, dan sampel memperoleh skor sebesar 415,
apakah sudah terjadi perubahan? Bagaimana dengan sampel yang mendapatkan skor 420 atau
450? Z score hanya menyediakan sebuah metode dalam pemecahan masalah dan bersifat
arbitrasi, sekarang karena kita telah mempelajari probabilitas, hal ini dapat membantu kita
untuk memutuskan nilai yang tepat untuk mencari hubungannya.
6.6 Skema.
Chapter 6 : probability
introduction to probability
Chapter 8
Uji Hipotesis adalah sebuah metode statistic yang menggunakan data sampel untuk
mengevaluasi sebuah hipotesis mengenai populasi. Uji hipotesis biasanya digunakan
dalam konteks studi penelitian dimana peneliti telah menyelesaikan penelitian dan
menggunakan uji hipotesis untuk mengevaluasi hasil.
Tujuan dari uji hipotesis adalah untuk menentukan apakah treatment menghasilkan
efek pada individu dalam populasi. Biasanya populasi awal sebelum mendapat perlakuan
ditampilkan pada bagan sebelah kiri dan populasi yang tidak diketahui setelah
mendapatkan perlakuan ditampilkan pada bagan sebelah kanan. Populasi yang tidak
diketahui disebut hypothetical. Proses dari pengujian hipotesis biasanya dimulai dengan
memberikan hipotesis mengenai populasi yang tidak diketahui. Pernyataannya terdiri dari
dua bagian yang saling beroposisi, yaitu h0 (h null) dan h1 (h alternative). H0 menyatakan
bahwa dalam populasi secara umum, tidak ada pengaruh, atau perbedaan antara variabel
yang diuji. Sedangkan h1 menyatakan ada pengaruh, atau perbedaan antara ariabel yang
hendak diuji.
Untuk mengetahui apakah hipotesis (h0) diterima atau ditolak, pertama-tama harus
menentukan alpha level atau yang disebut juga dengan level of significance yaitu nilai
probabilitas yang digunakan untuk mengetahui apakah hipotesis null benar atau tidak.
Critical region adalah nilai ekstrim sampel yang digunakan untuk menolak hipotesis
null. Biasanya ditentukan dari alpha level, dan apabila hasil skor (biasanya z score)
terletak di area tersebut, maka hipotesis null berarti ditolak.
Pengujian hipotesis adalah sebuah proses inferensial, yang berarti ada batasan
informasi sebagai dasar untuk mencapai kesimpulan umum. Lebih spesifik, sampel hanya
menyediakan informasi yang terbatas atau tidak lengkap mengenai keseluruhan populasi,
tetapi pengujian hipotesis menggunakan sampel untuk memperkirakan kesimpulan
mengenai populasi. Berdasarkan situasi tersebut, pasti ada kemungkinan terjadinya
kesimpulan yang tidak tepat atau error. Dalam uji hipotesis, terdapat dua jenis error,
yaitu:
1. Type I error: tipe ini dapat terjadi apabila peneliti menolak hipotesis null padahal
kenyataannya hipotesis null diterima. Tipe I error berarti peneliti menyimpulkan
bahwa treatment memiliki efek padahal tidak. Kesalahan dalam tipe I dapat berakibat
serius karena peneliti mempercayai bahwa treatment menghasilkan efek dan
kemudian mempublikasikannya, hingga dapat diartikan sebagai false report atau hasil
palsu.
2. Type II error: tipe ini dapat terjadi apabila peneliti gagal untuk menolak hipotesis
null dan menganggap hipotesis null diterima sehingga peneliti menyimpulkan tidak
ada efek yang dihasilkan, padahal kenyataannya ada efek yang dihasilkan. Kesalahan
ini dapat terjadi pada saat rata-rata sampel tidak berada di critical region meskipun
treatment memiliki efek pada sampel. Kesalahan ini tidak seberbahaya yang pertama
karena peneliti dapat menerima hasil tersebut dan mengulang kembali penelitiannya.
Sebuah hasil dapat dikatakan signifikan jika h null ditolak sehingga dapat
disimpulkan treatment tersebut memiliki dampak terhadap variabel yang diuji.
Rumus :
M −μ σ
Z= σM σM=
√n
Pengujian one-tailed adalah hipotesis statistic (ho dan h1) yang memiliki asumsi,
baik itu berupa efek meningkatkan atau menurunkan dalam skor rata-rata populasi.
Pernyataan ini dibuat mengenai efek yang dihasilkan.
Misalnya peneliti ingin menguji apakah dengan belajar setiap hari dapat
meningkatkan hasil ujian siswa. Maka hipotesis penelitiannya berupa:
Pengujian hipotesis terdiri dari lima elemen dasar yang diatur dalam pola
logical. Kelma elemen ini diantaranya adalah:
1. Hypothesized population parameter. Tahap pertaa dalam pengujian hipotesis
adalah dengan menyatakan hipotesis null. Nilai spesifik yang diprediksi oleh
hipotesis null adalah elemen pertama dalam uji hipotesis.
2. Sample statistics. Sampel data digunakan untuk menghitung statistic sampel
yang berkorespondensi dengan parameter populasi yang telah dihipotesis.
3. Estimate of error. Untuk mengevaluasi penemuan, kita harus mengetahui tipe
kesalahan apa yang dapat terjadi. Umumnya pengukuran standard error
digunakan untuk menyediakan informasi seperti ini. Tujuannya secara umum
adalah untuk mengukur seberapa banyak perbedaan yang beralasan untuk
memperkirakan terjadinya kesalahan data antara statistic sampel dengan
parameter populasi.
4. The test statistic. Dalam bab ini, pengujian statistiknya menggunakan z score.
Z score menyediakan model statistic dalam rasio. Numerator dari rasio
diperoleh dari perbedaan antara rata-rata sampel dan rata-rata populasi.
Sedangkan denominatornya diperoleh dari rasio standar error yang diduga.
5. The alpha level. Elemen terakhir dalam uji hipotesis adalah alpha level atau
level of significance. Alpha level menyediakan criteria untuk menginterpretasi
hasil statistic.
Kritik yang paling serius dalam uji hipotesis adalah interpretasi dari hasil
signifikan. Terdapat dua batasan yang serius ketika menggunakan uji hipotesis dalam
signifikansi efek dari treatment. Yang pertama adalah focus dari uji hipotesis terletak
pada data daripada hasil hipotesis itu sendiri yang kedua adalah mendemosntrasi efek
treatment yang signifikan tidak mengindikasikan efek substansial dari treatment.
Signifikansi statistic tidak menyediakan informasi yang sebenarnya mengenai ukuran
efek treatment yang mutlak. Oleh karena itu, pengukuran dari effect size diadakan
untuk menyediakan pengukuran dari kekuatan mutlak dari efek treatment. Pengukuran
yang digunakan yaitu cohen’s d dengan rumus:
Kekuatan dari pengujian statistic aalah probabilitas bahwa pengujian akan menolak
hipotesis null. Kekuatan dari probabilitas bahwa pengujian akan mengidentifikasi efek
treatment sebagai hal yang nyata.
Hal-hal yang mempengaruhi kekuatan adalah ukuran sampel, alpha level, dan one-
tailed tests.
8.8 Skema.
the general
directional (one-
elements of an example of a
tailed) hypothesis
hypothesis testing : hypothesis test
tests
a review
concerns about
hypothesis testing:
statistical power
measuring effect
size.
Chapter 9
Estimated standard error (SM) digunakan untuk mengestimasi standard error σM ketika
nilai σ tidak diketahui. Hasilnya diperoleh dengan memasukkan varian sampel atau standar
deviasi sampel dan menyediakan estimasi dari jarak standar antara sampel mean dan populasi
mean. T statistic digunakan pada pengujian hipotesis apabila rata-rata populasi tidak
diketahui dan nilai dari σ juga tidak diketahui. Rumus dari t statistic memiliki struktur yang
serupa dengan z score, hanya saja t statistic menggunakan estimated standard error sebagai
denominator.
Rumus:
M −μ
T=
SM
Degrees of freedom atau derajat kebebasan menjelaskan penomoran skor pada sampel
yang independent. Karena rata-rata sampel menempatkan batasan pada nilai dari satu skor
pada sampel, maka derajat kebebasannya adalah n-1 pada sampel. Bentuk distribusi t
memasukkan setiap kemungkinan dari sampel acak untuk ukuran sampel yang spesifik (n)
atau derajat kebebasan yang spesifik (df). Bentuk dostribusi t adalah distribusi normal atau
simetris.
Dua asumsi dasar yang penting bagi pengujian hipotesis menggunakan t statistic:
M −μ 2 t2
Cohen’s d= s atau r = 2
t +df
the t
hypothesis meauring directional directional
statistic :
tests with effect size hypothesis hypothesis
an
the t for the t and one- and one-
alternative
statistics statistic tailed tests tailed tests
to z
Chapter 10
Sebuah desain penelitian yang menggunakan sampel yang terpisah untuk setiap
kondisi treatment disebut desain pengukuran independen atau between-subjects design.
Hipotesis statistic:
H0 : µ1 - µ2=0
H1 : µ1 - µ2≠ 0
Rumus :
(M 1 – M 2) – (µ1−µ 2)
t= s( M 1 – M 2)
s21 s22
S(M1-M2)=
√ +
n1 n2
2 SS1 + SS2
Pooled variance= s p=
df 1 +df 2
10.3 Hypothesis tests and effect size with the independent-measures t-statistics.
M 1 −M 2 t2
Pengukuran effect size: d = 2 dan r2=
√s p t 2 +df
Ada tiga asumsi yang harus dipenuhi sebelum kita menggunakan pengukuran independent
pada t test untuk pengujian hipotesis:
Hartley’s F-Max test digunakan untuk mengetahui apakah homogenitas dari varian
dipenuhi atau tidak. F-max didasarkan pada prinsip bahwa varian sampel menyediakan
estimasi yang tidak bias dari varian populasi. Karena itu, jika populasi varian sama, maka
sampel varian kemungkinan akan serupa. Prosedur yang dilakukan ketika menggunakan
pengujian F-max sebagai berikut:
1. Masukkan nilai sample variance, s2= SS/df, untuk setiap sampel yang terpisah.
2. Pilih nilai sample variance terbesar dan terkecil dan masukkan kedalam
rumus:
s 2(largest )
F-max=
s 2(smallest )
3. Nilai F-max hitung dibandingkan dengan nilai F-max table. Jika nilai sampel
lebih besar daripada nilai table, dapat disimpulkan bahwa varian berbeda dan
asumsi homogenitas tidak valid. Untuk menemukan nilai pada table, kita perlu
mengetahui,
a. K= jumlah sampel yang terpisah. (pada pengukuran independen, k=2.)
b. Df= n-1 untuk setiap varian sampel.
c. Pada table disediakan alpha level 0.05 dan 0.02. umumnya pengujian
homogenitas akan melihat alpha level yang lebih besar.
10.5 Skema.
Chapter 11
Repeated-measures design atau within-subject design adalah satu dari sampel tunggal
yang diukur lebih dari sekali pada variabel terikat yang sama. Subjek yang sama digunakan
dalam segala kondisi treatment.
Dalam studi matched-subjects, setiap individu pada satu sampel dicocokkan dengan
individu pada sampel yang lain. Ketika sudah dipasangkan, dapat dilihat apakah dua individu
ekuivalen dengan menghargai variabel spesifik yang hendak dikontrol oleh para penelliti.
Desain dalam pengujian t statistic untuk pengukuran berulang memiliki struktur yang
sama dengan t statistic lainnya. Bedanya,kita melihat perbedaan skor dan
mengembangkannya kedalam t statistic untuk pengujian berulang.
H0: µD=0
H1: µD≠ 0
11.3 Hypothesis tests and effect size for the repeated-measures design.
M D− μ
t= D
SM D
MD t2
Effect size: estimated d= dan r2= 2
s t +df
Variability as a measure of consistency for the treatment effect. Dalam studi pengujian
berulang, variabilitas dari perbedaan skor menjadi relative konkrit dan mudah untuk
dimengerti. Khususnya, variabilitas sampel mendeskripsikan konsistensi dari efek treatment.
Number of subjects. Subjek yang digunakan dalam desain penelitian ini lebih sedikit
dibandingkan dengan pengukuran independen.
Study changes over time. Pengukuran berulang didesain untuk studi pembelajaran,
perkembangan, atau perubahan lainnya yang memakan waktu. Dengan cara ini, peneliti dapat
mengobsersi perkembangan atau perubahan dari waktu ke waktu.
Individual differences. Keuntungan utama dari pengujian ini adalah untuk mengurangi atau
mengeliminasi masalah yang disebabkan oleh perbedaan individu seperti usia, gender, IQ,
kepribadian dan sebagainya. Adanya perbedaan individu akan mempengaruhi hasil
penelitian.
Counterbalancing. Salah satu cara untuk menghadapi urusan mengenai waktu dan efek yang
dihasilkan adalah dengan mengurutkan presentasi dari perlakuan tersebut tujuannya adalah
untuk membagi efek dari luar kepada dua jenis treatmen.
11.5 Skema.
introduction to repeated-
measures designs
Chapter 16
Correlation
16.1 Overview.
Korelasi adalah teknik statistic yang digunakan untuk mengukur dan menggambarkan
hubungan antara dua variabel. Biasanya kedua variabel tersebut diobservasi secara alami dari
lingkungan- tidak dikontrol ataupun dimanipulasi. Korelasi adalah nilai numeric yang
menggambarkan dan mengukur tiga karakteristik dari hubungan antara x dan y. ketiga
karakteristik tersbut adalah:
1. The direction of the relationship. Tanda dari korelasi,baik positif atau negatif
mendeskripsikan arah dari hubungan.
Dalam korelasi positif, kedua variabel cenderung bergerak kea rah yang sama.
Apabila X meningkat maka Y juga meningkat, demikian sebaliknya.
Sedangkan dalam korelasi negatif, kedua variabel bergerak ke arah yang berlawanan.
Apabila x meningkat maka y menurun, sebaliknya.
2. The form of the relationship. Bentuk hubungannya dapat berupa garis linear dan
kurva.
3. The strength or consistency of the relationship. Pada hubungan linear, poin data
akan berada pada garis lurus, setiap kali x bertambah 1 poin, maka nilai y akan
berubah secara konsisten dan dapat diprediksi.
1. Prediction. Jika dua variabel diketahui memiliki hubungan dalam cara sistematis,
kemungkinan dapat digunakan untuk memprediksi antara dua variabel.
2. Validity. Salah satu teknik untuk menguji validitas adalah dengan menggunakan
korelasi.
3. Reability. Prosedur pengukuran yang reliable menghasilkan skor yang sama
ketika individu yang sama diukur dlam situasi yang serupa.
4. Theory verification. Banyak teori psikologi yang membuat prediksi khusu
mengenai hubungan antara dua variabel. Dalam kasus ini, prediksi dari teori dapat
diuji dengan menentukan korelasi diantara dua variabel.
Pengukuran korelasi Pearson mengukur derajar dan arah dari hubungan linear antara
dua variabel. Korelasi Pearson diidentifikasi dengan huruf r. secara konsep, korelasiini
dihitung dengan
¿
R= degree ¿ w hic h X ∧Y vary toget h er degree ¿ w hic h X ∧Y vary separately ¿
∑ X ∑Y
SP= ∑(X-MX)(Y-MY) atau SP= ∑XY-
n
SP
R=
√(SS ¿¿ X )(SSY ) ¿
16.3 Understanding and interpreting the pearson correlation.
Kesalahan yang paling sering terjadi dalam menginterpretasi korelasi adalah dengan
mengasumsikan korelasi memiliki hubungan sebab-akibat antara dua variabel. Perlu diingat
korelasi hanya mencari tahu mengenai hubungan antara dua variabel, bukan sebab-akibat.
H0 : ᵨ=0
H1 : ᵨ≠ 0
H0 : ᵨ≤0
H1 : ᵨ>0
Korelasi Pearson digunakan untuk mengukur derajat dari hubungan linear antara dua
variabel ketika data (X dan Y) terdiri dari skor numeric dari skala pengukuran interval atau
rasio. Bagaimanapun, korelasi lain telah dikembangkan untuk hubungan non linear dan untuk
tipe data lainnya. Salah satunya adalah korelasi Spearman yang digunakan dalam dua situasi.
Yang pertama untuk mengukur hubungan antara variabel X dan Y ketika kedua vriabel
diukur menggunakan skala ordinal. Yang kedua digunakan ketika peneliti ingin mengukur
konsistensi dari suatu hubungan antara X dan Y. dalam kasus ini, skor original akan dirubah
menjadi ranking dan menggunakan rumus Pearson yang digunakan pada ranking. Ketika ada
konsistensi hubungan satu arah antara dua variabel, hubungan itu dikatakan monotonic.
Korelasi spearman dapat digunakan untuk mengukur derajat dari monotonic antara dua
variabel.
Ketika kedua variabel merupakan variabel dikotomi, maka korelasi diantara kedua
variabel disebut dengan phi-coefficient. Untuk memasuki phi (ᵩ) harus mengikuti prosedur
sebagai berikut.
1. Mengubah setiap variabel dikotomi menjadi nilai numeric dengan mengganti nilai
0 pada kategori pertama dan 1 untuk kategori kedua.
2. Gunakan rumus Pearson dengan menggunakan skor yang telah dirubah.
16.7 Skema.
understanding
hypothesis tests
Chapter 16: the pearson and interpreting the Spearman the Spearman
overview with the Pearson
correlation correlation the pearson correlation correlation
correlation
correlation
Chapter 17
Introduction to regression
Secara umum, hubungan linear antara dua variabel X dan Y dapat ditunjukkan dengan
persamaan:
Ŷ =bX +a
a=M Y −bM X
Teknik statistic untuk menemukan garis lurus yang paling tepat untuk sekumpulan data
disebut dengan regresi, dan hasil dari garis lurusnya disebut garis regresi.
The standard error of estimate memberikan jarak standar dari regresi dan dua point
yang aktual.
Jika korelasi semakin mendekati 1 atau 1.00 maka data standard error estimate
semakin kecil. Sebaliknya, jika korelasi semakin mendekati 0 maka standard error estimate
semakin besar. r 2 bisa disebut juga dengan coefficient of determination karena menemukan
proporsi pada variabilitas Y yang didapat diprediksi oleh hubungan dengan X.
Predicted variability=SSregression=r 2 SS y
SSresidual
MS residual = ; df =n−2
df residual
Msregression
F= dengan df =1 , n−2
Msresidual
Dengan :
( SP X 1Y ) ( SS X 2 ) −( SP X 1 X 2 ) ( SP X 2 Y )
b 1= 2
( SS X 1 ) ( SS X 2 ) −( SP X 1 X 2 )
( SP X 2Y ) ( SS X 1 ) −( SP X 1 X 2 ) ( S P X 1 Y )
b 2= 2
( SS X 1 ) ( SS X 2 )−( SP X 1 X 2)
a=M Y + b1 M X 1 −b2 M X 2
Dengan cara yang sama kita menghitung r 2untuk mengukur percentage of variance. Tetapi
untuk multiple-regression menggunakan simbol R2.
SSregression
R 2= atau SS regression=R2 SS y
SS y
b1 SP X 1 Y + b2 SP X 2 Y
R 2=
SS y
SSresidual
MS residual =
df
SEE=√ MS residual
Dengan kedua persamaan MS kita dapat menghitung F-ratio pada Multiple-regression, yaitu :
SS regression
MS regression=
2
SSresidual
MS residual =
n−3
SSregression=R 2 SS y
SSresidual =( 1−R 2) SS y
MSregression
Jadi, F=
MS residual
Partial correlation mengukur hubungan antara dua variabel sambil mengontrol pengaruh
variable ketiga dengan memegangnya dengan konstan.
Dalam sebuah situasi dengan tiga variabel, X, Y, dan Z, akan mungkin menghitung Pearson
correlation tiga individu :
Ketiga individu korelasi ini dapat digunakan dengan perhitungan partial korelasi.
r XY −( r XZ r YZ )
r XY .Z =
2
√ (1−r XZ )( 1−r 2YZ )
17.5 Skema.
testing the
Chapter 17: introduction to
significance of the
introduction to linear equations and
regression equation:
regression regression
analysis of variable
Chapter 13
13.1 Introduction.
Analysis of variance atau anova adalah sebuah pengujian hipotesis yang digunakan
untuk mengevaluasi perbedaan rata-rata antara dua atau lebih treatment (atau populasi).
Anova menggunakan sampel data berdasarkan gambaran umum mengenai kesimpulan
mengenai populasi. Anova dan t test merupakan dua cara yang berbea dalam menanggapi
persoalan yang sama: kedua pengujian tersebut digunakan untuk mencari perbedaan rata-rata.
Yang mengungtungkan dari pemakaian anova ini adalah anova dapat digunakan untuk
membandingkan dua atau lebih treatment, sedangkan t test hanya dapat membandingkan dua
treatment saja. Dalam anova, variabel (baik independent maupun quasi-independent) didesain
dalam kelompok yang dibandingkan disebut dengan faktor. Condisi individu atau nilai yang
membentuk faktor disebut dengan faktor level. Sebuah studi yang menggunakan dua faktor
disebut dengan desain factorial atau desain dua faktor (two-factor design).
Ketika dalam suatu kalkulasi ditemukan bahwa tidak semua skor memiliki hasil yang
sama, skor tersebut dikatakan variabel. Kita harus mencari tahu jumlah dari perbedaan
tersebut dan mencari tahu mengapa skornya berbeda. Tahap pertama untuk menentukan total
variabilitas adalah dengan mengatur seluruh data. Ketika kita sudah mengukur keseluruhan
data, kita mulai membagi setiap bagian menjadi komponen yang terpisah. Proses analisis
inidibagi menjadi dua komponen dasar.
1. Between-treatments variance
2. Within-treatments variance
Disamping itu, ada dua kemungkinan yang dapat menjelaskan adanya perbedaan
diantara treatments:
Ketika kita sudah menganalisis total variabilitas kedalam dua komponen (between dan
within), kita kemudian membandingkannya perbandingan dibuat dengan memasukkan
statistic yang disebut dengan F-ratio. Untuk pengukuran independent, F-ratio memiliki
struktur sebagai berikut:
MS Between
F=
MS Wit h∈¿ ¿
Pada anova, denominator pada F-ratio disebut dengan error term. Kesalahan tersebut
menyediakan pengukuran varian karena perbedaan random yang tidak sistematis. Ketika efek
treatment adalah nol (H0 diterima), error term mengukur sumber dari varian yang sama dengan
numerator, sehingga F-ratio dianggap mendekati atau sama dengan 1.00.
Karena anova sering digunakan untuk menguji data lebih dari dua perlakuan, kita
membutuhkan sistem notasi yang membantu untuk memperoleh keseluruhan skor individu
yaitu:
1. Huruf k digunakan untuk mengidentifikasi jumlah kondisi treatment. Jika ada tiga
perlakuan, maka nilai k=3.
2. Penomoran skor untuk setiap treatment ditandai dengan huruf n.
3. Total penomoran skor dalam keseluruhan studi ditandai dengan huruf N.
4. Jumlah skor untuk setiap treatment ditandai dengan huruf T.
5. Jumlah keseluruhan skor dalam studi ditandai dengan huruf G.
6. Memasukkan rumus SS dan M.
1. Karena F-ratio dimasukkan dari dua varian (numerator dan denominator), F-ratio
selalu bernilai positif.
2. Ketika H0 diterima, kita dapat membuat sketsa distribusi dari F-ratio.
Post hoc tests (atau posttests) merupakan uji hipotesis tambahan yang dilakukan setelah
anova untuk menentukan dengan pasti manakah perbedaan rata-rata yang signifikan dan yang
tidak. Tes ini dilakukan apabila kita menolah H0 dan ada tiga atau lebih treatment. Secara
umum, pengujian post hoc mengijinkan kita untuk melihat melalui data dan membandingkan
treatment tiap individu sewaktu-waktu. Dalam statistic, hal ini disebut dengan membuat
perbandingan berpasangan (pairwise comparisons). Ketika kita melihat banyak pengujian
yang terpisah, resiko terjadinya tipe I error diakumulasi dan disebut dengan experimentwise
alpha level.
Statistikawan sering menyebut perbandingan terencana dan tidak terencana (planned and
unplanned comparisons). Sesuai dengan namanya, perbandingan tereencana tertuju pada
perbedaan rata-rata yang relevan pada hipotesis yang spesifik dan peneliti telah
memperkirakannya sebelum dikemukakan hasilnya.
Sedangkan pada perbandingan yang tidak terencana, dugaan peneliti mengenai suatu
penelitian tidak terbukti karena adanya pengaruh dari luar yang tidak dapat disangka-sangka
yang umumnya mengarah ke kesalahan tipe I. pada akhirnya, cara paling aman untuk
melakukan post test adalah dengan menggunakan salah satu dari prosedur khusus (Tukey dan
Scheffé) untuk semua post test baik itu yang terencana maupun tidak.
Tukey’s Honestly Significant Difference (HSD) Test merupakan pengujian yang paling
sering digunakan dalam penelitian psikologi. Pengujian Tukey ini mengijinkan kita untuk
memasukkan nilai tunggal yang menentukan perbedaan rata-rata minimum antara treatment
yang signifikan. Apabila perbedaan rata-ratanya melebihi Tukey’s HSD, maka dapat
disimpulkan adanya perbedaan yang signifikan antara treatment.
MS wit h∈ ¿
HSD= q
√ n
¿
Scheffé test merupakan uji post yang paling aman karena memiliki resiko terjadinya
kesalahan tipe I yang terkecil. Scheffé test menggunakan F-ratio untuk mengevaluasi
perbedaan signifikan antara dua kondisi treatment. Numerator dalam F-ratio adalah
MSbetween yang dikalkulasikan hanya dari dua treatment yang ingin dibandingkan.
Sedangkan pada denominator menggunakan MS within yang sama dalam keseluruhan anova.
Ada dua poin menarik yang dibuat dari post test yang dihadirkan kedalam dua contoh.
Pertama, tes Scheffé dikenal sebagai teknik post test yang paling aman karena menyediakan
proteksi terhebat dari type I. untuk menyediakan perlindungan ini, test Scheffé menggunakan
perbedaan sampel mean yang besar antara dua treatment. Poin kedua yang harus diperhatikan
dalam Scheffé menghasilkan hasil yang bersifat kontradiksi.
F=t2
Fakta bahwa t statistic didasarkan pada perbedaan dan F-ratio berdasarkan pada perbedaan
kuadrat yang menjadikan perhitungan demikian.
Pada pengukuran independen, anova membutuhkan tiga asumsi yang sama seperti pada t test:
13.8 Skema.
Chapter 13: examples of
Analysis of hypothesis
Post hoc
testing and
Variance tests
effect size of
(Anova) anova
the
the relationship
Introduction distribution between
of F-ratios
anova and t
tests