Anda di halaman 1dari 6

UJI INSTRUMEN DAN UJI ASUMSI KLASIK

UJI INSTRUMEN
dilakukan untuk menguji validitas dan reliabilitas instrument (dalam pengumpulan data) yang
digunakan dalam penelitian.
Instrumen dikatakan Valid (sah) jika pertanyaan tersebut mampu mengungkapkan sesuatu yang
akan diukur oleh instrumen (kuesioner). Instrumen dikatakan Reliabel (andal) jika jawaban
responden terhadap pertanyaan adalah konsisten atau stabil dari waktu ke waktu
LANGKAH-LANGKAH UJI VALIDITAS DAN RELIABILITAS, YAITU :

Mempersiapkan butir-butir pertanyaan berdasarkan konstruk, konsep dan indikator dari


variabel yang akan diteliti.

Instrumen (pertanyaan) diberikan kepada responden untuk diujicobakan

Setelah instrumen diujicobakan kepada responden, kemudian ditabulasikan untuk


mempermudah penghitungan dan analisis ujicoba tersebut

Responden target ujicoba instrumen, tidak dapat dijadikan responden penelitian

1. VALIDITAS
Menunjukkan sejauhmana suatu alat (instrumen) mengukur apa yang seharusnya diukur
(Ghiselli, 1981). Sementara itu Azwar (2000) mengartikan validitas sebagai sejauh mana
ketepatan dan kecermatan suatu alat ukur dalam melakukan fungsi ukurnya. Isaac dan Michael
(1981) menjelaskan bahwa informasi validitas menunjukkan tingkat dari kemampuan test untuk
mencapai sasarannya. Dengan demikian validitas mengukur ketepatan (akurasi).
CONTOH VALIDITAS
Dalam mengukur motivasi
Tentunya seorang peneliti yg membuat instrumen motivasi ini berharap agar instrumen
penelitiannya bisa berfungsi dgn benar untuk mengukur motivasi
Syaratnya instrumen itu harus memiliki validitas yg tinggi
Mengukur validitas salah satunya bisa memakai korelasi PRODUCT MOMENT: korelasi antar
item dengan skor total dalam satu variabel
2. RELIABILITAS

Seberapa besar variasi tidak sistematik dari penjelasan kuantitatif dari karakteristik individu jika
individu yang sama diukur berkali kali (Ghiseli, 1981). Ukuran yang menunjukkan stabilitas dan
konsistensi suatu instrumen yang mengukur suatu konsep dan berguna untuk mengukur kebaikan
(goodness) dari suatu pengukur (Sekaran, 2003).
Dengan demikian reliabilitas pada dasarnya adalah sejauh mana hasil suatu pengukuran dapat
dipercaya. Kepercayaan itu dalam bentuk keandalan instrumen yaitu konsistensi hasil dari waktu
kewaktu jika suatu instrumen digunakan pada subjek.
Tinggi/rendahnya reliabilitas secara empirik ditunjukkan oleh suatu angka yang disebut nilai
koefisien reliabilitas
Reliabilitas yang sangat tinggi ditunjukkan dgn nilai 1.00.
Reliabilitas yg dianggap sudah cukup memuaskan atau tinggi adalah > 0.70
Ada beberapa teknik yg dipakai untuk menghitung reliabilitas salah satu diantaranya adalah
alpha cronbach
Model regresi linier berganda (multiple regression) dapat disebut sebagai model yang baik jika
model tersebut memenuhi beberapa asumsi yang kemudian disebut dengan asumsi klasik. Proses
pengujian asumsi klasik dilakukan bersama dengan proses uji regresi sehingga langkah-langkah
yang dilakukan dalam pengujian asumsi klasik menggunakan langkah kerja yang sama dengan
uji regresi. Ada lima uji asumsi yang harus dilakukan terhadap suatu model regresi tersebut yaitu
uji normalitas, Autokorelasi, uji linieritas, uji multikolinieritas, dan uji heteroskedastisitas.
Pengujian asumsi klasik diperlukan untuk mengetahui apakah hasil estimasi regresi yang
dilakukan benar-benar bebas dari adanya gejala heteroskedastisitas, gejala multikolinearitas, dan
gejala autokorelasi. Model regresi akan dapat dijadikan alat estimasi yang tidak bias jika telah
memenuhi persyaratan BLUE (best linear unbiased estimator) yakni tidak terdapat
heteroskedastistas, tidak terdapat multikolinearitas, dan tidak terdapat autokorelasi ( Sudrajat
1988 : 164). Jika terdapat heteroskedastisitas, maka varian tidak konstan sehingga dapat
menyebabkan biasnya standar error. Jika terdapat multikolinearitas, maka akan sulit untuk
mengisolasi pengaruh-pengaruh individual dari variabel, sehingga tingkat signifikansi koefisien
regresi menjadi rendah. Dengan adanya autokorelasi mengakibatkan penaksir masih tetap bias
dan masih tetap konsisten hanya saja menjadi tidak efisien.
UJI ASUMSI KLASIK
UJI NORMALITAS
Menguji apakah dalam sebuah model regresi, variabel dependent, variabel independent atau
keduanya mempunyai distribusi normal ataukah tidak. Model regresi yang baik adalah distribusi
data normal atau mendekati normal.

Sebagai dasar bahwa uji t dan uji F mengasumsikan bahwa nilai residual mengikuti distribusi
normal. Jika asumsi ini dilanggar maka model regresi dianggap tidak valid dengan jumlah
sampel yang ada. Ada dua cara yang biasa digunakan untuk menguji normalitas model regresi
tersebut yaitu dengan analisis grafik (normal P-P plot) dan analisis statistik (analisis Z skor
skewness dan kurtosis) one sample Kolmogorov-Smirnov Test.
Pengertian normal secara sederhana dapat dianalogikan dengan sebuah kelas. Dalam kelas siswa
yang bodoh sekali dan pandai sekali jumlahnya hanya sedikit dan sebagian besar berada pada
kategori sedang atau rata-rata. Jika kelas tersebut bodoh semua maka tidak normal, atau sekolah
luar biasa. Dan sebaliknya jika suatu kelas banyak yang pandai maka kelas tersebut tidak normal
atau merupakan kelas unggulan. Pengamatan data yang normal akan memberikan nilai ekstrim
rendah dan ekstrim tinggi yang sedikit dan kebanyakan mengumpul di tengah. Demikian juga
nilai rata-rata, modus dan median relatif dekat.
Uji normalitas dapat dilakukan dengan uji histogram, uji normal P Plot, uji Chi Square,
Skewness dan Kurtosis atau uji Kolmogorov Smirnov. Tidak ada metode yang paling baik atau
paling tepat. Tipsnya adalah bahwa pengujian dengan metode grafik sering menimbulkan
perbedaan persepsi di antara beberapa pengamat, sehingga penggunaan uji normalitas dengan uji
statistik bebas dari keragu-raguan, meskipun tidak ada jaminan bahwa pengujian dengan uji
statistik lebih baik dari pada pengujian dengan metode grafik.
Jika residual tidak normal tetapi dekat dengan nilai kritis (misalnya signifikansi Kolmogorov
Smirnov sebesar 0,049) maka dapat dicoba dengan metode lain yang mungkin memberikan
justifikasi normal. Tetapi jika jauh dari nilai normal, maka dapat dilakukan beberapa langkah
yaitu: melakukan transformasi data, melakukan trimming data outliers atau menambah data
observasi. Transformasi dapat dilakukan ke dalam bentuk Logaritma natural, akar kuadrat,
inverse, atau bentuk yang lain tergantung dari bentuk kurva normalnya, apakah condong ke kiri,
ke kanan, mengumpul di tengah atau menyebar ke samping kanan dan kiri.
UJI AUTOKORELASI
Uji autokorelasi adalah untuk melihat apakah terjadi korelasi antara suatu periode t dengan
periode sebelumnya (t -1). Secara sederhana adalah bahwa analisis regresi adalah untuk melihat
pengaruh antara variabel bebas terhadap variabel terikat, jadi tidak boleh ada korelasi antara
observasi dengan data observasi sebelumnya. Sebagai contoh adalah pengaruh antara tingkat
inflasi bulanan terhadap nilai tukar rupiah terhadap dollar. Data tingkat inflasi pada bulan
tertentu, katakanlah bulan Februari, akan dipengaruhi oleh tingkat inflasi bulan Januari. Berarti
terdapat gangguan autokorelasi pada model tersebut. Contoh lain, pengeluaran rutin dalam suatu
rumah tangga. Ketika pada bulan Januari suatu keluarga mengeluarkan belanja bulanan yang
relatif tinggi, maka tanpa ada pengaruh dari apapun, pengeluaran pada bulan Februari akan
rendah.. Jika terjadi korelasi maka dinamakan ada problem autokorelasi. Ada beberapa cara
untuk mendeteksi gejala autokorelasi yaitu uji Durbin Watson (DW test), uji Langrage Multiplier
(LM test), uji statistik Q, dan Run Test.
Uji autokorelasi hanya dilakukan pada data time series (runtut waktu) dan tidak perlu dilakukan
pada data cross section seperti pada kuesioner di mana pengukuran semua variabel dilakukan

secara serempak pada saat yang bersamaan. Model regresi pada penelitian di Bursa Efek
Indonesia di mana periodenya lebih dari satu tahun biasanya memerlukan uji autokorelasi.
Beberapa uji statistik yang sering dipergunakan adalah uji Durbin-Watson, uji dengan Run Test
dan jika data observasi di atas 100 data sebaiknya menggunakan uji Lagrange Multiplier.
Beberapa cara untuk menanggulangi masalah autokorelasi adalah dengan mentransformasikan
data
UJI LINEARITAS
Uji ini digunakan untuk melihat apakah spesifikasi model yang digunakan yaitu studi empiris
linier, kuadrat, atau kubik. Ada tiga uji yang bisa dilakukan untuk mendeteksi yaitu uji Durbin
Watson, uji Ramsey, dan uji Langrange Multiplier.
Uji linearitas dipergunakan untuk melihat apakah model yang dibangun mempunyai hubungan
linear atau tidak. Uji ini jarang digunakan pada berbagai penelitian, karena biasanya model
dibentuk berdasarkan telaah teoretis bahwa hubungan antara variabel bebas dengan variabel
terikatnya adalah linear. Hubungan antar variabel yang secara teori bukan merupakan hubungan
linear sebenarnya sudah tidak dapat dianalisis dengan regresi linear, misalnya masalah elastisitas.
Jika ada hubungan antara dua variabel yang belum diketahui apakah linear atau tidak, uji
linearitas tidak dapat digunakan untuk memberikan adjustment bahwa hubungan tersebut bersifat
linear atau tidak. Uji linearitas digunakan untuk mengkonfirmasikan apakah sifat linear antara
dua variabel yang diidentifikasikan secara teori sesuai atau tidak dengan hasil observasi yang
ada. Uji linearitas dapat menggunakan uji Durbin-Watson
UJI MULTIKOLINEARITAS
Uji multikolinearitas bertujuan untuk menguji apakah model regresi ditemukan adanya korelasi
antar variabel bebas (independent variable). Model regresi yang baik seharusnya tidak terjadi
korelasi di antara variabel bebas, karena jika hal tersebut terjadi maka variabel-variabel tersebut
tidak ortogonal atau terjadi kemiripan. Variabel ortogonal adalah variabel bebas yang nilai
korelasi antar sesama variabel bebas bernilai nol. Uji ini untuk menghindari kebiasan dalam
proses pengambilan keputusan mengenai pengaruh parsial masing-masing variabel independen
terhadap variabel dependen. Untuk mendeteksi apakah terjadi problem multikol dapat melihat
nilai tolerance dan lawannya variace inflation factor (VIF). Uji Multikolinearitas dilakukan
dengan melihat nilai tolerance dan variance inflation factor (VIF) dari hasil analisis dengan
menggunakan SPSS. Apabila nilai tolerance value lebih tinggi daripada 0,10 atau VIF lebih kecil
daripada 10 maka dapat disimpulkan tidak terjadi multikolinearitas (Santoso. 2002 : 206).
Uji multikolinearitas adalah untuk melihat ada atau tidaknya korelasi yang tinggi antara variabelvariabel bebas dalam suatu model regresi linear berganda. Jika ada korelasi yang tinggi di antara
variabel-variabel bebasnya, maka hubungan antara variabel bebas terhadap variabel terikatnya
menjadi terganggu. Sebagai ilustrasi, adalah model regresi dengan variabel bebasnya motivasi,
kepemimpinan dan kepuasan kerja dengan variabel terikatnya adalah kinerja. Logika
sederhananya adalah bahwa model tersebut untuk mencari pengaruh antara motivasi,

kepemimpinan dan kepuasan kerja terhadap kinerja. Jadi tidak boleh ada korelasi yang tinggi
antara motivasi dengan kepemimpinan, motivasi dengan kepuasan kerja atau antara
kepemimpinan dengan kepuasan kerja.
Beberapa alternatif cara untuk mengatasi masalah multikolinearitas adalah sebagai berikut:

Mengganti atau mengeluarkan variabel yang mempunyai korelasi yang tinggi.

Menambah jumlah observasi.

Mentransformasikan data ke dalam bentuk lain, misalnya logaritma natural, akar kuadrat
atau bentuk first difference delta.

Dalam tingkat lanjut dapat digunakan metode regresi bayessian yang masih jarang sekali
digunakan.

UJI HETEROSKEDASTISITAS
Uji heteroskedastisitas bertujuan menguji apakah dalam model regresi terjadi ketidaksamaan
veriance dari residual satu pengamatan ke pengamatan yang lain. Jika variance tetap maka
disebut homoskedastisitas dan jika berbeda maka terjadi problem heteroskedastisitas. Model
regresi yang baik yaitu homoskesdatisitas atau tidak terjadi heteroskedastisitas. Ada beberapa
cara untuk mendeteksi ada tidaknya heteroskedastisitas yaitu melihat scatter plot (nilai prediksi
dependen ZPRED dengan residual SRESID), uji Gletjer, uji Park, dan uji White.
Beberapa alternatif solusi jika model menyalahi asumsi heteroskedastisitas adalah dengan
mentransformasikan ke dalam bentuk logaritma, yang hanya dapat dilakukan jika semua data
bernilai positif. Atau dapat juga dilakukan dengan membagi semua variabel dengan variabel
yang mengalami gangguan heteroskedastisitas.
Bagaimana cara mengatasi penyakit heteroskedastisitas
Tentu, setelah kita melakukan uji heteroskedastisitas, langkah penyembuhan perlu segera
dilakukan. berikut merupakan beberapa cara penyembuhan penyekit heterskedastisitas yang
dapat dilakukan:
Terlebih dahulu mentransformasi data menjadi bentuk logariitma (log) atau logaritma natural
(ln), terutama untuk data-data yang tumbuh secara eksponensial seiring dengna berjalananya
waktu, seperti data jumlah penduduk dan data kredit atas bunga majemuk.
Selanjutnya adalah dapat juga dengan membuat model spesifikasi diferensialnya. maksudnya
adalah model selisih antara t dengan t-1. cara ini juga biasanya sekaligus dapat mengatasi
masalah multikolinieritas.
Mengganti model penaksiran dari ols menjadi wls (weighted least square). prinsip sederhanya
adalah kita membuat pembobotan atas nilai pada variabel x dan Y.

Nah, jika cara-cara di atas masih belum ampuh juga, kita dapat menempuh cara
heteroscedasticity-consitent standard errors (HCSE), cara ini biasanya lebih ampuh, karena alur
berpikirnya diubah, alih-alih mencoba-coba model yang memiliki varian error yang tetap, kita
mulai dengan menetapkan error varians yang konsisten.

- See more at: http://www.globalstatistik.com/pengertian-uji-heteroskedastisitas-danspss/#sthash.7EtVeqSf.dpuf