Anda di halaman 1dari 6

Partial Least Square (PLS) adalah sebuah software yang dikembangkan untuk mengolah data menggunakan persamaan struktural,

dan juga dapat digunakan untuk persamaan regresi linear. Secara umum dikenal dua software yang paling populer mengenai Partial Least Square, yakni Smart PLS dan PLS Graph yang menitikberatkan pada gambar. Masing-masing mempunyai kriteria dan spesifikasi sendiri. Pada modul ini akan dibahas lebih lanjut mengenai Smart PLS. Software ini diciptakan sebagai proyek di Institute of Operation Management and Organization (School of Business) University of Hamburg, Jerman. Smart PLS menggunakan teknologi berbasis bahasa pemrograman Java. PLS (component based SEM) muncul sebagai jawaban alternatif analisis persamaan struktural. Biasanya, persamaan struktural melibatkan software AMOS dan LISREL (covariance based SEM). Kedua software diatas memerlukan beberapa persyaratan dan asumsi tertentu yang harus dipenuhi agar data bisa diolah. Dilihat dari fleksibilitasnya, beberapa data tertentu tidak dapat dioperasikan dengan AMOS dan LISREL. Disinilah PLS muncul sebagai jawaban atas permasalahan diatas. Contohnya, bila dalam penggunaan AMOS dan LISREL mensyaratkan data harus dalam skala interval atau rasio, pendekatan PLS bersifat distribution free, yakni tidak mengasumsikan data harus berdistribusi tertentu. Data yang akan diolah dapat berupa data nominal, ordinal, interval, dan rasio. Menurut Ghozali (2005), PLS merupakan metode analisis yang powerfull karena tidak mengasumsikan data harus dalam skala pengukuran tertentu dan juga mengenai jumlah sampel relatif kecil (minimal direkomendasikan berkisar dari 30 sampai 100). Dalam hal kompleksitas model, PLS dapat menampung sampai 100 konstruk dan indikator. Secara mendasar, perbedaan antara covariance based SEM dengan component based SEM PLS adalah apakah kita akan menggunakan model persamaan struktural untuk menguji teori atau pengembangan teori untuk tujuan prediksi (Anderson dan Gerbing, 1988 dalam Ghozali, 2005). Pada situasi dimana kita mepunyai dasar yang kuat dan pengujian teori atau pengembangan teori sebagai tujuan utama riset, maka metode dengan covariance based SEM lebih sesuai. Namun demikian dengan adanya indeterminacy dari estimasi factor score maka akan kehilangan ketepatan prediksi. Untuk tujuan prediksi, pendekatan PLS lebih cocok karena pendekatan ini mengasumsikan bahwa semua ukuran variance adalah variance yang berguna untuk dijelaskan. Oleh karena pendekatan untuk mengestimasi variabel laten dianggap sebagai kombinasi linear dari indikator, maka menghindarkan masalah indeterminacy dan memberikan definisi yang pasti dari komponen skor (Wold, 1982 dalam Gozali, 2005). PLS dapat dianggap sebagai metode alternatif dari covariance based SEM. Pada covariance based SEM, Maximum Likelihood berorientasi pada teori dan menekankan transisi dari analisis exploratory ke confirmatory. PLS dimaksudkan

untuk causal-predictive analysis dalam situasi kompleksitas yang tinggi dan dukungan teori yang rendah
MULTIVARIATE Model persamaan struktural yang kita kenal saat ini sering disebut dengan Covariance Based SEM dan diwakili oleh software seperti AMOS, LISREL, EQS, COSAN dsb. MOdel Covariance based SEM (CBSEM) banyak meminta asumsi antara lain: data harus memiliki distribusi normal secara multivariate, skala pengukuran variabel continous, variabel laten harus diukur dengan indikator model refleksif, jumlah sample harus besar (menurut HAIR lima kali jumlah parameter yang akan diestimasi), model yang akan diuji harus memiliki basic penjelasan teori yang kuat dan lebih menekankan pada konfirmatori model atau mengkonfirmasi model dengan dunia empirisnya. Apabila asumsi ini dilanggar, maka CBNSEM tidak dapat digunakan. Beberapa artikel jurnal akhir-akhir ini khususnya di Sistem ifnormasi dan marketing telah berkembang model SEM alternatif yang sering disebut dengan variance based SEM (VBSEM) yang diwaikili oleh software seperti PLS Graph, SmartPLS, Visual PLS. Variance based SEM menggunaklan teknik statistik non-parametrik sehingga tidak tunduk pada asumsi yang rumit seperti CBSEM. Data tidak harus berdistribusi normal dan skala pengukuran dapat berupa nominal, ordinal, interval maupun rasio. Jumlah sample tidak harus besar dengan model rumit (100 indikator) jumlah sample 50 dapat dijalankan. Yang paling penting adalah latent variabel indikatornya dapat dalam bentuk model refleksif maupun formative. Model indikator refleksif adalah konstruk/laten variabel diijelaskan oleh indikator atau arah hubungan dari konstruk ke indikator. Indikator-indikator mengukur hal yang sama tentang konstruk,sehingga antar indikator harus memiliki korelasi yang tinggi. Jika salah satu indikator dibuang, maka konstruk akan terpengaruh. Sebagai contoh konstruk Stress diukur dengan indikator x1=pusing, x2=sakit perut, x3=meriang dst. Sedanggkan model indikator formative berlawanan yaitu indikator mempengaruhi konstruk atau hubungannya dari indikator ke konstruk, antar indikator diasumsikan tidak saling berkorelasi sehinga satu indikator dibuang tidak akan mempengaruhi konstruk. Sebagai contoh konstrukl Stress diukur dengan indikator x1=putus pacar, x2= diPHK dari kerja, dstnya. Banyak riset di pemasaran yang sebenarnya konstruk itu formative tetapi dibentuk refleksif Kalau CBSEM menitik beratkan pada konsfirmasi, maka VBSEM lebih menitik beratkan pada moedl prediksi, sehingga tidak diperlukan dukungan teori yang kuat. jadi dapat disimpulkan bahwa jika tujuan penelitian kita ingin mengkonfirmasi suatu model yang dibangun berdasarkan pada teori, maka sebaiknya menggunakan CBSEM. SEdangkan kalau tujuan kita ingin model prediksi dan dasar teori tidak begitu kuat ,maka sebaiknya menggunakan VBSEM. Tanya: spesifikasi penggunaan Amos dan Lisrell

Prof. Dr. Imam Ghozali, M.Com: Amos dan Lisrel adalah software untuk menyelesaikan model persamaan struktural, jadi kedua software ini akan menghasilkan estimasi parameter yang sama. Bedanya terletak pada penggunaan. Amos dapat digunakan secara grapgical interface (Amos Graphic) artinya hubungan antara variabel bisa digambar langsung dengan simbol elips (variabel laten) atau kotak (variabel observed), anda tidak perlu menyusun persamaan regresinya, tetapi amos dapat juga berangkat dari persamaan dahulu (Amos basic). kelemahan Amos, jika asumsi multivariate normalitas dilanggar atau data kita murni ordinal bukan kontinyu, terjadi hubungan moderating antar variabel, maka Amos tidak dapat menyelesaikan hal ini. Lisrel mampu mengatasi semua persoalan tadi, yaitu jika data tidak normal, skala perngukuran variabel ordinal murni dan terdapat hubungan moderating. jadi Lisrel jelasnya lebih cangih dibanding Amos Tanya: Saya mohon masukan tentang keunggulan dan kelemahan SEM-PLS. Adakah sumber bacaan/artikel yang mungkin bisa saya pakai sebagai acuan agar referensi saya cukup kuat. Trima kasih Prof. Dr. Imam Ghozali, M.Com: SEM Covariance dan SEM-PLS memiliki filosofi yang berbeda. Jika tujuan kita adalah konfirmatori dan model yang akan kita konfirmatori didukung oleh teori yang kuat, maka sebaiknya kita menggunakan SEM Covariance. Apabila teori yang mendasari model kita tidak kuat dan tujuan kita bukan konfirmatori tetapi lebih ke arah prediksi, maka SEM PLS sebaiknya digunakan. Konstruk yang memiliki indikator formative tidak dapat dirun dengan SEM Covariance dan harus dirun dengan SEM PLS. Artikel perbandingan antara SEM PLS dengan SEM Covariance dapat dibaca di website saya www.fe.undip.ac.id:8005/imam/links cari tulisan Prof .W Chin (pencipta software PLS Graph)

TEORI ANALISIS REGRESI LINIER MENGENAL ANALISIS REGRESI Bab ini membahas masalah pengenalan analisis regresi dan teori regresi. Setelah selesai membaca bagian ini maka pembaca akan dapat memahami:

Pengertian regresi linear Konsep-konsep dasar dalam regresi Kegunaan teknik analisis regresi

2.1 Pengertian Untuk mengukur besarnya pengaruh variabel bebas terhadap variabel tergantung dan memprediksi variabel tergantung dengan menggunakan variabel bebas. Gujarati (2006) mendefinisikan analisis regresi sebagai kajian terhadap hubungan satu variabel yang disebut sebagai variabel yang diterangkan (the explained variabel) dengan satu atau dua variabel yang menerangkan (the

explanatory). Variabel pertama disebut juga sebagai variabel tergantung dan variabel kedua disebut juga sebagai variabel bebas. Jika variabel bebas lebih dari satu, maka analisis regresi disebut regresi linear berganda. Disebut berganda karena pengaruh beberapa variabel bebas akan dikenakan kepada variabel tergantung. 2.2 Tujuan Tujuan menggunakan analisis regresi ialah Membuat estimasi rata-rata dan nilai variabel tergantung dengan didasarkan pada nilai variabel bebas. Menguji hipotesis karakteristik dependensi Untuk meramalkan nilai rata-rata variabel bebas dengan didasarkan pada nilai variabel bebas diluar jangkaun sample. 2.3 Asumsi Penggunaan regresi linear sederhana didasarkan pada asumsi diantaranya sbb: Model regresi harus linier dalam parameter Variabel bebas tidak berkorelasi dengan disturbance term (Error) . Nilai disturbance term sebesar 0 atau dengan simbol sebagai berikut: (E (U / X) = 0 Varian untuk masing-masing error term (kesalahan) konstan Tidak terjadi otokorelasi Model regresi dispesifikasi secara benar. Tidak terdapat bias spesifikasi dalam model yang digunakan dalam analisis empiris. Jika variabel bebas lebih dari satu, maka antara variabel bebas (explanatory) tidak ada hubungan linier yang nyata 2.4 Persyaratan Penggunaan Model Regresi Model kelayakan regresi linear didasarkan pada hal-hal sebagai berikut: a. Model regresi dikatakan layak jika angka signifikansi pada ANOVA sebesar < 0.05 b. Predictor yang digunakan sebagai variabel bebas harus layak. Kelayakan ini diketahui jika angka Standard Error of Estimate < Standard Deviation c. Koefesien regresi harus signifikan. Pengujian dilakukan dengan Uji T. Koefesien regresi signifikan jika T hitung > T table (nilai kritis) d. Tidak boleh terjadi multikolinieritas, artinya tidak boleh terjadi korelasi yang sangat tinggi atau sangat rendah antar variabel bebas. Syarat ini hanya berlaku untuk regresi linier berganda dengan variabel bebas lebih dari satu. e. Tidak terjadi otokorelasi. Terjadi otokorelasi jika angka Durbin dan Watson (DB) sebesar < 1 dan > 3 f. Keselerasan model regresi dapat diterangkan dengan menggunakan nilai r2 semakin besar nilai tersebut maka model semakin baik. Jika nilai

g. h. i. j.

mendekati 1 maka model regresi semakin baik. Nilai r2 mempunyai karakteristik diantaranya: 1) selalu positif, 2) Nilai r2 maksimal sebesar 1. Jika Nilai r2 sebesar 1 akan mempunyai arti kesesuaian yang sempurna. Maksudnya seluruh variasi dalam variabel Y dapat diterangkan oleh model regresi. Sebaliknya jika r2 sama dengan 0, maka tidak ada hubungan linier antara X dan Y. Terdapat hubungan linier antara variabel bebas (X) dan variabel tergantung (Y) Data harus berdistribusi normal Data berskala interval atau rasio Kedua variabel bersifat dependen, artinya satu variabel merupakan variabel bebas (disebut juga sebagai variabel predictor) sedang variabel lainnya variabel tergantung (disebut juga sebagai variabel response)

2.5 Linieritas Ada dua macam linieritas dalam analisis regresi, yaitu linieritas dalam variabel dan linieritas dalam parameter. Yang pertama, linier dalam variabel merupakan nilai rata-rata kondisional variabel tergantung yang merupakan fungsi linier dari variabel (variabel) bebas. Sedang yang kedua, linier dalam parameter merupakan fungsi linier parameter dan dapat tidak linier dalam variabel. 2.6 Uji Hipotesis Pengujian hipotesis dapat didasarkan dengan menggunakan dua hal, yaitu: tingkat signifikansi atau probabilitas () dan tingkat kepercayaan atau confidence interval. Didasarkan tingkat signifikansi pada umumnya orang menggunakan 0,05. Kisaran tingkat signifikansi mulai dari 0,01 sampai dengan 0,1. Yang dimaksud dengan tingkat signifikansi adalah probabilitas melakukan kesalahan tipe I, yaitu kesalahan menolak hipotesis ketika hipotesis tersebut benar. Tingkat kepercayaan pada umumnya ialah sebesar 95%, yang dimaksud dengan tingkat kepercayaan ialah tingkat dimana sebesar 95% nilai sample akan mewakili nilai populasi dimana sample berasal. Dalam melakukan uji hipotesis terdapat dua hipotesis, yaitu:

H0 (hipotessis nol) dan H1 (hipotesis alternatif)

Contoh uji hipotesis misalnya rata-rata produktivitas pegawai sama dengan 10 ( x= 10), maka bunyi hipotesisnya ialah:

H0: Rata-rata produktivitas pegawai sama dengan 10 H1: Rata-rata produktivitas pegawai tidak sama dengan 10

Hipotesis statistiknya:

H0: x= 10 H1: x > 10 Untuk uji satu sisi (one tailed) atau H1: x < 10 H1: x 10 Untuk uji dua sisi (two tailed)

Beberapa hal yang harus diperhatikan dalam uji hipotesis ialah;


Untuk pengujian hipotesis kita menggunakan data sample. Dalam pengujian akan menghasilkan dua kemungkinan, yaitu pengujian signifikan secara statistik jika kita menolak H0 dan pengujian tidak signifikan secara statistik jika kita menerima H0. Jika kita menggunakan nilai t, maka jika nilai t yang semakin besar atau menjauhi 0, kita akan cenderung menolak H0; sebaliknya jika nila t semakin kecil atau mendekati 0 kita akan cenderung menerima H0.

Menggunakan kurva untuk menguji hipotesis dapat digambarkan sebagai berikut:

GOODNES OF FIT
Sebetulnya kriteria utama menguji model adalah Chi-square. Model yang baik jika Nilai Chi-square kecil dan Prob>0.05 (tdk signifikan. Namun demikian chi-square sangat sensitif terhadap jumlah sample, semakin besar sample nilai chi-square cenderung signifikan Oleh sebab kalau nilai chisquare signifikan, maka kita tdk lagi melihat schi-square dan melihat kriteria lainnya seperti yang anda sebutkan GFI, AGFI, TLI, Rmsea. Hanya saja ada yang membuat kriteria nilai GFI,AGFI dan TLI hrus diatas 90% dan nilai RMSEA<0.08 untuk menerima model. Akibatnya ada kecenderungan kita mengejar nilai itu denghan cara memodifikasi model yang tdk ada dasar teorinya dengan cara menghubungkan antar error indikator. Menurut saya dan berdasarkan manual AMOS kriteria GFI,AGFI dan TLI jika mendekati 0 poor fit, dan jika mendekati 1 perfect fit. Jadi tdk harus mengejar nilai 90% kecuali anda bisa menjelaskannya secara teori, jika tidak ya berapapun hasilnya itulah model terbaik yang dapat anda peroleh. Seperti nilai R2 dalam regresi. TIDAK TERPENUHI UJI ASUMSI KLASIK
Setelah didapatkan model regresi, kita tidak bisa langsung melakukan interpretasi terhadap hasil yang diperoleh. Hal ini disebabkan karena model regresi harus diuji terlebih dahulu apakah sudah memenuhi asumsi klasik. Apabila ada satu syarat saja yang tidak terpenuhi, maka hasil analisis regresi tidak dapat dikatakan bersifat BLUE (Best Linear Unbiased Estimator). Asumsi regresi linier klasik tersebut antara lain adalah:

Anda mungkin juga menyukai