Anda di halaman 1dari 10

METODE BOOTSTRAP

Posted by : NURUL FITRIYANI (uyu fitriyani marshanda) ~ G1D 008 030

https://gamatika.wordpress.com/2011/03/23/metode-bootstrap/
Statistika adalah ilmu yang mempelajari bagaimana merencanakan, mengumpulkan,
menganalisis, menginterpretasi, dan mempresentasikan data. Singkatnya, statistika adalah ilmu
yang berkenaan dengan data. Sering kita dihadapkan pada permasalahan, hanya mendapatkan
jumlah sampel yang kecil dalam suatu pemodelan dan dikhawatirkan parameter yang diperoleh
bias, underestimate atau overestimate.
Sebenarnya ada sebuah solusi atas permasalahan ini, yaitu Metode bootstrap. Pada pertengahan
1970, Efron memperkenalkan Metode Bootstrap untuk menduga parameter dari sebaran yang
tidak diketahui bentuknya. Bootstrapping ini merupakan teknik modifikasi dari Jacknife yang
diperkenalkan oleh Queneiville pada tahun 1948. Berhubung metode ini pada awalnya tidak
membobotkan model peluang, tetapi berbasis pada data, bootstrap dikenal sebagai data driven
approach. Pada dekade 80-an perkembangan metode nonparametrik mulai sering digunakan
seperti pada regresi nonparametrik, estimasi distribusi dengan kernel, dan neural network.
Metode bootstrap adalah metode berbasis resampling data sampel dengan syarat pengembalian
pada datanya dalam menyelesaikan statistik ukuran suatu sampel dengan harapan sampel
tersebut mewakili data populai sebenarnya, biasanya ukuran resampling diambil secara ribuan
kali agar dapat mewakili data populasinya. Bootstrap memungkinkan seseorang untuk
melakukan inferensi statistik tanpa membuat asumsi distribusi yang kuat dan tidak memerlukan
formulasi analitis untuk distribusi sampling suatu estimator. Sebagai pengganti, bootstrap
menggunakan distribusi empiris untuk mengestimasi distribusi sampling. Jadi jika penyelesaian
analitik tidak mungkin dilakukan dimana anggapan (suatu distribusi, misalnya kenormalan data)
tidak dipenuhi maka dengan menggunakan Boosttrap masih dapat dilakukan suatu inferensi.
Dasar pendekatan Bootstrap adalah dengan memperlakukan sampel sebagai populasi dan dengan
menggunakan sampling Monte Carlo untuk membangkitkan dan mengkonstruksi estimator
empiris dari distribusi sampling statistik. Distribusi sampling dapat dipandang sebagai hargaharga statistik yang dihitung dari sejumlah tak terhingga sampel random berukuran n dari suatu
populasi yang diberikan. Sampling Monte Carlo mengambil konsep ini untuk membangun
distribusi sampling suatu estimator dengan mengambil sejumlah besar sampel erukuran n secara
random dari populasi dan menghitung statistik tersebut dari harga-harga distribusi sampling
tersebut. Estimasi Monte Carlo yang sebenarnya memerlukan pengetahuan tentang seluruh
populasi yang tidak mungkin selalu tersedia dalam prakteknya karena yang dipunyai dari hasil
riset praktek adalah sampel dari populasi oleh karena itu dilakukan inferensi untuk Tetha dari
distribusi samplingnya.
Pendekatan bootstrap dilakukan dengan proses resampling pada observasi dan residual dari
model regresi :

1. Apabila regresor adalah random, metode bootstrap yang dipakai adalah dengan
melakukan resampling pada observasi dengan probabilitas setiap observasi akan terambil
sebanyak 1/n untuk jumlah sampel (i) = 1,2,, n dan untuk sejumlah variabel (j) = 1,2,
,k. Resampling dilakukan sebanyak B kali. Dimana jumlah B diisyaratkan cukup besar,
hingga diperoleh estimasi parameter yang konvergen atau bahkan sampai sejumlah n
pangkat n sampel. Dengan jumlah B yang cukup besar ini, diharapkan estimasi parameter
regresi yang dihasilkan akan lebih kuat (robust).
2. Apabila regresor adalah variabel yang fix, metode bootstrap yang dipakai adalah dengan
melakukan resampling pada residual (hasil bentukan model OLS, pada sampel). Dari
nilai residual ini selanjutnya diestimasikan parameter model regresi. Proses ini dilakukan
berulang sampai sebanyak B kali.
Baik pada regresor yang fix maupun random, estimasi parameter regresi (beta), diperoleh dengan
menjumlahkan beta pada setiap resampling dan membagi dengan nila B. Jadi merupakan ratarata dari taksiran beta di setiap proses resampling.
Apakah hanya bootstrap ?
Ada lagi metode resampling yang lain, yakni dengan pendekatan jacknife. Jacknife resampling
lebih umum digunakan apabila variabel regressor adalah fix. Ada dua cara dalam proses jacknife
resampling, yaitu :
1. Estimasi parameter dengan OLS, namum menghilangkan satu per satu observasi,
dilakukan berulang sampai (n-1) kali dan mencari taksiran parameter dari rata-rata
parameter (beta) setiap kali resampling dilakukan.
2. Estimasi model dengan menghilangkan d-observasi sekaligus, dilakukan berulang sampai
sebanyak S kali, dimana S (S = n kombinasi d). Taksiran parameter diperoleh dengan
merata-ratakan parameter yang diperoleh disetiap kali resampling.
Menggunakan boostrap atau jacknife ? Adalah sebuah pilihan, bergantung pada kasus yang
dihadapi. Sekedar mengetahui estimasi parameter, atau perlu membangkitkan sejumlah data
untuk mendapatkan estimasi parameter dan estimasi varians lebih robust.
Metode bootstrap dapat digunakan untuk berbagai hal, salah satu adalah menentukan nilai t
statistik seperti yg dilakukan dalam model SEM Partial Least Square. Denga metode bootstarp
atau melakukan resampling sampai 500 kali, maka kita dapat menghitung nilai standard error
(SE) jika dikatehui standart errornya, maka kita dapat menghitung nilai t statistik dengan
membagi koefisien regresi dengan standar errornya. Hanya setiap kali anda melakukan bootstrap
nilai t statistik akan berbeda-beda karena menggunakan iterasi yang dilakukan secara random,
tetapi dengan bootstraping 500 kali umunya hasilnya stabil sehingga jika dilihat dari nilai
signifikansi statistik akan konsisten hasilnya walaupun nilai t berbeda-beda.

Bootstrap
http://ratihnoviani-ratih.blogspot.co.id/2012/09/bootstrap.html
BOOTSTRAP
Sering kita dihadapkan pada permasalahan, hanya mendapatkan jumlah sampel yang kecil dalam
suatu pemodelan dan dikhawatirkan parameter yang diperoleh bias, underestimate atau
overestimate.
Solusi, yaitu Metode bootstrap. Metode Bootstrap untuk menduga parameter dari sebaran yang
tidak diketahui bentuknya. Bootstrapping ini merupakan teknik modifikasi dari Jacknife. Metode
ini pada awalnya tidak membobotkan model peluang, tetapi berbasis pada data, bootstrap dikenal
sebagai data driven approach. Pada dekade 80-an perkembangan metode nonparametrik mulai
sering digunakan seperti pada regresi nonparametrik, estimasi distribusi dengan kernel, dan
neural network.
Metode bootstrap adalah metode berbasis resampling data sampel dengan syarat
pengembalian pada datanya dalam menyelesaikan statistik ukuran suatu sampel dengan
harapan sampel tersebut mewakili data populai sebenarnya, biasanya ukuran resampling
diambil secara ribuan kali agar dapat mewakili data populasinya. Bootstrap memungkinkan
seseorang untuk melakukan inferensi statistik tanpa membuat asumsi distribusi yang kuat dan
tidak memerlukan formulasi analitis untuk distribusi sampling suatu estimator. Sebagai
pengganti, bootstrap menggunakan distribusi empiris untuk mengestimasi distribusi sampling.
Jadi jika penyelesaian analitik tidak mungkin dilakukan dimana anggapan (suatu distribusi,
misalnya kenormalan data) tidak dipenuhi maka dengan menggunakan Bootstrap masih dapat
dilakukan suatu inferensi.
Algor bootstrap sampel kecil:
Misal data: 3,12 0,00 1,57 19,67 0,22 2,20
- Sampel dengan penggantian awal, buat 20 resample dari ukuran data 6
- Hitung rata-rata sampel untuk masing-masing resample
- Buat stemplot dari 20 resample-> bootstrap distribusi
- Hitung kesalahan standar bootstrap
Kegunaan BOOTSTRAP
1. Berguna untuk memperkirakan distribusi statistik (misalnya rata-rata, varians) tanpa
menggunakan teori normal (misalnya z-statistik, t-statistik).
2. Metode untuk interval kepercayaan bootstrap
Ada beberapa metode untuk membangun interval kepercayaan dari distribusi bootstrap dari nyata
parameter:
- Bootstrap Persentil. Hal ini diperoleh dengan menggunakan 2,5 dan 97,5 persentil dari distribusi
bootstrap sebagai batas interval kepercayaan 95%. Metode ini dapat diterapkan dengan statistik
apapun. Ini akan bekerja dengan baik dalam kasus di mana distribusi bootstrap simetris dan
berpusat pada statistik yang diamati (Efron 1982)., Dan di mana statistik sampel adalah medianbias dan memiliki konsentrasi maksimum (atau risiko minimal terhadap fungsi kerugian nilai
absolut) . Dalam kasus lain, bootstrap persentil bisa terlalu sempit. [5]
- Bias-Dikoreksi Bootstrap - menyesuaikan untuk Bias dalam distribusi bootstrap.

3.
4.
5.

6.

Bootstrap Dipercepat - The bootstrap bias dikoreksi dan dipercepat (BCA) bootstrap, oleh Efron
(1987), menyesuaikan untuk kedua bias dan kemencengan dalam distribusi bootstrap.
Pendekatan ini akurat dalam berbagai pengaturan, memiliki persyaratan perhitungan yang wajar,
dan menghasilkan interval cukup sempit. [ kutipan diperlukan ]
Dasar Bootstrap.
Studentized Bootstrap.
Menentukan nilai t statistik seperti yg dilakukan dalam model SEM Partial Least Square.
Dengan metode bootstrap atau melakukan resampling sampai 500 kali, maka kita dapat
menghitung nilai standard error (SE)
Jika dikatehui standart errornya, maka kita dapat menghitung nilai t statistik dengan membagi
koefisien regresi dengan standar errornya. Hanya setiap kali anda melakukan bootstrap nilai t
statistik akan berbeda-beda karena menggunakan iterasi yang dilakukan secara random, tetapi
dengan bootstraping 500 kali umunya hasilnya stabil sehingga jika dilihat dari nilai signifikansi
statistik akan konsisten hasilnya walaupun nilai t berbeda-beda.
Nah, bwat melakukan suatu uji hipotesis, kita kan mesti tau dulu sebaran data yang mau kita uji
itu normal atau ngga? Kalo datanya normal, baru kita bisa uji hipotesisnya.. Bwat nguji
kenormalan ada beberapa cara, pake uji Anderson-Darling atau Kolmogorov-Smirnov, dll. Nah,
klo datanya banyak, hasil pengujian kenormalannya akan sesuai dengan keadaan sebenernya..
yang jadi masalah adalah klo data yang kita punya sedikit. Hasil pengujiannya bisa aja salah
Mungkin aja data yang ada berasal dari populasi yang menyebar normal, tp pas di uji ternyata
hasilnya ga normal. Atau bisa juga sebaliknya
Untuk mengatasi masalah no.4 dengan bootstrap, yaitu penarikan contoh dari contoh, atau di
kenal dengan istilah resampling. Nah, bootstrap ini sendiri ada 2 macem, bootstrap parametrik
sama bootstrap non parametrik. yang saya pake kemaren bootstrap non parametrik. Salah satu
perbedaan antara yg parametrik sm non parametrik adalah dalam hal pemenuhan asumsi. Klo di
bootstrap non parametrik ga ada asumsi.. Selain itu, klo pake bootstrap parametrik kita udah tau
sebaran awal data yg kita punya, klo di bootstrap non parametrik kita ga mesti tau sebaran
datanya.
Jadi prosedur bootstrap itu begini Misalkan kita punya contoh yang berukuran n (n ini kecil,
klo di tugas yg kami dapet n=6). Dari sini kita ambil contoh acak berulang dengan pengembalian
sebanyak d. Nilai d ini bisa lebih kecil, sama dengan, ato lebih besar dari n. Misal kita pake
d=10, jadi kita akan punya d1-d10. Nah dari sepuluh nilai yang udah kita dapetin, kita cari
rataannya, dapet deh satu data baru.. prosedur ini kita ulangi sebanyak B kali. dan B ini adalah
jumlah contoh bootstrap. Pengujian kenormalan ini kita lakukan terhadap B contoh bootstrap
yang kita dapet
Contohnya gini..
1. data yang kita punya : 5 ; 7 ; 4 ; 8 ; 9 ; 2
2. lakukan resampling sebanyak d kali (misal d=10) > 5, 2, 4, 2, 7, 5, 7, 9, 9, 7 > rataannya
(xbar1) = 5.7
3. ulangi langkah ke dua sampai B kali (misal B=100), sehingga kita bakal punya 100 nilai
rataan. xbar1=5.7, xbar2 = , sampe xbar100=
4. kita uji kenormalan dengan menggunakan statistik bootstrap td.. jd pake xbar1 xbar100
5. klo udah liat hasilnya, normal atau ngga, klo normal baru bisa kita uji hipotesis, klo ga normal
stop disini..
6. cari t hitung untuk n data yg kita punya.. xbar/(stdev x/(sqtr(n))

7. cari t-hitung untuk setiap contoh bootstrap. misalkan untuk contoh yg di poin 2, berarti t
hitung nya : xbar1/(stdev x1/(sqtr(d)), lakukan untuk semua contoh bootstrap yang kita peroleh
di poin 2. jadi kita akan punya 100 nilai t-hitung.
8. Bandingkan t hitung di poin 6 sama yg di poin 7. Lihat berapa banyak t-hitung di poin 7 yang
lebih besar dari mutlak t-hitung di poin 6. dari sini bisa di cari nilai-p nya.. yaitu (jumlah (thitung poin 7>t-hitung poin 6)) / B
9. setelah dapet nilai p, bandingkan sama alpha untuk pengambilan keputusannya dari pengujian
hipotesisnya..
Nah, itu prosedur bootstrap yang saya tau. pasti masih ada salahnya, karena saya juga lagi
belajar, hehe klo mw ada yg ngoreksi, nambahin, ngurangin, ato apapun silakan biar makin
akurat klo mw dijadiin referensi jangan lupa dibandingin sama yg lain ok.
Resampling Bootstrap
Misalkan dalam suatu penelitian diambil sampel acak berukuran n amatan, x=(x1, x2, , xn) dan
dari sampel ini dihitung estimator
t(x)
(1)
dengan suatu metode tertentu. Jika statistik tersebut distribusinya sukar ditentukan maka dalam
inferensi selanjutnya selain prosedur Jackknife, prosedur Bootstrap juga dapat digunakan untuk
mengatasinya.
Pada prinsipnya prosedur metode Bootstrap adalah melakukan resampling terhadap sampel awal
x ( berukuran n ) secara satu persatu dengan pengembalian. Dengan prosedur ini didapat sampel
baru
x * = ( x1*, x2*, , xn*) .
(2)
Prosedur resampling tersebut diulang sampai sebanyak B kali. sehingga didapat sampel-sampel
Bootstrap sebanyak B berikut
x *1 = ( x11*, x21*, , xn1*)
x *2 = ( x12*, x22*, , xn2*)

x *B = ( x1B*, x2B*, , xnB*).


(3)
Selanjutnya dari tiap-tiap sampel Bootstrap tersebut dihitung estimatornya dengan metode yang
sama untuk mendapatkan (1), maka diperoleh estimator-estimator Bootstrap
Keuntungan bootstrap:
Lebih sedikit asumsi, metode ini tidak mengharuskan distribusi normal atau ukuran sampel
besar
Akurasi lebih besar, pada bootstrap dan tes permutasi lebih akurat daripada metode klasik
Umum, metode resampling sangat mirip untuk berbagai statistic sehingga tidak perlu formula
baru untuk setiap statistic.
Mempromosikan pemahaman, prosedur bootstrap yang membangun intuisi untuk konsep teoritis
Memperoleh perkiraan standard error dan interval kepercayaan
Kekurangan Bootstrap
Tidak menyediakan batasan umum
Memiliki kecenderungan terlalu optimis
Menyembunyikan fakta bahwa asumsi penting sedang dilakukan ketika melakukan analisis
bootstrap

Contoh-contoh menunjukkan bentuk, bias, menyebar dari distribusi yang dekat dengan bentuk,
bias dan penyebaran pengambilan sampel distribusi -> mengetahui distribusi sampling
(normal/tidak) pusat di statistic asli
Keyakinan interval, tes hipotesis, dan kesalahan standar semua didasarkan pada ide dari suatu
distribusi statistik dari nilai- diambil oleh statistik dalam semua kemungkinan sampel dengan
ukuran yang sama dari yang sama populasi.
Prosedur bootstrap
1. Resample, buat ratusan sampel baru dengan sampling penggantian dari aslinya acak sampel
(data sampel asli). Setiap resample ukurannya sama dengan aslinya sampel acak. Sampel dengan
penggantian dimana meggambar secara acak pengamatan dari sampel asli, kemudian
menempatkan kembali sebelum gambar selanjutnya.
2. Hitung distribusi bootstrap-> hitung statistic untuk masing-masing resample
3. Gunakan distribusi bootstrap, memeriksa distribusi dari resample yang memberikan informasi
tentang bentuk (normal/tidak), pusat di statistic asli (xbar=miu) dan penyebaran distribusi
sampling dari statistic.
Sumber variasi dalam distribusi bootstrap
Bootstrap distribusi dan kesimpulan yang didasarkan pada mereka meliputi dua sumber variasi
acak:
1. Sampel asli yang dipilih secara acak dari populasi.
2. Bootstrap resamples dipilih secara acak dari aslinya sampel.
Pengaruh bias dan kurangnya simetri pada interval kepercayaan bootstrap
Bias: Distribusi sampel bootstrap dan mungkin tidak setuju sistematis, dalam hal ini bias yang
mungkin terjadi.
Jika distribusi bootstrap dari penduga adalah simetris, maka persentil kepercayaan-interval yang
sering digunakan; interval tersebut sesuai terutama untuk median-bias estimator risiko minimal
(dengan perhatian pada mutlak fungsi kerugian ). Bias dalam distribusi bootstrap akan
menyebabkan bias dalam interval kepercayaan.
Jika tidak, jika distribusi bootstrap non-simetris, maka persentil kepercayaan-interval yang sering
tidak sesuai.
JACKKNIFE
Metode Jackknife diciptakan oleh Quenouille pada tahun 1949 yang bertujuan untuk mengoreksi
kemungkinan yang bias, metode Jackknife ini merupakan suatu metode yang digunakan untuk
mengambil sampel baru secara berulang dari data asal kecil yang berukuran n dengan cara
menghilangkan pengamatan ke-i dengan i = 1,2,3,4, ,n. [Sawyer, 2005]
Menggunakan boostrap atau jacknife? Adalah sebuah pilihan, bergantung pada kasus yang
dihadapi. Sekedar mengetahui estimasi parameter, atau perlu membangkitkan sejumlah data
untuk mendapatkan estimasi parameter dan estimasi varians lebih robust.
Diposkan oleh ratihnoviani di 23.28

Partial Least Square


http://www.statistikolahdata.com/2011/12/partial-least-square.html
Partila Least Square (PLS) dikembangkan pertama kali oleh Herman Wold (1982). Ada
beberapa metode yang dikembangkan berkaitan dengan PLS yaitu model PLS Regression (PLSR) dan PLS Path Modeling (PLS-PM ). PLS Path Modeling dikembangkan sebagai alternatif
pemodelan persamaan struktural ( SEM) yang dasar teorinya lemah. PLS-PM berbasis varian
berbeda dengan metode SEM dengan software AMOS, Lisrel, EQS menggunakan basis
kovarian.
Ada beberapa hal yang membedakan analisis PLS dengan model analisis SEM yang lain :
1. Data tidak harus berdistribusi normal multivariate.
2. Dapat digunakan sampel kecil. Minimal sampel >30 dapat digunakan.
3. PLS selain dapat digunakan unutk mengkonfirmasikan teori, dapat juga digunakan untuk
menjelaskan ada atau tidaknya hubungan antar variabel laten.
4. PLS dapat menganalisis sekaligus konstruk yang dibentuk dengan indikator reflektif dan
formatif
5. PLS mampu mengestimasi model yang besar dan kompleks dengan ratusan variabel laten
dan ribuan indikator (Falk and Miller, 1992)
Pemodelan dalam PLS-Path Modeling ada 2 model :
1. Model structural (Inner model) yaitu model struktural yang menghubungkan antar
variabel laten.
2. Model Measurement (Outer Model yaitu model pengukuran yang menghubungkan
indikator dengan variabel latennya.

Model Partial Least Square


Dalam PLS Path Modeling terdapat 2 model yaitu outer model dan Inner model. Kriteria uji
dilakukan
pada
kedua
model
tersebut.
Outer model (Model Measurement)
Model ini menspesifikasi hubungan antar variabel laten dengan indikator-indikatornya. atau
dapat dikatakan bahwa outer model mendefinisikan bagaimana setiap indikator berhubungan
dengan variabel latennya. Uji yang dilakukan pada outer model :

Convergent Validity. Nilai convergen validity adalah nilai loading faktor pada variabel
laten dengan indikator-indikatornya. Nilai yang diharapkan >0.7.

Discriminant Validity. Nilai ini merupakan nilai cross loading faktor yang berguna untuk
mengetahui apakah konstruk memiliki diskriminan yang memadai yaitu dengan cara
membandingkan nilai loading pada konstruk yang dituju harus lebih besar dibandingkan
dengan nilai loading dengan konstruk yang lain.

Composite Reliability. Data yang memiliki composite reliability >0.8 mempunyi


reliabilitas yang tinggi.

Average Variance Extracted (AVE). Nilai AVE yang diharapkan >0.5.

Cronbach Alpha. Uji reliabilitas diperkuat dengan Cronbach Alpha.Nilai diharapkan >0.6
untuk semua konstruk.

Uji yang dilakukan diatas merupakan uji pada outer model untuk indikator reflektif. Untuk
indikator formatif dilakukan pengujian yang berbeda. Uji untuk indikator formatif yaitu :

Significance of weights. Nilai weight indikator formatif dengan konstruknya harus


signifikan.

Multicolliniearity. Uji multicolliniearity dilakukan untuk mengetahui hubungan antar


indikator. Untuk mengetahui apakah indikator formatif mengalami multicolliniearity
dengan mengetahui nilai VIF. Nilai VIF antara 5- 10 dapat dikatakan bahwa indikator
tersebut terjadi multicolliniearity.

Masih ada dua uji untuk indikator formatif yaitu nomological validity dan external validity.
Inner Model (Model Structural).
Uji pada model struktural dilakukan untuk menguji hubungan antara konstruk laten. Ada
beberapa uji untuk model struktural yaitu :

R Square pada konstruk endogen. Nilai R Square adalah koefisien determinasi pada
konstruk endogen. Menurut Chin (1998), nilai R square sebesar 0.67 (kuat), 0.33
(moderat) dan 0.19 (lemah)

Estimate for Path Coefficients, merupakan nilai koefisen jalur atau besarnya
hubungan/pengaruh konstruk laten. Dilakukan dengan prosedur Bootrapping.

Effect Size (f square). Dilakukan untuk megetahui kebaikan model.

Prediction relevance (Q square) atau dikenal dengan Stone-Geisser's. Uji ini dilakukan
untuk mengetahui kapabilitas prediksi dengan prosedur blinfolding. Apabila nilai yang
didapatkan 0.02 (kecil), 0.15 (sedang) dan 0.35 (besar). Hanya dapat dilakukan untuk
konstruk endogen dengan indikator reflektif.

Dalam outer model terdapat dua tipe indikator yaitu indikator reflektif dan indikator formatif.
1. Indikator reflektif. Indikator ini mempunyai ciri-ciri : arah hubungan kausalitas dari
variabel laten ke indikator, antar indikator diharapkan saling berkorelasi (instrumen harus
memiliki consistency reliability), menghilangkan satu indikator, tidak akan merubah
makna dan arti variabel yang diukur, dan kesalahan pengukuran (eror) pada tingkat
indikator. Sebagai contoh model indikator reflektif adalah variabel yang berkaitan dengan
sikap (attitude) dan niat membeli (purchase intention).
2. Indikator formatif. Ciri-ciri model indikator reflektif yaitu : arah hubungan kausalitas
dari indikator ke variabel laten, antar indikator diasumsikan tidak berkorelasi (tidak
diperlukan uji reliabilitas konsistensi internal), menghilangkan satu indikator berakibat
merubah makna dari variabel laten., dan kesalahan pengukuran berada pada tingkat
variabel laten. Variabel laten dengan indikator formatif dapat berupa variabel komposit.
Sebagai contoh variabel status sosial ekonomi diukur dengan indikator yang saling
mutual exclusive (pendidikan, pekerjaan, dan tempat tinggal). variabel kualitas pelayanan
dibentuk oleh 5 dimensi yaitu tangible, reliability, responsive, emphaty dan assurance.
Beberapa software PLS yang telah dikembangkan untuk analisis model Partial Least Square
(PLS), antara lain :

1. LVPLS versi 1.8 (Latent Variable Partial Least Square). Ini merupakan software yang
pertama kali dikembangkan oleh Jan-Bernd Lohmoller (1984,1987,1989) under DOS,
dapat didownload http://kiptron.psyc.virginia.edu/ . Kemudian dikembangkan lagi oleh
Wynne Chin (1998,1999,2001) menjadi under Windows dengan tampilan grafis dan
tambahan teknik validasi bootstrapping dan jacknifing. Software ini diberi nama PLS
Graph versi 3.0. Untuk versi student dapat didownload di http://www.bauer.uh.edu.
2. SmartPLS, software ini dikembangkan di University of Hamburg Jerman. Software ini
dapat didownload di www.smartpls.de.
3. Visual Partial Least Square (VPLS), dikembangkan oleh Jen Ruei Fu dari National
Kaohsiung
University
Taiwan.
Software
ini
dapat
didownload
di
http://www2.kuas.edu.tw
4. PLS-GUI, software ini dikembangkan oleh Yuan Li dari Management Science
Department, The More School Business, Universitas of South Carolina. Software ini
dapat didownload di http://dmsweb.badm.sc.edu
5. WarpPLS, software ini dikembangkan oleh Ned Kock. Software ini merupakan alternatif
path modeling linier dan nonlinier. Dapat didownload di http://www.scriptwarp.com
Tutorial Partial Least Square Dengan SmartPLS [PDF]
Referensi :
1. Jorg Henseller,et.al. The Use of Partial Least Squares Path Modeling in International
Marketing.
2. Michael, H., and Andreas, M.K (2004). A Beginner's Guide to Partial Least Square
Analysis. Lawrence Erlbaum Association, Inc.
3. Vincenzo et,.al. (2010). Handbook of Partial Least Square. Springer-Verlag Berlin
Heidelberg