Anda di halaman 1dari 12

Lamda melambangkan nilai eigen

Nilai Eigen () adalah nilai karakteristik dari suatu matriks berukuran n x n, sementara
vektor Eigen (x) adalah vektor kolom bukan nol yang bila dikalikan dengan suatu matriks
berukuran n x n akan menghasilkan vektor lain yang memiliki nilai kelipatan dari vektor
Eigen itu sendiri.[1][2] Definisi tersebut berlaku untuk matriks dengan elemen bilangan real dan
akan mengalami pergeseran ketika elemen berupa bilangan kompleks.[1][3] Untuk setiap nilai
Eigen ada pasangan vektor Eigen yang berbeda, namun tidak semua persamaan matriks
memiliki nilai Eigen dan vektor Eigen.[1] Nilai Eigen dan vektor Eigen berguna dalam proses
kalkulasi matriks, di mana keduanya dapat diterapkan dalam bidang Matematika murni dan
Matematika terapan seperti transformasi linear.[4]

Kumpulan pasangan nilai dan vektor Eigen dari suatu matriks berukuran n x n disebut sistem
Eigen dari matriks tersebut.[5] Ruang Eigen dari merupakan kumpulan vektor Eigen yang
berpasangan dengan yang digabungkan dengan vektor nol.[6] Istilah Eigen seringkali diganti
dengan istilah karakteristik, di mana kata Eigen yang berasal dari bahasa Jerman memiliki
arti asli dalam konteks menjadi ciri khas atau karakteristik dari suatu sifat.

Persamaan dan Polinomial Karakteristik


Persamaan karakteristik dari matriks A adalah persamaan dengan variabel yang digunakan
untuk perhitungan nilai dan vektor Eigen.[1][8] Polinomial karakteristik () adalah fungsi dengan
variabel yang membentuk persamaan karakteristik.[1][8] Persamaan karakteristik bisa diperoleh
lewat cara berikut.[1]

Diketahui sifat identitas matriks di mana , maka

Sehingga diperoleh persamaan karakteristik

Ket: = matriks n x n, = nilai Eigen (bernilai skalar), = matriks identitas, dan = vektor Eigen
(vektor kolom n x 1)

Syarat-syarat

Nilai dan vektor Eigen sendiri memiliki beberapa syarat yang harus dipenuhi, yaitu:[3]

tidak memiliki invers atau

Bukti

Asumsikan bahwa A memiliki invers, maka berlaku 1.[9]


-1
-1
-1
Dari perhitungan di atas, diperoleh yang bertentangan dengan salah satu syarat.[1][3] Dengan
demikian dapat disimpulkan bahwa kedua syarat saling mempengaruhi dan tidak boleh
dilanggar.[1][3]

Perhitungan Nilai dan Vektor Eigen


Perhitungan nilai dan vektor Eigen tetap mengguankan perhitungan matriks dasar, yaitu
penjumlahan matriks dan perkalian matriks.[1][2] Perhitungan dimulai dengan mencari nilai
Eigen, kemudian dengan nilai Eigen diperoleh (dapat berjumlah lebih dari 1 nilai) akan
dihitung vektor Eigen untuk masing - masing nilai yang memenuhi persamaan.[1][2][3]

Contoh

Misalkan diketahui suatu matriks A berukuran 3 x 3 dengan nilai seperti di bawah ini.[2]

Untuk mencari nilai Eigen akan digunakan polinomial karakteristik dan persamaan
karakteristik dari matriks A.[1][2] Pertama - tama akan dihitung polinomial karakteristik dari
matriks A:

Kemudian nilai Eigen dapat dihitung lewat persamaan karakteristik:

(Persamaan karakteristik dapat difaktorkan menggunakan teorema sisa atau teknik


pemfaktoran polinomial lainnya)

Dengan melakukan substitusi nilai Eigen ke dalam persamaan , maka akan diperoleh suatu
persamaan baru. [2]

Vektor Eigen untuk masing - masing nilai Eigen kemudian dapat ditentukan dengan
melakukan operasi baris elementer atau teknik eliminasi sistem persamaan linear lainnya.[2]
Sehingga akan diperoleh vektor Eigen untuk adalah

Sejarah
Pada awal abad ke-19, Augustin Louis Cauchy telah membuat sebuah karya tulis di mana dia
membuktikan suatu teori mengenai nilai Eigen yang dikaitkan dengan transformasi linear.[10]
Karya tulis Cauchy juga berpengaruh terhadap perkembangan teori spektral pada awal tahun
1870.[10] Terlebih dari itu, Cauchy merupakan penemu dari istilah persamaan karakteristik.[10]

Pada masa yang sama, Charles Strum mengembangkan ide Joseph Fourier dan pada akhirnya
melengkapi teorema Cauchy di mana dia menemukan bahwa matriks simetris dengan elemen
bernilai real memiliki nilai Eigen yang bernilai real juga.[10] Pada tahun 1858, seorang ahli
matematika Prancis bernama Charles Hermite menunjukkan bahwa nilai Eigen dari matriks
Hermitian adalah nyata dan dia juga menciptakan istilah ortogonal.[11]

Di awal abad ke-20, David Hilbert memulai penelitiannya pada persamaan integral non-
homogen dengan menggunakan parameter dan kemudian menemukan istilah eigen untuk
mengacu kepada nilai Eigen dan vektor Eigen.[12]

!@#$%^&
DEFINISI LAMDA

E1 = N - frekuensi Modal
Lambda didefinisikan sebagai tindakan asimetris asosiasi yang cocok untuk
digunakan dengan variabel nominal. Hal ini bisa berkisar 0,0-1,0. Lambda memberikan kita
indikasi kekuatan hubungan antara variabel independen dan dependen. Sebagai ukuran
asimetris asosiasi, nilai lambda dapat bervariasi tergantung pada variabel yang dianggap
variabel dependen dan variabel yang dianggap sebagai variabel independen.Untuk
menghitung lambda, Anda memerlukan dua angka: E1 dan E2. E1 adalah kesalahan dari
prediksi yang dibuat ketika variabel independen diabaikan. Untuk menemukan E1, Anda
harus terlebih dahulu menemukan modus dari variabel dependen dan mengurangi frekuensi
dari N.

E2 adalah kesalahan yang dibuat ketika prediksi didasarkan pada variabel independen. Untuk
menemukan E2, Anda harus terlebih dahulu mencari frekuensi modal untuk setiap kategori
variabel independen, kurangi dari kategori total menemukan sejumlah kesalahan, kemudian
menjumlahkan semua kesalahan.
Rumus untuk menghitung lambda adalah:

Lambda = (E1 - E2) / E1

Lambda dapat berkisar nilai 0,0-1,0. Nol menunjukkan bahwa tidak ada yang bisa diperoleh
dengan menggunakan variabel independen untuk memprediksi variabel dependen. Dengan
kata lain, variabel independen tidak dengan cara apapun memprediksi variabel dependen.
Sebuah lambda dari 1,0 menunjukkan bahwa variabel independen adalah prediktor sempurna
dari variabel dependen. Artinya, dengan menggunakan variabel bebas sebagai prediktor, kita
dapat memprediksi variabel dependen tanpa kesalahan.

B. MENGHITUNG LAMDA ()
Statistik lain yang bisa digunakan untuk mengukur

hubungan antara dua variabel yang keduanya berskala nominal adalah lambda. Rumus yang
digunakan untuk menghitungnya adalah:

dimana fi adalah modus frekuensi dalam setiap kategori variabel bebas, Fd adalah modus
frekuensi diantara total variabel tak bebas, dan n adalah banyaknya satuan pengamatan.
Nilai lambda berkisar antara 0 dan 1 yaitu dari tidak ada hubungan sama sekali sampai
hubungan kuat.
Misalkan kita akan mengukur hubungan antara jenis perusahaan dan sikap terhadap investor
dari luar pada soal diatas. Langkah pertama adalah menyajikan kembali hasil survei dalam
bentuk tabel silang berikut:

Misalkan berdasarkan teori sebelumnya, Anda menduga bahwa sikap terhadap kehadiran
investor dipengaruhi oleh jenis perusahaan. Jadi jenis perusahaan disini merupakan variabel
bebas sedangkan sikap terhadap investor merupakan variabel tak bebas.

Langkah selanjutnya adalah menentukan nilai fi untuk setiap kolom, yaitu f1 = 8 (karena
untuk jenis perusahaan dagang frekuensi yang sering muncul atau modusnya adalah tidak
setuju sebesar 8), f2 = 12, dan f3 = 13. Sedangkan untuk Fd adalah sebesar 26, yaitu dilihat
frekuensi terbesar pada kolom jumlah variabel tak bebas. Jadi nilai lambdanya bisa dihitung
sebagai berikut:
!@#$%^

Apakah EIGENVALUE dan EIGENVECTOR?

Yang dimaksud dengan eigenvalue adalah sebuah bilangan skalar dan eigenvector adalah
sebuah matriks yang keduanya dapat mendifinisikan matriks A.
Dimana matriks A adalah matriks bujur sangkar dengan ukuran nxn. Namun, tidak semua
matriks bujur sangkar memiliki eigenvalue dan eigenvector.

!@#$%^

Lambda didefinisikan sebagai tindakan asimetris asosiasi yang cocok untuk


digunakan dengan variabel nominal. Hal ini bisa berkisar 0,0-1,0. Lambda memberikan kita
indikasi kekuatan hubungan antara variabel independen dan dependen. Sebagai ukuran
asimetris asosiasi, nilai lambda dapat bervariasi tergantung pada variabel yang dianggap
variabel dependen dan variabel yang dianggap sebagai variabel independen.Untuk
menghitung lambda, Anda memerlukan dua angka: E1 dan E2. E1 adalah kesalahan dari
prediksi yang dibuat ketika variabel independen diabaikan. Untuk menemukan E1, Anda
harus terlebih dahulu menemukan modus dari variabel dependen dan mengurangi frekuensi
dari N.

E2 adalah kesalahan yang dibuat ketika prediksi didasarkan pada variabel independen. Untuk
menemukan E2, Anda harus terlebih dahulu mencari frekuensi modal untuk setiap kategori
variabel independen, kurangi dari kategori total menemukan sejumlah kesalahan, kemudian
menjumlahkan semua kesalahan.
Rumus untuk menghitung lambda adalah:

Lambda = (E1 - E2) / E1

Lambda dapat berkisar nilai 0,0-1,0. Nol menunjukkan bahwa tidak ada yang bisa diperoleh
dengan menggunakan variabel independen untuk memprediksi variabel dependen. Dengan
kata lain, variabel independen tidak dengan cara apapun memprediksi variabel dependen.
Sebuah lambda dari 1,0 menunjukkan bahwa variabel independen adalah prediktor sempurna
dari variabel dependen. Artinya, dengan menggunakan variabel bebas sebagai prediktor, kita
dapat memprediksi variabel dependen tanpa kesalahan.
MENGHITUNG LAMDA ()
Statistik lain yang bisa digunakan untuk mengukur hubungan antara dua variabel
yang keduanya berskala nominal adalah lambda. Rumus yang digunakan untuk
menghitungnya adalah: dimana fi adalah modus frekuensi dalam setiap kategori variabel
bebas, Fd adalah modus frekuensi diantara total variabel tak bebas, dan n adalah banyaknya
satuan pengamatan.
Nilai lambda berkisar antara 0 dan 1 yaitu dari tidak ada hubungan sama sekali sampai
hubungan kuat.
Misalkan kita akan mengukur hubungan antara jenis perusahaan dan sikap terhadap investor
dari luar pada soal diatas. Langkah pertama adalah menyajikan kembali hasil survei dalam
bentuk tabel silang berikut: Misalkan berdasarkan teori sebelumnya, Anda menduga bahwa
sikap terhadap kehadiran investor dipengaruhi oleh jenis perusahaan. Jadi jenis perusahaan
disini merupakan variabel bebas sedangkan sikap terhadap investor merupakan variabel tak
bebas.
Langkah selanjutnya adalah menentukan nilai fi untuk setiap kolom, yaitu f1 = 8 (karena
untuk jenis perusahaan dagang frekuensi yang sering muncul atau modusnya adalah tidak
setuju sebesar 8), f2 = 12, dan f3 = 13. Sedangkan untuk Fd adalah sebesar 26, yaitu dilihat
frekuensi terbesar pada kolom jumlah variabel tak bebas. Jadi nilai lambdanya bisa dihitung
sebagai berikut:

Konstanta Negatif ..Bagaimana ?


Jun 24

Posted by hendry

INTERCEPT / KONSTANTA NEGATIF

Banyak sekali pertanyaan mengenai konstanta/intercept negatif..apakah boleh or tidak dalam


persamaan regresi. daripada ditanya terus, maka saya buat artikel tersendiri mengenai hal ini.

Persamaan regresi y = a + bx + e dimana : a = y-intercept; b = slope of the line; e = error


term

dimana : a = y-intercept; b = slope of the line; e = error term

CONTOH 1

Akan diuji mengenai pengaruh masa kerja bekerja (dalam bulan) terhadap jumlah pulpen
terjual (ceritanya ini adalah sales pulpen). Rata-rata masa kerja dari 30 sampel adalah 6.4
bulan dan rata-rata penjualan bulanan adalah 34. Melalui analisis selanjutkan diperoleh
persamaan berikut :

Y = -0.7 + 5.5 (X)

Konstanta / Intercept (a) = 0.7 (dibulatkan dari -0.736)


Slope = 5.5 (dibulatkan dari 5.461)

Intepretasi :

Slope : setiap kenaikan 1 bulan kerja, maka jumlah pulpen yang terjual
adalah sebanyak 5.5 unit

Intercept : Jika masa kerja adalah nol, maka jumlah pulpen yang terjual
adalah 0.7

Perhatikan interpretasi dari intercept yang tidak masuk akal tersebut. Pertama, mengapa harus
memprediksi jumlah pulpen terjual jika karyawannya belum bekerja (masa kerja = 0).

Kedua, nilai slope nya positif, maka persamaan regresinya cukup dibalik menjadi : Y = 5.5
(X) 0.7 Jadi, jika masa kerja = 5 bulan, maka diperoleh persamaan Y = (5.5 * (5)) 0.7 =
26.6 unit

CONTOH 2

Seorang peneliti ingin menguji pengaruh tinggi badan (dalam centimeter) terhadap berat
badan 30 orang siswa. Persamaan regresi diperoleh adalah :

Y = 2.75 + 0.38 (X)

Konstanta / Intercept (a) = 2.75.


Slope (b)= 0.38

Interpretasi

Slope : setiap kenaikan 1 centimeter siswa maka akan menaikkan berat


badan sebesar 0.38 Kg

Intercept : Jika tinggi badang bernilai konstan (nol), maka berat badan
siswa adalah 2.75

Komentar pada konstanta, sangat aneh jika dilakukan interpretasi karena mana ada manusia
yang tingginya NOL ??. Jadi ada baiknya, konstanta negatif seperti ini diabaikan saja karena
dalam banyak kasus tidak masuk akal untuk diinterpretasikan.

Dengan demikian,..Jika Tinggi siswa 90 cm, maka berat badan siswa adalah Y = 0.38 (90)
2.75 = 31.45 Kg !!

CONTOH 3

Seorang peneliti ingin mengetahui berapa jarak lari (dalam meter) berdasarkan lamanya
waktu berlari (dalam detik) pada 100 siswa SMA ABC.

Dari hasil analisis, diperoleh persamaan


Jjarak lari = -0.2 + 3.2 (waktu berlari dalam detik)

Interpretasi

Nilai 1 sebesar 3.2 mengindikasikan bahwa ada penambahan 3.2 meter


setiap kenaikan 1 detik berlari.

Nilai 0 sebesar -0.2 mengindikasikan bahwa jika waktu adalah 0 maka


jarak lari adalah 0.2 meter

Komentar pada konstanta


Mengapa harus menginterpretasikan konstanta pada saat siswanya belum berlari (detik =
0) ??

Kesimpulan

Konstanta negatif tidaklah menjadi persoalan dan bisa diabaikan selama


model regresi yang anda uji sudah memenuhi asumsi (misal normalitas
untuk regresi sederhana) atau asumsi klasik lainnya untuk regresi ganda.
Selain itu, selama nilai slope tidak NOL maka tidak perlu memperdulikan
konstanta negatif ini.

Konstanta negatif umumnya terjadi jika ada rentang yang cukup jauh
antara X (variabel independen) dan Y (variabel respon. misal X memiliki
rentang nilai 1 8, sedangkan Y memiliki rentang nilai 100 200.

Karena dasarnya regresi digunakan memprediksi Y berdasarkan nilai


perubahan X, maka harusnya yang menjadi perhatian adalah X nya
(slope), bukan nilai konstanta.

Dalam berbagai kasus, intercept juga sering tdk masuk akan untuk
diinterpreasi sehingga harus diabaikan seperti kasus2 yang saya uraikan
di atas.

Jika menggunakan SPSS, coba cek garis regresi menggunakan scatter plot
untuk mengetahui posisi intercept

Rujukan Buku Yang Menjelaskan Tentang Intercept Negatif

Dougherty, C. 2002. Introduction to econometrics. 2nd ed. New York: Oxford University
Press.

Bab 2 hal 13-14 memberikan contoh penjelasan mengenai konstanta negatif Persamaan
Regresi yang diperoleh adalah EARNING = 1.39 + 1.07S

!@#$%^&*()

Interprestasi Analisis Diskriminan dengan SPSS


Artikel ini merupakan kelanjutan artikel sebelumnya yang berjudul:
Analisis Diskriminan.
Sebelum anda membaca artikel ini, sebaiknya anda terlebih dahulu mempelajari artikel
sebelumnya tersebut.
Dalam interprestasi ini, anggap saja pada variabel dependen (Y) disebut sebagai
pengambilan keputusan, di mana nilai 0 adalah responden memberi keputusan 0 dan nilai 1
adalah responden memberi keputusan 1.

Analisis Diskriminan SPSS Group


Tabel Group Statistics di atas menerangkan bahwa kasus yang dianalisis ada 200 responden.
92 responden memberi keputusan 0 dan 108 memberi keputusan 1.
Pada variabel X1 nilai rata-rata X1 pada kelompok 1 : 63.20, sedangkan kelompok 0: 35.92.
Artinya rata-rata X1 terhadap Keputusan pada kelompok pertama (1) lebih tinggi
dibandingkan dengan kelompok kedua (0).
Begitu juga dengan variabel yang lain (X2 dan X3).

Analisis Diskriminan SPSS Test Equality


Tabel Tests of Equality of Group Means di atas adalah hasil analisis untuk menguji
kesamaan rata-rata variabel. Uji ini menggunakan Wilks lambda dan nilai signifikansi.
Jika angka Wilks Lambda mendekati angka 0 maka cenderung ada perbedaan dalam
kelompok.
Keputusan Hipotesis dengan nilai signifikansi:

Jika signifikansi > 0,05 maka tidak ada perbedaan dalam kelompok

Jika signifikansi < 0,05 maka ada perbedaan dalam kelompok

Semua variabel di atas nilai sig < 0,05, maka ketiga variabel memberikan perbedaan pada
pengambilan keputusan (Y).
Analisis Diskriminan SPSS Covariance Matrix
Tabel di atas adalah tabel analisis Covariances dan Correlation. Lihat nilai Korelasi, apabila
ada korelasi antar variabel independen dengan nilai > 0,5 maka dicurigai ada gejala
multikolinearitas. Di atas tidak terdapat korelasi > 0,5, maka tidak ada multikolinearitas.

Analisis Diskriminan SPSS Box M Test


Untuk menguji kesamaan varian digunakan angka Box M dengan ketentuan sebagai berikut :
Jika signifikansi > 0,05 maka HO diterima
Jika signifikansi < 0,05 maka H0 ditolak
Hipotesis:

H0 = Varians kedua kelompok data identik/homogen

H1 = Varians kedua kelompok data tidak sama/heterogen.

Dari nilai p-value statistik uji Box M diketahui nilai p-value 0,364 (> 0,05) maka terima H0.
Dengan demikian varians kelompok data adalah identik/homogen.
NB: jika tidak terpenuhinya asumsi ini dapat dilakukan eksplorasi data untuk melihat
kemungkinan ada tidaknya outlier data.
Analisis Diskriminan SPSS Stepwise Method
Di atas menunjukkan variabel yang dimasukkan dalam tiap tahap. Ada 3 tahapan, maka ada 3
variabel yang masuk model. Variabel yang masuk model adalah variabel yang mempunyai
pengaruh bermakna pada Y dan tidak menyebabkan nilai F tidak signifikan.
Tahapan pemasukan variabel ditentukan oleh besar kecilnya angka sig of F to Remove
dimana angka terkecil akan di dahulukan.

Analisis Diskriminan SPSS Variable In The Analysis


Tabel di atas menunjukkan variabel yang tetap tinggal didalam model, yaitu ada 3 variabel.

Analisis Diskriminan SPSS Variable Not In The Analysis


Tabel di atas menunjukkan variabel yang keluar dari dalam model dalam tiap tahap, sampai
tahap 2 hanya ada 1 yaitu X1, tetapi akhirnya pada tahap 3 tidak ada yang dikeluarkan.

Analisis Diskriminan SPSS Wilks Lambda


Tabel di atas menunjukkan perubahan nilai lambda dan nilai uji F dalam tiap tahap. Sampai
tahap 3 nilai Sig tetap < 0,05, maka sampai tahap 3 variabel bebas masuk semua dalam
model.
Angka signifikansi untuk 3 variabel sebesar 0,000 dengan nilai F 235,829 pada tahap satu dan
pada tahap 3 signifikansi sebesar 0,000 dengan nilai F 175.397. Karena nilai signifikansi
0,000 (< 0,05) maka variabel masing-masing kelompok mempunyai perbedaan yang
signifikan.
Analisis Diskriminan SPSS Summary Canonical
Pada tabel Eigenvalues terdapat nilai canonical correlation. Nilai canonical correlation
digunakan untuk mengukur derajat hubungan antara hasil diskriminan atau besarnya
variabilitas yang mampu diterangkan oleh variabel independen terhadap variabel dependen.
Dari tabel di atas, diperoleh nilai canonical correlation sebesar 0,854 bila di kuadratkan
(0,854 x 0,854) = 0.7293, artinya 72,93% varians dari variabel independen (kelompok) dapat
dijelaskan dari model diskriminan yang terbentuk.
Nilai korelasi kanonikal menunjukan hubungan antara nilai diskriminan dengan kelompok.
Nilai sebesar 0,854 berarti hubungannya sangat tinggi karena mendekati angka 1 (besarnya
korelasi antara 0-1).
Sementara demikian saja interprestasi tentang analisis diskriminan dengan SPSS. Untuk
interprestasi selanjutnya akan dijelaskan dalam artikel berikutnya yang berjudul:

Anda mungkin juga menyukai