Anda di halaman 1dari 5

TEORI 

5.2.2
( a ) Jika λ1 , λ2, ..., λk adalah nilai eigen berbeda dari matriks A , dan
jika  v1 , v2 , ..., vk adalah vektor eigen yang sesuai , maka { v1 , v2 , ..., vk } adalah
himpunan bebas linear.
( B ) Sebuah n × n matriks dengan n nilai eigen yang berbeda adalah didiagonalisasi.

Catatan Bagian ( a ) dari Teorema 5.2.2 adalah kasus khusus dengan hasil yang lebih umum:
Secara khusus, jika λ1 , λ2 , ..., λk adalah nilai eigen berbeda, dan jika S1 , S2 , ..., Sk adalah
himpunan yang sesuai secara linier vektor eigen independen, maka penyatuan himpunan ini
independen linier.

Prosedur untuk Mendiagonalisasi Matriks:


Teorema 5.2.1 jaminan bahwa n × n matriks A dengan n vektor eigen linear bebas dapat
didiagonalisasi, dan bukti dari teorema tersebut bersama dengan Teorema 5.2.2 menyarankan
prosedur berikut untuk diagonalisasi A .

Sebuah Prosedur untuk pendiagonal sebuah n × n Matrix


Langkah 1. Tentukan dulu apakah matriks benar-benar dapat didiagonalisasi dengan
mencari n vektor eigen independen linier. Salah satu cara untuk melakukannya adalah
dengan mencari dasar untuk setiap ruang eigen dan menghitung jumlah vektor yang
diperoleh. Jika ada total n vektor, maka matriks tersebut dapat didiagonalisasi, dan jika
totalnya kurang dari n , maka tidak.
Langkah 2. Jika sudah dipastikan bahwa matriks tersebut dapat didiagonalisasi, maka
bentuklah matriks tersebut
P = [ p1 p2 .... pn ] yang vektor kolomnya adalah n vektor basa yang Anda amati dicapai
pada Langkah 1.
Langkah 3.  P-1AP akan menjadi matriks diagonal yang entri diagonalnya berurutan adalah
eigenvalues λ  1 , λ  2 , ..., λ  n yang bersesuaian dengan kolom-kolom P yang berurutan.

CONTOH 1 Menemukan Matriks P Yang Mendiagonalisasi Matriks A


Temukan matriks P yang didiagonalisasi
0 0 −2

[
A= 1 2 1
1 0 3 ]
Solusi Kita menemukan persamaan karakteristik A menjadi

(λ - 1 ) (λ - 2 )2 = 0

dan kami menemukan basis berikut untuk ruang angkasa:

−1 0 −2

1 [ ] []
0 []
λ = 2: p1= 0 ; p2= 1 ; λ = 2: p3= 1
1

Ada tiga vektor basis secara total, jadi matriksnya

−1 0 −2

[
P= 0 1 1
1 0 1 ]
mendiagonalisasi A . Sebagai cek, Anda harus memverifikasi itu

1 0 2 0 0 −2 −1 0 −2 2 0 0
-1

[
P AP = 1 1 1 1 2 1
−1 0 −1 1 0 3 ][
0 1 1 =0 2 0
1 0 1 0 0 1][ ][ ]
Secara umum, tidak ada perintah yang lebih disukai untuk kolom P . Sejak diagonal ke- i
masuknya P-1AP adalah nilai eigen untuk vektor kolom ke-i dari P , mengubah urutan
kolom P hanya mengubah urutan nilai eigen pada diagonal P-1AP.
Sehingga bisa kita tulis:

−1 −2 0
P= 0
1 [
1 1
1 0 ]
dalam contoh sebelumnya, kita akan memperolehnya

2 0 0

[ ]
P- 1 AP = 0 1 0
0 0 2

Eigenvalues of Powers of a Matriks


Karena ada banyak aplikasi yang memerlukan penghitungan pangkat tinggi dari sebuah
matriks persegi A, sekarang kita akan mengalihkan perhatian kita pada masalah penting
tersebut. Seperti yang kita mau lihat, cara paling efisien untuk menghitung A  k , terutama
untuk nilai k yang besar , adalah dengan yang pertama diagonalize A . Tetapi karena
mendiagonalisasi matriks A melibatkan pencarian nilai eigen dan vektor eigen, kita perlu
mengetahui bagaimana besaran-besaran ini terkait dengan besaran Ak . Sebagai seorang
ilustrasi, misalkan λ adalah nilai eigen dari A dan x adalah vektor eigen yang sesuai.
Kemudian
A  2 x = A (A x ) = A (λ  x ) = λ (A x ) = λ (λ x ) = λ  2 x
yang menunjukkan tidak hanya bahwa λ  2 adalah nilai eigen dari A  2 tetapi bahwa x adalah
vektor eigen. Secara umum, kami memiliki hasil sebagai berikut.

TEORI 5.2.3 “Jika k adalah bilangan bulat positif , λ adalah nilai eigen dari matriks
A , dan x adalah vektor eigen yang sesuai , maka λ  k adalah nilai eigen dari
A  k dan  x adalah nilai yang sesuai vektor eigen.”

Perhatikan bahwa kemampuan diagonalisasi adalah bukan persyaratan di Theorem 5.2.3.

CONTOH 2 Nilai Eigen dan Vektor Eigen Kekuatan Matriks


Kita menemukan nilai eigen dan vektor eigen yang sesuai dari matriks
1 0 0

[
A= 1 2 0
−3 5 2 ]
Lakukan hal yang sama untuk A  7 .
Solusi Kita tahu dari Contoh 2 bahwa nilai eigen dari A adalah λ = 1 dan λ = 2, jadi
Nilai eigen dari A  7 adalah λ = 1 7 = 1 dan λ = 2 7 = 128. Vektor eigen p 1 dan p 2
diperoleh pada Contoh 1 sesuai dengan nilai eigen λ = 1 dan λ = 2 dari A juga
vektor eigen yang sesuai dengan nilai eigen λ = 1 dan λ = 128 dari A  7 .

Kekuatan Komputasi a Matriks


Masalah daya komputasi matriks sangat disederhanakan ketika matriks tersebut dapat
didiagonalisasi. Untuk melihat mengapa ini begitu, misalkan A adalah
didiagonalisasi n × n matriks, bahwa P mendiagonalisasi A , dan itu

Menguadratkan kedua sisi persamaan ini menghasilkan


Kita dapat menulis ulang ruas kiri persamaan ini sebagai

dari mana kami memperoleh hubungan . Secara lebih umum, jika k adalah positif

integer, maka perhitungan serupa akan menunjukkan bahwa

yang dapat kita tulis ulang sebagai

Geometris dan Aljabar Beragam


Teorema 5.2.2 ( b ) tidak sepenuhnya menjawab pertanyaan tentang kemampuan
diagonalisasi karena hanya saja menjamin bahwa matriks persegi dengan n nilai eigen
berbeda dapat didiagonalisasi; itu tidak menghalangi kemungkinan bahwa mungkin ada
matriks yang dapat didiagonalisasi dengan kurang dari n nilai eigen yang berbeda. Contoh
berikut menunjukkan bahwa memang demikian halnya.

CONTOH 3 Kebalikan Teorema 5.2.2 ( b ) Salah


Pertimbangkan matriksnya
1 0 0 1 1 0

[ ]
I= 0 1 0
0 0 1 [ ]
dan J= 0 1 1
0 0 1

Berdasarkan Teorema 5.1.2 bahwa kedua matriks ini hanya memiliki satu nilai eigen,
yaitu λ =1, dan karenanya hanya satu ruang eigen. 

(λI - I)  x = 0  dan  (λI - J)  x = 0


dengan λ = 1 dan menunjukkan bahwa untuk I ruang eigen adalah tiga dimensi (semua R  3 )
dan untuk J itu satu dimensi, terdiri dari semua kelipatan skalar

Ini menunjukkan bahwa kebalikan dari Teorema 5.2.2 ( b ) salah, karena kita telah
menghasilkan dua matriks 3 × 3 dengan kurang dari tiga nilai eigen berbeda, salah satunya
dapat didiagonalisasidan yang lainnya tidak.
Ekskursi penuh ke dalam studi tentang kemampuan diagonal ditinggalkan untuk kursus yang
lebih maju,tapi kita akan menyentuh satu teorema yang penting untuk pemahaman yang lebih
lengkap tentang kemampuan diagonalisasi. Dapat dibuktikan bahwa jika λ  0 merupakan nilai
eigen dari A , maka dimensi dari
ruang angkasa yang sesuai dengan λ  0 tidak dapat melebihi berapa kali λ - λ  0 muncul
sebagai faktor polinomial karakteristik dari A . Misalnya, dalam Contoh 1 dan 2, file
polinomial karakteristik adalah
(λ - 1 ) (λ - 2 )  2
Jadi, ruang eigen yang sesuai dengan λ = 1 paling banyak (karenanya persis) satu dimensi,
dan ruang eigen yang sesuai dengan λ = 2 paling banyak berdimensi dua. 
Ada beberapa terminologi yang berhubungan dengan gagasan tersebut. Jika λ  0 adalah nilai
eigen dari sebuah n × n matriks A , maka dimensi ruang eigen yang sesuai dengan λ  0 disebut
multiplisitas geometrik dari λ  0 , dan jumlah kali bahwa λ - λ  0 muncul sebagai faktor dalam
polinomial karakteristik dari A disebut multiplisitas aljabar dari λ  0 . Pengikut teorema, yang
kami nyatakan tanpa bukti, meringkas diskusi sebelumnya.

TEORI 5.2.4 Multiplisitas Geometris dan Aljabar


Jika A adalah matriks persegi , maka :
( a ) Untuk setiap nilai eigen dari A, multiplisitas geometri kurang dari atau sama dengan
keserbaragaman aljabar.
( b ) A dapat didiagonalisasi jika dan hanya jika kelipatan geometrik dari setiap nilai eigen
adalah sama dengan banyaknya aljabar.

Anda mungkin juga menyukai