Anda di halaman 1dari 6

Nama : Ervione Mahala Zulfitri

NIM : 211910972
Kelas : 3SE2
Kode : 03L57ZN

ALJABAR MATRIKS DAN RANDOM VEKTOR


2.1 Pendahuluan
Data multivariat dapat ditampilkan dengan mudah sebagai matriks berdimensi 𝑛 × 𝑝, yang
berarti ada 𝑛 baris dan 𝑝 kolom. Model matriks memungkinkan perhitungan statistik lebih mudah.

2.2 Beberapa Dasar Aljabar Matriks dan Vektor


Vektor
Array x dari 𝑛 observasi 𝑥1 , 𝑥2 , … , 𝑥𝑛 disebut vektor yang ditulikan dan ditranspose dalam
bentuk berikut ini
𝑥1
𝑥2
𝒙=[ : ] atau 𝒙′ = [𝑥1 , 𝑥2 , … , 𝑥𝑛 ]
𝑥𝑛
Vektor juga dapat diperbesar dan diperkecil dengan mengalikannya dengan konstanta 𝑐.
Selain itu, dua buah vektor juga bisa dijumlahkan sehingga vektor 𝒙 + 𝒚 adalah penjumlahan
vektor dengan elemen 𝑥𝑖 + 𝑦𝑖 .
Panjang dari sebuah vektor 𝒙′ = [𝑥1 , 𝑥2 , … , 𝑥𝑛 ] dengan 𝑛 item adalah sebgai berikut:

𝐿𝒙 = √𝑥12 + 𝑥22 + ⋯ + 𝑥𝑛2 (2-1)


Sehingga panjang vektor x yang dirubah ukurannya oleh skalar 𝑐 menjadi sebesar |𝑐|𝐿𝒙 .
Besarnya sudut 𝜃 antara dua vektor 𝒙′ = [𝑥1 , 𝑥2 ] dan 𝒚′ = [𝑦1 , 𝑦2 ] sebagai berikut:
𝑦 𝑥 𝑦 𝑥 𝑥1 𝑦1 +𝑥2 𝑦2 𝒙′𝒚
cos(𝜃) = cos(𝜃2 − 𝜃1 ) = (𝐿 1 ) (𝐿 1 ) + (𝐿 2 ) (𝐿 2 ) = = (2-2)
𝑦 𝑥 𝑦 𝑥 𝐿𝒙 𝐿𝑦 √𝒙′𝒙√𝒚′𝒚

Dengan inner product dari dua vektor adalah 𝒙′ 𝒚 = 𝑥1 𝑦1 + 𝑥2 𝑦2 dan definisi 𝐿𝑥 = √𝒙′𝒙.
Karena cos(𝜃) = 0 hanya jika 𝒙′ 𝒚 = 𝟎 sehingga x dan y tegak lurus saat 𝒙′ 𝒚 = 0. Vektor
𝒙𝟏 , 𝒙𝟐 , … , 𝒙𝒏 yang memiliki dimensi yang sama dikatakan linearly dependent jika terdapat
konstanta 𝑐1 , 𝑐2 , … , 𝑐𝑘 tidak semuanya 0.
Proyeksi vektor x ke vektor y dan panjangnya adalah sebagai berikut:
(𝒙′ 𝒚) (𝒙′ 𝒚) 1 |𝒙′ 𝒚|
𝑃𝑟𝑜𝑦𝑒𝑘𝑠𝑖 = 𝒚= 𝒚 𝑃𝑎𝑛𝑗𝑎𝑛𝑔 𝑝𝑟𝑜𝑦𝑒𝑘𝑠𝑖 = = 𝐿𝑥 |cos(𝜃)| (2-3)
𝒚′𝒚 𝐿𝑦 𝐿𝑦 𝐿𝑦

Matriks
Matriks adalah aray persegi yang mempunyai 𝑛 baris dan 𝑝 kolom. Matriks dapat
ditranspose, dikali dengan konstanta 𝑐, dan dijumlahkan dengan matriks lain dengan operasi 𝑎𝑖𝑗 +
𝑏𝑖𝑗 . Matrix product AB (A(n x k) B(k x p)) akan menjadi matriks dengan dimensi (𝑛 × 𝑝). Matriks
persegi dikatakan simetris jika 𝑨 = 𝑨’ atau 𝑎𝑖𝑗 = 𝑎𝑗𝑖 untuk semua 𝑖 dan 𝑗. I adalah matriks
identitas karena I(k x k) A(k x k) = A(k x k)I(k x k) = A(k x k).
Matriks B adalah invers matrik jika BA = AB = I, atau dapat dinotasikan sebagai 𝑨−𝟏 .
Orthogonal matriks memiliki karakteristik 𝑸𝑸’ = 𝑸’𝑸 = 𝑰 atau 𝑸′ = 𝑸−𝟏 . Jika Q memiliki
baris ke-i 𝒒𝒊 ′, 𝑸𝑸′ = 𝑰 mengindikasikan bahwa 𝒒′𝒊 𝒒𝒊 = 1 dan 𝒒′𝒋 𝒒𝒋 = 0 sehingga baris memiliki
panjng unit dan saling tegak lurus sedangkan kolom memiliki properti yang sama.
Matriks persegi A memiliki 𝑒𝑖𝑔𝑒𝑛𝑣𝑎𝑙𝑢𝑒 𝜆 dengan eigenvektor 𝒙 ≠ 𝟎 jika 𝑨𝒙 = 𝝀𝒙. Eigenn
vektor dapat dipilih untuk memnuhi 1 = 𝑒1′ 𝑒1 = ⋯ = 𝑒𝑘′ 𝑒𝑘 dan saling tegak lurus. Setiap
eigenvektor bernilai unik kecuali dua atau lebih nilai eigenvaluenya sama.

2.3 Matriks Positif Berhingga


Hasil yang melibatkan bentuak kuadratik dan matriks simetris adalah perluasan dari matriks
simetris yang sering disebut spectral decomposition. Dekomposisi spektral dari 𝑘 × 𝑘 matriks
simetris A adalah
𝑨(𝑘×𝑘) = 𝝀𝟏 𝒆𝟏(𝑘×1) 𝒆′𝟏(1×𝑘) + ⋯ + 𝝀𝒌 𝒆𝒌(𝑘×1) 𝒆𝒌 ′(1×𝑘) (2-4)

dimana 𝜆1 , 𝜆2 , … , 𝜆𝑘 adalah erigenvalue dari A dan 𝒆𝟏 , 𝒆𝟐 , … , 𝒆𝒌 eigenvektor yang ternormalisasi


terikat.
Karena 𝒙′𝑨𝒙 hanya memiliki satu 𝑥𝑖2 dan product 𝑥𝑖 𝑥𝑘 sehingga disebut sebuah bentuk
kuadrat. Saat sebuah 𝑘 × 𝑘 matriks simestris A sedemikian rupa maka 0 ≤ 𝒙′𝑨𝒙, baik matriks A
dan bentuk kuadratik nonnegative definite. Untuk vektor 𝒙′ = [0,0, … ,0] sehingga A atau bentuk
kuadratik positive definite. Atau dengan kata lain A positif berhingga jika 0 < 𝒙′𝑨𝒙 untuk semua
vektor 𝒙 ≠ 𝟎.
Jarak antara [𝑥1 , 𝑥2 , … , 𝑥𝑝 ] dengan titik origin pada 𝑝 dimensi adalah 0 < (𝑑𝑖𝑠𝑡𝑎𝑛𝑐𝑒)2 =
𝒙′𝑨𝒙 untuk 𝒙 ≠ 𝟎 dengan nilai (𝑑𝑖𝑠𝑡𝑎𝑛𝑐𝑒)2 adalah sebagai berikut.
(𝑑𝑖𝑠𝑡𝑎𝑛𝑐𝑒)2 = 𝑎11 𝑥12 + 𝑎22 𝑥22 + ⋯ + 𝑎𝑝𝑝 𝑥𝑝2 + 2(𝑎12 𝑥1 𝑥2 + 𝑎13 𝑥1 𝑥3 + ⋯ + 𝑎𝑝−1,𝑝 𝑥𝑝−1 𝑥𝑝 )
Bentuk kuadratik prositif terhingga dapat diinterpretasikan sebagai kuadrat jarak.

2.4 Square Root Matrix


Spektral dekomposisi memungkinaan inverse dari matriks persegi dalam nilai eigenvalue
dan eigenvector akan mengarah pada square root matrix. Normalized eigenvector dari matriks lain
adalah 𝑷 = [𝑒1 , 𝑒2 , … , 𝑒𝑘 ] maka
𝑨(𝑘×𝑘) = ∑𝒌𝒊=𝟏 𝝀𝒊 𝒆𝒊(𝑘×1) 𝒆′𝒊(1×𝑘) = 𝑷(𝑘×𝑘) 𝚲(𝑘×𝑘) 𝑷′(𝑘×𝑘) (2-5)
dimana 𝑷𝑷′ = 𝑷′ 𝑷 = 𝑰 dan 𝚲 adalah matriks diagonal

sehingga
1
𝑨−𝟏 = 𝑷𝚲−𝟏 𝑷′ = ∑𝒌𝒊=𝟏 𝝀 𝒆𝒊 𝒆′𝒊 (2-6)
𝒊

karena (𝑷𝚲−𝟏 𝑷′ )𝑷𝚲𝑷′ = 𝑷𝚲𝑷′ (𝑷𝚲−𝟏 𝑷′ ) = 𝑷𝑷′𝑰. Matriks ∑𝒌𝒊=𝟏 √𝝀𝒊 𝒆𝒊 𝒆′𝒊 = 𝑷𝚲𝟏/𝟐 𝑷′ disebut
square root dari 𝑨 yang dinotasikan sebagai 𝑨𝟏/𝟐 , sehingga matriks square root dari matriks positif
terhingga A adalah
𝑨𝟏/𝟐 = ∑𝒌𝒊=𝟏 √𝝀𝒊 𝒆𝒊 𝒆′𝒊 = 𝑷𝚲𝟏/𝟐 𝑷′ (2-7)
dengan ketentuan sebagai berikut.
1. (𝑨𝟏/𝟐 )′ = 𝑨𝟏/𝟐 yang artinya 𝑨𝟏/𝟐 simetris
2. 𝑨𝟏/𝟐 𝑨𝟏/𝟐 = 𝑨
𝟏 −𝟏
𝟏 𝟏
3. (𝑨 )
𝟐 = ∑𝒌𝒊=𝟏 𝒆𝒊 𝒆′𝒊 = 𝑷𝚲−𝟏/𝟐 𝑷′ dimaan 𝚲−𝟏/𝟐 adalah diagonal matriks dengan
√𝝀𝒊 √𝝀𝒊

sebagai elemen diagonal ke-i.


4. 𝑨𝟏/𝟐 𝑨−𝟏/𝟐 = 𝑨−𝟏/𝟐 𝑨𝟏/𝟐 = 𝑰 dan 𝑨−𝟏/𝟐 𝑨−𝟏/𝟐 = 𝑨−𝟏 dimana 𝑨−𝟏/𝟐 = (𝑨𝟏/𝟐 )−𝟏

2.5 Random Vektor dan Matriks


Vektor acak adalah vektor yang elemen-elemennya merupaka variabel acak, begitupun
dengan matriks acak. Nilai harapan dari matriks (atau vektor) acak adalah matriks (vektor) yang
terdiri dari nilai harapan tiap elemen. Dimana untuk setiap elemen matriks,
Jika 𝑋𝑖𝑗 adalah variabel acaka kontinyu dengan probability
density function 𝑓𝑖𝑗 (𝑥𝑖𝑗 )
Jika 𝑋𝑖𝑗 adalah variabel acak dengan probability density
function 𝑝𝑖𝑗 (𝑥𝑖𝑗 )
Jika X dan Y adalah random matriks dengan dimensi yang sama dan A dan B adalah matriks
dari konstanta yang dapat disesuaikan, maka
𝐸(𝑿 + 𝒀) = 𝐸(𝑿) + 𝐸(𝒀) 𝐸(𝑨𝑿𝑩) = 𝑨𝐸(𝑿)𝑩 (2-8)

2.6 Vektor Mean dan Matriks Covarians


Misalkan 𝑿′ = [𝑋1 , 𝑋2 , … , 𝑋𝑝 ] adalah 𝑝 × 1 random vektor sehingga marginal mean 𝜇𝑖 dan
varians 𝜎𝑖2 didefinisikan sebagai 𝜇𝑖 = 𝐸(𝑋𝑖 ) dan 𝜎𝑖2 = (𝑋𝑖 − 𝜇𝑖 )2 , secara spesifik adalah
Jika 𝑋𝑖 adalah variabel acaka kontinyu dengan probability density
function 𝑓𝑖 (𝑥𝑖 )
Jika 𝑋𝑖 adalah variabel acak diskrit dengan probability function
𝑝𝑖 (𝑥𝑖 )

Jika 𝑋𝑖 adalah variabel acaka kontinyu dengan probability


density function 𝑓𝑖 (𝑥𝑖 )
Jika 𝑋𝑖 adalah variabel acak diskrit dengan probability
function 𝑝𝑖 (𝑥𝑖 )

Ukuran dari hubungan linier antara variabel 𝑋𝑖 dan 𝑋𝑘 adalah dilihat dari kovarians. Saat 𝑖 = 𝑘
kovarians menjadi marginal varians.
Jika 𝑋𝑖 , 𝑋𝑘 adalah variabel acaka
kontinyu dengan probability density
function 𝑓𝑖𝑘 (𝑥𝑖𝑘 )
Jika 𝑋𝑖𝑗 , 𝑋𝑘 adalah variabel acak diskrit
dengan probability density function
𝑝𝑖𝑘 (𝑥𝑖𝑘 )
Jika joint probability 𝑃[𝑋𝑖 ≤ 𝑥𝑖 𝑑𝑎𝑛 𝑋𝑘 ≤ 𝑥𝑘 ] dapat ditulis sebagai produk dari peluang
marginal yang bersesuaian, maka 𝑃[𝑋𝑖 ≤ 𝑥𝑖 𝑑𝑎𝑛 𝑋𝑘 ≤ 𝑥𝑘 ] = 𝑃[𝑋𝑖 ≤ 𝑥𝑖 ]𝑃[𝑋𝑘 ≤ 𝑥𝑘 ] untuk
semua pasangan nilai 𝑥𝑖 , 𝑥𝑘 maka 𝑋𝑖 , 𝑋𝑘 dapat dikatakan indepnden secara statistik.
Apabila 𝑝 random variabel kontinyu 𝑋1 , 𝑋2 , … , 𝑋𝑝 adalah mutually statistically indepndent
jika joint density dapat difaktorkan menjadi 𝑓12…𝑝 (𝑥1 , 𝑥2 , … , 𝑥𝑝 ) = 𝑓1 (𝑥1 )𝑓2 (𝑥2 ) … 𝑓𝑝 (𝑥𝑝 ). Hal ini
akan menyebabkan kovarians 𝐶𝑜𝑣(𝑋𝑖 , 𝑋𝑘 ) = 0 karena 𝑋𝑖 , 𝑋𝑘 indepnden.

Mengacu pada 𝝁 dan 𝚺 sebagai mean populasi (vektor) dan populasi varians kovarians secara
𝜎𝑖𝑘
bertutut-turut. Populasi koefisien korelasi 𝜌𝑖𝑘 = yang menunjukkan besarnya hubungan
√𝝈𝒊𝒊 √𝝈𝒌𝒌

linier antara random variabel 𝑋𝑖 𝑑𝑎𝑛 𝑋𝑘 . Berikut ini matriks simetris 𝑝 × 𝑝 dari populasi korelasi.

dan matriks standar deviasi 𝑝 × 𝑝 adalah sebagai berikut.


Kemudian dapat dituliskan dengan 𝑽𝟏/𝟐 𝝆𝑽𝟏/𝟐 = 𝚺 dan 𝝆 = (𝑽𝟏/𝟐 )−𝟏 𝚺(𝑽𝟏/𝟐 )−𝟏.
Mempartisi Matriks Kovarians
Secara umum kita dapat mempartisi 𝑝 karakteristik yang terdapat pada 𝑝 × 1 rsndom
vektor X menjadi dua grup dengan ukuran 𝑞 dan 𝑝 − 𝑞 sehingga

Vektor Mean dan Matriks Kovarians untuk Kombinasi Linier Random Variabel
Jika terdapat sebuah kombinasi linier dari 𝑝 variabel acak 𝒄′ 𝑿 = 𝑐1 𝑋1 + ⋯ + 𝑐𝑝 𝑋𝑝
memiliki
𝑚𝑒𝑎𝑛 = 𝐸(𝒄′ 𝑿) = 𝒄′ 𝝁 dan 𝑣𝑎𝑟𝑖𝑎𝑛𝑠 = 𝑉𝑎𝑟(𝒄′ 𝑿) = 𝒄′ 𝚺𝒄
dimana 𝝁 = 𝐸(𝑿) dan 𝚺 = 𝐶𝑜𝑣(𝑿). Dari 𝑞 kombinasi linier dari 𝑝 variabel acak 𝑋1 , . . , 𝑋𝑝 :

Kombinasi linier 𝒁 = 𝑪𝑿 memiliki 𝝁𝒛 = 𝐸(𝒁) = 𝐸(𝑪𝑿) = 𝑪𝝁𝒙 dan 𝚺𝒛 = 𝐶𝑜𝑣(𝒁) =


𝐶𝑜𝑣(𝑪𝑿) = 𝑪𝚺𝒙 𝑪′.
Mempartisi Vektor Sampel Mean dan Matriks Kovarians
Jika 𝑥̅ ′ = [𝑥̅1 , 𝑥̅2 , … , 𝑥̅ 𝑝 ] adalah vektor dari sampel mean dari 𝑛 observasi pada 𝑝 variabel maka

Anda mungkin juga menyukai