Anda di halaman 1dari 3

Jika r1 adalah vektor eigen dari matriks A maka dim (Kk) = 1, ∀𝑘 lebih umumnya jika

n
K ⊂ R subruang invarian dari A dan dim (K) = m maka r1 ∈ K mengakibatkan Kk ⊂ K dan
juga dim (Kk) ≤ m implikasi ini akan disajikan kemudian.

Tujuan pembuktian tersebut adalah untuk membuat barisan atau rangkaian arah yang
dicari secara induktif, asumsikan bahwa r1 ≠ 0 dan x1 = x, untuk yang lainnya, kemudian
diberikan s1 = r1.

Proses selanjutnya membuktikan dengan induksi pada k, asumsikan bahwa ∀ 𝑘 ≥ 1


didapatkan bentuk himpunan konjugat A{s1,...,sk} yang arahnya bebas linier sehingga:
sp{s1,...,sk} = sp{r1,...,rk} = Kk

Dengan pilihan s1, maka benar untuk k=1 hasilnya adalah untuk mencari sk+1. Oleh
karena itu kondisi tersebut juga benar untuk k+1. Selanjutnya diberikan rk+1 = y – Axk+1 =
rk - ak ASk

Jika rk+1 = 0 didapatkan xk = x, dan pencarian tersebut menguntungkan. Asumsikan


terdapat rk+1 = 0, pada saat rk ,sk ∈ Kk dengan induksi maka rk+1 ∈ Kk+1 dan lainnya dengan
akibat 5 yaitu rk+1⊥ sj ∀ j, 1 ≤ j ≤ k sp{s1,...,sk ,sk+1}= sp{r1,...,rk+1}= Kk+1

Untuk sk+1 mendapatkan konjugat A pada arah yang awal, kita dapatkan bentuk: sk+1 =
rk+1 +Sk𝛽 ∈ Kk+1 ,β ∈ Rk

Koefisisen vektor β dihitung dengan menggunakan kondisi konjugasi A. SkT Ask+1=0


yaitu: Dk β = skTAsk β= -skTArk+1 = -(Ask)Trk+1. Dari sini kita dapatkan

Ask = [Ask-1 , Ask]

Kolom dari matriks Ask-1 semua termasuk pada:

A(sp{s1,...,sk+1}= (Akk-1) ⊂ kk = sp{s1,...,sk-1} dan sp{s1,...,sk-1}

0
Dk β= [ ]
−𝑠𝑘𝑇 𝐴𝑟𝑘+1

Dengan kata lain β1 =...=βk+1 = 0 didapatkan

−𝑠𝑘𝑇 𝐴𝑟𝑘+1
sk+1 = rk+1 + βk sk βk = 𝑠𝑘𝑇 𝐴𝑠𝑘

Setelah didapatkan unsur-unsur yang cocok dari langkah minimisasi dapat


dibuatmodifikasi untuk mengupdate bentuk-bentuk yang membutuhkan stabilitas komputasi
dan alghoritma, jika rk+1 ⊥ rk didapatkan:

skTrk = (rk + β k+1 sk-1)Trk = ‖𝑟𝑘 ‖2


1 ‖𝑟 ‖
Dengan kata lain formula dapat ditulis αk = 𝑠𝑇 𝐴𝑠
𝑘 𝑘

Kemudian pada saat rk ∈ sp{s1,...,sk-1} didapatkan rk+1 ⊥ rk berakibat:


‖𝑟𝑘 ‖2
‖𝑟𝑘+1 ‖2 = rk+1T(rk - akAsk) = - 𝑟 𝑇 Ask
𝑠𝑘𝑇 𝐴𝑠𝑘 𝑘+1

= ‖𝑟𝑘 ‖2 βk

Sehingga diperoleh:
‖𝑟𝑘+1 ‖2
Βk = ‖𝑟𝑘 ‖2

Berikut ini langakah-langkah conjugate gradient (CG):

Pilih x1 himpunan k =0, r =y – Ax0,s0=r0; Ulangi hingga konvergen


‖𝑟 ‖
𝑘
ak = 𝑠𝑇 𝐴𝑠
𝑘 𝑘

xk+1 = xk - aksk

rk+1 = rk – akAsk
‖𝑟𝑘−1 ‖2
βk = ‖𝑟𝑘 ‖2

sk-1 = rk+1 + βsk

k ← k+1

Pada saat konjugat arah bebas linier, maka algoritma gradien konjugat membutuhkan
arah sebanyak-banyaknya n langkah untuk konvergensi, residu awal adalah subruang
invariant k di A dim(k) = m< 𝑛 , maka alghoritma konvergensi membutuhkan m langkah,
oleh karena itu jika menggunakan metode gradien konjugat untuk menyelesaikan invers
problem, kita tidak harus mengiterasi sampai residunya 0 sebagai gantinya iterasi diakhiri,
norm dari residu lebih kecil atau sama dengan perkiraan nilai norm dari noisenya.

Aplikasi Dari Conjugate Gradient Method

Contoh:

Untuk menggambarkan metode gradien konjugat, kita akan menyelesaikan contoh sederhana.

Misal: Sistem linear Ax = y diberikan oleh:

4 1 𝑥1 1
Ax = [ ] [ ]=[ ]
1 3 𝑥2 2
dan

2
x0 = [ ]
1
Solusi

Langkah pertama adalah menghitung sisa vektor r0 yang berhubungan dengan x1.

1 4 1 1 −8
r0 = [ ] − [ ][ ] = [ ]
2 1 3 2 −3
Selanjutnya hitung skalar a0 menggunakan hubungan:

𝑠𝑇 𝑟
a0 = 𝑠𝑇0𝐴𝑠0
0 0

8
[−8 −3][ ] 73
3
= = 331
[−8 −3][4 1][8]
1 3 3

Kemudian hitung xk+1 dengan:

x1 = x0 + a0s0

2 73 −8 0,2356
= [ ] + 331 [ ] = [ ]
1 −3 0,3384

Langkah selanjutnya hitung vektor r1 residu berikutnya dengan:

r1 = r0 – a0As0

−8 73 4 1 −8 −0,2810
=[ ] − 331 [ ][ ] = [ ]
−3 1 3 −3 0,7492

Hitung β yang pada akhirnya akan digunakan untuk menentukkan arah berikutnya:

𝑟𝑇𝑟
β0 = 𝑟1𝑇 𝑟1
0 0

−0,2810
[−0,2810 0,7492][ ]
0,7492
= −8
[−8 −3][ ]
−3

= 0,0088

Kemudian dengan menggunakan skalar β0 kita hitung arah berikutnya:

sk+1 = rk+1 + β0sk

s1 = r1 + β 0 s0

−0,2810 −8 −0,3511
=[ ] + 0,0088 [ ] = [ ]
0,7492 −3 0,7229

Kemudian kembali menghitung skalar a1

Anda mungkin juga menyukai