Anda di halaman 1dari 15

Metode Gradien-Jenis Resmi dalam

Solusi Nonlinier Masalah terbalik


1. Keturunan Steepest Teregulasi

Pada bagian sebelumnya, kami
mempertimbangkan masalah minimalisasi fungsional
misfit. Namun, kita tahu masalah ini tidak benar dan
tidak stabil. Untuk menemukan solusi stabil untuk
masalah minimisasi, kita harus mempertimbangkan
masalah minimisasi yang diatur
(1)
di mana d diamati data, m adalah model yang tidak diketahui, A (m) adalah operator
maju pemodelan, dan s (m) adalah beberapa fungsi stabilisasi. Jika kita menganggap
bahwa ruang data D adalah a ruang Hilbert nyata dengan beberapa metrik yang
diberikan, ruang model M juga merupakan ruang Hilbert nyata dengan mungkin metrik
lain, dan s (m) adalah fungsi kuadratik, misalnya:
)
di mana W adalah operator kontinu linear yang ditentukan secara positif dalam M,
kemudian
Pα(m) = (A(m) - d, A(m) - d)D + α (W (m-mapr), W (m-mapr))M
dimana mapr adalah beberapa model yang dihargai.

Untuk mengatasi masalah minimisasi (5.74) kita, seperti biasa, menghitung variasi
pertama:
ᵟ Pα (m) = ᵟ (A(m) - d, A(m) - d)D + α ᵟ (W (m-mapr), W (m-mapr))M
=2 (ᵟ A(m) - A(m) - d)D + 2α (ᵟ Wm, W (m-mapr))M
Mempertimbangkan bahwa operator A dapat dibedakan, dengan:
ᵟA(m) = Fmᵟm
dimana Fm adalah operator linier turunan Fréchet dari A, yang kita miliki
ᵟ Pα (m) = 2 (Fmᵟm, A(m) - d)D + 2α (ᵟ Wm, W (m-mapr))M 5.75
= 2 ᵟm, F*m[A(m) – d] + αW*W (m-mapr))M
dimana F∗ dan W∗ adalah operator adjoint.
Mari kita pilih
ᵟm = - kαIα (m) 5.76
dimana k α adalah bilangan real positif dan l α (m) adalah arah pendakian paling curam
fungsional P α (m):
I α (m) = F *m[A(m) – d)] + αW*W (m-mapr) 5.77
Dengan subsitusi persamaan (5.76) dan (5.77) ke (5.75), maka didapat:
ᵟ Pα (m) = -2k (I α (m), I α (m)) < 0

jadi l α (m) menggambarkan "arah" peningkatan (kenaikan) dari P fungsional (m),


selain itu kata-kata, arah "mendaki di atas bukit." α
Dengan demikian, kita dapat membangun proses iterasi untuk penurunan paling curam
yang diatur sebagai :

dimana koefisien k ditemukan seperti yang dijelaskan sebelumnya, dengan


menggunakan minimalisasi fungsional parametrik berkenaan dengan k

Secara khusus, menerapkan pencarian garis linier, kami menemukan bahwa


minimum parametrik
fungsional tercapai jika k ditentukan oleh rumus berikut:
Skema numerik untuk metode penurunan curam yang
paling teratur
Algoritma untuk metode penurunan curam terseguler
dapat diringkas sebagai berikut:

Proses berulang dimusnahkan pada n = N ketika


fungsional parametrik mencapai diberikan level ε 0 :
pα (Mn) < ε0
Dalam kasus khusus ketika A adalah operator linier, semua turunan
Fréchet F
= A, danthe
Metode turunan curam teregulasi mengambil bentuk
m
N
Algoritma terakhir setara dengan metode residu minimal yang diregulasi
(4.108), diperkenalkan pada Bab 4. Oleh karena itu, kita dapat memperluas
metode ini ke solusi invers masalah dalam ruang Hilbert kompleks M dan D,
dan menerapkan Teorema 22 (Bagian 4.3.2) untuk algoritma penurunan paling
curam yang diatur (5.80). Sebagai hasilnya, kami menyimpulkan bahwa
algoritma (5.80) konvergen ke minimum yang unik dari fungsional parametrik
Tikhonov,

pα (m) = || Am – d ||2 + α || Wm||2

untuk setiap perkiraan awal m0 : mn ~mα, n ~ tak hingga adalah linear


kontinu yang arbitrer operator, bertindak dari ruang Hilbert kompleks M ke
ruang Hilbert kompleks D, danW adalah sebuah operator kontinu linier
ditentukan positif dalam M. Ini adalah hasil mendasar dari teori regularisasi
yang membuka jalan ke solusi yang unik dan stabil dari yang keliru masalah
terbalik.
METODE REGULASI NEWTON

Persamaan umum Newton Nonlinier

Persaman Iterasi yang pertama :


Kalkulasi dari persamaan fungsional parametrik iterasi pertama :

Variasi pertama fungsional parametriknya berhubungan dengan


Sehinnga didapatkan persamaannya:

Dengan mensubsitusikan persamaan diatas dengan persamaan


Maka didaptkanlah persamaan umum nenwton nonlinier :
Metode Gradien Konjugasi Resmi
Metode ini menggunakan ide yang sama dengan metode gradien konjugat
konvensional. Namun demikian proses iterasi didasarkan pada perhitungan

di mana "arah" dari pendakian ˜lα (mn) dipilih sesuai dengan algoritma
yang dijelaskan atas.
Pada langkah pertama, kami menggunakan "arah" pendakian paling
curam yang diatur:

Pada langkah berikutnya, "arah" pendakian adalah kombinasi linear dari curam yang
diatur naik pada langkah ini dan "arah" kenaikan ˜lα (m0) pada langkah sebelumnya:
Langkah k˜αn dipilih berdasarkan minimalisasi

Solusi masalah minimisasi ini memberikan estimasi terbaik berikut untuk


panjang langkah menggunakan pencarian garis linier:
Koefisien βαn ditentukan oleh rumus
Skema numerik untuk metode RCG

Algoritma untuk metode RCG dapat diringkas sebagai berikut:


Titik kritis dari metode regularisasi adalah definisi
parameter regularisasi α. Seperti yang telah kita bahas di
Bab 4, untuk solusi masalah ini, biasanya nyaman untuk
dipilih urutan bilangan real α0> α1> α2> ···> αL, di mana
α0 dan αL masing-masing, angka yang cukup besar dan
cukup kecil. Untuk menentukan solusi yang diatur mα dari
masalah minimisasi, gradien (keturunan paling curam,
Newton, atau gradien konjugat) metode digunakan:

Anda mungkin juga menyukai