com
Bab 5
Identifikasi Model Tanaman Rekursif dalam
Loop Terbuka
Dalam bab ini, kita akan fokus pada identifikasi model plant yang beroperasi dalam loop
terbuka menggunakan estimasi parameter rekursif. Algoritma estimasi parameter rekursif
memainkan peran penting dalam identifikasi model tanaman secara real time.
Dari sudut pandang praktis, identifikasi model pabrik merupakan titik awal utama untuk
merancang pengontrol linier berkinerja tinggi, tetapi juga merupakan langkah besar menuju
desain skema kontrol adaptif yang sesuai. Selanjutnya, penggunaan teknik identifikasi rekursif
secara real time dalam banyak kasus merupakan langkah pertama menuju penerapan kontrol
adaptif. Ini juga berfungsi untuk inisialisasi sistem kontrol adaptif. Oleh karena itu logis untuk
mempertimbangkan penggunaan algoritma estimasi parameter rekursif untuk melakukan
identifikasi sistem.
Latar belakang dalam estimasi parameter rekursif baik dalam lingkungan
deterministik dan stokastik disajikan dalam Bab. 3 dan 4, dan dapat digunakan untuk
menganalisis atau mensintesis algoritma estimasi parameter rekursif. Namun demikian,
estimasi parameter rekursif hanya mewakili satu aspek dari identifikasi sistem dan
penting untuk menempatkannya dalam konteks umum dari identifikasi sistem.
Identifikasi sistem dinamis adalah pendekatan eksperimental untuk menentukan model
dinamis suatu sistem. Ini mencakup empat langkah:
Sebuah operasi identifikasi lengkap harus terdiri dari empat tahap yang ditunjukkan di atas. Metode
spesifik yang digunakan pada setiap langkah tergantung pada jenis model yang diinginkan
(parametrik atau non parametrik, waktu kontinu atau waktu diskrit). Dalam kasus kami, kami akan
fokus pada identifikasi model input-output waktu diskrit yang dijelaskan oleh persamaan perbedaan
menggunakan metode estimasi parameter rekursif. Seperti yang akan terlihat,
Gambar 5.1Metodologi
identifikasi
algoritma yang akan digunakan untuk estimasi parameter akan tergantung pada asumsi
yang dibuat pada kebisingan yang mengganggu pengukuran, asumsi yang harus
dikonfirmasi oleh validasi model.
Penting untuk ditekankan bahwa tidak ada satu orang puntanaman+gangguanstruktur
yang ada yang dapat menggambarkan semua situasi yang dihadapi dalam praktek.
Selanjutnya, tidak ada algoritma estimasi parameter yang dapat digunakan dengan semua
kemungkinan struktur pembangkit + gangguan sehingga parameter yang diestimasi selalu
tidak bias. Selanjutnya, karena kurangnya informasi apriori, protokol akuisisi data input-
output mungkin pada awalnya tidak tepat.
Semua penyebab ini dapat menyebabkan model yang diidentifikasi tidak lulus uji validasi,
dan oleh karena itu identifikasi harus dilihat sebagai proses berulang seperti yang
diilustrasikan pada Gambar.5.1. Sehubungan dengan teknik estimasi parameter off-line,
penggunaan teknik estimasi parameter rekursif menawarkan tiga keuntungan utama:
(a) Estimasi model sistem dapat diperoleh seiring dengan perkembangan sistem.
(b) Model estimasi on-line berisi semua informasi yang diberikan oleh data input-output masa
lalu. Oleh karena itu seseorang mencapai kompresi data yang signifikan.
(c) Tanpa perubahan besar (hanya beberapa pilihan dalam memperbarui perolehan adaptasi) seseorang
dapat mengikuti evolusi sistem yang bervariasi waktu secara perlahan.
Gambar 5.2Struktur
metode identifikasi
rekursif
E{(t)ε(t+1)} =0 untukθ̂ =θ
di mana(t)adalah kesalahan pengamatan dan(t+1)adalah kesalahan prediksi (atau adaptasi).
Oleh karena itu, struktur prediktor, vektor pengamatan dan kesalahan adaptasi harus dipilih
dengan tepat. Sebenarnya berbagai algoritma akan mencoba untuk memenuhi kondisi ini
dengan memastikan secara asimtotik salah satu dari dua kriteria berikut:
Metode Kesalahan Persamaan: yang termasuk kuadrat terkecil rekursif dan yang berbeda
ekstensi. Metode-metode ini dicirikan oleh fakta bahwa keluaran terukur (dan nilai-nilai
tertundanya) digunakan baik dalam persamaan prediktor maupun dalam vektor
pengamatan (akhirnya disaring). Setiap metode cenderung memperoleh kesalahan
prediksi putih (white noise) secara asimtotik untuk kelas model gangguan dengan
memodelkan gangguan secara rekursif.
Metode Variabel Instrumental: Dengan menggunakan metode ini, seseorang mencoba menghasilkan objek
vektor pelayanan yang tidak berkorelasi dengan kesalahan prediksi, dengan membangkitkan
variabel instrumental yang berkorelasi dengan keluaran bebas noise dari sistem dan tidak
berkorelasi dengan noise.
Metode Kesalahan Keluaran: Metode ini dicirikan oleh fakta bahwa ad-
prediktor yang dapat dibenarkan menggunakan nilai sebelumnya dari output yang
diprediksi, bukan pengukuran sebelumnya dari output sistem. Selanjutnya, dalam vektor
observasi pengukuran keluaran diganti dengan keluaran yang diprediksi.
Metode Kesalahan Masukan: Dengan menggunakan metode ini, seseorang mengidentifikasi kebalikan dari model.
Prediktor yang dapat diatur dirangkai secara seri dengan plant dan keluaran dari prediktor yang dapat
diatur tersebut dibandingkan dengan input yang tertunda (Landau 1979).
Klasifikasi lain yang mungkin adalah cara algoritma diturunkan mulai dari metode
identifikasi off-line yang sesuai (Ljung dan Söderström 1983). Seseorang dapat
membedakan:
kriteria. Prediktor yang dapat disesuaikan mengambil bentuk prediktor yang memungkinkan untuk
memutihkan kesalahan prediksi secara asimtotik. Vektor pengamatan dikalikan dengan kesalahan
prediksi adalah perkiraan gradien kriteria yang akan diminimalkan. Algoritme ini melibatkan
pemfilteran data secara online melalui filter yang berubah-ubah waktu tergantung pada parameter
yang diestimasi.
Regresi Linier Pseudo(PLR): Sertakan semua algoritme yang digunakan sebagai
vektor vation, vektor regressor yang digunakan dalam prediktor yang dapat disesuaikan.
Kebanyakan dari mereka dapat dilihat sebagai pendekatan dari metode kesalahan prediksi rekursif
(karena mereka menggunakan jenis prediktor yang sama) atau sebagai generalisasi dari kuadrat
terkecil rekursif dalam arti bahwa vektor pengamatan bergantung pada dirinya sendiri pada nilai-
nilai sebelumnya dari perkiraan. parameter (yang tidak terjadi di RLS).
Variabel Instrumental(RIV): Lihat di atas.
Namun, terlepas dari bagaimana algoritma ini diturunkan, analisis stabilitas dalam
lingkungan deterministik dan analisis konvergensi dalam lingkungan stokastik
diperlukan.
Salah satu kelemahan RPEM dan RIV adalah stabilitas global maupun konvergensi
global tidak dapat dijamin dan memerlukan inisialisasi menggunakan metode
identifikasi lain.
Derivasi algoritma regresi pseudo-linear yang menampilkan properti stabilitas asimtotik global
dapat dengan mudah dilakukan menggunakan metode representasi umpan balik ekivalen dengan
(1) terlebih dahulu menulis struktur yang diinginkan dari prediktor yang dapat disesuaikan (2)
menurunkan persamaan prediksi a posteriori (adaptasi) kesalahan bentuk yang diberikan dalam
Teorema 3.2 dan kemudian menggunakan PAA yang sesuai.
Metode PLR sering tunduk pada kondisi nyata positif dalam lingkungan
deterministik. Penghapusan kondisi riil positif ini telah mendorong pengembangan
sejumlah metode.
Menarik juga untuk dicatat bahwa algoritma RPEM dapat dilihat sebagai solusi
lokal untuk merelaksasi kondisi nyata positif yang terjadi pada algoritma regresi
pseudo-linear (PLR).
Dari sudut pandang praktis, berbagai klasifikasi yang disebutkan tidak penting. Yang
penting dalam praktiknya adalah dapat menentukan untuk algoritma yang diberikan:
(1) Untuk jenis model kebisingan apa, perkiraan tidak bias asimtotik dapat berpotensi
diperoleh?
(2) Bagaimana kondisi stabilitas dalam lingkungan deterministik dan kondisi
konvergensi dalam lingkungan stokastik?
(3) Apa persyaratan inisialisasi (jika ada)?
Oleh karena itu, kita harus mempertimbangkan strukturtanaman+model gangguandijelaskan
oleh:
q−dB(q1)
y(t)= kamu(t)+v(t) (5.1)
A(q1)
di manakamu(t)adalah masukan tanaman,y(t)adalah keluaran terukur danv(t)adalah
gangguan: Tiga model untuk gangguan dipertimbangkan secara umum.
158 5 Identifikasi Model Tanaman Rekursif pada Loop Terbuka
(1)
v(t)=proses stokastik rata-rata nol dengan momen terbatas
independen darikamu(t) (5.2)
(2)
C(q1)
v(t)= e(t) (5.3)
A(q1)
di manae(t)adalah white noise rata-rata nol (atau untuk alasan teknis didefinisikan
sebagai urutan martingale). Pada kasus ini, (5.1) disebut model ARMAX.
(3)
C(q1)
v(t)= e(t) (5.4)
A(q1)D(q1)
Polinomial monikC(q1)danD(q1)diasumsikan memiliki akar di dalam
lingkaran satuan (polinomial stabil asimtotik) dan memiliki bentuk:
C(q1)=1 +c1q1+· · · +cnCq−nC=1 +q1C∗(q1) D(q1)=1 +d1q1+ (5.5)
· · · +dnDq−nD=1 +q1D∗(q1) (5.6)
Model (1) sesuai dengan gangguan keluaran sedangkan model (2) dan (3) sesuai
dengan penyaringan gangguan melalui kutub sistem (disebut juga gangguan
persamaan kesalahan).
Kami juga akan mengasumsikan bahwa struktur dan kompleksitas (urutan berbagai polinomial)
dari prediktor yang dapat disesuaikan sedemikian rupa sehingga ada vektor parameterθ (atau
beberapa) sedemikian rupa sehingga kesalahan prediksi(t+1)dalam lingkungan deterministik
menjadi nol dan, di samping itu, dalam lingkungan stokastik baik kesalahan prediksi adalah white
noise atauE{(t+1)φ(t)} =0, dimana(t)adalah vektor pengamatan. Bahkan, orang berasumsi bahwa
yang benartanaman+model gangguandanprediktor yang dapat disesuaikanmemiliki struktur yang
sama dan, oleh karena itu, ini adalah nilai dari vektor parameterθ dimana prediktor yang dapat
disesuaikan akan sesuai dengan model pembangkit + gangguan yang sebenarnya. Dapat dikatakan
bahwa model pembangkit + gangguan yang sebenarnya adalah himpunan dari model estimasi yang
mungkin yang diparameterisasi olehθ̂ atau, singkatnya, bahwa “model pembangkit + gangguan yang
sebenarnya ada diset model” (Ljung 1999).
Meja5.1merangkum sejumlah teknik estimasi parameter rekursif yang signifikan. Mereka
semua menggunakan PAA dalam bentuk:
Kuadrat Terkecil Rekursif (RLS) Kuadrat Terkecil Diperpanjang (ELS) Output Error dengan Extended
Prediction Model (OEEPM)
Dapat disesuaikan θ̂ T(t)= [sebuahT(t), b̂T(t)] sebuahT θ̂ T(t)= [sebuahT(t), b̂T(t),T(t)] sebuah θ̂ T(t)= [sebuahT(t), b̂T(thT(t)] sebuahT
vektor parameter
(t)= [sebuah1, . . . , sebuahnSEBUAH] T(t)= [sebuah1, . . . , sebuahnSEBUAH] b (t)= [sebuah1, . . . , sebuahnSEBUAH] bˆT
bT(t)= [b1, . . . , bnB] T(t)= [b1, . . . , bnB] cT(t)= [c1. . . cnC] (t)= [b1, . . . , bnB] hT(t)= [h1. . . hnH] nH
=maksimal(nSEBUAH, nC)
Prediktor ψT(t)= [−y(t), . . . ,−y(t− nSEBUAH+1), ψT(t)= [−y(t), . . . ,−y(t− nSEBUAH+1), ψT(t)= [−(t), . . . ,−(t− nSEBUAH+1),
vektor regresi kamu(t− d), . . . , u(t− d− nB+1)] kamu(t− d), . . . , u(t− d− nB+1), kamu(t− d), . . . , u(t− d− nB+1),
(t), . . . , (t− nC+1)] (t), . . . , (t− nC+1)]
sebuah prioritas ŷ0(t+1)=θ̂ T(t)ψ(t) (t+1)=θ̂
5.2 Struktur Algoritma Estimasi Parameter Rekursif
Prediktor
keluaran sebuah posteriori T(t+1)ψ(t)
lingkungan deterministik
1 1
Kondisi konvergensi Tidak ada C− λ2 2 =SPR C− λ2 2 =SPR
lingkungan stokastik
159
Tabel 5.1(Lanjutan)
160
(b)
Maksimum Rekursif Terkecil Umum Kesalahan Output dengan
Kemungkinan (RML) Kotak (GLS) Kompensator Tetap (OEFC)
C
Model tanaman + kebisingan −dB
kamu=qSEBUAH kamu+C −dB kamu+
kamu=qSEBUAH −dB kamu+v
kamu=qSEBUAH
SEBUAHe IKLANe
Dapat disesuaikan θ̂ T(t)= [sebuahT(t), b̂T(t),T(t)] sebuahT(t)= [ θ̂ T(t)= [sebuahT(t), b̂T(t),T(t), dT(t)] pada)= [ θ̂ T(t)= [sebuahT(t), b̂T(t)] sebuahT(t)= [
parameter sebuah1, . . . , sebuahnSEBUAH]
T
sebuah1, . . . , sebuahnSEBUAH] sebuah1, . . . , sebuahnSEBUAH]
vektor bT(t)= [b1, . . . , bnB] c bT(t)= [bˆ1, . . . , bnB] bT(t)= [b1, . . . , bnB]
T(t)= [c1, . . . , cnC] (t)T= [c1, . . . , cnC] dT(t)
= [d1, . . . , dnD]
Prediktor
ψT(t)= [−y(t), . . . ,−y(t− nSEBUAH+1), ψT(t)= [−y(t), . . . ,−y(t− nSEBUAH+1), ψT(t)= [−(t), . . . ,−(t− nSEBUAH+1),
kemunduran kamu(t− d), . . . , u(t− d− nB+1), kamu(t− d), . . . , u(t− d− nB+1), kamu(t− d), . . . , u(t − d− nB+1)]
vektor (t), . . . , (t− nC+1)] (t), . . . , (t− nC+1),
− (t), . . . ,−(t− nD+1)]
(t)=Â(t)y(t)− B∗(t)u(t− d− 1)
Prediktor sebuah prioritas ŷ0(t+1)=θ̂ T(t)ψ(t)
keluaran sebuah posteriori(t+1)=θ̂ T(t+1)ψ(t)
Ramalan sebuah prioritas ε0(t+1)=y(t+1)− ŷ0(t+1)
kesalahan
sebuah posteriori(t+1)=y(t+1)− (t+1)
∑nD
Kesalahan adaptasi ν◦(t+1)=ε◦(t+1) (t)= ν◦(t+1)=ε◦(t+1) (t)=(t) ν◦(t+1)=ε◦(t+1)+ (t)=(t) saya=1dsaya(t+1saya)
1
Vektor observasi (t)
(t,q1)
(t, q1)=1 +c1(t)q Tidak 1+· ··
D
Kondisi stabilitas ada Tidak ada SEBUAH− λ2 =SPR
2
lingkungan deterministik
D
Konvergensi Hanya konvergensi lokal (1) Tidak diketahui C− λ2 2 =SPR
kondisi (t, q1)=stabil (2)D, CdiketahuiDSEBUAH− λ2=SPR 2 wdankamumandiri
lingkungan stokastik
5 Identifikasi Model Tanaman Rekursif pada Loop Terbuka
Tabel 5.1(Lanjutan)
(c)
Keluaran yang Difilter Kesalahan Output dengan Kompensator Variabel Instrumental dengan
Kesalahan yang Dapat Disesuaikan (AEAC) Model Bantu (IVAM)
Parameter yang dapat disesuaikan θ̂ T(t)= [sebuahT(t), b̂T(t)] sebuahT θ̂ T(t)= [sebuahT(t), b̂T(t),T(t)] sebuahT(t) θ̂ T(t)= [sebuahT(t), b̂T(t)] sebuahT
vektor (t)= [sebuah1, . . . , sebuahnSEBUAH] = [sebuah1, . . . , sebuahnSEBUAH] bT(t)= [ (t)= [sebuah1, . . . , sebuahnSEBUAH]
bT(t)= [b1, . . . , bnB] b1, . . . , bnB] bT(t)= [b1, . . . , bnB]
Regresor prediktor ψT(t)= [−(t), . . . ,−(t− nSEBUAH+1), ψT(t)= [−(t), . . . ,−(t− nSEBUAH+1), ψT(t)= [−y(t), . . . ,−y(t− nSEBUAH+1),
vektor kamu(t− d), . . . , u(t− d− nB+1)] kamu(t− d), . . . , u(t− d− nB+1)] kamu(t− d), . . . , u(t− d− nB+1)]
Prediktor sebuah prioritas ŷ0(t+1)=θ̂ T(t)ψ(t) ŷ0(t+1)= [sebuahT(t), b̂T(t)](t) (t+1)= [ ŷ0(t+1)=θ̂ T(t)ψ(t) (t+1)=θ̂
keluaran sebuah posteriori(t+1)=θ̂ T(t+1)ψ(t) sebuahT(t+1), bT(t+1)](t) T(t+1)ψ(t)
D∗ :E{(D∗v)2} =min
161
162 5 Identifikasi Model Tanaman Rekursif pada Loop Terbuka
Metode identifikasi rekursif berikut yang termasuk dalam kategori ini akan
disajikan:2
Algoritma kuadrat terkecil rekursif telah disajikan secara rinci di Sect. 3.2. Stabilitas
asimtotik global dalam lingkungan deterministik terjamin (aplikasi langsung dari
Teorema 3.2). Konvergensi global dalam kasus stokastik menuju estimasi parameter
yang tidak bias dipastikan untuk model yang menghasilkan data dalam bentuk:
A(q1)y(t)=q−dB(q1)u(t)+e(t) (5.10)
di manae(t)adalah urutan white noise rata-rata nol. Analisis dalam kasus stokastik dapat
dilakukan cukup sederhana dengan menggunakan metode rata-rata (Teorema 4.1), lihat Sect.
4.2, Contoh 4.2 atau martingales (Teorema 4.2, Bagian 4.3).
Kerugian utama dari metode ini adalah kenyataan bahwa model kebisingan, yang estimasi
tak biasnya diperoleh, sangat tidak realistis dalam situasi praktis, karena pada umumnya
gangguan di (5.10) bukan hanya derau putih. Oleh karena itu, meskipun sederhana, di
sebagian besar aplikasi ini akan memberikan perkiraan parameter yang salah.
A(q1)y(t)=q−dB(q1)u(t)+C(q1)e(t) (5.11)
Idenya adalah untuk secara bersamaan mengidentifikasi model pembangkit dan model
gangguan, untuk mendapatkan kesalahan prediksi (adaptasi) yang putih asimtotik.
Model yang menghasilkan data dapat dinyatakan sebagai:
2Rutinitas
yang sesuai dengan metode ini di Matlab dan Scilab dapat diunduh dari situs web:
http://www.landau-adaptivecontrol.orgdanhttp://landau-bookic.lag.ensieg.inpg.fr.
5.3 Metode Identifikasi (Tipe I) 163
y(t+1)=SEBUAH∗(q1)y(t)+B∗(q1)u(t− d)+C∗(q1)e(t)+e(t+1)
=θT(t)+e(t+1) (5.12)
di mana:
(t+1)=θ̂T(t+1)φ(t) (5.23)
Kesalahan prediksi a posteriori(t)yang masuk dalam vektor regressor dari prediktor
diberikan oleh:
(di mana(t)sekarang adalah output a posteriori dari prediktor yang dapat disesuaikan) dan kesalahan
prediksi apriori diberikan oleh:
ε0(t+1)+θT(t)φ(t)=y(t) (5.30)
yang mengarah pada kepuasan kondisi (2) dari lemma karenay(t)terikat.
Algoritma ini dibahas secara rinci dalam Sekte. 3.3.5 dan 4.3. Ini dapat digunakan
dengan tepat untuk model stokastik bentuk (5.11) (model ARMAX). Ini tidak memerlukan
kondisi nyata positif dalam konteks deterministik, tetapi dalam konteks stokastik
seseorang memiliki kondisi konvergensi:
1 λ2
Hkan(z1)= − (5.31)
C(z1) 2
benar-benar positif nyata (2>2≥ maksimalλ2(t)) mirip dengan ELS.
Ternyata OEEPM bisa diartikan sebagai varian dari ELS. Untuk melihat ini, pertimbangkan
output apriori dari prediktor yang dapat disesuaikan untuk ELS (5.20), yang dapat ditulis ulang
sebagai berikut dengan menambahkan dan mengurangi istilah±SEBUAH∗(q1, t)ŷ(t):
5.3 Metode Identifikasi (Tipe I) 165
Mempertimbangkan bahwaθ̂ ditetapkan dalam (5.34), persamaan ini dapat ditulis ulang menjadi:
(q1, )
(t+1, )= [θ − θ̂ ](t,f )+e(t+1) (5.36)
C(q1)
Dengan kata lain, kondisi riil positif akan direlaksasi khususnya di sekitar nilai yang benarθ̂ =θ .
Ini menyarankan untuk menggunakanφf(t)sebagai vektor pengamatan. Oleh karena itu, dalam
RML, sehubungan dengan ELS, satu menggantikan vektor pengamatan(t)oleh versi yang
difilter yang diberikan dalam (5.35). Satu menyaring regressor melalui estimasi polinomial saat
iniC(q1)untuk menghasilkan vektor pengamatan (yaitu satu menyaring
komponen dari(t)). Lebih khusus lagi, seseorang memiliki: (untuknSEBUAH=nB=n C)
⎡ ⎤ ⎡ ⎤
c 0 0 1 0 0
φf(t)=⎣0 c 0⎦φf(t− 1)+⎣0 c 1 0⎦(t)
0 0 0 0 1
di mana:
⎡ ⎤
c1(t) ... ... cn(t)
⎢ 0 ⎥
c=⎢ ⎣ ⎥
0 Sayan1
⎦
0
Namun, tidak ada hasil konvergensi global yang tersedia untuk algoritma ini. Faktanya,
algoritma ini tidak dapat diimplementasikan darit=0, jika estimasi yang baik dariC(q1)
tidak tersedia. Pertama, dancakrawala inisialisasiharus dipertimbangkan selama ELS
digunakan untuk mendapatkan estimasi pertama dariC(q1)yang tentu saja setidaknya
harus stabil (cakrawala inisialisasi biasa: 5 hingga 10 kali jumlah parameter).
Selanjutnya, penyaringan pengamatan hanya dapat dilakukan untuk estimasi
stabil dariC(q1). Oleh karena itu, uji stabilitas tentu harus dimasukkan.
Transisi yang mulus dari ELS menuju RML juga dapat digunakan dengan
memperkenalkan afaktor kontraksidiC(t, q1). Satu filter data dengan:
1 +(t)Ĉ∗(q1, t)dengan 0≤ (t)≤ 1
Ini memaksa akar polinomial di dalam lingkaran satuan pada awal proses estimasi
dan, sebagai tambahan, menggunakan faktor kontraksi yang cenderung asimtotik
ke 1. Jenis variasi ini dapat diperoleh dengan menggunakan rumus:
(t)=α0(t− 1)+1α0;0.5≤ α0≤ 0.99
RML dapat digunakan untuk meningkatkan, jika perlu, hasil ELS atau OEEPM di
sekitar titik ekuilibrium. Namun, jika tindakan pencegahan yang disebutkan di atas
(inisialisasi, uji stabilitas) tidak diperhitungkan, algoritme mudah menyimpang.
Metode ini didedikasikan untuk estimasi tak bias dari model pembangkit + gangguan
dalam bentuk:
C(q1)
A(q1)y(t)=q−dB(q1)u(t)+ e(t) (5.37)
D(q1)
5.3 Metode Identifikasi (Tipe I) 167
Seperti dalam kasus ELS, langkah pertama adalah membangun sebuah prediktor untuk kasus
parameter yang diketahui yang memberikan kesalahan prediksi putih asimtotik dan kemudian
mengganti parameter yang tidak diketahui dengan perkiraannya. Model yang menghasilkan data
dapat dinyatakan sebagai:
C(q1)
y(t+1)=SEBUAH∗y(t)+B∗kamu(t− d)+ e(t+1) (5.38)
D(q1)
dan setelah mengalikan kedua ruas denganD(q1)dan mengatur ulang berbagai istilah,
diperoleh:
di mana:
di mana:
Menurut Teorema 3.2, stabilitas asimtotik global akan terjamin tanpa adanya kondisi riil yang
positif. Dalam kasus stokastik, dengan menggunakan metode rata-rata, seseorang
mendapatkan nilai tetapθ̂ :
D(q1)
(t+1,ˆ)= [θ − θ̂1]T(t,1) (5.53)
C(q1)1
dan menerapkan Teorema 4.1, seseorang memiliki kondisi konvergensi:
D(z1) 2
Hkan(z1)= − (5.54)
C(z1) 2
adalah fungsi transfer real positif.
Dengan demikian, algoritma ini merupakan perpanjangan dari algoritma GLS
Bethoux (1976) dan Landau (1990a) yang sesuai dengan kasusC(q1)=1.
Algoritma ini lebih tepat digunakan daripada ELS, untuk kasus di mana istilah
gangguan di (5.37) memiliki spektrum frekuensi sempit yang biasanya dapat
1
dimodelkan sebagai e(t)di manaD(q1)adalah polino orde kedua teredam rendah
D(q1)
mial (sambil menggunakan model formulirC(q1)e(t)akan membutuhkan sejumlah besar
parameter untuk diidentifikasi).
Bagian ini berkaitan dengan validasi model yang diidentifikasi menggunakan metode
identifikasi berdasarkan:pemutihdari kesalahan prediksi. Jika kesalahan prediksi residual
adalah urutan white noise, selain mendapatkan estimasi parameter yang tidak bias, ini
juga berarti bahwa model yang diidentifikasi memberikan prediksi terbaik untuk output
pabrik dalam arti meminimalkan varians dari kesalahan prediksi. Di sisi lain, karena
kesalahan residual berwarna putih dan white noise tidak berkorelasi dengan variabel
lain, maka semua korelasi antara input dan output pabrik diwakili oleh model yang
diidentifikasi dan apa yang tidak dimodelkan tidak bergantung pada masukan.
3Rutinitas
yang sesuai dengan metode ini di Matlab dan Scilab dapat diunduh dari situs web:
http://www.landau-adaptivecontrol.orgdanhttp://landau-bookic.lag.ensieg.inpg.fr.
5.4 Validasi Model yang Diidentifikasi dengan Metode Tipe I 169
• Jika tanaman + struktur gangguan yang dipilih benar, yaitu mewakili realitas.
• Jika metode identifikasi yang sesuai untuk struktur yang dipilih telah digunakan.
• Jika derajat polinomialA(q1), B(q1), C(q1)dan nilaid (penundaan) telah
dipilih dengan benar (model pabrik ada di set model).
Maka kesalahan prediksi(t)asimtotik cenderung ke arah white noise, yang
menyiratkan:
limE{(t)ε(t− saya)} =0;saya=1,2,3, . . .; 1,−2,−3, . . .
t→∞
Metode validasi menerapkan prinsip ini. Ini terdiri dari beberapa langkah:
1. Pembuatan file I/O untuk model yang diidentifikasi (menggunakan urutan input yang sama seperti
untuk sistem).
2. Pembuatan file kesalahan prediksi untuk model yang diidentifikasi (minimal 100 data).
3.Putihnya(uncorrelatedness) tes pada urutan kesalahan prediksi (juga dikenal sebagai
kesalahan prediksi residual).
1∑ N R(0)
R(0)= ε2(t); RN(0)= =1 (5.55)
N R(0)
t=1
1∑ N R(i)
R(i)= (t)ε(t− saya); RN(saya)= ; saya=1,2,3, . . . , sayamaksimal (5.56)
N R(0)
t=1
dengansayamaksimal≥ nSEBUAH[derajat polinomialA(q1)], yang merupakan estimasi
dari autokorelasi (dinormalisasi). Jika urutan kesalahan prediksi residual benar-
benar putih (situasi teoritis), dan jumlah sampel sangat besar (N→ ),then RN(0)=1;
RN(saya)=0, saya≥ 1.4
Namun, dalam situasi nyata, ini tidak pernah terjadi (yaitu,RN=0;saya≥ 1), karena di satu
sisi,(t)mengandung kesalahan struktural residual (kesalahan urutan, efek nonlinier, kebisingan
non-Gaussian), dan di sisi lain, jumlah sampel pada umumnya relatif kecil (beberapa ratus).
Juga, harus diingat bahwa seseorang selalu berusaha untuk mengidentifikasibagusmodel
sederhana (dengan beberapa parameter). Seseorang menganggap sebagai kriteria validasi
praktis (diuji secara ekstensif pada aplikasi):
2.17
RN(0)=1; |RN(saya)| ;saya≥ 1 (5.57)
N
4Sebaliknya, untuk data Gaussian, uncorrelation menyiratkan independensi. Pada kasus ini,RN(saya)=0, saya
≥ 1 menyiratkan kemerdekaan antara(t), (t−1), . . .,yaitu, urutan residu {(t)}adalah derau putih Gaussian.
170 5 Identifikasi Model Tanaman Rekursif pada Loop Terbuka
3% 2√.17
0.192 0.136 0.096
N
5% 1√.96
0.173 0.122 0.087
N
.808
7% 1√ 0.16 0.113 0.08
N
1.8 2.17
|RN(saya)| ≤ √ · · · ;saya≥ 1
N N
• Jika beberapa model yang teridentifikasi memiliki kompleksitas (jumlah parameter) yang sama,
maka model tersebut dipilih oleh metode yang mengarah ke yang terkecil |RN(saya)|.
• SEBUAHterlalu baguskriteria validasi menunjukkan bahwa penyederhanaan model dimungkinkan.
• Sampai batas tertentu, dengan mempertimbangkan bobot relatif dari berbagai kesalahan
non-Gaussian dan pemodelan (yang meningkat dengan jumlah sampel), kriteria validasi
mungkin sedikit diperketat untuk kecilNdan sedikit santai untuk yang besarN. Oleh karena
itu, demi kesederhanaan, seseorang dapat mempertimbangkan sebagai nilai numerik
praktis dasar untuk nilai kriteria validasi:
|RN(saya)| 0.15;saya≥ 1
Perhatikan juga bahwa validasi model lengkap menyiratkan, setelah validasi menggunakan
urutan input/output yang digunakan untuk identifikasi, validasi menggunakan urutan input/
output pabrik selain yang digunakan untuk identifikasi.
Ada poin penting lain yang perlu dipertimbangkan. Jika tingkat kesalahan prediksi
residual sangat rendah dibandingkan dengan tingkat keluaran (misalkan lebih dari 60
dB), uji keputihan kehilangan signifikansinya. Ini karena, di satu sisi, kebisingan
5.5 Metode Identifikasi (Tipe II) 171
levelnya sangat rendah sehingga bias pada RLS misalnya dapat diabaikan, dan di sisi lain,
karena noise residual sebagian besar mungkin bukan Gaussian (misalnya, noise yang
disebabkan oleh propagasi kesalahan pembulatan). Situasi ini dapat terjadi ketika
mengidentifikasi simulasi data I/O yang dihasilkan tanpa gangguan.
Kesalahan keluaran dengan kompensator tetap didedikasikan untuk estimasi parameter yang
tidak bias daritanaman+gangguanmodel formulir:
q−dB(q1)
y(t)= kamu(t)+v(t) (5.58)
A(q1)
di manav(t+1)adalah proses stokastik rata-rata nol dengan daya terbatas dan
independen terhadap input. Algoritma telah disajikan di Sect. 3.3.2 dan dianalisis
dalam lingkungan stokastik di Sect. 4.2. Persamaan kesalahan adaptasi a posteriori
berbentuk:
D(q1)
(t+1)= [θ − (t+1)]T(t)+D(q1)v(t+1) (5.59)
A(q1)
Dalam konteks deterministik (menggunakan Teorema 3.2), serta dalam konteks
stokastik menggunakan metode rata-rata (Teorema 4.1), diperoleh kondisi stabilitas dan
konvergensi:
D(z1) λ2
Hkan(z1)= − (5.60)
A(z1) 2
menjadi fungsi transfer waktu diskrit nyata positif. Jika seseorang membuat asumsi yang
lebih kuat tentang gangguan, yaitu:
1
v(t+1)= e(t+1)
D(q1)
5Rutinitas
yang sesuai dengan metode ini di Matlab dan Scilab dapat diunduh dari situs web:
http://www.landau-adaptivecontrol.orgdanhttp://landau-bookic.lag.ensieg.inpg.fr.
172 5 Identifikasi Model Tanaman Rekursif pada Loop Terbuka
Persamaan kesalahan prediksi dan prediksi tetap sama seperti untuk kesalahan keluaran
dengan kompensator tetap (lihat Tabel5.1). Perbedaannya terletak pada generasi kesalahan
adaptasi di mana kompensator tetap diganti dengan yang dapat disesuaikan:
di mana:
∑nD
D̂(q1, t)=1 + dsaya(t)q−saya;nD=nSEBUAH (5.62)
t=1
∑nD
ν0(t+1)=ε0(t+1)+ dsaya(t)ε(t+1saya) (5.63)
saya=1
∑nSEBUAH
∑ nSEBUAH
saya=1 saya=1
∑nB
+ [bsaya− bsaya(t+1)]kamu(t+1d− saya) (5.64)
saya=1
di mana:
ble. Oleh karena itu uji stabilitas padaD(q1, t)harus diperkenalkan. Lihat Dugard dan
Goodwin (1985) untuk analisis rinci.
Dalam kasus stokastik, menggunakan metode rata-rata untuk nilai tertentu dariθ̂ ,
diperoleh:
Simulasi telah menunjukkan ketahanan yang sangat baik dari algoritma ini sehubungan dengan
berbagai jenis gangguan.
Untuk mengendurkan kondisi nyata positif yang terkait dengan algoritma kesalahan keluaran, seseorang dapat
menggunakan vektor pengamatan yang difilter daripada penyaringan prediksi kesalahan keluaran. Dalam hal ini,
di mana:
di mana:
L(q1)φf(t)=(t) (5.76)
174 5 Identifikasi Model Tanaman Rekursif pada Loop Terbuka
Kesalahan prediksi keluaran terkait yang terkait dengan dua prediktor yang dapat disesuaikan
diberikan oleh:
ε0(t+1)=y(t+1)− ŷ0(t+1)
(5.77)
(t+1)=y(t+1)− (t+1)
εf0(t+1)=kamuf(t+1)− ŷ0 f(t+1)
(5.78)
εf(t+1)=kamuf(t+1)− ŷf(t+1)
Definisikan kesalahan adaptasi a posteriori sebagai:
(t+1)=L(q1)εf(t+1) (5.79)
dan kesalahan adaptasi apriori sebagai:
kamuf(t+1)=SEBUAH∗(q1)yf(t)+B∗(q1)uf(t)
=SEBUAH∗(q1)εf(t)+θTφf(t) (5.81)
di mana:
1
εf(t+1)= [θ − (t+1)]Tφf(t) (5.83)
A(q1)
dan dari (5.79) hasilnya:
L(q1)
(t+1)= [θ − (t+1)]Tφf(t) (5.84)
A(q1 )
Stabilitas asimtotik global dalam lingkungan deterministik dan konvergensi wp1 dalam
lingkungan stokastik untukv(t)independen sehubungan dengankamu(t)diperoleh
dengan syarat cukup bahwa:
L(z1) λ2
Hkan(z1)= − (5.85)
A(z1) 2
menjadi fungsi transfer real positif.
Menggunakan PAA (5.7) dengan(t)=φf(t)dan (5.78), dapat ditulis:
Tetapi:
{ [ ]}
1
L(q1)ŷ0 f(t+1)=L(q1) θ̂ T(t) (t) ≈ ŷ0(t+1) (5.88)
L(q1)
Mengabaikan suku ketiga dari (5.87) dan memperhitungkan (5.68) dan (5.88) seseorang mendapat:
Gagasan umum di balik metode variabel instrumental terdiri dari konstruksi vektor
pengamatan baru, yang sangat berkorelasi dengan variabel yang tidak terkontaminasi,
tetapi tidak berkorelasi dengan gangguan kebisingan untuk mendapatkan hasil yang
asimtotik.E{(t)ε(t+1)} =0.
Salah satu jenis algoritma tersebut adalahvariabel instrumental dengan model tambahan (Muda
1969). Itutanaman+gangguanmodel yang dipertimbangkan dalam kasus ini, sama dengan kesalahan
keluaran (5.58). Metode ini dapat dilihat baik sebagai peningkatan kuadrat terkecil rekursif atau
sebagai pertengahan antara kuadrat terkecil rekursif dan algoritma kesalahan keluaran. Prediktor
yang dapat disesuaikan adalah yang digunakan dalam kuadrat terkecil rekursif:
(t+1)=θ̂T(t+1)φ(t) (5.94)
Kesalahan prediksi ditentukan oleh:
∑nSEBUAH
∑nB
kamuIV(t)= sebuahsaya(t)yIV(t− saya)+ bsaya(t)u(t− d− saya)
saya=1 saya=1
di mana:
[
φIVT (t)=kamuIV(t), . . . ,−kamuIV(t− nSEBUAH+1),
]
kamu(t− d), . . . , u(t− d− nB+1) (5.98)
Keluaran dari model prediksi bantu ini bergantung pada keluaran prediksi sebelumnya dan
bukan pada pengukuran sebelumnya (ini adalah model tipe kesalahan keluaran). Variabel
baru ini akan kurang terpengaruh oleh gangguan yang hanya akan bekerja melalui PAA. Jika
keuntungan adaptasi yang menurun secara asimtotik digunakan, secara asimtotikkamuIV(t)
hanya akan bergantung pada input yang tidak berlaku untuk(t)diberikan oleh prediktor
kuadrat terkecil dari (5.91). Vektor pengamatan baru ditentukan oleh:
(t)=φIV(t) (5,99)
Â(q1, )
(t+1, )= [θ − θ̂ ](t,IV)+w(t+1) (5.100)
A(q1)
φIV(t, )danw(t+1)tidak berkorelasi dan metode rata-rata dengan jelas menunjukkan
bahwaSEBUAHharus cukup dekat denganSEBUAH, agar algoritma konvergen (A A−
λ2/2 harus benar-benar positif nyata). Untuk cakupan rinci metode variabel
instrumental lihat Ljung dan Söderström (1983).
Bagian ini berkaitan dengan validasi model yang diperoleh dengan menggunakan
metode identifikasi berdasarkan dekorelasi antara pengamatan dan kesalahan prediksi.
Tidak adanya korelasi antara pengamatan dan kesalahan prediksi menghasilkan
estimasi parameter yang tidak bias. Namun, karena pengamatan mencakup keluaran
yang diprediksi yang bergantung pada masukan, maka tidak ada korelasi antara
kesalahan prediksi residual dan pengamatan menyiratkan juga bahwa kesalahan
prediksi residual tidak berkorelasi dengan masukan. Interpretasi dari fakta ini adalah
bahwa kesalahan prediksi residual tidak mengandung informasi apapun tergantung
pada input, yaitu, semua korelasi antara input dan output dari pembangkit diwakili oleh
model yang diidentifikasi.
5.6 Validasi Model yang Diidentifikasi dengan Metode Tipe II 177
• Jika metode identifikasi yang sesuai telah digunakan untuk struktur yang dipilih.
• Jika derajat polinomialA(q1), B(q1)dan nilaid(delay) telah dipilih dengan
benar (model pabrik ada di set model).
maka keluaran yang diprediksi(t− 1), (t− 2), . . .dihasilkan oleh model formulir
(output error type predictor):
Â(q1)ŷ(t)=q−dB̂(q1)u(t) (5.101)
1∑ N
E{(t)ŷ(t− saya)} (t)ŷ(t− saya)=0;saya=1,2,3, . . .
N
t=1
Metode validasi menerapkan prinsip ini. Ini terdiri dari beberapa langkah:
1. Pembuatan file I/O untuk model yang diidentifikasi (menggunakan urutan input yang sama seperti
untuk sistem).
2. Pembuatan file untuk urutan {y(t)}; {(t)}; {(t)} (keluaran sistem, keluaran model,
kesalahan prediksi keluaran residual). File-file ini harus berisi setidaknya 100
data agar pengujian menjadi signifikan.
3.Tidak berkorelasipengujian antara urutan kesalahan prediksi keluaran residual dan
urutan keluaran model prediksi tertunda.
Membiarkan {y(t)}dan {(t)}menjadi urutan keluaran terpusat dari pabrik dan model yang
diidentifikasi, masing-masing. Membiarkan {(t)}menjadi urutan terpusat dari kesalahan
keluaran (prediksi) residual (berpusat = nilai terukur nilai rata-rata). Satu menghitung:
1∑ N
R(i)= (t)ŷ(t− saya); saya=0,1,2, . . . , n SEBUAH, ... (5.102)
N
t=1
R(i)
RN(saya)= ∑N 1∑N
[(1N 2N
t=1(t))( t=1ε2(t))]1/2
saya=0,1,2, . . . , nSEBUAH, . . . (5.103)
6Rutinitas
yang sesuai dengan metode ini di Matlab dan Scilab dapat diunduh dari situs web:
http://www.landau-adaptivecontrol.orgdanhttp://landau-bookic.lag.ensieg.inpg.fr.
178 5 Identifikasi Model Tanaman Rekursif pada Loop Terbuka
RN(saya)=0;saya=1,2, . . . , nSEBUAH, . . .
Dalam prakteknya, hal ini tidak pernah terjadi, baik karena durasi identifikasi tidak
cukup lama untuk mendekati karakter asimtotik, atau karena identifikasibagusmodel
sederhana yang diinginkan [dengan beberapa parameter, yaitu, di bawah perkiraan
urutanA(q1)danB(q1)], yang mengakibatkanstrukturalkesalahan yang berkorelasi dengan
inputkamu(t).
Kriteria validasi untuk metode identifikasi Tipe II berdasarkan uji unkorelasi akan
didefinisikan serupa dengan untuk metode identifikasi Tipe I, yang juga menggunakan
uji unkorelasi tetapi pada urutan variabel yang berbeda (lihat Sect.5.4). Oleh karena itu,
seseorang menganggap sebagai kriteria validasi praktis dalam kasus ini:
2.17
|RN(saya)| ;saya≥ 1
N
di manaNadalah jumlah sampel. Meja5.2dapat digunakan untuk menemukan nilai
numerik dari kriteria validasi untuk berbagaiNdan tingkat kebermaknaan tes.
Semua komentar yang dibuat di Sect.5.4tentang kebermaknaan nilai-nilai
kriteria validasi berlaku juga dalam hal ini. Secara khusus, nilai numerik praktis
dasar untuk kriteria validasi, yaitu:
|RN(saya)|<0.15;saya≥ 1
layak untuk diingat. Tes ini juga digunakan ketika seseorang ingin membandingkan model yang
diidentifikasi dengan metode Tipe I, dengan model yang diidentifikasi dengan metode Tipe II. Dalam
hal ini, hanya himpunan parameter yang diestimasi dariA(q1)danB(q1)digunakan pada prediktor
kesalahan keluaran yang diberikan dalam (5.101) kemudian dilakukan uji unkorelasi.
Urutan biner acak semu adalah urutan pulsa persegi panjang, dimodulasi lebarnya, yang
mendekati white noise waktu diskrit dan dengan demikian memiliki konten spektral
5.7 Pemilihan Urutan Biner Acak Pseudo 179
N L=2N− 1 BsayadanBj
2 3 1 dan 2
3 7 1 dan 3
4 15 3 dan 4
5 31 3 dan 5
6 63 5 dan 6
7 127 4 dan 7
8 255 2, 3, 4 dan 8
9 511 5 dan 9
10 1023 7 dan 10
Gambar 5.5Kepadatan spektral daya dari urutan PRBS, (sebuah)N=8,p=1, (b)N=8,p=2, (c)
N=8,p=3
lebih besar dari waktu naiktRdari tanaman. Durasi maksimum pulsa adalah
tidaks,hasil kondisi berikut:
tidaks> untukR (5.104)
Perhatikan bahwa kondisi (5.104) dapat menghasilkan nilai yang cukup besarNsesuai
dengan panjang urutan durasi terlarang, baik karenaTssangat besar, atau karena sistem
yang akan diidentifikasi mungkin berkembang dengan baik selama durasi pengujian.
Inilah sebabnya, dalam sejumlah besar situasi praktis, submultiple dari frekuensi
sampling dipilih sebagai frekuensi clock untuk PRBS. Jika:
f
fPRBS=s;p=1,2,3, . . . (5.106)
p
5.8 Pemilihan Pesanan Model 181
dmaksimal=pNTS; Lkan=pL;p=1,2,3, . . .
Dengan meningkatkanNoleh(p− 1)dan dengan demikian panjang urutan (tanpa
mengubah frekuensi clock), diperoleh:
Dengan tidak adanya informasi apriori yang jelas tentang struktur model pabrik, dua
pendekatan dapat digunakan untuk memilih urutan yang sesuai untuk nilaid, nSEBUAH, nB
mengkarakterisasi model pabrik input-output
182 5 Identifikasi Model Tanaman Rekursif pada Loop Terbuka
Bahkan dalam kasus menggunakan estimasi pesanan langsung dari data, berguna untuk
melihat sejauh mana kedua pendekatan itu koheren. Kami akan membahas dua pendekatan
berikutnya.
A(q1)y(t)=q−dB(q1)u(t)+w(t)
w(t)=e(t)
w(t)=A(q1)v(t); (v(t)dankamu(t)mandiri)
w(t)=C(q1)e(t)
C(q1)
w(t)= e(t)
D(q1)
Pilihan PrioritasnSEBUAH
1. Pabrik industri (suhu, kontrol, laju aliran, konsentrasi, dan sebagainya). Untuk jenis
tanaman ini pada umumnya :
nSEBUAH≤ 3
dan nilainyanSEBUAH=2, yang sangat khas, adalah nilai awal yang baik untuk dipilih.
2. Sistem elektromekanis.nSEBUAHhasil dari analisis struktural sistem.
ContohLengan Robot Fleksibel dengan dua mode getaran. Pada kasus ini,nSEBUAH=4
dipilih, karena orde kedua diperlukan, untuk memodelkan mode getaran.
5.8 Pemilihan Pesanan Model 183
Jika tidak ada pengetahuan tentang waktu tunda yang tersedia,d=0 dipilih sebagai
nilai awal. Jika nilai minimum diketahui, nilai awald=dminterpilih. Jika waktu tunda
telah diremehkan, selama identifikasi koefisien pertama dariB(q1)akan sangat
rendah.nBkemudian harus dipilih sehingga keduanya dapat menunjukkan adanya
waktu tunda dan mengidentifikasi pembilang fungsi transfer.nB=(dmaksimal− dmin)+2
kemudian dipilih sebagai nilai awal. Setidaknya dua koefisien diperlukan dalamB(q1
) karenapecahandelay yang sering terjadi pada aplikasi. Jika waktu tunda diketahui,
nB≥ 2 dipilih, tetapi 2 tetap merupakan nilai awal yang baik.
|b1|<0.15|b2|
|bsaya|<0.15|bd+1|; saya=1,2, . . . , d
Setelah estimasi penundaan ini, identifikasi dimulai kembali dengan model kutub-nol.
Kedua metode ini tentu saja dapat dilengkapi dengan tampilan respon langkah dari
model yang diestimasi. Estimasi waktu tunda yang lebih akuratddilakukan selama
bagian kedua dalam algoritma identifikasi. Ini diikuti dengan validasi model yang
diidentifikasi. Perhatikan bahwa jika sistem terkontaminasi oleh kebisingan sistem
pengukuran, estimasi penundaan yang akurat hanya akan dilakukan dengan metode
yang memungkinkan model yang diidentifikasi untuk divalidasi.
184 5 Identifikasi Model Tanaman Rekursif pada Loop Terbuka
Penentuan dari(nSEBUAH)maksimaldan(nB)maksimal
Tujuannya adalah untuk mendapatkan model identifikasi yang paling sederhana yang
memverifikasi kriteria validasi. Ini terkait di satu sisi dengan kompleksitas pengontrol (yang
akan bergantung padanSEBUAHdannB)tetapi sama dengan kekokohan model yang diidentifikasi
sehubungan dengan kondisi operasi.
Pendekatan pertama untuk memperkirakan nilai(nSEBUAH)maksimaldan(nB)maksimal
adalah menggunakan RLS dan mempelajari evolusi varians kesalahan prediksi residual,
yaitu, evolusi:
1∑ N
R(0)=E{ε2(t)} = (t)2
N
t=1
sebagai fungsi dari nilainSEBUAH+nB.Sebuah kurva khas diberikan pada Gambar.5.6.
Secara teori, jika contoh yang dipertimbangkan disimulasikan dan bebas noise, kurva
harus menyajikan siku yang rapi diikuti oleh segmen horizontal, yang menunjukkan
bahwa peningkatan jumlah parameter tidak meningkatkan kinerja. Dalam praktiknya,
siku ini tidak rapi karena ada kebisingan pengukuran.
Tes praktek yang digunakan untuk menentukannSEBUAH+nBadalah sebagai berikut: pertimbangkan dulu
nSEBUAH, nBdan varians yang sesuai dari kesalahan residualR(0). Pertimbangkan sekarang
nSEBUAH
kan =nSEBUAH+1,nBdan varians yang sesuai dari kesalahan residualRkan(0). Jika:
Rkan(0)≥ 0.8R(0)
tidak bijaksana untuk meningkatkan derajatnSEBUAH(tes yang sama dengannkan B=nB+1). Dengan
pilihan yang menghasilkannSEBUAHdannB,model yang diidentifikasi oleh RLS tidak selalu
memverifikasi kriteria validasi. Oleh karena itu, sambil menjaga nilai-nilainSEBUAH
dannB,struktur dan metode lain harus dicoba untuk mendapatkansah model. Jika
setelah semua metode dicoba, tidak ada yang mampu memberikan model yang
memenuhi kriteria validasi, makanSEBUAHdannBharus ditingkatkan.
Untuk pembahasan yang lebih rinci tentang berbagai prosedur untuk estimasi (n
SEBUAH)maks dan(nB)maks lihat Söderström dan Stoica (1989).
Sebagai peraturan,nC=nD=nSEBUAHterpilih.
5.8 Pemilihan Pesanan Model 185
Untuk memperkenalkan masalah estimasi pesanan dari data, kita akan mulai dengan sebuah contoh:
asumsikan bahwa model pabrik dapat dijelaskan oleh:
dan bahwa data tersebut bebas noise. Urutan model ini adalahn=nSEBUAH=nB=1.
Pertanyaan: Apakah ada cara untuk menguji dari data jika asumsi urutan benar? Untuk
melakukannya, buat matriks berikut:
⎡ ⎤
⎢ y(t) ... y(t− 1) kamu(t− 1)[ ]
⎢ . . . y(t− 2) ⎥
⎣⎢y(t− 1) kamu(t− ⎦2)= Y (t) ... R(1) (5.109)
. . . y(t− 3)
y(t− 2) kamu(t− 3)
Jelas, jika urutan model yang diberikan dalam (5.108) benar, vektorY (t)akan menjadi
kombinasi linier dari kolomR(1)(Y (t)=R(1)θdenganθT= [−sebuah1, b1]) dan peringkat
matriksnya adalah 2 (bukan 3). Jika model tanaman berorde 2 atau lebih tinggi, matriks (
5.109) akan menjadi peringkat penuh. Tentu saja, prosedur ini dapat diperluas untuk
menguji urutan model dengan menguji peringkat matriks [Y (t), R (n̂)] di mana:
R(n̂)= [Y (t− 1), U(t− 1), Y (t− 2), U(t− 2), . . . , Y (t− n), U(t− n)]
(5.110)
kamuT(t)= [y(t), y(t− 1), . . .] (5.111)
kamuT(t)= [u(t), u(t− 1), . . .] (5.112)
dimana biasanya:
X(N)di (5.115) adalah fungsi yang berkurang denganN. Misalnya, dalam apa yang disebut
BICLS(n̂, N)kriteria,X(N)=catatanN N(pilihan lain dimungkinkan—lihat Ljung 1999;
Söderström dan Stoica 1989; Duong dan Landau 1996) dan urutannyandipilih sebagai salah
satu yang meminimalkanCVLSdiberikan oleh (5.114). Sayangnya, hasilnya tidak memuaskan
dalam praktiknya karena dalam sebagian besar situasi, kondisi untuk estimasi parameter yang
tidak bias menggunakan kuadrat terkecil tidak terpenuhi.
Dalam Duong dan Landau (1994) dan Duong dan Landau (1996), diusulkan untuk
menggantikan matriksR(n̂)oleh matriks variabel instrumentalZ(n̂)yang elemennya tidak
akan berkorelasi dengan kebisingan pengukuran. Matriks instrumental seperti ituZ(n̂)
dapat diperoleh dengan mengganti dalam matriksR(n̂), kolomY (t− 1), Y (t− 2), Y (t− 3)oleh
versi tertunda dariU(t− L− saya), yaitu dimanaL > n:
Z(n̂)= [U(t− L− 1), U(t− 1), U(t− L− 2), U(t− 2), . . .] (5.116)
dan oleh karena itu, kriteria berikut digunakan untuk estimasi pesanan:
1 2ncatatanN
CVPJ(n̂, N)=min kanY (t)− Z(n̂)θ̂kan2+ (5.117)
θ̂ N N
dan:
n=minCVPJ(n) (5.118)
n
Kurva khas dari evolusi kriteria (5.117) sebagai fungsi darinditunjukkan pada Gambar.5.7
. Hal ini ditunjukkan dalam Duong dan Landau (1996) bahwa dengan menggunakan
kriteria ini estimasi urutan yang konsistenndiperoleh di bawah kondisi kebisingan ringan
(yaitu, limN→∞P r(n̂=n)=1). Perbandingan dengan kriteria estimasi pesanan juga
disediakan dalam referensi ini.
Setelah perkiraan pesananndipilih, seseorang dapat menerapkan prosedur serupa untuk
memperkirakannSEBUAH, n− d, nB+d,dari mananSEBUAH, nBdanddiperoleh.8
8Rutinitas
yang sesuai dengan metode ini di Matlab dan Scilab dapat diunduh dari situs web:
http://www.landau-adaptivecontrol.orgdanhttp://landau-bookic.lag.ensieg.inpg.fr.
5.9 Contoh: Identifikasi Transmisi Fleksibel 187
Gambar 5.8
Transmisi fleksibel
Transmisi fleksibel digambarkan pada Gambar.5.8. dan telah dijelaskan dalam Sect. 1.4.3. Ini
dibentuk oleh satu set tiga katrol yang digabungkan dengan dua sabuk yang sangat elastis.
Sistem dikendalikan oleh PC melalui papan I/O. Frekuensi pengambilan sampel adalah 20 Hz
(untuk lebih jelasnya lihat Bagian 1.4.3). Identifikasi loop terbuka dilakukan dengan PC
menggunakan perangkat lunak WinTrac untuk akuisisi data dan perangkat lunak identifikasi
WinPim (Adaptech 1988). Urutan input adalah PRBS yang dihasilkan oleh register geser
dengan 7 sel dan pembagi frekuensi 2 digunakan untuk frekuensi clock generator PRBS.
Panjang sekuen adalah 256 sampel. Lihat Gambar.5.9.
Setelah menghilangkan komponen dc, estimasi order dari data telah dilakukan
dengan menggunakan kriteria (5.117). Hasil berikut telah diperoleh:n=4, nSEBUAH=4,
nB=2,d=2. Nilai-nilai ini telah dikonfirmasi dengan menggunakan metode coba-
coba yang disajikan di Sect.5.8.1.
Berbagai metode disajikan dalam Tabel5.1Telah digunakan. Tampak jelas bahwa
model tipe ARMAX mewakili sistem setelah membandingkan hasil validasi yang
diperoleh dengan model yang diidentifikasi dengan metode yang berbeda. Oleh karena
itu berikut ini akan disajikan perbandingan model yang diperoleh dengan: ELS, OEEPM,
RML untuk case tanpa beban. Dalam semua kasus, keuntungan adaptasi menghilang
telah digunakan (tanpa melupakan faktor, yaitu,λ1(t)≡ 1,λ2(t)≡ 1).
Meja5.4merangkum baik hasil uji keputihan pada kesalahan prediksi residual
dan uji tidak korelasi saat menggunakan prediktor kesalahan keluaran.
Hasil yang diperoleh sangat mendekati, tetapi prioritas telah diberikan pada uji
unkorelasi menggunakan prediktor kesalahan keluaran. ELS dan OEEPM memberikan
hasil yang sangat dekat. Model OEEPM dipilih karena memberikan nilai yang lebih kecil
untuk Reŷ(saya)maksimal(namun, karakteristik frekuensi kedua model hampir identik).
188 5 Identifikasi Model Tanaman Rekursif pada Loop Terbuka
Tabel 5.4Komparatif
validasi model Tes keputihan Uji unkorelasi
(kesalahan prediksi) (kesalahan keluaran)
Gambar 5.10Output sebenarnya, output yang diprediksi (prediktor ARMAX) dan kesalahan prediksi residual untuk model yang
diidentifikasi menggunakan algoritma OEEPM
Gambar 5.11Keluaran sebenarnya, keluaran yang diprediksi (prediktor kesalahan keluaran) dan prediksi kesalahan keluaran sisa
untuk model yang diidentifikasi menggunakan algoritma OEEPM
190 5 Identifikasi Model Tanaman Rekursif pada Loop Terbuka
5.11 Masalah
5.3Kerjakan rincian analisis konvergensi dari algoritme kuadrat terkecil yang diperluas
dalam lingkungan stokastik menggunakan metode rata-rata (Bab 4.2) dan pendekatan
martingale (Bab 4.3).
5.4Untuk model ARMAX dari bentuk (5.11) mengembangkan metode variabel instrumental
menggunakan pengamatan tertundakamuVI(t)=y(t− saya)untuk mendapatkan estimasi
parameter yang tidak bias dengan prediktor tipe kuadrat terkecil (Banon dan Aguilar-Martin
1972).
(a) Periksa pengaruh rasio noise/sinyal pada bias parameter yang diestimasi saat
menggunakan kuadrat terkecil rekursif.
(b) Untuk nilai rasio noise/sinyal yang memberikan bias signifikan pada kuadrat terkecil
rekursif, coba algoritma lain yang diberikan pada Tabel5.1.
Gunakan jarak parametrik [(θ− )T(θ− )]1/2untuk mengevaluasi bias secara global.
Mendiskusikan hasil validasi.