Anda di halaman 1dari 39

Diterjemahkan dari bahasa Inggris ke bahasa Indonesia - www.onlinedoctranslator.

com

Bab 5
Identifikasi Model Tanaman Rekursif dalam
Loop Terbuka

5.1 Identifikasi Rekursif dalam Konteks


Identifikasi Sistem

Dalam bab ini, kita akan fokus pada identifikasi model plant yang beroperasi dalam loop
terbuka menggunakan estimasi parameter rekursif. Algoritma estimasi parameter rekursif
memainkan peran penting dalam identifikasi model tanaman secara real time.
Dari sudut pandang praktis, identifikasi model pabrik merupakan titik awal utama untuk
merancang pengontrol linier berkinerja tinggi, tetapi juga merupakan langkah besar menuju
desain skema kontrol adaptif yang sesuai. Selanjutnya, penggunaan teknik identifikasi rekursif
secara real time dalam banyak kasus merupakan langkah pertama menuju penerapan kontrol
adaptif. Ini juga berfungsi untuk inisialisasi sistem kontrol adaptif. Oleh karena itu logis untuk
mempertimbangkan penggunaan algoritma estimasi parameter rekursif untuk melakukan
identifikasi sistem.
Latar belakang dalam estimasi parameter rekursif baik dalam lingkungan
deterministik dan stokastik disajikan dalam Bab. 3 dan 4, dan dapat digunakan untuk
menganalisis atau mensintesis algoritma estimasi parameter rekursif. Namun demikian,
estimasi parameter rekursif hanya mewakili satu aspek dari identifikasi sistem dan
penting untuk menempatkannya dalam konteks umum dari identifikasi sistem.
Identifikasi sistem dinamis adalah pendekatan eksperimental untuk menentukan model
dinamis suatu sistem. Ini mencakup empat langkah:

1. akuisisi data input-output di bawah protokol eksperimental;


2. pemilihan (atau estimasi) kompleksitas model (struktur);
3. estimasi parameter model;
4. validasi model yang teridentifikasi (struktur model dan nilai parameter).

Sebuah operasi identifikasi lengkap harus terdiri dari empat tahap yang ditunjukkan di atas. Metode
spesifik yang digunakan pada setiap langkah tergantung pada jenis model yang diinginkan
(parametrik atau non parametrik, waktu kontinu atau waktu diskrit). Dalam kasus kami, kami akan
fokus pada identifikasi model input-output waktu diskrit yang dijelaskan oleh persamaan perbedaan
menggunakan metode estimasi parameter rekursif. Seperti yang akan terlihat,

ID Landau dkk.,Kontrol Adaptif, Teknik Komunikasi dan Kontrol, DOI 153


10.1007/978-0-85729-664-1_5, © Springer-Verlag London Limited 2011
154 5 Identifikasi Model Tanaman Rekursif pada Loop Terbuka

Gambar 5.1Metodologi
identifikasi

algoritma yang akan digunakan untuk estimasi parameter akan tergantung pada asumsi
yang dibuat pada kebisingan yang mengganggu pengukuran, asumsi yang harus
dikonfirmasi oleh validasi model.
Penting untuk ditekankan bahwa tidak ada satu orang puntanaman+gangguanstruktur
yang ada yang dapat menggambarkan semua situasi yang dihadapi dalam praktek.
Selanjutnya, tidak ada algoritma estimasi parameter yang dapat digunakan dengan semua
kemungkinan struktur pembangkit + gangguan sehingga parameter yang diestimasi selalu
tidak bias. Selanjutnya, karena kurangnya informasi apriori, protokol akuisisi data input-
output mungkin pada awalnya tidak tepat.
Semua penyebab ini dapat menyebabkan model yang diidentifikasi tidak lulus uji validasi,
dan oleh karena itu identifikasi harus dilihat sebagai proses berulang seperti yang
diilustrasikan pada Gambar.5.1. Sehubungan dengan teknik estimasi parameter off-line,
penggunaan teknik estimasi parameter rekursif menawarkan tiga keuntungan utama:

(a) Estimasi model sistem dapat diperoleh seiring dengan perkembangan sistem.
(b) Model estimasi on-line berisi semua informasi yang diberikan oleh data input-output masa
lalu. Oleh karena itu seseorang mencapai kompresi data yang signifikan.
(c) Tanpa perubahan besar (hanya beberapa pilihan dalam memperbarui perolehan adaptasi) seseorang
dapat mengikuti evolusi sistem yang bervariasi waktu secara perlahan.

Penting juga untuk menyebutkan bahwa kinerja algoritma rekursif ini


menjadikannya alternatif kompetitif untuk algoritma identifikasi off-line.
Untuk menjaga kesinambungan teks pertama-tama kita akan membahas
teknik estimasi parameter rekursif dan teknik validasi model. Kami kemudian
akan membahas desain protokol akuisisi data input-output dan masalah
pemilihan struktur model (estimasi) yang, dalam kasus kami, menyangkut
pemilihan (estimasi) orde berbagai polinomial dan penundaan digunakan
dalam model waktu diskrit sistem.
5.2 Struktur Algoritma Estimasi Parameter Rekursif 155

Gambar 5.2Struktur
metode identifikasi
rekursif

5.2 Struktur Algoritma Estimasi Parameter Rekursif


Semua algoritma estimasi parameter rekursif1sesuai dengan diagram skematik yang ditunjukkan
pada Gambar.5.2.
Mereka semua menggunakan struktur yang sama untuk algoritma adaptasi parameter (PAA)
dengan pilihan yang berbeda untuk keuntungan adaptasi dan PAA ini telah dibahas secara luas di
Sect. 3.3. Semua metode menggunakan prediktor adaptif satu langkah di depan yang, di bawah
persyaratan khusus pada input, memungkinkan untuk mendapatkan perkiraan parameter yang
benar (di bawah kondisi kebisingan tertentu). Dengan kata lain, prediksi adaptif merupakan aspek
intrinsik dari estimasi parameter.
Salah satu masalah utama dalam estimasi parameter untuk identifikasi, adalah
bahwa untuk alasan praktis, sinyal eksitasi harus sangat kecil. Kendala ini terutama
berasal dari fakta bahwa seseorang sering mengidentifikasi sistem yang beroperasi
normal dan eksitasi tambahan yang diizinkan sangat rendah. Fakta bahwa kami ingin
mengidentifikasi model linier di sekitar titik operasi sistem, juga merupakan alasan
untuk menggunakan sinyal eksitasi rendah untuk jenis sistem tertentu.
Karena, di satu sisi, eksitasi yang diizinkan rendah, dan di sisi lain, pengukuran
keluaran selalu terganggu oleh noise, maka data yang diperoleh akan dicirikan secara
umum oleh rasio noise/sinyal yang signifikan. Oleh karena itu, efek noise pada algoritma
estimasi parameter tidak dapat diabaikan. Seperti yang ditunjukkan dalam Bab. 4, efek
utama adalah kesalahan bias yang diperkenalkan pada parameter yang diperkirakan.
Menghilangkan bias untuk berbagai jenis gangguan stokastik adalah salah satu faktor
pendorong utama dalam mengembangkan algoritma estimasi parameter rekursif.
Faktanya, tidak ada algoritma unik yang dapat digunakan dengan semua kemungkinan
struktur gangguan seperti parameter yang diestimasi selalu tidak bias.
Berbagai algoritma dibedakan satu sama lain sebagai berikut:
• struktur prediktor;
• sifat komponen dari vektor pengamatan(t);
• dimensi vektor parameter yang dapat disesuaikan(t)dan vektor pengamatan
(t);
• cara di mana kesalahan prediksi dan masing-masing kesalahan adaptasi
dihasilkan.

1Kami akan sering menyebutnya metode identifikasi rekursif (algoritma).


156 5 Identifikasi Model Tanaman Rekursif pada Loop Terbuka

Sifat konvergensi dengan adanya gangguan acak, akan tergantung pada


pilihan berbeda yang ditunjukkan di atas.
Klasifikasi berbagai algoritma dapat dilakukan dengan menggunakan kriteria yang berbeda.
Seperti yang ditunjukkan dalam Sect. 4.1, untuk menghindari kesalahan bias, perlu:

E{(t)ε(t+1)} =0 untukθ̂ =θ
di mana(t)adalah kesalahan pengamatan dan(t+1)adalah kesalahan prediksi (atau adaptasi).
Oleh karena itu, struktur prediktor, vektor pengamatan dan kesalahan adaptasi harus dipilih
dengan tepat. Sebenarnya berbagai algoritma akan mencoba untuk memenuhi kondisi ini
dengan memastikan secara asimtotik salah satu dari dua kriteria berikut:

1.(t+1)(atau(t+1)=kesalahan adaptasi) adalah white noise untukθ̂ =θ .


2.(t)dan(t+1)(atau(t+1)) tidak berkorelasi (atau independen) untukθ̂ =θ .
Oleh karena itu, berbagai metode identifikasi rekursif dapat dibagi menjadi dua kategori sesuai
dengan prinsip yang digunakan untuk mendapatkan parameter estimasi yang tidak bias:

(1) metode identifikasi berdasarkan pemutihan kesalahan prediksi;


(2) metode identifikasi berdasarkan dekorelasi vektor pengamatan (φ) dan
kesalahan prediksi (ε).
Klasifikasi lain dari metode identifikasi rekursif dimungkinkan. Salah satu klasifikasi
tersebut terkait dengan struktur prediktor dan vektor pengamatan dan dapat
dibedakan:

Metode Kesalahan Persamaan: yang termasuk kuadrat terkecil rekursif dan yang berbeda
ekstensi. Metode-metode ini dicirikan oleh fakta bahwa keluaran terukur (dan nilai-nilai
tertundanya) digunakan baik dalam persamaan prediktor maupun dalam vektor
pengamatan (akhirnya disaring). Setiap metode cenderung memperoleh kesalahan
prediksi putih (white noise) secara asimtotik untuk kelas model gangguan dengan
memodelkan gangguan secara rekursif.
Metode Variabel Instrumental: Dengan menggunakan metode ini, seseorang mencoba menghasilkan objek
vektor pelayanan yang tidak berkorelasi dengan kesalahan prediksi, dengan membangkitkan
variabel instrumental yang berkorelasi dengan keluaran bebas noise dari sistem dan tidak
berkorelasi dengan noise.
Metode Kesalahan Keluaran: Metode ini dicirikan oleh fakta bahwa ad-
prediktor yang dapat dibenarkan menggunakan nilai sebelumnya dari output yang
diprediksi, bukan pengukuran sebelumnya dari output sistem. Selanjutnya, dalam vektor
observasi pengukuran keluaran diganti dengan keluaran yang diprediksi.
Metode Kesalahan Masukan: Dengan menggunakan metode ini, seseorang mengidentifikasi kebalikan dari model.
Prediktor yang dapat diatur dirangkai secara seri dengan plant dan keluaran dari prediktor yang dapat
diatur tersebut dibandingkan dengan input yang tertunda (Landau 1979).

Klasifikasi lain yang mungkin adalah cara algoritma diturunkan mulai dari metode
identifikasi off-line yang sesuai (Ljung dan Söderström 1983). Seseorang dapat
membedakan:

Metode Kesalahan Prediksi Rekursif(Rp): Prosedur identifikasi offline


yang meminimalkan kriteria dalam hal kesalahan prediksi (untuk gangguan yang diberikan)
ditransformasikan menjadi algoritma rekursif dengan meminimalkan sekuensial
5.2 Struktur Algoritma Estimasi Parameter Rekursif 157

kriteria. Prediktor yang dapat disesuaikan mengambil bentuk prediktor yang memungkinkan untuk
memutihkan kesalahan prediksi secara asimtotik. Vektor pengamatan dikalikan dengan kesalahan
prediksi adalah perkiraan gradien kriteria yang akan diminimalkan. Algoritme ini melibatkan
pemfilteran data secara online melalui filter yang berubah-ubah waktu tergantung pada parameter
yang diestimasi.
Regresi Linier Pseudo(PLR): Sertakan semua algoritme yang digunakan sebagai
vektor vation, vektor regressor yang digunakan dalam prediktor yang dapat disesuaikan.
Kebanyakan dari mereka dapat dilihat sebagai pendekatan dari metode kesalahan prediksi rekursif
(karena mereka menggunakan jenis prediktor yang sama) atau sebagai generalisasi dari kuadrat
terkecil rekursif dalam arti bahwa vektor pengamatan bergantung pada dirinya sendiri pada nilai-
nilai sebelumnya dari perkiraan. parameter (yang tidak terjadi di RLS).
Variabel Instrumental(RIV): Lihat di atas.

Namun, terlepas dari bagaimana algoritma ini diturunkan, analisis stabilitas dalam
lingkungan deterministik dan analisis konvergensi dalam lingkungan stokastik
diperlukan.
Salah satu kelemahan RPEM dan RIV adalah stabilitas global maupun konvergensi
global tidak dapat dijamin dan memerlukan inisialisasi menggunakan metode
identifikasi lain.
Derivasi algoritma regresi pseudo-linear yang menampilkan properti stabilitas asimtotik global
dapat dengan mudah dilakukan menggunakan metode representasi umpan balik ekivalen dengan
(1) terlebih dahulu menulis struktur yang diinginkan dari prediktor yang dapat disesuaikan (2)
menurunkan persamaan prediksi a posteriori (adaptasi) kesalahan bentuk yang diberikan dalam
Teorema 3.2 dan kemudian menggunakan PAA yang sesuai.
Metode PLR sering tunduk pada kondisi nyata positif dalam lingkungan
deterministik. Penghapusan kondisi riil positif ini telah mendorong pengembangan
sejumlah metode.
Menarik juga untuk dicatat bahwa algoritma RPEM dapat dilihat sebagai solusi
lokal untuk merelaksasi kondisi nyata positif yang terjadi pada algoritma regresi
pseudo-linear (PLR).
Dari sudut pandang praktis, berbagai klasifikasi yang disebutkan tidak penting. Yang
penting dalam praktiknya adalah dapat menentukan untuk algoritma yang diberikan:

(1) Untuk jenis model kebisingan apa, perkiraan tidak bias asimtotik dapat berpotensi
diperoleh?
(2) Bagaimana kondisi stabilitas dalam lingkungan deterministik dan kondisi
konvergensi dalam lingkungan stokastik?
(3) Apa persyaratan inisialisasi (jika ada)?
Oleh karena itu, kita harus mempertimbangkan strukturtanaman+model gangguandijelaskan
oleh:

q−dB(q1)
y(t)= kamu(t)+v(t) (5.1)
A(q1)
di manakamu(t)adalah masukan tanaman,y(t)adalah keluaran terukur danv(t)adalah
gangguan: Tiga model untuk gangguan dipertimbangkan secara umum.
158 5 Identifikasi Model Tanaman Rekursif pada Loop Terbuka

(1)
v(t)=proses stokastik rata-rata nol dengan momen terbatas
independen darikamu(t) (5.2)

(2)
C(q1)
v(t)= e(t) (5.3)
A(q1)
di manae(t)adalah white noise rata-rata nol (atau untuk alasan teknis didefinisikan
sebagai urutan martingale). Pada kasus ini, (5.1) disebut model ARMAX.
(3)
C(q1)
v(t)= e(t) (5.4)
A(q1)D(q1)
Polinomial monikC(q1)danD(q1)diasumsikan memiliki akar di dalam
lingkaran satuan (polinomial stabil asimtotik) dan memiliki bentuk:
C(q1)=1 +c1q1+· · · +cnCq−nC=1 +q1C∗(q1) D(q1)=1 +d1q1+ (5.5)
· · · +dnDq−nD=1 +q1D∗(q1) (5.6)
Model (1) sesuai dengan gangguan keluaran sedangkan model (2) dan (3) sesuai
dengan penyaringan gangguan melalui kutub sistem (disebut juga gangguan
persamaan kesalahan).
Kami juga akan mengasumsikan bahwa struktur dan kompleksitas (urutan berbagai polinomial)
dari prediktor yang dapat disesuaikan sedemikian rupa sehingga ada vektor parameterθ (atau
beberapa) sedemikian rupa sehingga kesalahan prediksi(t+1)dalam lingkungan deterministik
menjadi nol dan, di samping itu, dalam lingkungan stokastik baik kesalahan prediksi adalah white
noise atauE{(t+1)φ(t)} =0, dimana(t)adalah vektor pengamatan. Bahkan, orang berasumsi bahwa
yang benartanaman+model gangguandanprediktor yang dapat disesuaikanmemiliki struktur yang
sama dan, oleh karena itu, ini adalah nilai dari vektor parameterθ dimana prediktor yang dapat
disesuaikan akan sesuai dengan model pembangkit + gangguan yang sebenarnya. Dapat dikatakan
bahwa model pembangkit + gangguan yang sebenarnya adalah himpunan dari model estimasi yang
mungkin yang diparameterisasi olehθ̂ atau, singkatnya, bahwa “model pembangkit + gangguan yang
sebenarnya ada diset model” (Ljung 1999).
Meja5.1merangkum sejumlah teknik estimasi parameter rekursif yang signifikan. Mereka
semua menggunakan PAA dalam bentuk:

(t+1)=(t)+F (t)Φ(t)ν(t+1) (5.7)


F (t+1)1=λ1(t)F (t)1+λ2(t)Φ(t)ΦT(t)
0<1(t)≤ 1; 0≤ λ2(t) <2;F (0) >0
F−1(t) > F−1(0);0< <∞ (5.8)
ν0(t+1)
(t+1)= (5.9)
1 +ΦT(t)F (t)Φ(t)
Integral + proporsional PAA juga dapat digunakan.
Pada bagian selanjutnya berbagai algoritma akan dibahas dan dianalisis.
Tabel 5.1Algoritma identifikasi rekursif (a)

Kuadrat Terkecil Rekursif (RLS) Kuadrat Terkecil Diperpanjang (ELS) Output Error dengan Extended
Prediction Model (OEEPM)

Model tanaman + kebisingan −dB


kamu=qSEBUAH kamu+1 −dB kamu+C
kamu=qSEBUAH −dB kamu+C
kamu=qSEBUAH
SEBUAHe SEBUAHe SEBUAHe

Dapat disesuaikan θ̂ T(t)= [sebuahT(t), b̂T(t)] sebuahT θ̂ T(t)= [sebuahT(t), b̂T(t),T(t)] sebuah θ̂ T(t)= [sebuahT(t), b̂T(thT(t)] sebuahT
vektor parameter
(t)= [sebuah1, . . . , sebuahnSEBUAH] T(t)= [sebuah1, . . . , sebuahnSEBUAH] b (t)= [sebuah1, . . . , sebuahnSEBUAH] bˆT
bT(t)= [b1, . . . , bnB] T(t)= [b1, . . . , bnB] cT(t)= [c1. . . cnC] (t)= [b1, . . . , bnB] hT(t)= [h1. . . hnH] nH
=maksimal(nSEBUAH, nC)

Prediktor ψT(t)= [−y(t), . . . ,−y(t− nSEBUAH+1), ψT(t)= [−y(t), . . . ,−y(t− nSEBUAH+1), ψT(t)= [−(t), . . . ,−(t− nSEBUAH+1),
vektor regresi kamu(t− d), . . . , u(t− d− nB+1)] kamu(t− d), . . . , u(t− d− nB+1), kamu(t− d), . . . , u(t− d− nB+1),
(t), . . . , (t− nC+1)] (t), . . . , (t− nC+1)]
sebuah prioritas ŷ0(t+1)=θ̂ T(t)ψ(t) (t+1)=θ̂
5.2 Struktur Algoritma Estimasi Parameter Rekursif

Prediktor
keluaran sebuah posteriori T(t+1)ψ(t)

Ramalan sebuah prioritas ε0(t+1)=y(t+1)− ŷ0(t+1) (t+1)=y(t


kesalahan
sebuah posteriori +1)− (t+1)

Kesalahan adaptasi ν◦(t+1)=ε◦(t+1) ν◦(t+1)=ε◦(t+1) ν◦(t+1)=ε◦(t+1)

Vektor observasi (t)=(t) (t)=(t) (t)=(t)

Kondisi stabilitas Tidak ada Tidak ada Tidak ada

lingkungan deterministik
1 1
Kondisi konvergensi Tidak ada C− λ2 2 =SPR C− λ2 2 =SPR
lingkungan stokastik
159
Tabel 5.1(Lanjutan)
160

(b)
Maksimum Rekursif Terkecil Umum Kesalahan Output dengan
Kemungkinan (RML) Kotak (GLS) Kompensator Tetap (OEFC)

C
Model tanaman + kebisingan −dB
kamu=qSEBUAH kamu+C −dB kamu+
kamu=qSEBUAH −dB kamu+v
kamu=qSEBUAH
SEBUAHe IKLANe

Dapat disesuaikan θ̂ T(t)= [sebuahT(t), b̂T(t),T(t)] sebuahT(t)= [ θ̂ T(t)= [sebuahT(t), b̂T(t),T(t), dT(t)] pada)= [ θ̂ T(t)= [sebuahT(t), b̂T(t)] sebuahT(t)= [
parameter sebuah1, . . . , sebuahnSEBUAH]
T
sebuah1, . . . , sebuahnSEBUAH] sebuah1, . . . , sebuahnSEBUAH]

vektor bT(t)= [b1, . . . , bnB] c bT(t)= [bˆ1, . . . , bnB] bT(t)= [b1, . . . , bnB]
T(t)= [c1, . . . , cnC] (t)T= [c1, . . . , cnC] dT(t)
= [d1, . . . , dnD]

Prediktor
ψT(t)= [−y(t), . . . ,−y(t− nSEBUAH+1), ψT(t)= [−y(t), . . . ,−y(t− nSEBUAH+1), ψT(t)= [−(t), . . . ,−(t− nSEBUAH+1),
kemunduran kamu(t− d), . . . , u(t− d− nB+1), kamu(t− d), . . . , u(t− d− nB+1), kamu(t− d), . . . , u(t − d− nB+1)]
vektor (t), . . . , (t− nC+1)] (t), . . . , (t− nC+1),
− (t), . . . ,−(t− nD+1)]
(t)=Â(t)y(t)− B∗(t)u(t− d− 1)
Prediktor sebuah prioritas ŷ0(t+1)=θ̂ T(t)ψ(t)
keluaran sebuah posteriori(t+1)=θ̂ T(t+1)ψ(t)
Ramalan sebuah prioritas ε0(t+1)=y(t+1)− ŷ0(t+1)
kesalahan
sebuah posteriori(t+1)=y(t+1)− (t+1)
∑nD
Kesalahan adaptasi ν◦(t+1)=ε◦(t+1) (t)= ν◦(t+1)=ε◦(t+1) (t)=(t) ν◦(t+1)=ε◦(t+1)+ (t)=(t) saya=1dsaya(t+1saya)

1
Vektor observasi (t)
(t,q1)
(t, q1)=1 +c1(t)q Tidak 1+· ··
D
Kondisi stabilitas ada Tidak ada SEBUAH− λ2 =SPR
2
lingkungan deterministik

D
Konvergensi Hanya konvergensi lokal (1) Tidak diketahui C− λ2 2 =SPR
kondisi (t, q1)=stabil (2)D, CdiketahuiDSEBUAH− λ2=SPR 2 wdankamumandiri
lingkungan stokastik
5 Identifikasi Model Tanaman Rekursif pada Loop Terbuka
Tabel 5.1(Lanjutan)
(c)
Keluaran yang Difilter Kesalahan Output dengan Kompensator Variabel Instrumental dengan
Kesalahan yang Dapat Disesuaikan (AEAC) Model Bantu (IVAM)

Model tanaman + kebisingan dB kamu+v


y(t)=sebuah−SEBUAH −dB kamu+v
kamu=qSEBUAH −dB kamu+v
kamu=qSEBUAH

Parameter yang dapat disesuaikan θ̂ T(t)= [sebuahT(t), b̂T(t)] sebuahT θ̂ T(t)= [sebuahT(t), b̂T(t),T(t)] sebuahT(t) θ̂ T(t)= [sebuahT(t), b̂T(t)] sebuahT
vektor (t)= [sebuah1, . . . , sebuahnSEBUAH] = [sebuah1, . . . , sebuahnSEBUAH] bT(t)= [ (t)= [sebuah1, . . . , sebuahnSEBUAH]
bT(t)= [b1, . . . , bnB] b1, . . . , bnB] bT(t)= [b1, . . . , bnB]

dT(t)= [d1, . . . , dnD] nD=


nSEBUAH

Regresor prediktor ψT(t)= [−(t), . . . ,−(t− nSEBUAH+1), ψT(t)= [−(t), . . . ,−(t− nSEBUAH+1), ψT(t)= [−y(t), . . . ,−y(t− nSEBUAH+1),
vektor kamu(t− d), . . . , u(t− d− nB+1)] kamu(t− d), . . . , u(t− d− nB+1)] kamu(t− d), . . . , u(t− d− nB+1)]

Prediktor sebuah prioritas ŷ0(t+1)=θ̂ T(t)ψ(t) ŷ0(t+1)= [sebuahT(t), b̂T(t)](t) (t+1)= [ ŷ0(t+1)=θ̂ T(t)ψ(t) (t+1)=θ̂
keluaran sebuah posteriori(t+1)=θ̂ T(t+1)ψ(t) sebuahT(t+1), bT(t+1)](t) T(t+1)ψ(t)

Ramalan sebuah prioritas


ε0(t+1)=y(t+1)− ŷ0(t+1)
5.2 Struktur Algoritma Estimasi Parameter Rekursif

kesalahan sebuah posteriori(t+1)=y(t+1)− (t+1)


Kesalahan adaptasi ν0(t+1)=ε0(t+1) ν◦(t+1)=ε◦(t+1) ν◦(t+1)=ε◦(t+1)
∑ nD
+ saya=1dsaya(t)ε(t+1saya)
1 1
Pengamatan (t)= (t)atau (t) ΦT(t)= [ψT(t),−(t), . . . ,−(t− nd+1)]ΦT(t)= [−kamuIV(t), . . . ,−kamuIV(t− n SEBUAH+1)
L(t,q1) Â(t,q1)
vektor kamu(t− d), . . . , u(t− nB− d+1)]
Â(t, q1)=1 +sebuah1(t)q1+· · · kamuIV(t)=θ̂ T(t)Φ(t− 1)

Kondisi stabilitas UntukSEBUAH(t, q1)≡ L(q1)Tidak ada Lokal (Perlu inisialisasi)


L
lingkungan deterministik SEBUAH− λ2 =SPR
2
L
Kondisi konvergensi SEBUAH− λ 2 Konvergensi lokal Lokal (perlu inisialisasi)
2 =SPR
lingkungan stokastik vdankamumandiri D∗
SEBUAH=SPR

D∗ :E{(D∗v)2} =min
161
162 5 Identifikasi Model Tanaman Rekursif pada Loop Terbuka

5.3 Metode Identifikasi Rekursif Berdasarkan Pemutihan


Kesalahan Prediksi (Tipe I)

Metode identifikasi rekursif berikut yang termasuk dalam kategori ini akan
disajikan:2

• Kuadrat Terkecil Rekursif (RLS);


• Kuadrat Terkecil Diperpanjang (ELS);
• Output Error dengan Extended Prediction Model (OEEPM);
• Kemungkinan Maksimum Rekursif (RML) ;
• Kuadrat Terkecil Umum (GLS).

5.3.1 Kuadrat Terkecil Rekursif (RLS)

Algoritma kuadrat terkecil rekursif telah disajikan secara rinci di Sect. 3.2. Stabilitas
asimtotik global dalam lingkungan deterministik terjamin (aplikasi langsung dari
Teorema 3.2). Konvergensi global dalam kasus stokastik menuju estimasi parameter
yang tidak bias dipastikan untuk model yang menghasilkan data dalam bentuk:

A(q1)y(t)=q−dB(q1)u(t)+e(t) (5.10)

di manae(t)adalah urutan white noise rata-rata nol. Analisis dalam kasus stokastik dapat
dilakukan cukup sederhana dengan menggunakan metode rata-rata (Teorema 4.1), lihat Sect.
4.2, Contoh 4.2 atau martingales (Teorema 4.2, Bagian 4.3).
Kerugian utama dari metode ini adalah kenyataan bahwa model kebisingan, yang estimasi
tak biasnya diperoleh, sangat tidak realistis dalam situasi praktis, karena pada umumnya
gangguan di (5.10) bukan hanya derau putih. Oleh karena itu, meskipun sederhana, di
sebagian besar aplikasi ini akan memberikan perkiraan parameter yang salah.

5.3.2 Perpanjangan Kuadrat Terkecil (ELS)

Metode ini telah dikembangkan untuk mengidentifikasi tanpa biastanaman +


gangguanmodel bentuk (model ARMAX):

A(q1)y(t)=q−dB(q1)u(t)+C(q1)e(t) (5.11)

Idenya adalah untuk secara bersamaan mengidentifikasi model pembangkit dan model
gangguan, untuk mendapatkan kesalahan prediksi (adaptasi) yang putih asimtotik.
Model yang menghasilkan data dapat dinyatakan sebagai:

2Rutinitas
yang sesuai dengan metode ini di Matlab dan Scilab dapat diunduh dari situs web:
http://www.landau-adaptivecontrol.orgdanhttp://landau-bookic.lag.ensieg.inpg.fr.
5.3 Metode Identifikasi (Tipe I) 163

y(t+1)=SEBUAH∗(q1)y(t)+B∗(q1)u(t− d)+C∗(q1)e(t)+e(t+1)
=θT(t)+e(t+1) (5.12)
di mana:

θT= [sebuah1, . . . , sebuahnSEBUAH, b1, . . . , bnB, c1, . . . , cnC] (5.13)


φ0T(t)= [−y(t), . . . ,−y(t− nSEBUAH+1), u(t− d), . . . , u(t− d− nB+1),
e(t), . . . , e(t− nc+1)] (5.14)
Asumsikan bahwa parameter diketahui dan buat prediktor yang akan memberikan
kesalahan prediksi putih:

(t+1)=SEBUAH∗(q1)y(t)+B∗(q1)u(t− d)+C∗(q1)e(t) (5.15)


Selanjutnya, prediktor ini akan meminimalkanE{[y(t+1)− (t+1)]2} (lihat Sek. 2.2). Kesalahan
prediksi, dalam kasus parameter yang diketahui, diberikan oleh:

(t+1)=y(t+1)− (t+1)=e(t+1) (5.16)


Ini memungkinkan (5.15) untuk ditulis ulang dalam bentuk:

(t+1)=SEBUAH∗(q1)y(t)+B∗(q1)u(t− d)+C∗(q1)ε(t) Kurangi (5.17)


sekarang (5.15) dari (5.12), diperoleh:
(t+1)=C∗(q1)[(t)− e(t)] +e(t) (5.18)
yaitu,

C(q1)[(t+1)− e(t+1)] = 0 (5.19)


SejakC(q1)adalah polinomial yang stabil asimtotik, hasilnya adalah(t+1)akan
menjadi putih tanpa gejala.
Versi adaptif dari prediktor ini adalah sebagai berikut. Prediktor yang dapat disesuaikan secara
apriori akan berbentuk:

ŷ0(t+1)=SEBUAH∗(q1, t)y(t)+B∗(q1, t)u(t)+C∗(q1, t)ε(t)


=θ̂ T(t)φ(t) (5.20)
di mana:

θ̂ T(t)= [sebuah1(t), . . . , sebuahnSEBUAH(t), b̂1(t), . . . , bnSEBUAH(t),1(t), . . . , cnSEBUAH(t)(5.21)


] φT(t)= [−y(t), . . . ,−y(t− nSEBUAH+1), u(t− d), . . . , u(t− d− nB+1),
(t), . . . , (t− nc+1)] (5.22)
Prediktor yang dapat disesuaikan a posteriori akan diberikan oleh:

(t+1)=θ̂T(t+1)φ(t) (5.23)
Kesalahan prediksi a posteriori(t)yang masuk dalam vektor regressor dari prediktor
diberikan oleh:

(t)=y(t)− (t) (5.24)


164 5 Identifikasi Model Tanaman Rekursif pada Loop Terbuka

(di mana(t)sekarang adalah output a posteriori dari prediktor yang dapat disesuaikan) dan kesalahan
prediksi apriori diberikan oleh:

ε0(t+1)=y(t+1)− ŷ0(t+1) (5.25)


Persamaan prediksi a posteriori diperoleh dengan mengurangkan (5.23) dari (5.12) dan mengamati
bahwa (5.11) secara alternatif dapat dinyatakan sebagai:

y(t+1)=θT(t)− C∗(q1)ε(t)+C(q1)e(t) (5.26)


(dengan menambahkan dan mengurangi istilah±C∗(q1)ε(t)). Satu memperoleh:

(t+1)=C∗(q1)ε(t)+ [θ − (t+1)]T(t)+C(q1)e(t) dari mana (5.27)


hasilnya:
1
(t+1)= [θ − (t+1)]T(t)+e(t) (5.28)
C(q1)
Dalam kasus deterministikC(q1)=1,e(t)≡ 0. Seseorang melihat bahwa (5.28) memiliki
format yang sesuai dengan Teorema 3.2, 4.1 dan 4.2. Seseorang segera menyimpulkan,
menggunakan PAA yang diberikan dalam (5.7) melalui (5.9), dengan(t)=(t)bahwa dalam
kasus deterministik, stabilitas asimtotik global terjamin tanpa kondisi riil positif dan
dalam lingkungan stokastik, baik menggunakan ODE maupun martingales, konvergensi
terjamin dengan ketentuan:
1 λ2
Hkan(z1)= − (5.29)
C(z1) 2
adalah matriks transfer real positif untuk 2>2≥ maksimalλ2(t).
Keterbatasan(t)dalam kasus stokastik (yang menyiratkan keterbatasan (t), sejak
kamu(t)dany(t)dibatasi) adalah konsekuensi langsung dari Lemma 4.1 karena:

ε0(t+1)+θT(t)φ(t)=y(t) (5.30)
yang mengarah pada kepuasan kondisi (2) dari lemma karenay(t)terikat.

5.3.3 Kesalahan Output dengan Model Prediksi yang Diperpanjang (OEEPM)

Algoritma ini dibahas secara rinci dalam Sekte. 3.3.5 dan 4.3. Ini dapat digunakan
dengan tepat untuk model stokastik bentuk (5.11) (model ARMAX). Ini tidak memerlukan
kondisi nyata positif dalam konteks deterministik, tetapi dalam konteks stokastik
seseorang memiliki kondisi konvergensi:
1 λ2
Hkan(z1)= − (5.31)
C(z1) 2
benar-benar positif nyata (2>2≥ maksimalλ2(t)) mirip dengan ELS.
Ternyata OEEPM bisa diartikan sebagai varian dari ELS. Untuk melihat ini, pertimbangkan
output apriori dari prediktor yang dapat disesuaikan untuk ELS (5.20), yang dapat ditulis ulang
sebagai berikut dengan menambahkan dan mengurangi istilah±SEBUAH∗(q1, t)ŷ(t):
5.3 Metode Identifikasi (Tipe I) 165

ŷ0(t+1)=SEBUAH∗(q1, t)ŷ(t)+B∗(q1, t)u(t− d)


+ [C∗(q1, t)ε(t)− SEBUAH∗(q1, t)[y(t)− (t)]] (5.32)
Mendefinisikan:

H∗(q1)=C∗(q1, t)− SEBUAH∗(q1, t)=h1(t)+q1h2(t)+· · ·


dengan:

hsaya(t)=csaya(t)− sebuahsaya(t);saya=1,2, . . . ,maksimal(nSEBUAH, nC)

Persamaan (5.32) dapat ditulis ulang menjadi:

ŷ0(t+1)=SEBUAH∗(q1, t)ŷ(t)+B∗(q1, t)u(t− d)+H∗(q1)ε(t)


=θ̂ T(t)φ(t) (5.33)
dimana sekarang:

θ̂ T(t)= [sebuah1(t), . . . , sebuahnSEBUAH, b1(t), . . . , bnB(th1(t), . . . , hnH(t)]


φT(t)= [−(t), . . . , (t− nSEBUAH+1), u(t− d), . . . , u(t− d− nB+1),
(t), . . . , (t− nC+1)]
Persamaan (5.33) sesuai dengan prediktor yang dapat disesuaikan untuk kesalahan keluaran dengan model
prediksi yang diperluas.
Meskipun sifat asimtotiknya serupa, ada perbedaan pada yang pertamanSEBUAH
komponen vektor(t). Sementara ELS menggunakan pengukurany(t), y(t−1), . . . terpengaruh
langsung oleh gangguan, OEEPM menggunakan output a posteriori yang diprediksi(t), (t− 1)
yang bergantung pada gangguan hanya secara tidak langsung melalui PAA Hal ini
menjelaskan mengapa estimasi yang lebih baik diperoleh dengan OEEPM dibandingkan
dengan ELS dalam jangka waktu pendek atau menengah (ini menghilangkan bias lebih cepat).

5.3.4 Kemungkinan Maksimum Rekursif (RML)

Algoritma ini juga didedikasikan untuk tipe ARMAXtanaman+model gangguan. Itu


milik kelas RPEM. Ini dapat diartikan sebagai modifikasi dari ELS untuk
menghilangkan (secara lokal) kondisi nyata positif untuk konvergensi.
Pertimbangkan persamaan kesalahan prediksi a posteriori untuk ELS tetapi untuk a
nilai tetap dari vektor parameter yang diestimasiθ̂ (yang digunakan dalam Teorema 4.1).
Dari (5.28) diperoleh:
1
(t+1, )= [θ − θ̂ ]T(t, )+e(t+1) (5.34)
C(q1)
dalam vektorθ̂ , perkiraan koefisien polinomialC(q1)tersedia. Taksiran
polinomial ini akan dilambangkan denganC(q1, ). Perkenalkan vektor regressor
yang difilter:
1
φf(t, )= (t, ) (5.35)
(q1, )
166 5 Identifikasi Model Tanaman Rekursif pada Loop Terbuka

Mempertimbangkan bahwaθ̂ ditetapkan dalam (5.34), persamaan ini dapat ditulis ulang menjadi:

(q1, )
(t+1, )= [θ − θ̂ ](t,f )+e(t+1) (5.36)
C(q1)
Dengan kata lain, kondisi riil positif akan direlaksasi khususnya di sekitar nilai yang benarθ̂ =θ .
Ini menyarankan untuk menggunakanφf(t)sebagai vektor pengamatan. Oleh karena itu, dalam
RML, sehubungan dengan ELS, satu menggantikan vektor pengamatan(t)oleh versi yang
difilter yang diberikan dalam (5.35). Satu menyaring regressor melalui estimasi polinomial saat
iniC(q1)untuk menghasilkan vektor pengamatan (yaitu satu menyaring
komponen dari(t)). Lebih khusus lagi, seseorang memiliki: (untuknSEBUAH=nB=n C)
⎡ ⎤ ⎡ ⎤
c 0 0 1 0 0
φf(t)=⎣0 c 0⎦φf(t− 1)+⎣0 c 1 0⎦(t)
0 0 0 0 1
di mana:
⎡ ⎤
c1(t) ... ... cn(t)
⎢ 0 ⎥
c=⎢ ⎣ ⎥
0 Sayan1

0
Namun, tidak ada hasil konvergensi global yang tersedia untuk algoritma ini. Faktanya,
algoritma ini tidak dapat diimplementasikan darit=0, jika estimasi yang baik dariC(q1)
tidak tersedia. Pertama, dancakrawala inisialisasiharus dipertimbangkan selama ELS
digunakan untuk mendapatkan estimasi pertama dariC(q1)yang tentu saja setidaknya
harus stabil (cakrawala inisialisasi biasa: 5 hingga 10 kali jumlah parameter).
Selanjutnya, penyaringan pengamatan hanya dapat dilakukan untuk estimasi
stabil dariC(q1). Oleh karena itu, uji stabilitas tentu harus dimasukkan.
Transisi yang mulus dari ELS menuju RML juga dapat digunakan dengan
memperkenalkan afaktor kontraksidiC(t, q1). Satu filter data dengan:
1 +(t)Ĉ∗(q1, t)dengan 0≤ (t)≤ 1
Ini memaksa akar polinomial di dalam lingkaran satuan pada awal proses estimasi
dan, sebagai tambahan, menggunakan faktor kontraksi yang cenderung asimtotik
ke 1. Jenis variasi ini dapat diperoleh dengan menggunakan rumus:
(t)=α0(t− 1)+1α0;0.5≤ α0≤ 0.99
RML dapat digunakan untuk meningkatkan, jika perlu, hasil ELS atau OEEPM di
sekitar titik ekuilibrium. Namun, jika tindakan pencegahan yang disebutkan di atas
(inisialisasi, uji stabilitas) tidak diperhitungkan, algoritme mudah menyimpang.

5.3.5 Kuadrat Terkecil Umum (GLS)

Metode ini didedikasikan untuk estimasi tak bias dari model pembangkit + gangguan
dalam bentuk:
C(q1)
A(q1)y(t)=q−dB(q1)u(t)+ e(t) (5.37)
D(q1)
5.3 Metode Identifikasi (Tipe I) 167

Seperti dalam kasus ELS, langkah pertama adalah membangun sebuah prediktor untuk kasus
parameter yang diketahui yang memberikan kesalahan prediksi putih asimtotik dan kemudian
mengganti parameter yang tidak diketahui dengan perkiraannya. Model yang menghasilkan data
dapat dinyatakan sebagai:

C(q1)
y(t+1)=SEBUAH∗y(t)+B∗kamu(t− d)+ e(t+1) (5.38)
D(q1)
dan setelah mengalikan kedua ruas denganD(q1)dan mengatur ulang berbagai istilah,
diperoleh:

y(t+1)=SEBUAH∗y(t)+B∗kamu(t− d)− D∗[ay(t)− B∗kamu(t− d− 1)]


+ C(q1)e(t+1) (5.39)

Ini segera menyarankan mengambil sebagai prediktor yang dapat disesuaikan:

ŷ0(t+1)=SEBUAH∗(t)y(t)+B∗(t)u(t− d)− D∗(t)α(t)+C∗(t)ε(t)


=θ̂ T(t)φ(t) (5.40)
(t+1)=θ̂ T(t+1)φ(t) (5.41)

di mana:

(t)=Â(t)y(t)− B∗(t)u(t− d− 1) (5.42)


θ̂ T(t)= [θ̂ T1(t),T 2(t)] (5.43)
θ̂1(t)T= [sebuah1(t), . . . , sebuahn (t), b̂1(t), . . . , bnSEBUAH(t)]
SEBUAH (5.44)
θ̂2(t)
T = [c1(t), . . . , cnC(t), d1(t), . . . , dnD(t)] (5.45)
φT(t)= [φT 1(t),T 2(t)] (5.46)
φ1T(t)= [−y(t), . . . ,−y(t− nSEBUAH+1), u(t− d), . . . , u(t− d− nB+1)] (5.47)
φ2T(t)= [(t), . . . , (t− nC+1),−(t), . . . ,−(t− nD+1)] (5.48)

Persamaan (5.39) dapat ditulis ulang menjadi:

y(t+1)=SEBUAH∗y(t)+B∗kamu(t− d)+C∗(t)− D∗(t)− C∗(t)


− D∗[(SEBUAH∗ − SEBUAH∗(t))y(t− 1)− (B− B̂(t))u(t− d− 1)]
+ C(q1)e(t+1) (5.49)

dan persamaan galat prediksi a posteriori berbentuk:

(t+1)= [θ − (t+1)]T(t)+D∗[θ1− θ̂1(t)]φ1(t− 1)


− C∗(t)+Ce(t+1) (5.50)

Dalam kasus deterministik,e(t+1)=0,D∗(q1)=C∗(q1)=0 dan (5,45) dikurangi menjadi:

(t+1)= [θ0− (t+1)]T(t) (5.51)


168 5 Identifikasi Model Tanaman Rekursif pada Loop Terbuka

di mana:

θ0T = [sebuah1, . . . , sebuahnSEBUAH, b1, . . . , bnB, . . . ,0, . . . , . . . ,0, . . .]

Menurut Teorema 3.2, stabilitas asimtotik global akan terjamin tanpa adanya kondisi riil yang
positif. Dalam kasus stokastik, dengan menggunakan metode rata-rata, seseorang
mendapatkan nilai tetapθ̂ :

(t+1, )= [θ1− θ̂ T 1]φ1(t, )+D∗[θ1− θ̂ T 1]φ1(t− 1, )


+ [θ2− θ̂2]φ2(t, )− C∗(t, )+Ce(t+1) D(q1)
1
= [θ1 − θ̂1]T(t,1)+ [θ − θˆ2]φ2(t, )+e(t+1) (5.52)
C(q1) C2
Dengan demikian, Teorema 4.1 tidak dapat diterapkan meskipun istilah noise adalah putih. Namun,
untuk kasusC(q1)danD(q1)diketahui, (5.52) dikurangi menjadi:

D(q1)
(t+1,ˆ)= [θ − θ̂1]T(t,1) (5.53)
C(q1)1
dan menerapkan Teorema 4.1, seseorang memiliki kondisi konvergensi:

D(z1) 2
Hkan(z1)= − (5.54)
C(z1) 2
adalah fungsi transfer real positif.
Dengan demikian, algoritma ini merupakan perpanjangan dari algoritma GLS
Bethoux (1976) dan Landau (1990a) yang sesuai dengan kasusC(q1)=1.
Algoritma ini lebih tepat digunakan daripada ELS, untuk kasus di mana istilah
gangguan di (5.37) memiliki spektrum frekuensi sempit yang biasanya dapat
1
dimodelkan sebagai e(t)di manaD(q1)adalah polino orde kedua teredam rendah
D(q1)
mial (sambil menggunakan model formulirC(q1)e(t)akan membutuhkan sejumlah besar
parameter untuk diidentifikasi).

5.4 Validasi Model yang Diidentifikasi dengan Metode Tipe I

Bagian ini berkaitan dengan validasi model yang diidentifikasi menggunakan metode
identifikasi berdasarkan:pemutihdari kesalahan prediksi. Jika kesalahan prediksi residual
adalah urutan white noise, selain mendapatkan estimasi parameter yang tidak bias, ini
juga berarti bahwa model yang diidentifikasi memberikan prediksi terbaik untuk output
pabrik dalam arti meminimalkan varians dari kesalahan prediksi. Di sisi lain, karena
kesalahan residual berwarna putih dan white noise tidak berkorelasi dengan variabel
lain, maka semua korelasi antara input dan output pabrik diwakili oleh model yang
diidentifikasi dan apa yang tidak dimodelkan tidak bergantung pada masukan.

Prinsip metode validasi adalah sebagai berikut:3

3Rutinitas
yang sesuai dengan metode ini di Matlab dan Scilab dapat diunduh dari situs web:
http://www.landau-adaptivecontrol.orgdanhttp://landau-bookic.lag.ensieg.inpg.fr.
5.4 Validasi Model yang Diidentifikasi dengan Metode Tipe I 169

• Jika tanaman + struktur gangguan yang dipilih benar, yaitu mewakili realitas.
• Jika metode identifikasi yang sesuai untuk struktur yang dipilih telah digunakan.
• Jika derajat polinomialA(q1), B(q1), C(q1)dan nilaid (penundaan) telah
dipilih dengan benar (model pabrik ada di set model).
Maka kesalahan prediksi(t)asimtotik cenderung ke arah white noise, yang
menyiratkan:
limE{(t)ε(t− saya)} =0;saya=1,2,3, . . .; 1,−2,−3, . . .
t→∞
Metode validasi menerapkan prinsip ini. Ini terdiri dari beberapa langkah:

1. Pembuatan file I/O untuk model yang diidentifikasi (menggunakan urutan input yang sama seperti
untuk sistem).
2. Pembuatan file kesalahan prediksi untuk model yang diidentifikasi (minimal 100 data).
3.Putihnya(uncorrelatedness) tes pada urutan kesalahan prediksi (juga dikenal sebagai
kesalahan prediksi residual).

5.4.1 Uji Keputihan

Membiarkan {(t)}menjadi urutan terpusat dari kesalahan prediksi residual (berpusat:


nilai terukur nilai rata-rata).
Satu menghitung:

1∑ N R(0)
R(0)= ε2(t); RN(0)= =1 (5.55)
N R(0)
t=1
1∑ N R(i)
R(i)= (t)ε(t− saya); RN(saya)= ; saya=1,2,3, . . . , sayamaksimal (5.56)
N R(0)
t=1
dengansayamaksimal≥ nSEBUAH[derajat polinomialA(q1)], yang merupakan estimasi
dari autokorelasi (dinormalisasi). Jika urutan kesalahan prediksi residual benar-
benar putih (situasi teoritis), dan jumlah sampel sangat besar (N→ ),then RN(0)=1;
RN(saya)=0, saya≥ 1.4
Namun, dalam situasi nyata, ini tidak pernah terjadi (yaitu,RN=0;saya≥ 1), karena di satu
sisi,(t)mengandung kesalahan struktural residual (kesalahan urutan, efek nonlinier, kebisingan
non-Gaussian), dan di sisi lain, jumlah sampel pada umumnya relatif kecil (beberapa ratus).
Juga, harus diingat bahwa seseorang selalu berusaha untuk mengidentifikasibagusmodel
sederhana (dengan beberapa parameter). Seseorang menganggap sebagai kriteria validasi
praktis (diuji secara ekstensif pada aplikasi):
2.17
RN(0)=1; |RN(saya)| ;saya≥ 1 (5.57)
N

4Sebaliknya, untuk data Gaussian, uncorrelation menyiratkan independensi. Pada kasus ini,RN(saya)=0, saya
≥ 1 menyiratkan kemerdekaan antara(t), (t−1), . . .,yaitu, urutan residu {(t)}adalah derau putih Gaussian.
170 5 Identifikasi Model Tanaman Rekursif pada Loop Terbuka

Tabel 5.2 Interval keyakinan untuk tes keputihan


tingkat Validasi N=128 N=256 N=512
makna kriteria

3% 2√.17
0.192 0.136 0.096
N
5% 1√.96
0.173 0.122 0.087
N
.808
7% 1√ 0.16 0.113 0.08
N

di manaNadalah jumlah sampel. Tes ini telah didefinisikan dengan mempertimbangkan


fakta bahwa untuk urutan white noiseRN(saya), saya=0 memiliki distribusi Gaussian
(normal) asimtotik dengan rata-rata nol dan simpangan baku:
1
σ =√
N
Interval kepercayaan yang dipertimbangkan dalam (5.57) sesuai dengan tingkat
signifikansi 3% dari hipotesis√
adalah tes untuk distribusi Gaussian. JikaRN(saya)mematuhi Gaus-
penggunaan (Hai,1/ N), hanya ada kemungkinan√ y dari 1.5% ituRN(saya)lebih besar
distribusi sian√
dari 2.17/ N, atau ituRN(saya)lebih kecil dari 2.17/ N. Oleh karena itu, jika nilai yang
dihitungRN(saya)berada di luar kisaran interval kepercayaan, hipotesis(t) dan(t−
saya)independen harus ditolak, yaitu {(t)}bukan urutan white noise. Interval
kepercayaan yang lebih tajam dapat ditentukan. Meja5.2memberikan nilai kriteria
validasi untuk berbagaiNdan berbagai tingkat signifikansi.
Catatan berikut ini penting:
• Model teridentifikasi yang dapat diterima secara umum memiliki:

1.8 2.17
|RN(saya)| ≤ √ · · · ;saya≥ 1
N N
• Jika beberapa model yang teridentifikasi memiliki kompleksitas (jumlah parameter) yang sama,
maka model tersebut dipilih oleh metode yang mengarah ke yang terkecil |RN(saya)|.
• SEBUAHterlalu baguskriteria validasi menunjukkan bahwa penyederhanaan model dimungkinkan.

• Sampai batas tertentu, dengan mempertimbangkan bobot relatif dari berbagai kesalahan
non-Gaussian dan pemodelan (yang meningkat dengan jumlah sampel), kriteria validasi
mungkin sedikit diperketat untuk kecilNdan sedikit santai untuk yang besarN. Oleh karena
itu, demi kesederhanaan, seseorang dapat mempertimbangkan sebagai nilai numerik
praktis dasar untuk nilai kriteria validasi:

|RN(saya)| 0.15;saya≥ 1

Perhatikan juga bahwa validasi model lengkap menyiratkan, setelah validasi menggunakan
urutan input/output yang digunakan untuk identifikasi, validasi menggunakan urutan input/
output pabrik selain yang digunakan untuk identifikasi.
Ada poin penting lain yang perlu dipertimbangkan. Jika tingkat kesalahan prediksi
residual sangat rendah dibandingkan dengan tingkat keluaran (misalkan lebih dari 60
dB), uji keputihan kehilangan signifikansinya. Ini karena, di satu sisi, kebisingan
5.5 Metode Identifikasi (Tipe II) 171

levelnya sangat rendah sehingga bias pada RLS misalnya dapat diabaikan, dan di sisi lain,
karena noise residual sebagian besar mungkin bukan Gaussian (misalnya, noise yang
disebabkan oleh propagasi kesalahan pembulatan). Situasi ini dapat terjadi ketika
mengidentifikasi simulasi data I/O yang dihasilkan tanpa gangguan.

5.5 Metode Identifikasi Berdasarkan Dekorrelasi


Vektor Pengamatan dan Kesalahan Prediksi (Tipe II)
Metode identifikasi rekursif berikut yang termasuk dalam kategori ini akan
disajikan:5
• Kesalahan Output dengan Kompensator Tetap (OEFC);
• Kesalahan Output dengan Kompensator yang Dapat Disesuaikan (OEAC);
• Kesalahan Keluaran yang Difilter (FOE);
• Variabel Instrumental dengan Model Bantu (IVAM).

5.5.1 Kesalahan Output dengan Kompensator Tetap

Kesalahan keluaran dengan kompensator tetap didedikasikan untuk estimasi parameter yang
tidak bias daritanaman+gangguanmodel formulir:

q−dB(q1)
y(t)= kamu(t)+v(t) (5.58)
A(q1)
di manav(t+1)adalah proses stokastik rata-rata nol dengan daya terbatas dan
independen terhadap input. Algoritma telah disajikan di Sect. 3.3.2 dan dianalisis
dalam lingkungan stokastik di Sect. 4.2. Persamaan kesalahan adaptasi a posteriori
berbentuk:
D(q1)
(t+1)= [θ − (t+1)]T(t)+D(q1)v(t+1) (5.59)
A(q1)
Dalam konteks deterministik (menggunakan Teorema 3.2), serta dalam konteks
stokastik menggunakan metode rata-rata (Teorema 4.1), diperoleh kondisi stabilitas dan
konvergensi:
D(z1) λ2
Hkan(z1)= − (5.60)
A(z1) 2
menjadi fungsi transfer waktu diskrit nyata positif. Jika seseorang membuat asumsi yang
lebih kuat tentang gangguan, yaitu:
1
v(t+1)= e(t+1)
D(q1)

5Rutinitas
yang sesuai dengan metode ini di Matlab dan Scilab dapat diunduh dari situs web:
http://www.landau-adaptivecontrol.orgdanhttp://landau-bookic.lag.ensieg.inpg.fr.
172 5 Identifikasi Model Tanaman Rekursif pada Loop Terbuka

(sebenarnya orang berasumsi bahwa gangguanw(t+1)adalah proses stokastik AR yang diketahui)


pendekatan martingale (Teorema 4.2) dapat diterapkan menghasilkan kondisi konvergensi yang
sama dari (5.60).

5.5.2 Kesalahan Output dengan Kompensator yang Dapat Disesuaikan

Persamaan kesalahan prediksi dan prediksi tetap sama seperti untuk kesalahan keluaran
dengan kompensator tetap (lihat Tabel5.1). Perbedaannya terletak pada generasi kesalahan
adaptasi di mana kompensator tetap diganti dengan yang dapat disesuaikan:

(t+1)=D̂(q1, t+1)ε(t+1) (5.61)

di mana:

∑nD
D̂(q1, t)=1 + dsaya(t)q−saya;nD=nSEBUAH (5.62)
t=1

Kesalahan adaptasi apriori diberikan oleh:

∑nD
ν0(t+1)=ε0(t+1)+ dsaya(t)ε(t+1saya) (5.63)
saya=1

Persamaan kesalahan keluaran a posteriori adalah:

∑nSEBUAH
∑ nSEBUAH

(t+1)= sebuahsaya(t+1saya)− [sebuahsaya− sebuahsaya(t+1)](t+1saya)

saya=1 saya=1

∑nB
+ [bsaya− bsaya(t+1)]kamu(t+1d− saya) (5.64)
saya=1

dan persamaan kesalahan adaptasi a posteriori mengambil bentuk, menggunakan (5.61):

(t+1)= [θ − (t+1)]T(t) (5.65)

di mana:

θT= [sebuah1, . . . , sebuahnSEBUAH, b1, . . . , bnB, sebuah1, . . . , sebuahnSEBUAH]

θ̂ T(t)= [sebuah1(t), . . . , sebuahnSEBUAH(t), b̂1(t), . . . , bnB(t), d1(t), . . . , dnD(t)]


φT(t)= [−(t), . . . ,−(t− nSEBUAH+1), u(t− d), . . . , u(t− d− nB+1),
− (t), . . . ,−(t− nD+1)]
dan kondisi nyata positif untuk konvergensi ke nol dari(t+1)dihapus.
Namun, sebenarnya ini tidak menjamin konvergensi ke nol dari kesalahan
prediksi keluaran a posteriori(t+1)jikaD(q1, t)tidak asimtotik sta-
5.5 Metode Identifikasi (Tipe II) 173

ble. Oleh karena itu uji stabilitas padaD(q1, t)harus diperkenalkan. Lihat Dugard dan
Goodwin (1985) untuk analisis rinci.
Dalam kasus stokastik, menggunakan metode rata-rata untuk nilai tertentu dariθ̂ ,
diperoleh:

(t+1, )= [θ − θ̂ ]T(t, )+D̂(q1, )v(t+1) (5.66)

Konvergensi lokal wp1 dalam lingkungan stokastik untuk gangguanw(t+1), yang


independen terhadapkamu(t)dijamin olehD∗(z1)benar-benar positif nyata, di manaD∗
(z1)diberikan oleh
A(z1) Stoica dan
Söderström (1981):

E{[D∗(z1)v(t)]2} =min (5.67)

Simulasi telah menunjukkan ketahanan yang sangat baik dari algoritma ini sehubungan dengan
berbagai jenis gangguan.

5.5.3 Kesalahan Keluaran yang Difilter

Untuk mengendurkan kondisi nyata positif yang terkait dengan algoritma kesalahan keluaran, seseorang dapat

menggunakan vektor pengamatan yang difilter daripada penyaringan prediksi kesalahan keluaran. Dalam hal ini,

seseorang mendefinisikan input yang difilterkamuf(t)dan keluarankamuf(t)sebagai:

L(q1)yf(t)=y(t) L(q1 (5.68)


)uf(t)=kamu(t) (5.69)

di manaL(q1)adalah polinomial monik yang stabil asimtotik:

L(q1)=1 +q1L∗(q1) (5.70)

Prediktor yang dapat disesuaikan tanpa filter ditentukan oleh:

ŷ0(t+1)=θ̂ T(t)φ(t) (5.71)


(t+1)=θ̂ T(t+1)φ(t) (5.72)

di mana:

φT(t)= [(t), . . . , (t− nSEBUAH+1), u(t), . . . , u(t− nB+1)] (5.73)

Prediktor disesuaikan yang difilter ditentukan oleh:

ŷf0(t+1)=θ̂ T(t)φf(t) (5.74)

ŷf(t+1)=θ̂ T(t+1)φf(t) (5.75)

di mana:

L(q1)φf(t)=(t) (5.76)
174 5 Identifikasi Model Tanaman Rekursif pada Loop Terbuka

Kesalahan prediksi keluaran terkait yang terkait dengan dua prediktor yang dapat disesuaikan
diberikan oleh:

ε0(t+1)=y(t+1)− ŷ0(t+1)
(5.77)
(t+1)=y(t+1)− (t+1)
εf0(t+1)=kamuf(t+1)− ŷ0 f(t+1)
(5.78)
εf(t+1)=kamuf(t+1)− ŷf(t+1)
Definisikan kesalahan adaptasi a posteriori sebagai:

(t+1)=L(q1)εf(t+1) (5.79)
dan kesalahan adaptasi apriori sebagai:

ν0(t+1)=ε0 f(t+1)+L∗(q1)εf(t) (5.80)


Dengan mempertimbangkan hal itu, seseorang dapat menulis:

kamuf(t+1)=SEBUAH∗(q1)yf(t)+B∗(q1)uf(t)
=SEBUAH∗(q1)εf(t)+θTφf(t) (5.81)
di mana:

θT= [sebuah1, . . . , sebuahnSEBUAH, b1, . . . , bnB] (5.82)


yang didapat dari (5.78), menggunakan (5.81) dan (5,75):

1
εf(t+1)= [θ − (t+1)]Tφf(t) (5.83)
A(q1)
dan dari (5.79) hasilnya:
L(q1)
(t+1)= [θ − (t+1)]Tφf(t) (5.84)
A(q1 )
Stabilitas asimtotik global dalam lingkungan deterministik dan konvergensi wp1 dalam
lingkungan stokastik untukv(t)independen sehubungan dengankamu(t)diperoleh
dengan syarat cukup bahwa:
L(z1) λ2
Hkan(z1)= − (5.85)
A(z1) 2
menjadi fungsi transfer real positif.
Menggunakan PAA (5.7) dengan(t)=φf(t)dan (5.78), dapat ditulis:

(t+1)=ε0 f(t+1)+L∗(q1)εf(t)− φT f(t)F (t)φf(t)ν(t+1) (5.86)


dari mana (5.9) hasil.
Beberapa pendekatan untuk algoritma ini dapat dipertimbangkan. Mempertimbangkan (5.68), (
5.69) dan (5.78) seseorang dapat menulis ulangν0(t+1)sebagai berikut:

ν0(t+1)=L(q1)yf(t+1)− L(q1)ŷ0 f(t+1)

+ L∗(q1)[ŷ0 f(t+1)− ŷf(t+1)] (5.87)


5.5 Metode Identifikasi (Tipe II) 175

Tetapi:
{ [ ]}
1
L(q1)ŷ0 f(t+1)=L(q1) θ̂ T(t) (t) ≈ ŷ0(t+1) (5.88)
L(q1)
Mengabaikan suku ketiga dari (5.87) dan memperhitungkan (5.68) dan (5.88) seseorang mendapat:

ν0(t+1)≈ y(t+1)− ŷ0(t+1) (5.89)


Hal ini memungkinkan untuk mengimplementasikan algoritma menggunakan prediktor yang dapat
disesuaikan (5.71), (5.72) dan untuk menggantikan kesalahan adaptasi apriori dengan kesalahan keluaran
yang tidak difilter. Satu-satunya operasi tambahan dibandingkan dengan algoritma kesalahan keluaran
tanpa kompensator tetap adalah penyaringan(t).
Perkiraan kedua terkait dengan pembaruan filter secara onlineL(q1) (seperti dalam
kemungkinan maksimum rekursif). Satu menggantikanL(q1)oleh:

L̂(q1, t)=Â(q1, t) (5.90)


untuk menghilangkan setidaknya di sekitar ekuilibrium kondisi riil positif. Tentu saja, uji
stabilitas harus dilakukan dan inisialisasi dengan kesalahan keluaran yang tidak difilter atau
kuadrat terkecil rekursif mungkin diperlukan.

5.5.4 Variabel Instrumental dengan Model Bantu

Gagasan umum di balik metode variabel instrumental terdiri dari konstruksi vektor
pengamatan baru, yang sangat berkorelasi dengan variabel yang tidak terkontaminasi,
tetapi tidak berkorelasi dengan gangguan kebisingan untuk mendapatkan hasil yang
asimtotik.E{(t)ε(t+1)} =0.
Salah satu jenis algoritma tersebut adalahvariabel instrumental dengan model tambahan (Muda
1969). Itutanaman+gangguanmodel yang dipertimbangkan dalam kasus ini, sama dengan kesalahan
keluaran (5.58). Metode ini dapat dilihat baik sebagai peningkatan kuadrat terkecil rekursif atau
sebagai pertengahan antara kuadrat terkecil rekursif dan algoritma kesalahan keluaran. Prediktor
yang dapat disesuaikan adalah yang digunakan dalam kuadrat terkecil rekursif:

ŷ0(t+1)=θ̂ T(t)φ(t) (5.91)


di mana:

θ̂ T(t)= [sebuah1(t), . . . , sebuahnSEBUAH(t), b̂1, . . . , bnB(t)] (5.92)


φT(t)= [−y(t), . . . ,−y(t− nSEBUAH+1), u(t− d), . . . , u(t− d− nB+1)] (5.93)
dan masing-masing:

(t+1)=θ̂T(t+1)φ(t) (5.94)
Kesalahan prediksi ditentukan oleh:

ε0(t+1)=y(t+1)− ŷ0(t+1) (5,95)


(t+1)=y(t+1)− (t+1) (5.96)
176 5 Identifikasi Model Tanaman Rekursif pada Loop Terbuka

Model prediksi tambahan digunakan untuk menghasilkanvariabel instrumentalkamuIV:

∑nSEBUAH
∑nB
kamuIV(t)= sebuahsaya(t)yIV(t− saya)+ bsaya(t)u(t− d− saya)
saya=1 saya=1

=θ̂ T(t)φTIV(t− 1) (5.97)

di mana:
[
φIVT (t)=kamuIV(t), . . . ,−kamuIV(t− nSEBUAH+1),
]
kamu(t− d), . . . , u(t− d− nB+1) (5.98)

Keluaran dari model prediksi bantu ini bergantung pada keluaran prediksi sebelumnya dan
bukan pada pengukuran sebelumnya (ini adalah model tipe kesalahan keluaran). Variabel
baru ini akan kurang terpengaruh oleh gangguan yang hanya akan bekerja melalui PAA. Jika
keuntungan adaptasi yang menurun secara asimtotik digunakan, secara asimtotikkamuIV(t)
hanya akan bergantung pada input yang tidak berlaku untuk(t)diberikan oleh prediktor
kuadrat terkecil dari (5.91). Vektor pengamatan baru ditentukan oleh:

(t)=φIV(t) (5,99)

UntukkamuIV(t)menjadi perwakilan dariy(t), perkiraansebuahsayadanbsayaharus tersedia.


Inilah sebabnya mengapa metode ini harus diinisialisasi dengan kuadrat terkecil rekursif
(horison inisialisasi: 5 hingga 10 kali jumlah parameter). Untuk nilai tetapθ̂ , persamaan
kesalahan prediksi dapat ditulis sebagai (lihat Soal5.2):

Â(q1, )
(t+1, )= [θ − θ̂ ](t,IV)+w(t+1) (5.100)
A(q1)
φIV(t, )danw(t+1)tidak berkorelasi dan metode rata-rata dengan jelas menunjukkan
bahwaSEBUAHharus cukup dekat denganSEBUAH, agar algoritma konvergen (A A−
λ2/2 harus benar-benar positif nyata). Untuk cakupan rinci metode variabel
instrumental lihat Ljung dan Söderström (1983).

5.6 Validasi Model yang Diidentifikasi dengan Metode Tipe II

Bagian ini berkaitan dengan validasi model yang diperoleh dengan menggunakan
metode identifikasi berdasarkan dekorelasi antara pengamatan dan kesalahan prediksi.
Tidak adanya korelasi antara pengamatan dan kesalahan prediksi menghasilkan
estimasi parameter yang tidak bias. Namun, karena pengamatan mencakup keluaran
yang diprediksi yang bergantung pada masukan, maka tidak ada korelasi antara
kesalahan prediksi residual dan pengamatan menyiratkan juga bahwa kesalahan
prediksi residual tidak berkorelasi dengan masukan. Interpretasi dari fakta ini adalah
bahwa kesalahan prediksi residual tidak mengandung informasi apapun tergantung
pada input, yaitu, semua korelasi antara input dan output dari pembangkit diwakili oleh
model yang diidentifikasi.
5.6 Validasi Model yang Diidentifikasi dengan Metode Tipe II 177

Prinsip metode validasi adalah sebagai berikut:6

• Jika gangguan tidak tergantung pada masukan (⇒ E{w(t)u(t)} =0).


• jikamodel+gangguanstruktur yang dipilih benar, yaitu mewakili realitas.

• Jika metode identifikasi yang sesuai telah digunakan untuk struktur yang dipilih.
• Jika derajat polinomialA(q1), B(q1)dan nilaid(delay) telah dipilih dengan
benar (model pabrik ada di set model).
maka keluaran yang diprediksi(t− 1), (t− 2), . . .dihasilkan oleh model formulir
(output error type predictor):

Â(q1)ŷ(t)=q−dB̂(q1)u(t) (5.101)

dan kesalahan prediksi(t)tidak berkorelasi asimtotik, yang berarti:

1∑ N
E{(t)ŷ(t− saya)} (t)ŷ(t− saya)=0;saya=1,2,3, . . .
N
t=1

Metode validasi menerapkan prinsip ini. Ini terdiri dari beberapa langkah:

1. Pembuatan file I/O untuk model yang diidentifikasi (menggunakan urutan input yang sama seperti
untuk sistem).
2. Pembuatan file untuk urutan {y(t)}; {(t)}; {(t)} (keluaran sistem, keluaran model,
kesalahan prediksi keluaran residual). File-file ini harus berisi setidaknya 100
data agar pengujian menjadi signifikan.
3.Tidak berkorelasipengujian antara urutan kesalahan prediksi keluaran residual dan
urutan keluaran model prediksi tertunda.

5.6.1 Uji Tidak Korelasi

Membiarkan {y(t)}dan {(t)}menjadi urutan keluaran terpusat dari pabrik dan model yang
diidentifikasi, masing-masing. Membiarkan {(t)}menjadi urutan terpusat dari kesalahan
keluaran (prediksi) residual (berpusat = nilai terukur nilai rata-rata). Satu menghitung:

1∑ N
R(i)= (t)ŷ(t− saya); saya=0,1,2, . . . , n SEBUAH, ... (5.102)
N
t=1
R(i)
RN(saya)= ∑N 1∑N
[(1N 2N
t=1(t))( t=1ε2(t))]1/2
saya=0,1,2, . . . , nSEBUAH, . . . (5.103)

6Rutinitas
yang sesuai dengan metode ini di Matlab dan Scilab dapat diunduh dari situs web:
http://www.landau-adaptivecontrol.orgdanhttp://landau-bookic.lag.ensieg.inpg.fr.
178 5 Identifikasi Model Tanaman Rekursif pada Loop Terbuka

yang merupakan estimasi dari korelasi silang (dinormalisasi) (perhatikan bahwaRN(0)=1),


dannSEBUAHadalah derajat polinomialA(q1). Jika(t)dan(t− saya), saya≥ 1 tidak berkorelasi
sempurna (situasi teoretis), maka:

RN(saya)=0;saya=1,2, . . . , nSEBUAH, . . .

Dalam prakteknya, hal ini tidak pernah terjadi, baik karena durasi identifikasi tidak
cukup lama untuk mendekati karakter asimtotik, atau karena identifikasibagusmodel
sederhana yang diinginkan [dengan beberapa parameter, yaitu, di bawah perkiraan
urutanA(q1)danB(q1)], yang mengakibatkanstrukturalkesalahan yang berkorelasi dengan
inputkamu(t).
Kriteria validasi untuk metode identifikasi Tipe II berdasarkan uji unkorelasi akan
didefinisikan serupa dengan untuk metode identifikasi Tipe I, yang juga menggunakan
uji unkorelasi tetapi pada urutan variabel yang berbeda (lihat Sect.5.4). Oleh karena itu,
seseorang menganggap sebagai kriteria validasi praktis dalam kasus ini:
2.17
|RN(saya)| ;saya≥ 1
N
di manaNadalah jumlah sampel. Meja5.2dapat digunakan untuk menemukan nilai
numerik dari kriteria validasi untuk berbagaiNdan tingkat kebermaknaan tes.
Semua komentar yang dibuat di Sect.5.4tentang kebermaknaan nilai-nilai
kriteria validasi berlaku juga dalam hal ini. Secara khusus, nilai numerik praktis
dasar untuk kriteria validasi, yaitu:
|RN(saya)|<0.15;saya≥ 1

layak untuk diingat. Tes ini juga digunakan ketika seseorang ingin membandingkan model yang
diidentifikasi dengan metode Tipe I, dengan model yang diidentifikasi dengan metode Tipe II. Dalam
hal ini, hanya himpunan parameter yang diestimasi dariA(q1)danB(q1)digunakan pada prediktor
kesalahan keluaran yang diberikan dalam (5.101) kemudian dilakukan uji unkorelasi.

5.7 Pemilihan Urutan Biner Acak Pseudo


Serangga. 3.4, ditunjukkan bahwa estimasi parameter yang benar memerlukan
penggunaan sinyal yang kaya (sinyal yang terus-menerus menarik). Ditunjukkan bahwa
sekuens biner pseudo-acak (PRBS) menawarkan di satu sisi sinyal dengan spektrum
frekuensi besar mendekati white noise dan, di sisi lain, mereka memiliki magnitudo
konstan. Hal ini memungkinkan untuk menentukan secara tepat tingkat stres sesaat
pada proses (atau aktuator).
Pada bagian ini, kita akan membahas bagaimana memilih PRBS untuk identifikasi yang
baik dengan mempertimbangkan berbagai kendala yang ditemui dalam praktek.

5.7.1 Urutan Biner Acak Pseudo (PRBS)

Urutan biner acak semu adalah urutan pulsa persegi panjang, dimodulasi lebarnya, yang
mendekati white noise waktu diskrit dan dengan demikian memiliki konten spektral
5.7 Pemilihan Urutan Biner Acak Pseudo 179

Gambar 5.3Generasi PRBS


dengan panjang 251 = 31
periode sampling

Tabel 5.3Generasi PRBS


panjang maksimum Jumlah sel Panjang urutan Bit ditambahkan

N L=2N− 1 BsayadanBj

2 3 1 dan 2
3 7 1 dan 3
4 15 3 dan 4
5 31 3 dan 5
6 63 5 dan 6
7 127 4 dan 7
8 255 2, 3, 4 dan 8
9 511 5 dan 9
10 1023 7 dan 10

kayadalam frekuensi. Mereka berutang nama merekasemu acakfakta bahwa


mereka dicirikan olehpanjang urutandi mana variasi lebar pulsa bervariasi secara
acak, tetapi selama cakrawala waktu yang besar, mereka periodik, periode yang
ditentukan oleh panjang urutan. Dalam praktik identifikasi sistem, umumnya hanya
menggunakan satu urutan lengkap dan kita harus memeriksa sifat-sifat urutan
tersebut.
PRBS dihasilkan melalui register geser dengan umpan balik (diimplementasikan
dalam perangkat keras atau perangkat lunak).7Panjang maksimum suatu barisan adalah
2N− 1, di mana Nadalah jumlah sel register geser. Angka5.3menyajikan generasi PRBS
dengan panjang 31 = 251 diperoleh melalui register geser 5-sel.
Perhatikan bahwa setidaknya salah satu dariNsel register geser harus memiliki nilai
logika awal yang berbeda dari nol (satu umumnya mengambil semua nilai awal dariNsel
sama dengan nilai logika 1). Meja5.3memberikan struktur yang memungkinkan PRBS
panjang maksimum dihasilkan untuk jumlah sel yang berbeda. Perhatikan juga elemen
karakteristik PRBS yang sangat penting:durasi maksimum impuls PRBS sama denganN (
jumlah sel). Properti ini harus dipertimbangkan ketika memilih PRBS untuk identifikasi
sistem.
Untuk mengidentifikasi dengan benar penguatan kondisi tunak dari model dinamis
pembangkit, durasi setidaknya satu pulsa (misalnya, pulsa durasi maksimum) harus

7Rutinitas untuk menghasilkan PRBS dapat diunduh dari situs web:http://www.landau


- adaptifcontrol.orgdanhttp://landau-bookic.lag.ensieg.inpg.fr.
180 5 Identifikasi Model Tanaman Rekursif pada Loop Terbuka

Gambar 5.4Pilihan durasi


maksimum pulsa dalam
PRBS

Gambar 5.5Kepadatan spektral daya dari urutan PRBS, (sebuah)N=8,p=1, (b)N=8,p=2, (c)
N=8,p=3

lebih besar dari waktu naiktRdari tanaman. Durasi maksimum pulsa adalah
tidaks,hasil kondisi berikut:
tidaks> untukR (5.104)

yang diilustrasikan pada Gambar.5.4. Dari kondisi (5.104), seseorang menentukanN


maka panjang barisan tersebut adalah 2N− 1. Selanjutnya, untuk mencakup seluruh
spektrum frekuensi yang dibangkitkan oleh PRBS tertentu, panjang suatu
pengujian harus sekurang-kurangnya sama dengan panjang urutan. Dalam banyak
kasus, durasi tesLdipilih sama dengan panjang barisan. Jika durasi pengujian
ditentukan, maka harus dipastikan bahwa:

(2N− 1)Ts< L (L=durasi tes) (5.105)

Perhatikan bahwa kondisi (5.104) dapat menghasilkan nilai yang cukup besarNsesuai
dengan panjang urutan durasi terlarang, baik karenaTssangat besar, atau karena sistem
yang akan diidentifikasi mungkin berkembang dengan baik selama durasi pengujian.
Inilah sebabnya, dalam sejumlah besar situasi praktis, submultiple dari frekuensi
sampling dipilih sebagai frekuensi clock untuk PRBS. Jika:
f
fPRBS=s;p=1,2,3, . . . (5.106)
p
5.8 Pemilihan Pesanan Model 181

kemudian kondisi (5.104) menjadi:

pNTs> untukR (5.107)


Pendekatan ini lebih menarik daripada peningkatan panjang urutan dengan
meningkatkanNuntuk memuaskan (5.104). Memang, jika seseorang lewat dariNkeNkan=
N+1, durasi maksimum pulsa lewat daritidakske(N+1)Tstetapi durasi urutannya berlipat
gandaLkan=2L. On the other hand, if fPRBS=fs/2 dipilih, durasi maksimum pulsa lewat dari
tidakske 2tidaksuntuk durasi urutan dua kali lipatLkan=2L. Dari perbandingan kedua
pendekatan, diperoleh hasil bahwa pendekatan kedua (pembagian frekuensi)
memungkinkan pulsa dengan durasi yang lebih besar diperoleh untuk durasi urutan
yang identik dan dengan demikian pengujian. Jikapadalah pembagi frekuensi integer,
yang dimiliki dalam kasus pembagian frekuensi clock (dmaksimal= durasi pulsa
maksimum)

dmaksimal=pNTS; Lkan=pL;p=1,2,3, . . .
Dengan meningkatkanNoleh(p− 1)dan dengan demikian panjang urutan (tanpa
mengubah frekuensi clock), diperoleh:

dmaksimal=(N+p− 1)TS; Lkan=2(p1)L;p=1,2,3, . . .


Perhatikan bahwa membagi frekuensi clock PRBS akan mengurangi rentang frekuensi yang
sesuai dengan kerapatan spektral konstan pada frekuensi tinggi sambil menambah kerapatan
spektral pada frekuensi rendah. Secara umum, ini tidak akan mempengaruhi kualitas
identifikasi, baik karena dalam banyak kasus ketika solusi ini dipertimbangkan, tanaman yang
akan diidentifikasi memiliki band pass yang rendah atau karena efek atau pengurangan rasio
sinyal/noise pada frekuensi tinggi dapat dikompensasikan dengan penggunaan teknik
identifikasi yang tepat. Namun, disarankan untuk memilihp≤ 4.
Angka5.5menunjukkan kerapatan spektral daya (PSD) yang dinormalisasi dari urutan
PRBS yang dihasilkan denganN=8 untukp=1,2,3. Seperti yang dapat dilihat, energi
spektrum berkurang pada frekuensi tinggi dan bertambah pada frekuensi rendah.
Selanjutnya, untukp=2 danp=3 kami tidak memiliki eksitasi difs/p.
Sampai sekarang, kami hanya peduli dengan pilihan panjang dan frekuensi clock
PRBS; namun, besarnya PRBS juga harus dipertimbangkan. Meskipun besarnya PRBS
mungkin sangat rendah, hal itu akan menyebabkan variasi keluaran yang lebih besar
daripada tingkat kebisingan residual. Jika rasio sinyal/noise terlalu rendah, panjang
pengujian harus ditambah untuk mendapatkan estimasi parameter yang memuaskan.
Perhatikan bahwa dalam sejumlah besar aplikasi, peningkatan yang signifikan pada
tingkat PRBS mungkin tidak diinginkan mengingat karakter nonlinier tanaman yang
akan diidentifikasi (kami prihatin dengan identifikasi model linier di sekitar titik operasi).

5.8 Pemilihan Pesanan Model

Dengan tidak adanya informasi apriori yang jelas tentang struktur model pabrik, dua
pendekatan dapat digunakan untuk memilih urutan yang sesuai untuk nilaid, nSEBUAH, nB
mengkarakterisasi model pabrik input-output
182 5 Identifikasi Model Tanaman Rekursif pada Loop Terbuka

(a) pendekatan praktis berdasarkan coba-coba,


(b) perkiraand, nSEBUAH, nBlangsung dari data.

Bahkan dalam kasus menggunakan estimasi pesanan langsung dari data, berguna untuk
melihat sejauh mana kedua pendekatan itu koheren. Kami akan membahas dua pendekatan
berikutnya.

5.8.1 Pendekatan Praktis untuk Pemilihan Model Order

Itutanaman+gangguanmodel yang akan diidentifikasi berbentuk:

A(q1)y(t)=q−dB(q1)u(t)+w(t)

di mana, menurut struktur yang dipilih, seseorang memiliki:

w(t)=e(t)
w(t)=A(q1)v(t); (v(t)dankamu(t)mandiri)
w(t)=C(q1)e(t)
C(q1)
w(t)= e(t)
D(q1)

Derajat polinomial,A(q1), B(q1), C(q1)danD(q1)masing-masingnSEBUAH, nB, nC


dannD. Untuk memulai metode estimasi parameternSEBUAH,nB
dandharus ditentukan. Untuk metode yang memperkirakan juga model
kebisingan, selain menentukan:nCdannD.

Pilihan PrioritasnSEBUAH

Dua kasus dapat dibedakan:

1. Pabrik industri (suhu, kontrol, laju aliran, konsentrasi, dan sebagainya). Untuk jenis
tanaman ini pada umumnya :

nSEBUAH≤ 3

dan nilainyanSEBUAH=2, yang sangat khas, adalah nilai awal yang baik untuk dipilih.
2. Sistem elektromekanis.nSEBUAHhasil dari analisis struktural sistem.

ContohLengan Robot Fleksibel dengan dua mode getaran. Pada kasus ini,nSEBUAH=4
dipilih, karena orde kedua diperlukan, untuk memodelkan mode getaran.
5.8 Pemilihan Pesanan Model 183

Pilihan Awal dariddannB

Jika tidak ada pengetahuan tentang waktu tunda yang tersedia,d=0 dipilih sebagai
nilai awal. Jika nilai minimum diketahui, nilai awald=dminterpilih. Jika waktu tunda
telah diremehkan, selama identifikasi koefisien pertama dariB(q1)akan sangat
rendah.nBkemudian harus dipilih sehingga keduanya dapat menunjukkan adanya
waktu tunda dan mengidentifikasi pembilang fungsi transfer.nB=(dmaksimal− dmin)+2
kemudian dipilih sebagai nilai awal. Setidaknya dua koefisien diperlukan dalamB(q1
) karenapecahandelay yang sering terjadi pada aplikasi. Jika waktu tunda diketahui,
nB≥ 2 dipilih, tetapi 2 tetap merupakan nilai awal yang baik.

Penentuan Waktu Tundad(Pendekatan Pertama)

Metode 5.1Satu mengidentifikasi menggunakan RLS (Recursive Least Squares).


Perkiraan pembilang akan berbentuk:

B̂(q1)=b1q− 1+b2 2q+b3q3+· ··


Jika:

|b1|<0.15|b2|

b1≈ 0 dipertimbangkan dan waktu tundadbertambah 1 :d=dmin+ 1 [sejak


jika b1= 0, B(q1)=q1(b2q1+b3q2)]. Jika:
|bsaya|<0.15|bdi+1|;saya=1,2, . . . , dsaya

penundaan waktudmeningkat sebesardsaya:d=ddi+dsaya.Setelah modifikasi ini, identifikasi


dimulai ulang.

Metode 5.2Sebuahrespon impulsmodel tipe diidentifikasi dengan RLS. Model yang


diperkirakan akan memiliki bentuk:
∑nB
y(t)= bsayakamu(t− saya); nB=besar(20 hingga 30)
saya=1

Jika ada penundaan waktu, maka:

|bsaya|<0.15|bd+1|; saya=1,2, . . . , d

Setelah estimasi penundaan ini, identifikasi dimulai kembali dengan model kutub-nol.

Kedua metode ini tentu saja dapat dilengkapi dengan tampilan respon langkah dari
model yang diestimasi. Estimasi waktu tunda yang lebih akuratddilakukan selama
bagian kedua dalam algoritma identifikasi. Ini diikuti dengan validasi model yang
diidentifikasi. Perhatikan bahwa jika sistem terkontaminasi oleh kebisingan sistem
pengukuran, estimasi penundaan yang akurat hanya akan dilakukan dengan metode
yang memungkinkan model yang diidentifikasi untuk divalidasi.
184 5 Identifikasi Model Tanaman Rekursif pada Loop Terbuka

Gambar 5.6Evolusi varians


kesalahan residual sebagai
fungsi dari jumlah
parameter model

Penentuan dari(nSEBUAH)maksimaldan(nB)maksimal

Tujuannya adalah untuk mendapatkan model identifikasi yang paling sederhana yang
memverifikasi kriteria validasi. Ini terkait di satu sisi dengan kompleksitas pengontrol (yang
akan bergantung padanSEBUAHdannB)tetapi sama dengan kekokohan model yang diidentifikasi
sehubungan dengan kondisi operasi.
Pendekatan pertama untuk memperkirakan nilai(nSEBUAH)maksimaldan(nB)maksimal
adalah menggunakan RLS dan mempelajari evolusi varians kesalahan prediksi residual,
yaitu, evolusi:

1∑ N
R(0)=E{ε2(t)} = (t)2
N
t=1
sebagai fungsi dari nilainSEBUAH+nB.Sebuah kurva khas diberikan pada Gambar.5.6.
Secara teori, jika contoh yang dipertimbangkan disimulasikan dan bebas noise, kurva
harus menyajikan siku yang rapi diikuti oleh segmen horizontal, yang menunjukkan
bahwa peningkatan jumlah parameter tidak meningkatkan kinerja. Dalam praktiknya,
siku ini tidak rapi karena ada kebisingan pengukuran.
Tes praktek yang digunakan untuk menentukannSEBUAH+nBadalah sebagai berikut: pertimbangkan dulu
nSEBUAH, nBdan varians yang sesuai dari kesalahan residualR(0). Pertimbangkan sekarang
nSEBUAH
kan =nSEBUAH+1,nBdan varians yang sesuai dari kesalahan residualRkan(0). Jika:

Rkan(0)≥ 0.8R(0)
tidak bijaksana untuk meningkatkan derajatnSEBUAH(tes yang sama dengannkan B=nB+1). Dengan
pilihan yang menghasilkannSEBUAHdannB,model yang diidentifikasi oleh RLS tidak selalu
memverifikasi kriteria validasi. Oleh karena itu, sambil menjaga nilai-nilainSEBUAH
dannB,struktur dan metode lain harus dicoba untuk mendapatkansah model. Jika
setelah semua metode dicoba, tidak ada yang mampu memberikan model yang
memenuhi kriteria validasi, makanSEBUAHdannBharus ditingkatkan.
Untuk pembahasan yang lebih rinci tentang berbagai prosedur untuk estimasi (n
SEBUAH)maks dan(nB)maks lihat Söderström dan Stoica (1989).

Pilihan Awal darinCdannD(Model Kebisingan)

Sebagai peraturan,nC=nD=nSEBUAHterpilih.
5.8 Pemilihan Pesanan Model 185

5.8.2 Estimasi Pesanan Langsung dari Data

Untuk memperkenalkan masalah estimasi pesanan dari data, kita akan mulai dengan sebuah contoh:
asumsikan bahwa model pabrik dapat dijelaskan oleh:

y(t)=sebuah1y(t− 1)+b1kamu(t− 1) (5.108)

dan bahwa data tersebut bebas noise. Urutan model ini adalahn=nSEBUAH=nB=1.
Pertanyaan: Apakah ada cara untuk menguji dari data jika asumsi urutan benar? Untuk
melakukannya, buat matriks berikut:
⎡ ⎤
⎢ y(t) ... y(t− 1) kamu(t− 1)[ ]
⎢ . . . y(t− 2) ⎥
⎣⎢y(t− 1) kamu(t− ⎦2)= Y (t) ... R(1) (5.109)
. . . y(t− 3)
y(t− 2) kamu(t− 3)

Jelas, jika urutan model yang diberikan dalam (5.108) benar, vektorY (t)akan menjadi
kombinasi linier dari kolomR(1)(Y (t)=R(1)θdenganθT= [−sebuah1, b1]) dan peringkat
matriksnya adalah 2 (bukan 3). Jika model tanaman berorde 2 atau lebih tinggi, matriks (
5.109) akan menjadi peringkat penuh. Tentu saja, prosedur ini dapat diperluas untuk
menguji urutan model dengan menguji peringkat matriks [Y (t), R (n̂)] di mana:

R(n̂)= [Y (t− 1), U(t− 1), Y (t− 2), U(t− 2), . . . , Y (t− n), U(t− n)]
(5.110)
kamuT(t)= [y(t), y(t− 1), . . .] (5.111)
kamuT(t)= [u(t), u(t− 1), . . .] (5.112)

Sayangnya, akibat adanya noise, prosedur ini tidak bisa langsung


diterapkan dalam praktik.
Pendekatan yang lebih praktis dihasilkan dari pengamatan bahwa masalah uji
peringkat dapat didekati dengan mencariθ̂ yang meminimalkan kriteria berikut
untuk perkiraan nilai pesanan:n
1
VLS(n̂, N)=min kanY (t)− R(n̂)θ̂kan2 (5.113)
θ̂ N
di manaNadalah jumlah datanya. Tetapi kriteria ini tidak lain adalah formulasi yang
setara dari kuadrat terkecil (Söderström dan Stoica 1989). Jika kondisi untuk
estimasi tak bias menggunakan kuadrat terkecil terpenuhi, (5.113) adalah cara
yang efisien untuk menilai urutan model karenaVLS(n)− VLS(n+1)→0 kapann≥ n
Sementara itu, tujuan dari identifikasi adalah untuk memperkirakan model orde
rendah (prinsip parsimoni) dan oleh karena itu, masuk akal untuk menambahkan kriteria
(5.113) istilah yang menghukum kompleksitas model. Oleh karena itu, kriteria untuk
estimasi pesanan akan berbentuk:

CVLS(n̂, N)=VLS(n̂, N)+S(n̂, N) (5.114)


186 5 Identifikasi Model Tanaman Rekursif pada Loop Terbuka

Gambar 5.7Evaluasi kriteria


untuk estimasi pesanan

dimana biasanya:

S(n̂, N)=2n̂X(N) (5.115)

X(N)di (5.115) adalah fungsi yang berkurang denganN. Misalnya, dalam apa yang disebut
BICLS(n̂, N)kriteria,X(N)=catatanN N(pilihan lain dimungkinkan—lihat Ljung 1999;
Söderström dan Stoica 1989; Duong dan Landau 1996) dan urutannyandipilih sebagai salah
satu yang meminimalkanCVLSdiberikan oleh (5.114). Sayangnya, hasilnya tidak memuaskan
dalam praktiknya karena dalam sebagian besar situasi, kondisi untuk estimasi parameter yang
tidak bias menggunakan kuadrat terkecil tidak terpenuhi.
Dalam Duong dan Landau (1994) dan Duong dan Landau (1996), diusulkan untuk
menggantikan matriksR(n̂)oleh matriks variabel instrumentalZ(n̂)yang elemennya tidak
akan berkorelasi dengan kebisingan pengukuran. Matriks instrumental seperti ituZ(n̂)
dapat diperoleh dengan mengganti dalam matriksR(n̂), kolomY (t− 1), Y (t− 2), Y (t− 3)oleh
versi tertunda dariU(t− L− saya), yaitu dimanaL > n:

Z(n̂)= [U(t− L− 1), U(t− 1), U(t− L− 2), U(t− 2), . . .] (5.116)

dan oleh karena itu, kriteria berikut digunakan untuk estimasi pesanan:

1 2ncatatanN
CVPJ(n̂, N)=min kanY (t)− Z(n̂)θ̂kan2+ (5.117)
θ̂ N N
dan:
n=minCVPJ(n) (5.118)
n

Kurva khas dari evolusi kriteria (5.117) sebagai fungsi darinditunjukkan pada Gambar.5.7
. Hal ini ditunjukkan dalam Duong dan Landau (1996) bahwa dengan menggunakan
kriteria ini estimasi urutan yang konsistenndiperoleh di bawah kondisi kebisingan ringan
(yaitu, limN→∞P r(n̂=n)=1). Perbandingan dengan kriteria estimasi pesanan juga
disediakan dalam referensi ini.
Setelah perkiraan pesananndipilih, seseorang dapat menerapkan prosedur serupa untuk
memperkirakannSEBUAH, n− d, nB+d,dari mananSEBUAH, nBdanddiperoleh.8

8Rutinitas
yang sesuai dengan metode ini di Matlab dan Scilab dapat diunduh dari situs web:
http://www.landau-adaptivecontrol.orgdanhttp://landau-bookic.lag.ensieg.inpg.fr.
5.9 Contoh: Identifikasi Transmisi Fleksibel 187

Gambar 5.8
Transmisi fleksibel

5.9 Contoh: Identifikasi Transmisi Fleksibel

Transmisi fleksibel digambarkan pada Gambar.5.8. dan telah dijelaskan dalam Sect. 1.4.3. Ini
dibentuk oleh satu set tiga katrol yang digabungkan dengan dua sabuk yang sangat elastis.
Sistem dikendalikan oleh PC melalui papan I/O. Frekuensi pengambilan sampel adalah 20 Hz
(untuk lebih jelasnya lihat Bagian 1.4.3). Identifikasi loop terbuka dilakukan dengan PC
menggunakan perangkat lunak WinTrac untuk akuisisi data dan perangkat lunak identifikasi
WinPim (Adaptech 1988). Urutan input adalah PRBS yang dihasilkan oleh register geser
dengan 7 sel dan pembagi frekuensi 2 digunakan untuk frekuensi clock generator PRBS.
Panjang sekuen adalah 256 sampel. Lihat Gambar.5.9.
Setelah menghilangkan komponen dc, estimasi order dari data telah dilakukan
dengan menggunakan kriteria (5.117). Hasil berikut telah diperoleh:n=4, nSEBUAH=4,
nB=2,d=2. Nilai-nilai ini telah dikonfirmasi dengan menggunakan metode coba-
coba yang disajikan di Sect.5.8.1.
Berbagai metode disajikan dalam Tabel5.1Telah digunakan. Tampak jelas bahwa
model tipe ARMAX mewakili sistem setelah membandingkan hasil validasi yang
diperoleh dengan model yang diidentifikasi dengan metode yang berbeda. Oleh karena
itu berikut ini akan disajikan perbandingan model yang diperoleh dengan: ELS, OEEPM,
RML untuk case tanpa beban. Dalam semua kasus, keuntungan adaptasi menghilang
telah digunakan (tanpa melupakan faktor, yaitu,λ1(t)≡ 1,λ2(t)≡ 1).
Meja5.4merangkum baik hasil uji keputihan pada kesalahan prediksi residual
dan uji tidak korelasi saat menggunakan prediktor kesalahan keluaran.
Hasil yang diperoleh sangat mendekati, tetapi prioritas telah diberikan pada uji
unkorelasi menggunakan prediktor kesalahan keluaran. ELS dan OEEPM memberikan
hasil yang sangat dekat. Model OEEPM dipilih karena memberikan nilai yang lebih kecil
untuk Reŷ(saya)maksimal(namun, karakteristik frekuensi kedua model hampir identik).
188 5 Identifikasi Model Tanaman Rekursif pada Loop Terbuka

Gambar 5.9Urutan input/output yang digunakan untuk identifikasi

Tabel 5.4Komparatif
validasi model Tes keputihan Uji unkorelasi
(kesalahan prediksi) (kesalahan keluaran)

R(0) Rεε(saya)maksimal R(0) Rεŷ (saya)maksimal

ELS 0.00239 0.1094 0.01037 0.12163


OEEPM 0.00238 0.1061 0.01051 0.11334
RML 0.0027 0.0644 0.01313 0.2440

Angka5.10menunjukkan keluaran sebenarnya dan keluaran yang diprediksi (prediktor


ARMAX) serta kesalahan prediksi residual.
Angka5.11menunjukkan keluaran sebenarnya dan keluaran yang diprediksi untuk
prediktor tipe kesalahan keluaran, serta prediksi kesalahan keluaran sisa. Hasil serupa telah
diperoleh untuk kasus beban 50% (1.8 kg) dan kotak beban penuh (3.6kg).
Model yang teridentifikasi yang dihasilkan adalah:

• Tidak ada beban (L00)

d=2, B(q1)=0.41156q1+ 0.52397q2


A(q1)=1 1.35277q1+ 1.55021q21.27978q3+ 0.91147q4
5.9 Contoh: Identifikasi Transmisi Fleksibel 189

Gambar 5.10Output sebenarnya, output yang diprediksi (prediktor ARMAX) dan kesalahan prediksi residual untuk model yang
diidentifikasi menggunakan algoritma OEEPM

Gambar 5.11Keluaran sebenarnya, keluaran yang diprediksi (prediktor kesalahan keluaran) dan prediksi kesalahan keluaran sisa
untuk model yang diidentifikasi menggunakan algoritma OEEPM
190 5 Identifikasi Model Tanaman Rekursif pada Loop Terbuka

• 50% beban (L50)

d=2, B(q1)=0.16586q1+ 0.181329q2


A(q1)=1 1.92005q1+ 2.1151q21.81622q3+ 0.91956q4
• 100% beban (L100)

d=2, B(q1)=0.09553q1+ 0.11116q2


A(q1)=1 2.05182q1+ 2.23744q21.91294q3+ 0.90643q4
Model memiliki dua mode getaran yang sangat ringan (lihat Gambar 1.20) dan semuanya memiliki
nol yang tidak stabil.

5.10 Catatan Penutup


Elemen dasar untuk identifikasi model waktu-diskrit untuk sistem dinamis
menggunakan algoritma estimasi parameter rekursif telah dijelaskan dalam bab
ini. Fakta-fakta berikut harus ditekankan:

1. Identifikasi sistem mencakup empat langkah dasar:

• akuisisi data input/output di bawah protokol eksperimental;


• estimasi atau pemilihan kompleksitas model;
• estimasi parameter model;
• validasi model yang diidentifikasi (struktur model dan nilai
parameter).
Prosedur ini harus diulang (dengan perubahan yang sesuai pada setiap
langkah) jika validasi model gagal.

2. Algoritma estimasi parameter rekursif atau off-line dapat digunakan untuk


identifikasi parameter model plant.
3. Algoritma estimasi parameter rekursif menawarkan sejumlah keuntungan
sehubungan dengan algoritma off-line:
(a) estimasi parameter model saat sistem berkembang;
(b) kompresi data yang signifikan dari data masa lalu;
(c) kemampuan identifikasi waktu nyata.
Selain itu, kinerjanya menjadikannya alternatif kompetitif untuk algoritma
estimasi parameter off-line.
4. Berbagai algoritma estimasi parameter rekursif menggunakan struktur yang sama untuk
PAA. Mereka berbeda satu sama lain dengan cara berikut:

• struktur prediktor yang dapat disesuaikan;


• sifat komponen vektor pengamatan;
• cara di mana kesalahan adaptasi dihasilkan.
5. Gangguan stokastik yang mencemari keluaran terukur dapat menyebabkan
kesalahan dalam pendugaan parameter (bias). Untuk jenis gangguan
tertentu, tersedia algoritme identifikasi rekursif yang memberikan estimasi
tak bias asimtotik.
5.11 Masalah 191

6. Uniktanaman+gangguanstruktur model yang menggambarkan semua situasi yang dihadapi


dalam praktik tidak ada, juga tidak ada metode identifikasi unik yang memberikan
perkiraan parameter yang memuaskan (perkiraan tidak bias) dalam semua situasi.
7. Pemilihan kompleksitas model plant yang tidak diketahui dari data dapat dilakukan dengan
pendekatan coba-coba atau dengan menggunakan teknik estimasi kompleksitas.

5.11 Masalah

5.1Analisis perilaku algoritma kesalahan keluaran terfilter (FOE) (Sect.5.5.3) dalam


lingkungan stokastik menggunakan metode rata-rata yang disajikan dalam Sect. 4.2.

5.2Untuk variabel instrumental dengan model bantu (Sect.5.5.4) turunkan


kesalahan adaptasi untuk(t)=θ̂ =konstan (5.100).

5.3Kerjakan rincian analisis konvergensi dari algoritme kuadrat terkecil yang diperluas
dalam lingkungan stokastik menggunakan metode rata-rata (Bab 4.2) dan pendekatan
martingale (Bab 4.3).

5.4Untuk model ARMAX dari bentuk (5.11) mengembangkan metode variabel instrumental
menggunakan pengamatan tertundakamuVI(t)=y(t− saya)untuk mendapatkan estimasi
parameter yang tidak bias dengan prediktor tipe kuadrat terkecil (Banon dan Aguilar-Martin
1972).

5.5Kembangkan ekspresi distribusi frekuensi asimtotik dari bias untuk berbagai


algoritma identifikasi yang diberikan pada Tabel5.1.

5.6Hasilkan file input untuk model simulasi:

y(t+1)=1.5y(t)− 0.7y(t− 1)+kamu(t− 1)+0.5kamu(t− 2)


+ 0.5e(t− 1)− 0.2e(t)+e(t+1)
di manae(t) adalah derau putih, dankamu(t)adalah PRBS yang dihasilkan oleh register geser dengan
8 sel (panjang: 255 sampel).

(a) Periksa pengaruh rasio noise/sinyal pada bias parameter yang diestimasi saat
menggunakan kuadrat terkecil rekursif.
(b) Untuk nilai rasio noise/sinyal yang memberikan bias signifikan pada kuadrat terkecil
rekursif, coba algoritma lain yang diberikan pada Tabel5.1.

Gunakan jarak parametrik [(θ− )T(θ− )]1/2untuk mengevaluasi bias secara global.
Mendiskusikan hasil validasi.

Anda mungkin juga menyukai