Anda di halaman 1dari 14

TUGAS METODE NUMERIK

OPTIMASI NUMERIK
(DIRECT SEARCH OPTIMIZATION)

OLEH
KARINA OCTARIA PUTRI
1407113350

JURUSAN TEKNIK KIMIA S-1


FAKULTAS TEKNIK UNIVERSITAS RIAU
PEKANBARU
2016
KATA PENGANTAR

Puji syukur penulis panjatkan kepada Allah SWT, bahwa penulis telah
menyelesaikan tugas mata kuliah Metode Numerik yang membahas mengenai
Numerical Optimization atau Optimasi Numerik dalam bentuk makalah.
Dalam penyusunan tugas atau materi ini, tidak sedikit hambatan yang
penulis hadapi. Namun penulis menyadari bahwa kelancaran dalam penyusunan
materi ini tidak lain berkat sumber-sumber buku yang terdapat di perpustakaan
dan bantuan dari berbagai pihak, sehingga kendala-kendala yang penulis hadapi
teratasi. Oleh karena itu penulis mengucapkan terima kasih kepada :
1. Bapak Idral Amri, ST. MT selaku Dosen bidang studi Metode Numerik
yang telah memberikan tugas, petunjuk, kepada penulis sehingga penulis
termotivasi dan menyelesaikan tugas ini.
2. Kerabat yang telah turut membantu, membimbing, dan mengatasi berbagai
kesulitan sehingga tugas ini selesai.

Semoga materi ini dapat bermanfaat dan menjadi sumbangan pemikiran


bagi pihak yang membutuhkan, khususnya bagi penulis sehingga tujuan yang
diharapkan dapat tercapai.

Pekanbaru, 15 May 2016

Penulis
BAB I
PENDAHULUAN

1.1 Pendahuluan
Optimasi merupakan suatu proses untuk mencari kondisi yang optimum,
dalam arti paling menguntungkan. Optimasi bisa berupa maksimasi atau
minimasi. Jika berkaitan dengan masalah keuntungan, maka keadaan optimum
adalah keadaan yang memberikan keuntungan maksimum (maksimasi). Jika
berkaitan dengan masalah pengeluaran/pengorbanan, maka keadaan optimum
adalah keadaan yang memberikan pengeluaran/pengorbanan minimum
(minimasi).
Nilai maksimum atau minimum dari suatu persamaan: y = f (x) dapat
diperoleh pada harga x yang memenuhi: y'=f'(x)=dy/dx=df/dx =0
Untuk fungsi yang sulit untuk diturunkan atau mempunyai turunan yang
sulit dicari akarnya, proses optimasi dapat dilakukan secara numerik.
Harga x yang memberikan harga y maksimum (maksimasi) atau minimum
(minimasi). Dalam hal ini, x yang diperoleh merupakan nilai x optimum fungsi.
Beberapa metode yang akan dibahas meliputi: Metode golden section, Metode
Newton, Metode interpolasi kuadrat, Metode Hooke-Jeeves Metode, steepest
ascent (ascending)/descent (descending), dan Metode langsung/random search.
BAB II
TINJAUAN PUSTAKA

2.1 Pengertian
Optimasi merupakan suatu proses untuk mencari kondisi yang optimum,
dalam arti paling menguntungkan. Optimasi bisa berupa maksimasi atau
minimasi. Jika berkaitan dengan masalah keuntungan, maka keadaan optimum
adalah keadaan yang memberikan keuntungan maksimum (maksimasi). Jika
berkaitan dengan masalah pengeluaran/pengorbanan, maka keadaan optimum
adalah keadaan yang memberikan pengeluaran/pengorbanan minimum
(minimasi).
Nilai maksimum atau minimum dari suatu persamaan: y=f(x) dapat
diperoleh pada harga x yang memenuhi: y'=f'(x)=dy/dx=df/dx =0
Untuk fungsi yang sulit untuk diturunkan atau mempunyai turunan yang
sulit dicari akarnya, proses optimasi dapat dilakukan secara numerik.

2.2 Ilustrasi secara Grafik


Contoh maksimasi satu variabel:

Gambar 2.1 Maksimasi satu variabel

Beberapa istilah dalam optimasi numerik, yaitu:


a. Maksimum lokal dan maksimum global
b. Minimum lokal dan minimum global
c. An unimodal function one hump or one valley
Gambar 2.2 Istilah optimasi numerik dalam grafik

Perbedaan antara persoalan optimasi dengan pencarian/penentuan akar


persamaan, yaitu:

Gambar 2.3 Perbedaan antara persoalan optimasi dengan pencarian/penentuan


akar persamaan

Contoh optimasi dua variabel (maksimasi), yaitu:

Gambar 2.4 Titik Optimum

2.3 Optimasi 1 Variabel


Tinjaulah sebuah fungsi dengan satu variabel sebagai berikut:
y=f(x)

Ingin dicari harga x yang memberikan harga y maksimum (maksimasi) atau


minimum (minimasi). Dalam hal ini, x yang diperoleh merupakan nilai x optimum
fungsi. Beberapa metode yang akan dibahas meliputi: Metode golden section,
Metode Newton, Metode interpolasi kuadrat
2.3.1 Metode Golden Section
Golden section merupakan salah satu cara atau metode optimasi numerik
yang dapat diterapkan untuk fungsi yang bersifat unimodal. Kedua tipe optimasi,
yaitu maksimasi dan minimasi dapat diselesaikan dengan cara ini. Golden-section
(search) method merupakan metode optimasi satu variabel yang sederhana, dan
mempunyai pendekatan yang mirip dengan metode bisection dalam penentuan
akar persamaan tak linier.
Tinjaulah fungsi f(x) yang akan ditentukan maksimum-nya, pada rentang x
= xl dan x = xu
(perhatikan gambar di bawah ini).

Gambar 2.5 Fungsi x untuk golden section

Mirip dengan bisection, ide dasar metode ini adalah memanfaatkan nilai
yang lama sebagai nilai yang baru, secara iterative. Sebagai akibatnya,
rentang/interval awal variabel yang dipilih semakin lama semakin akan semakin
menyempit, karena ada sebagian sub-interval variabel yang dieliminasi, hingga
diperoleh tingkat konvergensi yang diinginkan.
Berdasarkan grafik di atas, secara matematika berlaku:
Karena l1/l0=l2/l1 maka l0=l1+l2
Ambil kebalikannya dan definisikan R=l1/l2
ALGORITMA (Kasus Maksimasi):
1. Mulailah dari 2 nilai tebakan awal xl dan xu, yang mengapit titik maksimum.
(Perhatikan ilustrasi grafik berikut ini...)

Gambar 2.6 Titik maksimum

2. Tentukan nilai x1 dan x2 di dalam rentang xl dan xu, sesuai dengan golden
ratio (R), yakni sebesar:
3.x1 =xl +d
4. x2 =xu d
dengan:

3. Berdasarkan harga f(x) pada 2 titik tersebut (x 1 dan x2), maka diharapkan
ada sebagian interval yang dapat dieliminasi, sehingga salah satu titik lama
bisa dipakai lagi pada evaluasi langkah berikutnya. Jadi hanya diperlukan 1
titik baru.
4. Demikian seterusnya.

Ada 2 kemungkinan kasus, yaitu:


a. Jika: f(x1) > f(x2), maka: domain x antara xl dan x2 dieliminasi. Dengan
demikian: x2 lama = x1 baru
x1 lama = x2 baru
xu lama = xu baru
x1 baru ditentukan

b. Jika: f(x2) > f(x1), maka: domain x antara x1 dan xu dieliminasi. Dengan
demikian: x1 lama = xu baru
x2 lama = x1 baru
xl lama = xl baru
x2 baru ditentukan
Algoritma untuk kasus minimasi merupakan kebalikan dari algoritma untuk
kasus maksimasi yang telah diuraikan tersebut di atas.

2.3.2 Metode Newton


Metode ini menggunakan pendekatan yang sama dengan metode Newton
dalam penentuan akar persamaan tak-linier, melalui pendefinisian fungsi:
g(x)=f(x)
Maka, dapat diperoleh secara iteratif sebagai berikut:

2.3.3 Metode Interpolasi Kuadrat


Metode Interpolasi Kuadrat dapat digunakan untuk melakukan optimasi
secara numerik. Hal ini disebabkan oleh penggunaan polinomial orde-dua yang
menghasilkan pendekatan cukup baik terhadap bentuk f(x) di dekat titik
optimumnya.
Gambar 2.7 Grafik metode interpolasi kuadrat
Jika mula-mula kita mempunyai tiga buah titik tebakan awal (yakni x0, x1,
dan x2) yang mengapit titik optimumnya, maka sebuah parabola dapat di-fit-kan
melalui ketiganya. Diferensiasikan persamaan yang diperoleh, set hasilnya
menjadi sama dengan nol, dan perkiraan x optimum dapat ditentukan (dalam hal
ini sebagai x3) sbb.:

2.4 Optimasi Banyak Variabel


Misal diketahui sebuah fungsi dengan banyak variabel sebagai berikut:
y=f(x1, x2, x3,, xn)

Ingin dicari harga x1, x2, x3, ..... xn yang memberikan harga y maksimum
(maksimasi) atau minimum (minimasi). Pengelompokan metodenya secara garis
besar adalah: (1) non-gradient methods, dan (2) gradient methods.
Beberapa metode yang akan dibahas meliputi: Metode Hooke-Jeeves
Metode, steepest ascent (ascending)/ descent (descending), Metode langsung/
random search.

2.4.1 Metode Hooke-Jeeves


Prinsip penerapan metode Hooke-Jeeves ini meliputi 2 hal;
1) Eksplorasi nilai xi dimana i menyatakan indeks variabel x
2) Mengulangi langkah sukses

Optimasi dengan metode Hooke-Jeeves ditunjukkan dalam contoh berikut.


Misal ingin dilakukan minimasi dari suatu fungsi:
y = (x1 4)2 + 0,5.(x2 9)2+ 3 = f (x1, x2)

Sebagai cek, dengan mudah dapat terlihat bahwa minimum terjadi pada x 1 =
4, x2 = 9, dan harga ymin = 3. Dalam hal ini dipilih titik awal: x 1 = 1 dan x2 = 16,
serta interval awal x1 = 1 dan x2 = 2.

Demikian seterusnya. Proses dihentikan setelah eksplorasi gagal, serta x1


dan x2 cukup kecil.

2.4.2 Metode Steepest Ascent /Descent


Merupakan jenis metode gradien yang paling sederhana. Terminologinya
yaitu:
a. Steepest ascent : untuk pencarian maksimum fungsi
b. Steepest descent : untuk pencarian minimum fungsi
Prinsip pencarian optimum dari metode ini yaitu dilakukan serangkaian
proses transformasi untuk mengubah sebuah fungsi dengan banyak variabel
menjadi sebuah fungsi dengan variabel tunggal berdasarkan gradient arah
pencarian.
Sebagai ilustrasi, tinjaulah fungsi dua variabel f(x,y) yang akan ditentukan
titik maksimumnya. (lihat gambar berikut ini...)

Gambar 2.8 Ilustrasi metode steepest ascent/descent

Berdasarkan nilai awal x = x0 dan y = y0, dapat ditentukan nilai gradien (atau
arah steepest ascent)-nya, yakni sebesar h0. Berdasarkan nilai h0, nilai maksimum
fungsi dapat ditentukan, yakni pada titik 1. Demikian seterusnya, proses ini
dilakukan berulang-ulang hingga diperoleh titik optimum sesungguhnya.

Secara numerik:
Misal, untuk sebuah fungsi dua variabel: f(x,y) yang akan dicari titik
optimumnya, dengan nilai awal: x = x0 dan y = y0, maka pada langkah iterasi
pertama, nilai x dan y yang baru dapat ditentukan dengan:

Dalam hal ini, vektor gradien fungsinya dinyatakan sebagai:


Nilai x dan y yang diperoleh pada langkah iterasi ini selanjutnya menjadi x0
dan y0 pada langkah iterasi berikutnya. Demikian seterusnya.
BAB III
PENUTUP

3.1 Kesimpulan
1. Optimasi merupakan suatu proses untuk mencari kondisi yang optimum,
dalam arti paling menguntungkan. Optimasi bisa berupa maksimasi atau
minimasi.
2. Metode untuk optimasi 1 variabel yaitu: Metode golden section, Metode
Newton, Metode interpolasi kuadrat
3. Metode untuk optimasi banyak variabel yaitu: Metode Hooke-Jeeves
Metode, steepest ascent (ascending)/ descent (descending), Metode
langsung/ random search.
DAFTAR PUSTAKA

James B. Riggs. 1988. An Introduction to Numerical Methods for Chemical


Engineers. Texas Tech University Press: Texas
Steven C. Chapra & Raymond P. Canale. 2003. Numerical Methods for
Engineers: With Software and Programming Applications. McGraw-Hill
Company Inc: New York.