0% menganggap dokumen ini bermanfaat (0 suara)
644 tayangan37 halaman

Optimasi Biaya dengan Metode Golden Section

Dokumen tersebut membahas berbagai metode optimasi untuk menemukan solusi optimum dari suatu persoalan, termasuk Metode Golden Section, Hooke-Jeeves, dan Interpolasi Kuadrat. Metode-metode tersebut diterapkan untuk kasus optimasi satu atau banyak variabel dengan tujuan maksimasi atau minimasi.
Hak Cipta
© Attribution Non-Commercial (BY-NC)
Kami menangani hak cipta konten dengan serius. Jika Anda merasa konten ini milik Anda, ajukan klaim di sini.
Format Tersedia
Unduh sebagai PPT, PDF, TXT atau baca online di Scribd
0% menganggap dokumen ini bermanfaat (0 suara)
644 tayangan37 halaman

Optimasi Biaya dengan Metode Golden Section

Dokumen tersebut membahas berbagai metode optimasi untuk menemukan solusi optimum dari suatu persoalan, termasuk Metode Golden Section, Hooke-Jeeves, dan Interpolasi Kuadrat. Metode-metode tersebut diterapkan untuk kasus optimasi satu atau banyak variabel dengan tujuan maksimasi atau minimasi.
Hak Cipta
© Attribution Non-Commercial (BY-NC)
Kami menangani hak cipta konten dengan serius. Jika Anda merasa konten ini milik Anda, ajukan klaim di sini.
Format Tersedia
Unduh sebagai PPT, PDF, TXT atau baca online di Scribd

MINIMALISASI BIAYA MENGGUNAKAN

GOLDEN SECTION AND HOOK JEEVES METHODS

OBJECTIVES
Understand why and where optimization occurs

in engineering problem solving. Understand the major elements of the general optimization problem: (1) objective function, (2) decision variables, and (3) constraints. Be able to distinguish between linear and nonlinear optimization, and between constrained and unconstrained problems

PUSTAKA

James B. Riggs, 1988, An Introduction to Numerical Methods for Chemical Engineers, Texas: Texas Tech University Press, Chapter 6 Steven C. Chapra & Raymond P. Canale, 2003,Numerical Methods for Engineers: With Software and Programming Applications, 4th edition, New York: McGraw-Hill Company Inc, Part Four
etc.

INTRODUCTORY EXAMPLE
Persoalan pemilihan diameter pipa untuk mengangkut fluida dari satu proses ke proses yang lain.

Diameter pipa optimum, berdasarkan: Biaya investasi, dan biaya operasi

$ / year Cost components 1 Operating Costs Pump capital costs Total Pipe capital costs 168 401 Pipe diamater (in) 1,25 308 192 1,5 312 389 150 852
2

2,5 56 660 150 866

4697 660

164 474 150 788

Diameter pipa mana yang akan Anda pilih?

5266 1160

PENGANTAR-1
Definisi optimasi Jenis optimasi: 1- maksimasi; 2- minimasi Dua hal penting dalam studi optimasi: 1- fungsi objektif dan decision variables; 2- kendala (constraints)
Contoh-contoh persoalan optimasi dalam bidang

Engineering

Contoh-contoh constraints yang menyertai persoalan optimasi

Definisi dan Jenis Optimasi


Optimasi merupakan suatu proses untuk mencari kondisi yang optimum, dalam arti paling menguntungkan.

Optimasi bisa berupa maksimasi atau minimasi. Jika berkaitan dengan masalah keuntungan, maka keadaan optimum adalah keadaan yang memberikan keuntungan maksimum (maksimasi). Jika berkaitan dengan masalah pengeluaran/pengorbanan, maka keadaan optimum adalah keadaan yang memberikan pengeluaran/pengorbanan minimum (minimasi).

Fungsi Objektif
Secara umum, fungsi yang akan dimaksimumkan atau diminimumkan disebut fungsi objektif (objective function), sedangkan harga-harga yang berpengaruh dan bisa dipilih disebut variabel (perubah) atau decision variable. Secara analitik, nilai maksimum atau minimum dari suatu persamaan: y = f(x) dapat diperoleh pada harga x yang memenuhi: y = f(x) = 0 Untuk fungsi yang sulit untuk diturunkan atau mempunyai turunan yang sulit dicari akarnya, proses optimasi dapat dilakukan secara numerik.

Contoh Persoalan Optimasi dalam Bidang Engineering


Design pump and heat transfer equipment for maximum

efficiency Design waste water treatment system to meet water-quality standards of least cost Optimal planning and scheduling Optimal pipeline network Inventory control Maintenance planning to minimize cost etc.

PENGANTAR-2
Ilustrasi maksimasi (secara grafik): Beberapa istilah: Maksimum lokal Maksimum global

A unimodal function

One hump or one valley Catatan: Analog, untuk kasus minimasi

PENGANTAR-3
Maksimum dan minimum lokal dan global:

PENGANTAR-4
Perbedaan antara persoalan optimasi dengan pencarian/ penentuan akar persamaan:

PENGANTAR-5
Ilustrasi grafik optimasi dua variabel:

Tinjaulah sebuah fungsi dengan satu variabel sbb.:

y = f(x)
Ingin dicari harga x yang memberikan harga y maksimum (maksimasi) atau minimum (minimasi). Dalam hal ini, x yang diperoleh merupakan nilai x optimum fungsi. Beberapa metode yang akan dibahas Metode golden section Metode Newton Metode interpolasi kuadrat dsb.

METODE GOLDEN SECTION


Golden section merupakan salah satu cara atau
metode optimasi numerik yang bisa dipakai untuk fungsi yang bersifat unimodal. Kedua tipe optimasi, yaitu maksimasi dan minimasi dapat diselesaikan dengan cara ini.

Golden-section (search) method merupakan

metode optimasi satu variabel yang sederhana, dan mempunyai pendekatan yang mirip dengan metode bisection dalam penentuan akar persamaan tak linier.

METODE GOLDEN

SECTION

Tinjaulah fungsi f(x) yang akan ditentukan maksimumnya, pada rentang x = xl dan x = xu , ide dasar metode ini adalah memanfaatkan nilai yang lama sebagai nilai yang baru. Secara matematik:

(perhatikan gambar di samping).

METODE GOLDEN SECTION


Karena:

l0 l1 l2 ,

l1 l2 maka : l1 l2 l1

l2 R l1

Ambil kebalikannya dan kemudian definisikan:

l1 l2 l1 l1 l2

l2 l1 1 atau 1 atau : 1 R l1 l2 R

Sehingga: R 2 R 1 0
Nilai akar positifnya : R 5 1 0,61803 ...... 2
(R biasa disebut sebagai Golden ration atau golden number)

ALGORITMA
(kasus maksimasi):
1. Mulai dari 2 nilai tebakan awal xl dan xu, yang mengapit titik maksimum. 2. Tentukan nilai x1 dan x2 di dalam rentang xl dan xu, sesuai dengan golden ratio (R)

5 1 X u X l d 2 x1 x1 d x2 xu d

ALGORITMA (kasus maksimasi):


3. Berdasarkan harga f(x) pada 2 titik tersebut (x1 dan x2), diharapkan ada sebagian interval yang dapat dieliminasi, sehingga salah satu titik lama bisa dipakai lagi pada evaluasi langkah berikutnya. Jadi hanya diperlukan 1 titik baru. Ada 2 kasus: (a) Jika: f(x1) > f(x2) Maka: domain x antara xl dan x2 dieliminasi x2 lama = xl baru x1 lama = x2 baru xu lama = xu baru x1 baru ditentukan

(b) Jika: f(x2) > f(x1) Maka: domain x antara x1 dan xu dieliminasi x1 lama = xu baru x2 lama = x1 baru xl lama = xl baru
x2 baru ditentukan

METODE GOLDEN SECTION


Algoritma untuk kasus minimasi kebalikan dari algoritma untuk kasus maksimasi tersebut di atas.
Efektivitas evaluasi dengan metode golden section:

Misal diinginkan pengecilan interval sampai menjadi 0,001 dari semula, maka jumlah step yang diperlukan (N) adalah:
(0,618)N = 0,001 N = 14,3 15 Jumlah evaluasi = 2 + (N 1) x 1 = 16

Silakan Pelajari Contoh Soal

EXAMPLE : DETERMINING MINIMATION FUNCTION Y = 2X2 8X + 12 KNOWN

5 1 0.618 2

XA = LOWER LIMIT (BATAS BAWAH) = 0 XB = UPPER LIMIT (BATAS ATAS) = 4 TOL = 0.001 (SAMPLE) X=XA = 0 YA = (2*02) - (8*0) + 12 = 12 X=XB=4 YB = (2*42 ) (8*4) +12 =12

XP=XA + (1 L) * (XB XA) = 0 + ( 1 0.618) * (4 0) =1,53 YP = (2 * 1,5322) (8*1,53) +12 = 4,44 XQ=XA + L*(XB XA) = 0 + 0.618*(4 0) = 2,472 YQ= (2*2,4722) (8*2,472) + 12 = 4,45 XPNEW=1,53 + (1 L)*(2,472 1,53) = 1,8898 YPNEW=( 2*1,88982) (8*1,8898) + 12 = 4,02 XQNEW=1,53 + 0,618*(2,472 1,53) = 1,915 YPNEW = (2*1,9152) (8*1,915) +12 = 4,01 DST

METODE NEWTON
Metode ini menggunakan pendekatan yang sama dengan metode Newton dalam penentuan akar persamaan tak linier, melalui pendefinisian fungsi: g(x) = f(x)

Karena pada kondisi optimum:

f '(x*) = g (x*) = 0 (x* menyatakan nilai x optimum)


maka, nilai x* dapat diperoleh secara iteratif sebagai berikut:

f ' ( xi) xi 1 xi f " ( xi)


Silakan Pelajari Contoh Soal Berikut

METODE INTERPOLASI KUADRAT

Metode ini dapat digunakan untuk melakukan optimasi secara numerik.

Hal ini disebabkan oleh penggunaan polinomial orde-dua yang menghasilkan pendekatan cukup baik terhadap bentuk f(x) di dekat titik optimumnya.

(Perhatikan gambar di samping)

METODE INTERPOLASI KUADRAT


Jika mula-mula kita mempunyai tiga buah titik tebakan awal (yakni x0, x1, dan x2) yang mengapit titik optimumnya, maka sebuah parabola dapat difit-kan melalui ketiganya.

Diferensiasikan persamaan yang diperoleh, set hasilnya menjadi sama dengan nol, dan perkiraan x optimum dapat ditentukan (dalam hal ini sebagai x3) sbb.:

f ( x0 )(x1 x2 ) f ( x1 )(x2 x0 ) f ( x2 )(x0 x1 ) x3 2 f ( x0 )(x1 x2 ) 2 f ( x1 )(x2 x0 ) 2 f ( x2 )(x0 x1 )


2 2 2 2 2 2

Penentuan x3 dilakukan secara iteratif, melalui strategi yang sama dengan metode golden section, hingga diperoleh penyelesaian yang konvergen.

OPTIMASI BANYAK VARIABEL


Misal diketahui sebuah fungsi dengan banyak variabel sbb:
y = f(x1, x2, x3, .., xn) Ingin dicari harga x1, x2, x3, .., xn yang memberikan harga y maksimum (maksimasi) atau minimum (minimasi). Pengelompokan metodenya secara garis besar: (1) non gradient methods, dan (2) gradient methods Beberapa metode yang akan dibahas: Metode Hooke-Jeeves Metode langsung/ random search Metode steepest ascent (ascending)/ descent (descending)

METODE HOOKE-JEEVES
Prinsip metode Hooke-Jeeves: (1) Eksplorasi nilai xi (2) Mengulangi langkah sukses Optimasi dengan cara Hooke-Jeeves ditunjukkan dalam contoh berikut. Misal ingin dilakukan minimasi dari suatu fungsi: y = (x1 4)2 + 0,5.(x2 9)2 + 3 Sebagai cek, dengan mudah dapat terlihat bahwa minimum terjadi pada x1 = 4, x2 = 9, dan harga ymin =3. Dipakai cara Hooke-Jeeves dengan titik awal x1 = 1, x2 = 16, serta interval awal x1 = 1 dan x2 = 2.

X1
1 2 2 2 3 4 5 5 3

X2
16 16 18 14 12 10 8 10 10

Y
36,5 31,5 47,5 19,5 8,5 3,5 4,5 4,5 4,5

Komentar
Basis Sukses Gagal Sukses Sukses Sukses Gagal Gagal Gagal

Hooke Jeeves -2

Eksplorasi dengan x1 = 1, x2 =2

Mengulangi langkah sukses

Hasil Perhitungan

Eksplorasi dengan x1 = 1, x2 =2

4
4

12
8

7,5
3,5

Gagal
Gagal

X1 4,2 3,8 4 4 4 4 4,2 3,8 4 4

X2 10 10 10,4 9,6 9,2 8,8 9,2 9,2 9,6 8,8

Y 3,54 3,54 4,96 3,18 3,02 3,02 3,06 3,06 3,18 3,02

Komentar
Hooke Jeeves -3

Eksplorasi dengan x1 = 0,2, x2 =0,4


Gagal Gagal Gagal Sukses Sukses Gagal Gagal Gagal Gagal Gagal

Mengulangi langkah sukses

Hasil Perhitungan

Eksplorasi dengan x1 = 0,2 ; x2 =0,4

Hooke Jeeves -4
X1 X2 Y Komentar

Eksplorasi dengan x1 = 0,04, x2 =0,08

4,04
3,96 4,00 4,00

9,2
9,2 9,28 9,12

3,021
3,021 3,039 3,007

Gagal
Gagal Gagal Sukses

Mengulangi langkah sukses


4,00 4,00 9,04 8,96 3,0008 3,0008 Sukses Gagal

METODE LANGSUNG (RANDOM SEARCH)


Sesuai dengan namanya, metode ini secara berulang-ulang mengevaluasi nilai fungsi pada nilai-nilai variabel bebas tertentu (selected values) secara acak. Jika banyaknya sampel yang dicoba mencukupi, maka kondisi optimumnya akan teramati. tidak efisien! Metode ini dapat diterapkan untuk fungsi yang discontinuous dan non-differentiable sekalipun. Pendekatan ini pada umumnya akan menghasilkan titik optimum global (bukan optimum lokal) Silahkan Pelajari Contoh

METODE STEEPEST ASCENT/DESCENT Merupakan jenis metode gradien yang paling sederhana. Terminologi:

steepest ascent untuk pencarian maksimum fungsi steepest descent untuk pencarian minimum fungsi

Prinsip pencarian optimum:

Dilakukan serangkaian proses transformasi untuk mengubah sebuah fungsi dengan banyak variabel (multidimensional function) menjadi sebuah fungsi dengan variabel tunggal (one-dimensional function), berdasarkan gradien arah pencarian.

Langkah pencarian optimum ini selanjutnya dilakukan secara berulang-ulang (iteratif).

PENCARIAN TITIK OPTIMUM Sebagai ilustrasi, f(x,y) tinjaulah fungsi 2 variabel f(x,y) yang akan ditentukan titik maksimumnya. (lihat

gambar di samping)

Berdasarkan nilai awal x = x0 & y = y0, dapat ditentukan nilai gradien (atau arah steepest ascent)-nya, yakni sebesar h0.

Berdasarkan h0, nilai maksimum fungsi dapat ditentukan, yakni pada titik 1. Demikian seterusnya, proses ini dilakukan berulang-ulang hingga diperoleh titik optimum sesungguhnya.

Secara Numerik: Misal, untuk sebuah fungsi 2 variabel: f(x,y) yang akan dicari titik optimumnya, dengan nilai awal:

x = x0 dan y = y0
Pada langkah iterasi pertama, nilai x dan y yang baru dapat ditentukan dengan:

x x0 and y y0

f x f y

h
x 0 , y0

h
x 0 , y0

f f merupakan turunan parsial fungsi f(x,y) and terhadap x dan y x y


Dalam hal ini, vektor gradien fungsinya dinyatakan sbg:

f f f i j x y
Pada kasus ini, sebuah fungsi 2 variabel dalam x dan y, f(x,y), ditransformasikan menjadi sebuah fungsi satu variabel dalam h, g(h).

Nilai x dan y yang diperoleh pada langkah iterasi ini selanjutnya menjadi x0 dan y0 pada langkah iterasi berikutnya. Demikian seterusnya. Silahkan Pelajari Contoh

LOKASI OPTIMUM PENGOLAH LIMBAH TERPADU

Contoh Aplikasi:

Sejumlah N pabrik dengan posisi koordinat masing-masing (xi,yi) menghasilkan limbah masing-masing sejumlah Qi. Akan dibangun suatu unit pengolah limbah terpadu untuk seluruh pabrik tersebut. Ongkos pengangkutan limbah dari pabrik ke unit pengolah limbah berbanding lurus dengan debit pangkat 0,6. Ingin ditentukan posisi (koordinat) unit pengolah limbah agar ongkos pengangkutan limbah minimum. Analisis:

H arg a k ( jarak )( debit) 0, 6

Misal: Lokasi pengolah limbah berada di titik P (xP, yP) Jarak pabrik (xi,yi) ke lokasi pengolah limbah:

d i ( x p xi ) 2 ( y p yi ) 2
Ongkos transport dari pabrik (xi, yi):
Ci k.Qi0,6 ( x p xi ) 2 ( y p yi ) 2

Ongkos transport total:

Dicari nilai xP dan yP yang memberikan nilai CT minimum. Misal:

Dimisalkan pula: nilai k = 1

OPTIMASI FUNGSI 2 VARIABEL SECARA ANALITIK

(sebuah perbandingan)

Tinjaulah sebuah fungsi 2 variabel: f(x,y) Kriteria optimumnya dapat dibagi menjadi 3 kategori:

f(x,y) mempunyai minimum lokal: jika det(H) > 0 dan

f(x,y) mempunyai maksimum lokal: jika det(H) > 0 dan


f(x,y) mempunyai titik belok (saddle point): jika det(H) < 0 det(H) merupakan nilai determinan matriks Hessian yang dinyatakan sebagai

Anda mungkin juga menyukai