Anda di halaman 1dari 6

Prosiding Teknik Elektro & Informatika, Volume 1, Nomor 1, Mei 2012

RancangBangun Sensor Jarak Dengan Korespondensi Citra Dengan Ekstraksi Fitur SURF Dan Konsep Stereo Vision
Yoanes Naftalianto
TeknikElektro, SekolahTeknikElektrodanInformatika, InstitutTeknologiBandun, Jalan Ganesha10 Bandung 40132
ynaftalianto@gmail.com

AbstrakStereo vision yang dirancang pada tugas akhir ini dapat mendapatkan informasi jarak dalam rentang 20cm sampai 160cm. Sistem ini menggunakan dua buah kamera web (webcam) sebagai pencitra, dan komputer sebagai pemroses citra. Implementasi dari sistem ini menggunakan pustaka OpenCV 2.1 yang sudah terdapat fungsiuntuk capturing, kalibrasi, rekstifikasi, dan pencarian fitur. Pencarian fitur dilakukan dengan algoritma SURF (Speeded Up Robust Feature). Hasil dari tugas akhir ini adalah desain sistem yang dapat mendeteksi jarak sebuah objek dangan menggunakan pasangan citra yang diambil melalui kamera. Implementasi dari desain mampu mendeteksi jarak dalam rentang 20 cm sampai 160 cm. Kata KunciStereo Vision, rektifikasi, korespondensi. SURF, webcam, kalibrasi,

gurasi maksimum dari sistem yang dikembangkan dengan menentukan persamaan koreksi dari: a. Selisih disparitas b. Selisih jarak

II.

SISTEM STEREO VISION

Sistem stereo vision yang didesain memiliki beberapa konsep dasar: 1. Model Kamera Model kamera adalah sebuah representasi sederhana dari sebuah kamera untuk kepentingan analisis. Dalam model kamera hanya ada elemen yang esensial dalam kamera, seperti lensa, bidang citra, dan obyek yang ditangkap. Model kamera yang paling sederhana adalah model kamera lubang jarum (pinhole camera).Dalam model kamera lubang jarum, cahaya dari obyek masuk ke dalam kamera melalui lubang jarum dan terproyeksikan ke bidang citra. Sebagai hasil, citra pada bidang ini selalu dalam keadaan fokus dan ukuran citra relatif terhadap ukuran obyek sebenarnya ditentukan oleh satu parameter kamera, yaitu jarak fokus ( f ). Hubungan ini dapat dituliskan dalam persamaan (2.1) Dalam kamera ideal, titik prinsipal (titik yang memotong bidang citra pada sumbu optik) berada tepat di tengah bidang kamera. Akan tetapi pada kenyataannya, dalam proses manufaktur pasti terdapat kesalahan pemasangan lensa ataupun sensor kamera (sebagai bidang citra) sehingga meyebabkan bergesernya titik prinsipal dari pusat bidang citra. Perpindahan ini dinyatakan dalam dua besaran, yaitu cx dan cy dimana cx merupakan perpindahan dalam sumbu x dan cy dalam sumbu y. Dengan adanya besaran baru ini, persamaan proyeksi yang lama berubah menjadi: (2.2)

I.

PENDAHULUAN

Pada masa ini, teknologi pencitraan digital sangat berkembang di seluruh dunia. Teknologi ini memungkinkan untuk didapatnya sebuah informasi baru dari citra digital, salah satunya adalah informasi jarak dengan menggunakan sistem stereo vision. Pada tugas akhir ini akan dirancang sebuah sistem stereo vision yang digunakan untuk mendeteksi jarak. Sistem stereo vision adalah sistem yang sering dipakai untuk aplikasi pendeteksi jarak. Dengan teknologi komputer sekarang dan teknologi kamera yang memiliki antarmuka USB, mengimplementasi sistem ini tergolong cukup mudah untuk dipelajari. Meskipun demikian, keakuratan sistem ini dalam mendeteksi jarak sangat bergantung dari spesifikasi perangkat keras yang digunakan. Oleh karena hal tersebut, dalam tugas akhir ini akan dianalisis seberapa akurat penggunaan kamera web untuk sistem stereo vision. Tujuan pengerjaan tugas akhir ini adalah sebagai berikut : 1. 2. Rancang bangun perangkat lunak yang mampu melakukan perhitungan jarak obyek Melakukan eksperimen untuk menentukan konfi-

ISSN: 2252-9403

Pembimbing : Dr. Widyawardana Adiprawita

Dalam persamaan 2.2, fx dan fy merupakan hasil kali jarak fokus (f) dengan ukuran nyata pixel pada kamera (sx dan sy). Persamaan ini mendeskripsikan hubungan antara titik 2D pada bidang citra dan titik 3D pada ruang. Relasi yang memetakan titik 3D dalam ruang dengan koordinat (X, Y, Z) ke titik pada bidang proyeksi (dalam kasus ini adalah bidang citra) dengan koordinay (x, y) disebut dengan transformasi proyeksi. Untuk transformasi tersebut, akan lebihbaik apabila menggunakan konsep koordinat homogen. Koordinat homogen berhubungan dengan titik pada bidang proyeksi yang memiliki dimensi n biasanya dinyatakan dengan vektor (n+1) dimensi, dengan batasan bahwa dua nilai yang proporsional adalah sama. 2. Kalibrasi Kamera Proses kalibrasi adalah proses untuk menentukan parameter kamera. Kamera memiliki dua parameter utama,yaitu parameter intrinsik dan parameter ekstrinsik. a) Parameter Intrinsik Parameter ini merupakan parameter yang mendefinisikan keadaan dan besaran sebuah kamera. Parameter ini berbentuk sebuah matrik 3x3 yang berisi besaran-besaran internal kamera seperti jarak fokus (fx dan fy) dan perpindahan pusat proyeksi pada layar proyeksi dari sumbu optik (cx dan cy). Matriks parameter intrinsik dapat dinyatakan sebagai berikut. (2.2) Besaran-besaran tersebut diambil dari model kamera lubang jarum (pinhole) yang yang telah dijelaskan sebelumnya. Matriks intrinsik diturunkan dari persamaan 2.2 dengan mengubah titik 2D (x, y) pada bidang citra ke koordinat homogen sehingga menjadi q = (x, y, w). Karena q merupakan koordinat homogen, maka semua nilai q yang proporsional adalah sama. Contohnya titik (x, y, z) dengan titik (nx, ny, nz), dengan n adalah bilangan konstan. Oleh karena itu,untuk mendapatkan kembali nilai asal yang berupa titik 2D (x, y) dilakukan pembagian terhadap w. Dengan pengertian ini, matriks intrinsik diturunkan dalam koordinat homogen seperti yang terlihat pada persamaan (2.3)

derau citra. Oleh karena itu, deskriptor tersebut biasanya didasari pada perbedaan intensitas lokal. Deskriptor SURF juga melakukan hal yang sama dengan mengaplikasikan kernel sederhana dalam sebuah lingkungan yang lebih besar di sekitar keypoint. Kernel yang dimaksud adalah sebagai berikut:

Gambar 2.1Kernel SURF [7]

Kernel yang pertama mengukur perbedaan intensitas lokal dalam arah horizontal (dx) dan kernel yang kedua mengukur perbedaan intensital lokal dalam arah vertikal (dy). Ukuran lingkungan untuk mengekstraksi vektor deskriptor didefinisikan sebagai 20 kali faktor skala fitur tersebut. Kemudian area persegi tersebut dibagi menjadi 4x4 persegi yang lebih kecil yang disebut sub-region. Untuk masingmasing sub-region, respon dari kernel (dx dan dy) dihitung pada ruang lokasi 5x5. Semua respons dijumlahkan seperti berikut untuk mengektraksi 4 nilai deskriptor untuk masingmasing sub-region:

Karena terdapat 4x4=16 sub-region, SURF memiliki total 64 nilai deskriptor untuk masing-masing fitur. 3. Epipolar Geometri Geometri epipolar merupakan geometri dasar unutk sistem stereo vision. Geometri ini menggunakan dua buah kamera lubang jarum dan titik yang disebut dengan epipole yang akan dijelaskan pada subbab ini. Geometri epipolar diilustrasikan dalam gambar 2.2.

Gambar 2.2 Geometri epipolar[3]

Dari persamaan 2.3 akan didapatkan bahwa w = Z, maka untuk mendapatkan titik 2D (x, y) yang berupa lokasi pixel dilakukan pembagian terhadap Z seperti pada persamaan diatas. 3. SURF (Speeded-Up Robust Feature) DalamAlgoritma SURF mendefinikan lokasi dan skala untuk masing-masing fitur. Sebuah deskriptor fitur yang baik harus bersifat invarian terhadap perubahan kecil pada tingkat kecerahan (illumination) dan invarian terhadap keberadaan

Titik epipolar merupakan perpotongan antara garis yang melalui titik proyeksi kamera kiri dan kamera kanan dengankedua bidang citra. Untuk setiap titik citra obyek yang terproyeksi ke bidang citra, garis dari titik tersebut dengan titik epipole akan menghasilkan garis yang disebut dengan garis epipolar. Masing-masing kamera memiliki garis epipolar masing-masing untuk setiap titik obyek yang terproyeksi. Kedua garis epipolar ini dengan garis yang melalui kedua titik proyeksi membentuksebuah bidang yang disebut bidang epipolar. Geometri epipolar sangat membantu dalam pencarian pasangan fitur antar kedua kamera dalam sistem stereo vision.

Pasalnya, setiap titik obyek yang terdeteksi pada salah satu kamera, proyeksi titik tersebut akan berada pada garis epipolar kamera lainnya. Dengan demikian pencarian fitur pasangan dapat difokuskan pada garis epipolar yang bersangkutan. Dengan demikian kita dapat menjabarkan fakta mengenai geometri epipolar sebagai berikut: Setiap titik 3D yang berada dalam pandangan kamera berada pada bidang epipolar yang memotong kedua bidang citra di garis epipolar. Untuk fitur pada salah satu citra, pasangan fitur pada citra lainnya harus berada pada garis epipolar. Hal ini disebut dengan epipolar constraint. Hubungan dari kedua garis epipolar yang berasal dari satu obyek yang sama pada kedua kamera dirangkum dalam matriks yagn disebut matriks esensial dan matriks fundamental. a) Matriks Esential Matriks esential E berisi informasi tentang translasi dan rotasi yang menghubungkan pasangan kamera dalam ruang. b) Matriks Fundamental Matriks fundamental F memiliki isi yang sama dengan matriks esensial dengan tambahan informasi mengenai parameter intrinsik dari kedua kamera. Karena memiliki informasi parameter intrinsik, matriks fundamental dua kamera dalam koordinat pixel. III. DESAIN STEREO VISION

Gambar 3.1 Diagram alir proses stereo frame capture

2. Kalibrasi Stereo Untuk menghilangkan distorsi dan mensejajarkan citra yang ditangkap pada proses stereo frame capture perlu dilakukan proses kalibrasi stereo. Proses ini menghitung parameter intrinsik dan ekstrinsik kamera serta besaran distorsi kedua kamera dari beberapa pasangan citra kalibrasi. Parameter yang dihasilkan berupa matriks yang nilainya akan disimpan pada file berformat YML untuk dipakai di proses rektifikasi stereo.

Sistem stereo vision yang dirancang dilakukan dalam empat langkah yang dalam implementasinya akan direalisasikan sebagai fungsi dalam perangkat lunak. Keempat langkah tersebut adalah stereo frame capture, kalibrasi stereo, rektifikasi, dan korespondensi stereo. Semua fungsi ini akan menggunakan fungsi dari pustaka OpenCV dalam implementasinya. 1. Stereo Frame Capture Stereo frame caputre adalah sebuah proses untuk menangkap citra secara simultan dari pasangan kamera dalam sistem stereo vision. Proses ini tidak menggunakan perangkat keras tambahan, seperti frame grabber, karena citra ditrangkap memalui kamera web yang memiliki antarmuka/interfase langsung dengan komputer. Hasil dari proses ini berupa citra yang belum termodifikasi. Citra yang dihasilkan masih memiliki distrori dan belum disejajarkan. Citra yang ditangkap akan disimpan dalam file berformat PNG untuk digunakan dalam proses selanjutnya Diagram alir untuk proses ini ada pada gambar berikut

Gambar 3.2 Diagram alir proses kalibrasi stereo

3. Rektifikasi Stereo Citra yang ditangkap pada proses stereo frame capture memiliki distorsi dan tidak sejajar baris. Pada proses rektifikasi, pasangan citra tersebut disejajarkan dan dibuat

paralel dengan pemetaan citra (mapping). Peta (map) yang digunakan berasal dari perhitungan parameter pasangan kamera. Peta ini kemudian digunakan untuk memetakan citra lama ke citra yang telah terektifikasi. Proses ini mengubah posisi bidang citra secara virtual sehingga bidang citra kedua kamera yang dihasilkan paralel satu sama lain. Diagram alir proses rektifikasi stereo dapat dilihat pada gambar 3.3

Gambar 3.4 Diagram alir proses korespondensi stereo

IV. 800

HASIL PENGUJIAN

600 400 200


Gambar 3.3 Diagram alir proses rektifikasi stereo

0
20 40 60 80 100 120 140 160 180
Baseline 5 cm Baseline 13 cm Baseline 8 cm Baseline 18 cm Baseline 10 cm Baseline 23 cm

4. Korespondensi Stereo Fitur-fitur pada pasangan citra akan dicari pada proses korespondensi stereo. Pencarian fitur memanfaatkan metode SURF yang mencari fitur pada citra dan menyimpannya dalam bentuk deskriptor SURF. Deskriptor SURF ini yang kemudian akan menjadi keunikan bagi masing-masing fitur yang ditemukan. Maka dari itu, keunikan ini dapat digunakan untuk membandingkan dua fitur untuk mencari kecocokan fitur. Pencocokan dua fitur dilakukan dengan membandingkan nilai deskriptor SURF pada masing-masing fitur. Namun, sebelum membandingkan nilai deskriptor, terlebih dahulu dilakukan perbandingan nilai laplacian kedua fitur. Nilai laplacian yang memungkinkan adalan -1, 0, dan 1. Kedua fitur yang cocok akan selalu memiliki nilai laplacian yang sama. Maka dari itu, sifat ini digunakan pada pertama kali pencocokan fitur.

Gambar 4.1 Hubungan jarak kontrol dengan jumlah fitur yang terdeteksi untuk setiap baseline

Dari grafik pada Gambar 4.1 dapat dilihat bahwa pada jarak kontrol dekat (20 cm - 60 cm), semakin kecil baseline maka semakin banyak fitur yang terdeteksi. Akan tetapi, semakin jauh jarak kontrol, maka perbedaan jumlah fitur yang terdeteksi untuk masing-masing baseline semakin kecil. Selain itu terlihat juga kecenderungan jumlah fitur yang berkurang seiring semakin jauhnya jarak kontrol. Grafik pada Gambar 4.2 memperlihatkan hubungan kesalahan deteksi jarak untuk setiap baseline untuk masingmasing jarak kontrol. Dari gambar tersebut terlihat bahwa untuk tiap-tiap baseline, hubungan kesalahan deteksi jarak dengan jarak kontrol berbanding lurus.

Persamaan alometrik untuk masing-masing baseline dapat dilihat pada Tabel 4-2 berikut.
Tabel 4-2 Interpolasi non-linier kesalahan disparitas Baseline 5 cm 8 cm 10 cm 13 cm Gambar 4.2 Kesalahan deteksi jarak untuk setiap jarak kontrol 18 cm 23 cm Persamaan Interpolasi Non-Linier

Oleh karena itu, untuk masing-masing baseline dilakukan interpolasi linier yang menggambarkan hubungan tersebut.
Tabel 4-1 Interpolasi linier kesalahan jarak terdeteksi Baseline 5 cm 8 cm 10 cm 13 cm Persamaan Interpolasi Linier

V. KESIMPULAN Berdasarkan perancangan dan implementasi dari tugas akhir ini, maka dapat diambil kesimpulan sebagai berikut : 1. Kualitas jarak yang dideteksi bergantung pada kualitas parameter kamera yang dihasilkan oleh kalibrasi. Setiap baseline memiliki tingkat presisi yang berbeda- beda untuk pendeteksian jarak tertentu. Sistem yang diimplementasikan belum bisa digunakan dalam system real-time dan masih diuji menggunakan citra statis. Kalibrasi yang dilakukan menghasilkan data yang cukup konsisten dengan data pengukuran manual. Perbaikan kesalahan pada pengukuran data dilakukan menggunakan 2 cara, yaitu koreksi jarak dan koreksi disparitas. Untuk koreksi jarak dapat digunakan persamaan linier dengan rumus sebagai komponen perbaikan, sedangkan untuk koreksi disparitas dapat digunakan persamaan non-linier alometrik dengan rumus sebagai komponen perbaikan. VI. [1] [2] [3] REFERENSI

2.
18 cm 23 cm

3.

Dari Gambar 4.3 terlihat bahwa kesalahan disparitas dan jarak terdeteksi rata-rata memiliki hubungan yang non-linier. Untuk memodelkan hubungan antara keduanya, maka dilakukan interpolasi non-linier menggunakan metode alometrik yang memiliki persamaan .

4. 5.

D. H. Ballard and C. M. Brown, Computer Vision. New Jersey:Prentice-Hall, 1982. B. Jahne, Digital Image Processing,Berlin : Springer, 2005. G. Bradski and A. Kaehler, Learning OpenCV Computer Vision with the OpenCV Library. Sebastopol : OReilly, 2008.

Gambar 4.3Kesalahan disparitas vs jarak rata-rata

[4]

[5]

[6]

[7]

[8]

[9]

[10]

[11]

[12]

[13] [14]

[15]

[16]

R. Hartley and A. Zisserman, Multiple View Geometry, New York : Cambridge University Press, 2003. T. Tuytelaars and K. Mikolajczyk, Local Invariant Feature Detectors : A Survey, Foundation and Trends in Computer Graphics and Vision, Vol. 3, No. 3, pp. 177-280, 2007. H. Bay et al. , SURF: Speeded Up Robust Features, Computer Vision and Image Understanding (CVIU), Vol. 110, No. 3, pp. 346-359, 2008. R. Laganire, OpenCV 2 Computer Vision Application Programming Cookbook. Birmingham : Packt Publishing, 2001. L. Juan dan O. Gwun, A Comparison of SIFT, PCASIFT and SURF, International Journal of Image Processing (IJIP), Vol. 3, No. 4, 2010. A. S. Maliket al.,Depth Map and 3D Imaging Applications Algorithms and Technologies. Hershey: Information Science Reference, 2012. W. Burger and Mark J. B.,Principles of Digital Image Processing Fundamental Techniques. London : Springer, 2009. B. Cyganek and J. Paul S, An Introduction to 3D Computer Vision Techniques and Algorithm. Chichester : John Wiley & Sons, Ltd., 2009. E. Trucco and A. Verri. Introductory Techniques for 3-D Computer Vision. New Jersey : Prentice-Hall, Inc., 1998. A. Bhatti,Stereo Vision, Vienna : In-Teh, 2008. J. R. Jordan, III, and A. C. Bovik, Computational Stereo Vision Using Color. IEEE Control System Magazine , pp. 31-36, 1988. L. S. Shapiro et al., 3D Motion Recovery via Affine Epipolar Geometry, International Journal Of Computer Vision (IJCV), No. 16, pp. 147-182, 1995. C. Solomon and T. Breckon, Fundamental of Digital Image Processing A Practical Approach with Examples in MATLAB. Oxford : Wiley-Blackwell, 2011.