Anda di halaman 1dari 7

APLIKASI SEARCH ENGINE DAN PERMASALAHANNYA

A. Pengertian Search Engine


Mesin pencari adalah sebuah program yang digunakan sebagai alat bantu untuk
mencari informasi di internet. Mesin pencari mempunyai sebuah database yang
memuat semua item yang terdapat di internet dan halaman-halaman web yang
menyimpan informasi yang berhubungan dengan item-item tersebut. Mesin pencari
mempunyai metode pencarian tertentu yang sering disebut alogaritma pencarian.
Kecepatan dan ketepatan pencarian sebuah mesin pencari sangat tergantung kepada
cara pengindex-an dan alogaritma pencarian yang digunakan.
Umumnya, struktur dasar sebuah mesin pencari adalh sebagai berikut:
-

kotak teks pencarian digunakan sebagai tempat untuk memasukan kata kunci yang

akan dijadikan sebagai acuan pencarian


tombol pencarian utuk menjalankan perintah pencarian. Informasi di internet
setiap saat akan terus berubah dan bertambah.

Oleh karena itu sebuah mesin pencari harus terus memperbaharui database yang
dimilikinya. Untuk melakukan hal ini mesin pencari dilengkapi sebuah program yang
berjalan seperti robot. Disebut robot karena dia dapat bekerja sendiri tanpa harus
dijalankan atau diperintahkan terlebih dahulu.program tersebut disebut dengan spider,
bot, atau crawler. Setiap selang waktu tertentu, program robottersebut akan
menjelajahi intrnet, membaca dokumen-dokumen yang ada di internet, meringkasnya,
dan kemiudia menyimpan di database dengan menggunakan system pengindex-an.

B. Sejarah Search Engine


Perkembangan search engine berawal dari diciptakannya perangkat lunak yang
bernama Archie oleh Alan Emtage, seorang mahasiswa dari Universitas McGill,
Montreal, Kanada, pada tahun 1990. Perangkat lunak Archie mampu mengindex filefile terdapat pada FTP server publik. Ini merupakan aplikasi pertama yang digunakan
untuk mencari informasi di internet, sehingga Archie dinobatkan sebagai nenek
moyang dari search engine. Search engine berikutnya adalah Veronica (Very Easy

Rodent-Oriented Net-wide Index to Computerized Archives) dan Jughead (Jonzys


Universal Gopher Hierarchy Excavation And Display), yang mampu mengindex
halaman-halaman plain text yang terdapat pada server gopher.
World Wide Web Wanderer merupakan aplikasi search engine pertama yang
menggunakan teknologi robot dalam melakukan proses indeks halaman-halaman web
yang terdapat pada web server. Aplikasi ini dirintis oleh Matthew Gray, seorang
mahasiswa dari MIT, namun sayang, aplikasi ini menimbulkan kontroversi, karena
akibat dari kinerja robot ini menghabiskan bandwith yang sangat besar. Berikutnya,
pada tahun 1993, Martijn Koster membuat ALIWEB (Archie-Like Indexing of the
Web). ALIWEB mengizinkan pengguna internet untuk men-submit halaman webnya
untuk di indeks dengan teknologi kumpulan meta-data Aplikasi-aplikasi diataslah
yang menginspirasi lahirnya teknologi-teknologi search engine yang baru, mulai dari
munculnya website search engine webcrawler, yahoo, lycos, altavista, excite, hotbot,
alltheweb, google, baidu dan banyak lagi yang lainnya.
C. Jenis-Jenis Search Engine
Jenis-Jenis

Search

Engine

didasarkan

pada

cara

atau

teknik

mengoleksi/mengumpulkan data dari halaman situs web, mesin pencari dapat


dikelompokkan menjadi 4 jenis search engine:
1. Human Organized Search Engine
Jenis Search engine yang di kelola secara manual dalam artian jenis search engine
ini adalah sepenuhnya ditangani oleh manusia, penggunaan metode ini dengan
menyortir informasi yang sesuai permintaan dari pengguna agar lebih relevan dan
bermanfaat bagi pencari informasi.
Situs mesin pencari dengan metode ini memperkerjakan para ahli sesuai bidang
keahlian untuk mengelompokkan situs web sesuai dengan bidangnya. Beberapa
situs search engine yang mengunakan jenis search engine manual, contoh:
http://www.yahoo.com
http://www.looksmart.com

2. Computer Created Search Engine


Jenis Search Engine ini memiliki banyak kelebihan karena dapat menyajikan
informasi yang banyak meskipun terkadang beberapa informasi yang tidak relevan
dengan

yang

diinginkan

pencari

informasi.

Jenis

Search

engine

ini

mengaplikasikan spider software atau software laba-laba untuk menyusupi situs


web tertentu dan selanjutnya mengumpulkan data serta mengelompokkannya
dengan sedikit bantuan secara manual, diantara situs yang menggunakan metode
ini, contoh:
http://www.webcrawler.com
http://www.excite.com
http://www.inktomi.com
http://www.nothernlight.com

3. Hybrid Seacrh Engine


Jenis Search engine ini merupakan penggabungan secara manual dan
komputerisasi, dengan demikian menghasilkan hasil pencarian lebih akurat. Peran
manusia disini adalah sebagai penelaah dalam proses pengoleksian database
halaman situs web. Diantara situs mesin pencari dengan metode ini, contoh:
http://www.lycos.com
http://www.altavista.com
http://www.hotbot.com
http://www.goto.com
http://www.snap.com
http://www.directthit.com
http://www.google.com

4. MetaCrawler/Metasearch
Jenis Search engine ini adalah perantara dari search engine yang sebenarnya.
Mesin ini bekerja mengirimkan permintaan pencarian ke berbagai mesin pencari
dan menampilkan banyal hasil pencarian dari berbagai mesin pencari yang ada.
Situs serch engine dengan metode metasearch diantaranya, contoh:
http://www.dogpile.com
http://www.infind.com
http://www.snap.com

C. Komponen Utama dari Arsitektur Sebuah Program Searching Engine


Secara prinsip, tujuan dari sebuah program searching engine adalah menemukan
dokumen atau arsip elektronis di internet yang sesuai dengan kebutuhan atau
permintaan pengguna dalam waktu yang sesingkatsingkatnya. Kedua hal inilah,
yaitu kualitas hasil temuan dan waktu pencarian, yang kemudian menjadi pengukur
baik tidaknya kinerja sebuah searching engine. Gambar di bawah ini memperlihatkan
5 (lima) komponen utama dari arsitektur sebuah program searching engine (Indrajit,
2000).

Komponen penting pertama dalah Query Interface, yang merupakan bentuk tampilan atau
format situs yang menyediakan fasilitas searching engine. Bentuk yang paling sederhana
adalah tersedianya sebuah kotak kosong di situs dimana user dapat menuliskan data atau

informasi yang ingin dicari. Yang harus diketahui oleh user adalah bahwa tidak semua situs
memiliki kemampuan yang sama dalam membantu user untuk mengekspresikan jenis data
atau informasi yang ingin dicari. Dalam bahasa komputer cara mengekspresikan ini disebut
sebagai query. Contohnya adalah seseorang yang ingin mencari data atau informasi mengenai
hal-hal yang berkaitan dengan flora dan fauna di Indonesia dapat menggunakan query
semacam: flora and fauna and Indonesia. Walaupun secara internasional telah
diusulkan dan ditentukan standar baku dalam menuliskan sebuah query, namun terlihat bahwa
masingmasing situs menawarkan beragam cara yang berbeda. Hal ini cukup beralasan
mengingat bahwa pemakai internet sangat beragam, dan berkisar dari anak-anak sampai
dengan para manula yang memiliki karakteristiknya sendiri-sendiri. Yang utama bagi user
adalah bahwa Query Interface yang ditawarkan mudah dipergunakan dan efektif.
Komponen kedua adalah Query Engine, merupakan sebuah program yang bertugas untuk
menterjemahkan keinginan user ke dalam bahasa yang dimengerti oleh mesin komputer.
Secara teknis, perusahaan-perusahaan penyedia searching engine berlomba-lomba membuat
query engine yang baik sehingga selain tepat dalam mengekspresikan keinginan user, dapat
mula melakukan tugas pencarian secara cepat. Query Engine ini pulalah yang segera
melakukan pencarian arsip dan dokumen yang tepat di dalam sistem basis data (database)
yang bersangkutan.
Komponen ketiga adalah Database, yang pada dasarnya merupakan kumpulan atau daftar dari
dokumen maupun arsip dari seluruh situs yang ada di internet. Semakin besar skala internet,
akan semakin besar pula kapasitas penyimpan yang dibutuhkan.
Komponen keempat yang merupakan komponen terpenting dalam sebuah searching engine
adalah Spider. Secara berkala dan kontinyu, spider akan mendata setiap situs yang ada di
internet, baik yang baru maupun yang lama. Terhadap masing-masing situs, selain alamatnya,
akan diambil kata-kata kunci dari arsip maupun dokumen yang ditemukan.Katakanlah dari
situs Kompas.com akan diambil setiap kata pada kalimat judul berita,
atau pada Amazon.com akan diambil setiap kata pada judul buku. Di sinilah sebenarnya
persaingan antara situs terjadi, yaitu strategi dan teknik apa yang dipergunakan dalam
melakukan sampling terhadap kata-kata yang akan menjadi kunci dalam pencarian arsip dan
dokumen. Harap diingat bahwa tidak semua situs melakukan proses updating dan sampling
ini secara kontinyu (24 jam sehari), yang dapat menyebabkan telah hilangnya

beberapa arsip dan dokumen dari internet saat user mencarinya.


Komponen kelima disebut sebagai Indexer, yang merupakan sebuah program untuk
mempercepat proses pencarian. Filosofi yang dipergunakan mirip dengan prinsip penggunaan
indeks pada kamus atau buku-buku. Perang antar situs pun terjadi di sini, karena teknik
melakukan indeks akan sangat berpengaruh terhadap kecepatan pencarian data atau
informasi. Biasanya yang terjadi di sini adalah adu algoritma (alur logika sebuah program)
antar para programmer yang direkrut oleh masing-masing perusahaan.

Melihat anatomi searching engine di atas, terlihat bahwa membuat searching engine sangatlah
mudah. Yang sulit adalah mengalahkan kecepatan dan keakuratan dari searching engine yang
sudah ada sekarang. Hal inilah yang menyebabkan banyaknya pemain baru di bisnis
searching engine yang mencari market niche berupa pemilihan daerah-daerah yang menjadi
fokus pencarian. Contohnya adalah Euroferret.com yang hanya mengkhususkan diri pada
pencarian arsip dan dokumen di situs-situs yang ada di wilayah Eropa. Biaya investasinya
pun tidak dapat dibilang murah. Seperti Altavista yang pada tahun 1997 harus melibatkan 3
prosesor (komputer) untuk penanganan Query Interface, 190 prosesor untuk Query Engine, 1
prosesor untuk Spider, 2 prosesor untuk Indexer, dan 300 Gigabytes kapasitas Database.
Pertanyaan selanjutnya yang kerap ditanyakan adalah seberapa besar peluang dan daya tarik
bisnis untuk membuat perusahaan penyedia searching engine. Mirip dengan bisnis surat kabar
atau majalah baru yang harus meningkatkan oplahnya terlebih dahulu sebelum dapat
memasang harga mahal untuk setiap iklan yang dipasang, dalam bisnis portal semacam
searching engine ini adalah traffic. Begitu jumlah orang yang mengakses situs searching
engine mencapai jutaan users, pada saat itulah waktu yang tepat untuk menawarkan
pemasangan iklan (advertisement) di dalam dengan harga premium. Bahkan di Amerika,
bisnis yang diminati oleh para orang muda di Silicon Valley ini memiliki target bahwa setelah
2 tahun, dimana target traffic telah tercapai, maka hanya ada dua skenario yang akan dipilih
pemilik perusahaan: menjual perusahaan ke orang lain, atau go public. Mengapa demikian?
Karena mekanisme dan alam bisnis di sana sudah sedemikan rupa sehingga dalam waktu
singkat seseorang yang berbisnis internet akan dapat menjadi kaya dalam waktu singkat.

Referensi

Eko Indrajit, Richardus. E-Commerce. Kiat dan Strategi Bisnis di Dunia Maya (diakses
tanggal 08 Juni 2016)
Virgilia, Rizka. 2015. https://rizkavirgiliaputri.wordpress.com/2015/05/15/searcing-engine/
(diakses tanggal 08 Juni 2016)

Anda mungkin juga menyukai