DASAR TEORI
Sistem Informasi Geografi (SIG) merupakan sistem berbasis komputer yang digunakan untuk
menyimpan dan memanipulasi informasi – informasi geografis. Sistem informasi geografis dirancang
untuk mengumpulkan, menyimpan, serta menganalisis objek-objek dan fenomena- fenomena yang
mengetengahkan lokasi geografis sebagai karakteristik yang penting atau kritis untuk dianalisis.
Dengan demikian, Sistem Informasi Geografis merupakan sistem komputer yang memiliki empat
kemampuan dalam menangani data yang bereferensi geografis, yaitu: masukan, keluaran,
manajeman data (penyimpanan dan pemanggilan data), serta analisis dan manipulasi data (Prahasta,
2007). Menurut ESRI tahun 1990, Sistem Informasi Geografis adalah kumpulan yang terorganisir dari
perangkat keras komputer, perangkat lunak, data geografi dan personil yang dirancang secara efisien
untuk memperoleh, menyimpan, meng-upgrade, memanipulasi, menganalisis dan menampilkan
semua bentuk informasi yang bereferensi geografis.
Sistem informasi geografis dibagi menjadi dua kelompok yaitu sistem manual (analog) dan sistem
otomatis (yang berbasis digital komputer). Perbedaan yang mendasar terletak pada cara
pengelolaannya. Sistem Informasi manual biasanya paling menggabungkan beberapa data seperti
peta, lembar transparansi untuk tumpang susun (overlay), foto udara, laporan statistik dan laporan
survey lapangan. Kesemua data tersebut dikompilasi dan dianalisis secara manual dengan alat tanpa
komputer. Sedangkan sistem informasi otomatis biasanya melakukan semua proses tersebut dengan
bantuan alat computer.
Sistem Informasi Geografis (SIG) dapat diuraikan menjadi beberapa subsistem (Prahasta, 2005), yaitu:
1. Data Input Subsistem ini bertugas untuk mengumpulkan dan mempersiapkan data spasial dan
atribut dari berbagai sumber. Subsistem ini pula yang bertanggung jawab dalam mengkonversi atau
mentransformasikan format-format data-data aslinya ke dalam format yang dapat digunakan oleh
SIG.
2. Data Output
Subsistem ini menampilkan atau menghasilkan keluaran seluruh atau sebagian basisdata baik dalam
bentuk softcopy maupun bentuk hardcopy seperti : tabel, grafik, peta dan lain-lain.
3. Data Management Subsistem ini mengorganisasikan baik data spasial maupun data atribut ke
dalam sebuah basisdata sedemikian rupa sehingga mudah dipanggil, di-update, dan di-edit.
4. Data Manipulation & Analysist Subsistem ini merupakan informasi-informasi yang dapat dihasilkan
oleh SIG. Selain itu, subsistem ini juga melakukan manipulasi dan pemodelan data untuk
menghasilkan informasi yang diharapkan
I.2. Komponen Sistem Informasi geografis
Dalam suatu SIG diperlukan lima komponen untuk mulai melakukan suatu proyek agar saling
bekerjasama. Kelima komponen tersebut yaitu perangkat keras (hardware), perangkat lunak
(software), data, sumber daya manusia dan prosedur.
1. Perangkat Keras (Hardware) Perangkat keras yang dimaksud adalah semua peralatan yang
diperlukan untuk menunjang pembangunan SIG seperti seperangkat komputer yang terdiri dari :
a. Central Processing Unit (CPU) Merupakan pusat proses data yang terhubung dengan media
penyimpanan dengan ruang yang cukup besar dengan sejumlah perangkat lainnya.
b. Disk Drive Menyediakan tempat untuk membantu jalannya penginputan, membaca, proses dan
penyimpanan data.
d. Plotter/Printer Digunakan untuk mencetak hasil dari data yang telah diolah.
e. Tape Drive Digunakan untuk menyimpan data/ program kedalam pita magnetic atau untuk
berkomunikasi dengan sistem lainnya.
F. Visual Display Unit (VDU) Digunakan untuk memudahkan user untuk mengontrol komputer dan
perangkat-perangkat lainnya.
2. Perangkat Lunak (Software) Perangkat lunak (software) SIG berfungsi untuk memasukkan,
menganalisis dan menampilkan informasi SIG. Software SIG memiliki beberapa kemampuan utama,
diantaranya adalah :
3. Data Data merupakan bagian yang terpenting dari SIG karena tanpa adanya data maka SIG tidak
dapat dimanfaatkan secara optimal. Data yang diperlukan dalam SIG meliputi peta dan data atribut/
literal.
4. Manajemen Suatu proyek SIG akan berhasil jika di-manage dengan baik dan dikerjakan oleh orang-
orang yang memiliki keahlian yang tepat pada semua tingkatan.
1. Data Raster, data ini bersumber dari hasil rekaman satelit atau pemotretan udara. Model data
Raster menampilkan, menempatkan dan menyimpan data spasial dengan menggunakan struktur
matrik atau piksel-piksel yang membentuk grid. Setiap piksel memiliki nilai tertentu dan memiliki
atribut tersendiri, termasuk nilai koordinat yang unik. Tingkat keakurasian model ini sangat
tergantung pada ukuran piksel atau biasa disebut dengan resolusi.
2. Data Vektor, data bersumber dari hasil pemetaan topografi atau pata tematik, atau bisa juga
dengan melakukan vektorisasi dari data raster menjadi data vektor. Model data vektor merupakan
model data yang paling banyak digunakan, model ini berbasiskan pada titik (points) dengan nilai
koordinat (x,y) untuk membangun obyek spasialnya. Obyek yang dibangun terbagi menjadi tiga
bagian lagi yaitu
Titik (point), Contoh : Lokasi Fasilitasi Kesehatan, Lokasi Fasilitas Kesehatan, dll.
Garis (line), Contoh : Jalan, Sungai, dll.
Area (polygon), Contoh : Danau, Persil Tanah, dll.
A. Analisis Vektor
Analisis data vektor biasanya digunakan untuk memetakan fenomena permukaan bumi yang bersifat
diskrit dimana batas antar fenomena dapat dibedakan, contohnya: jalan, sungai, penggunaan lahan
dan batas wilayah. Beberapa tools analisis data vektor antara lain: proses extract (clip dan split),
overlay (intersect dan symmetrical difference), proximity (buffer dan multi ring buffer) dan
generalization (merge dan dissolve).
Clip
Clip adalah pemotongan bagian tertentu dari suatu layer data dengan menggunakan layer data lain
sebagai bidang pemotong. Umumnya, Clipping digunakan untuk memecah data peta besar menjadi
bagian lebih kecil atau mengekstrak bagian layer data tertentu dari suatu layer data, seperti
ditunjukkan dalam Gambar dibawah ini.
Contoh: membuat data spasial berupa data Jalan Nasional di Kabupaten Sumedang (Output) dari
data jalan nasional Provinsi Jawa Barat (Input) dipotong dengan menggunakan feature batas
kabupaten Sumedang (Clip Feature).
Split
Split merupakan tools yang digunakan untuk memisahkan feature data berdasarkan bagian-bagian
tertentu, seperti ilustrasi pada Gambar dibawah ini.
Table Select
Table Select Merupakan proses pemilihan table dalam sebuah layer dengan
menggunakan expresi dalam SQL Input table = diisikan dengan table/layer yang
data tabelnya akan dipilih. Output table=diiskan dengan nama table dan lokasi akan
disimpan.
3. Overlay
Overlay adalah prosedur penting dalam analisis SIG (Sistem Informasi Geografis). Overlay yaitu
kemampuan untuk menempatkan grafis satu peta diatas grafis peta yang lain dan menampilkan
hasilnya di layar komputer atau pada plot. Secara singkatnya, overlay menampalkan suatu peta
digital pada peta digital yang lain beserta atribut-atributnya dan menghasilkan peta gabungan
keduanya yang memiliki informasi atribut dari kedua peta tersebut.
Overlay merupakan proses penyatuan data dari lapisan layer yang berbeda. Secara sederhana
overlay disebut sebagai operasi visual yang membutuhkan lebih dari satu layer untuk digabungkan
secara fisik. Dalam bahasa teknis harus ada poligon yang terbentuk dari 2 peta yang di-overlay. Jika
dilihat data atributnya, maka akan terdiri dari informasi peta pembentukya. Misalkan Peta Lereng
dan Peta Curah Hujan, maka di peta barunya akan menghasilkan poligon baru berisi atribut lereng
dan curah hujan.
Teknik yang digunakan untuk overlay peta dalam SIG ada 2 yakni union dan intersect. Jika
dianalogikan dengan bahasa Matematika, maka union adalah gabungan, intersect adalah irisan. Hati-
hati menggunakan union dengan maksud overlay antara peta penduduk dan ketinggian. Secara
teknik bisa dilakukan, tetapi secara konsep overlay tidak.
Data science melibatkan data dan sains atau ilmu (yang dibutuhkan untuk memproses data).
Data science mulai didengungkan pada tahun 80-an dan 90-an, namun baru benar-benar
dipublikasikan pada tahun 2009 atau 2011. Secara sederhana pengertian data science merupakan
salah satu disiplin ilmu yang secara khusus mempelajari soal data terutama data kuantitatif atau data
numerik. Saat ini, ilmu yang satu ini mulai menjelma menjadi suatu profesi baru di bidang teknologi
yang banyak dicari oleh berbagai jenis perusahaan. Menariknya lagi, data science atau ilmu data ini
tidak memerlukan latar belakang pendidikan tertentu untuk bisa mempelajarinya.
Tujuan akhir dari data science adalah untuk menemukan insights dari data. Data science
dapat dipandang sebagai proses untuk mendestilasi atau mengekstraksi atau menggali insights dari
data. Data yang diolah dapat berukuran sedang hingga sangat besar. Insights tersebut dapat
diibaratkan sebagai emas atau berlian, yang meskipun hanya sedikit atau berukuran kecil, namun
tetap berharga. Insights dapat berupa informasi penting maupun model-model yang dibuat dari data
yang akan bermanfaat dalam mengambil keputusan. Insights yang ingin digali dari data perlu dimulai
dengan rasa keingin-tahuan yang kuat dari diri sendiri atau dari organisasi tempat dia bekerja
(berupa kebutuhan karena ada masalah yang ingin diselesaikan dengan memanfaatkan data).
Berbekal ini, seorang data scientist lalu melakukan berbagai aktivitas dengan memanfaatkan ilmu
dan teknologi yang sesuai untuk mendapatkan insights yang disasar.
Adapun proses data Science, Menurut Towards Data Science, menjelaskan proses data science
merupakan hal yang tidak mudah. Namun, kira- kira prosesnya dapat dirangkum dalam lima poin
OSEMN sebagai berikut :
1. Obtain
Langkah pertama untuk memulai sebuah proyek data science adalah obtain, yaitu mendapatkan atau
mengumpulkan data. Data dikumpulkann dari sumber-sumber data. Kemudian digunakan
kemampuan teknis seperti MySQL dalam memproses data. Jika menggunakan Python atau R
2. Scrub
Scrubbing data adalah proses pembersihan atau filter data. Jika ada data yang tidak penting atau
tidak relevan, harus disingkirkan. Pada tahap ini, dilakukan juga standardisasi format data.,Dari
format bermacam-macam ditahap pertama, seluruh data dikonversi ke satu format yang sama.
Setelah itu, jika ada data yang kurang atau hilang, harus dilakukan penyesuaian agar dapat diproses.
Proses scrubbing juga meliputi penyatuan dan pemisahan kategori daa tergantung kebutuan.
Tahap Scrubbing adalah sebuah proses mengatur, merapikan data, serta membuang apapun yang
tidak diperlukan, dan menggantikan data yang hilang serta menstandardisasi seluruh formatnya.
3. Explore
Dalam tahap ini penggalian dan pemeriksaaan data akan dilakukan. Yang mana semua data harus
diperiksa propertinya karena tipe data yang berbeda memerlukan perlakuan yang berbeda pula.
Statistik deskriptif harus dihitung untuk dapat mengekstrak fitue dan menguji variabel yang
signifikan, langkah selajunya adalah visualisasi data yang digunakan untuk mengindetifikasi pola dan
tren signifikan dalam data yang sudah kita dapatkan. Dengan begitu kita dapat memperoleh
gambaran yang lehih jelas dengan grafik agar pentingnya data dapat lebih dipahami.
4. Model
Pada tahap ini dibuat model data agar dapat mencapai tujuanyang diinginkan dan pada tahap ini juga
digunakan regresu dan prediksi agar memperkirakan nila di waktu mendatang serta melakukan
klasifikasi dan pengelompokan grup nilai dari data.
5. Interpret
Dalam tahap terakhir ini merupakan tahap dalam interpretasi data, yang mana proses ini penting
untuk dilakukan interpretasi model dan data. Output dari pengolahan tersebut harus bisa dipahami
oleh orang-orang awam yang tidak mengerti istilah teknis, interpretasi data merupakan kemampuan
komunikasi yang baik juga sangat dibutuhkan untuk menyampaikan poin-poin pentingnya secara
efektif pada semua orang yang berkepentingan.
Data Scientist merupakan seorang (profesi) yang bertugas untuk mengumpulkan data,
mengolahnya, serta melakukan analisa data untuk menghasilkan informasi yang berguna bagi suatu
perusahaan dalam proses pengambilan keputusan. Data scientist melakukan proses analisis data
menggunakan berbagai cara dan algoritma untuk menemukan solusi dari suatu masalah yang rumit.
Selain itu, data scientist juga harus mahir dalam berkomunikasi agar penyampaian hasil analisis suatu
data yang besar dapat diutarakan dengan jelas. Seorang data scientist mengerjakan berbagai
pekerjaan dengan alat-alat (tools) pada beberapa tahap untuk untuk mendapatkan insights.
Tujuannya dari data Scientist adalah untuk mengekstrak sebuah pengetahuan atau informasi
dari data. Mengambil kesimpulan dari hasil analisis data tersebut. Jadi, nantinya kesimpulan itu
digunakan untuk menentukan keputusan bisnis yang diperlukan oleh perusahaan. Dengan begitu,
perusahaan bisa menindaklanjuti informasi data yang dibuat oleh data scientist.
Dalam Data Scientist, seorang data Scientist memiliki peranan keterampilan yang dimana menguasai
berbagai keahlian agar dapat menjalankan tugas pada sebuah Perusahaan atau suatu organisasi.
Berikut beberapa keterampilan yang harus dikuasai :
• Keterampilan Math
- Statistics → Data Scientist harus memahami teknik pengambilan sampel agar mampu memprediksi
dalam menggunakan sebuah data.
- Linear algebra → sebagai tulang punggung algoritma agar dapat membantu dalam pengetahuan
matriks dan vektor
• Keterampilan Programming
Keterampilan yang dimiliki oleh Data Scientist yang dikhususkan pada proses menulis, menguji,
memperbaiki dan memelihara sebuah code – code dalam sebuah program komputer dan code –
code tersebut dikondisikan dengan Bahasa pemograman yang tidak hanya satu macam pemograman
saja.
III.