Anda di halaman 1dari 15

ISSN 2087-2658

Jurnal Nasional Pendidikan Teknik Informatika (JANAPATI)


Volume 5, Nomor 2, Juli 2016

Penerapan Extraction-Transformation-Loading
(ETL) Dalam Data Warehouse
(Studi Kasus : Departemen Pertanian)
Rahmadi Wijaya Bambang Pudjoatmodjo
Prodi D3 Teknik Informatika, Fakultas Ilmu Prodi D3 Teknik Informatika, Fakultas Ilmu
Terapan Terapan
Universitas Telkom Universitas Telkom
Email : rakit2272@yahoo.com Email : b.pudjoatmodjo@gmail.com

ABSTRAK Kesimpulan utama yang dapat diambil dari


Proses Extraction-Transformation-Loading Penelitian ini adalah penggunaan proses
(ETL) pada pembangunan data warehouse ETL yang dinamis (menggunakan
berperan melakukan ekstraksi data dari metadata ETL) sangat diperlukan apabila
berbagai sumber, pengubahan data ke berhubungan dengan sistem operasional
bentuk yang sesuai dengan kebutuhan dan yang masih labil dan berkemungkinan
pengisian ke storage data warehouse. besar mengalami perubahan skema basis
data. Proses ETL dinamis juga diperlukan
Termasuk di dalam fungsi ETL terdapat untuk menangani kebutuhan pengguna
proses data cleansing yang menangani akan laporan yang bertambah.
redundansi, inkonsistensi dan integritas
data. Proses ETL akan mengisikan data Kata Kunci : Data Warehouse, ETL,
dari sumber ke integration layer yang Integration Layer, Reusability, Metadata
merupakan tempat data dari data
warehouse tergabung dan terintegrasi. Dari 1. Pendahuluan
integration layer, data dapat Kunci sukses bagi sebuah
dikelompokkan dengan lingkup yang lebih perusahaan untuk bertahan pada masa
kecil dan sesuai kebutuhan dalam sekarang adalah kemampuan untuk
repository lain yang disebut data mart. menganalisa, merencanakan dan bereaksi
Program reporting dari data warehouse terhadap perubahan lingkungan bisnis
akan berhubungan dengan data mart secara cepat dan akurat. Kemampuan ini
sebagai sumber datanya. hanya dapat dipenuhi dengan tersediannya
informasi yang memadai bagi para
Penelitian ini merupakan bagian dari manajer, direktur dan para pengambilan
Penelitian berbasis profesi pembangunan keputusan lainnya. Informasi yang
data warehouse. Secara khusus Penelitian dibutuhkan tersebut seringkali adalah
menangani proses ETL. Pada Penelitian ini berupa data operasional dan sulit untuk
dibangun metadata bagi proses ETL yang didapatkan. Walaupun tersedia akses ke
menyimpan definisi data sumber, data data tersebut, seringkali format dan struktur
arget (data warehouse), dePenelitian data yang ada tidak seperti yang
keterhubungan antara data sumber dan diinginkan. Teknologi Data warehouse
data target, serta dePenelitian transformasi adalah sebuah konsep dan perangkat yang
data dari data sumber ke data target. memungkinkan penyediaan akses ke
Dibangun juga program ETL dengan seluruh level informasi perusahaan. Data
teknologi DTS pada SQL Server 2000 yang warehouse memungkinkan suatu
menggunakan metadata tersebut. organisasi untuk mengumpulkan data dari
Diharapkan dengan adanya metadata bagi berbagai format dan standar yang berbeda,
proses ETL dapat dibangun program ETL melakukan analisa atas data tersebut, dan
yang memiliki tingkat reusability tinggi. mengeluarkan report-report yang

61
ISSN 2087-2658
Jurnal Nasional Pendidikan Teknik Informatika (JANAPATI)
Volume 5, Nomor 2, Juli 2016

dibutuhkan bagi para analis dan dan arsitektur data warehouse, khususnya
pengambilan keputusan. yang berkaitan dengan informasi basis
data statistik Pertanian dan Basis data
Data warehouse memiliki fungsi Ekspor Impor pada Departemen Pertanian.
ETL (extraction, transformation, loadingI)
yang berperan dalam pengisian data untuk Dengan menggunakan data
kebutuhan analisis dengan melakukan warehouse, diharapkan pihak eksekutif
ekstraksi dari berbagai sumber data, Departemen Pertanian dapat mengakses
pengubahan data ke bentuk yang sesuai data yang mereka butuhkan tanpa harus
dan pengisian ke storage data warehouse. bergantung pada laporan yang diberikan
Termasuk di dalam fungsi ETL terdapat oleh masing-masing bagian. Selain
proses data cleansing yang menangani mempercepat akses data, data warehouse
redundansi, inkonsistensi dan integritas dikembangkan ini juga diharapkan dapat
data. Proses ETL akan mengisikan data menyelesaikan masalah redundansi dan
dari sumber ke integration layer yang inkonsistensi.
merupakan tempat data dari data
warehouse tergabung dan terintegrasi. Dari 1. Data Warehouse
integration layer, data dapat 1.1. Arsitektur Data warehouse
dikelompokkan dengan lingkup yang lebih Data warehouse adalah suatu
kecil dan sesuai kebutuhan dalam sistem dengan arsitektur yang bersifat
repository lain yang disebut data mart. terbuka, jadi untuk membangun suatu
Program reporting dari data warehouse arsitektur Data warehouse sangat
akan berhubungan dengan data mart tergantung pada kebutuhan sistem (system
sebagai sumber datanya. requirements). Gambar 2.1 menunjukkan
salah satu contoh dari arsitektur Data
Kondisi Departemen Pertanian warehouse. Arsitektur tersebut
pada saat ini dalam melakukan analisis menunjukkan perbedaan penggunaan Data
dan pengolahan data sebagai berikut : warehouse dibandingkan dengan basis
data operasional. Data dalam Data
1. Setiap sistem informasi memiliki warehouse digunakan untuk keperluan
basis data masing-masing yang spesifik, umumnya berupa analisis oleh
berbeda-beda bahkan masih ada aplikasi-aplikasi dalam Executive
yang dalam bentuk flat file (.xls). Information System (EIS) atau Decision
2. Data tersebar di setiap sistem Support System (DSS). Sedangkan basis
informasi dan ada data yang data operasional umumnya digunakan oleh
mengalami redundansi. aplikasi-aplikasi transaksional yang mampu
3. Dalam analisis dan pengambilan melakukan read/write terhadap basis data
keputusan, pihak eksekutif tersebut.
Departemen Pertanian harus
melakukan rekap ulang dari data Arsitektur data warehouse dibangun
setiap sistem informasi. berdasar kebutuhan tertentu, hal ini dapat
kita lihat dari hal berikut :
Dalam meningkatkan kinerja 1. Data input bagi Data warehouse
departemen, para eksekutif Departemen tidak lagi hanya berasal dari
Pertanian perlu dibekali dengan data yang sistem internal (sumber
akurat dan terkini unuk menghasilkan operasional pada umumnya),
keputusan-keputusan strategis. Tulisan melainkan dirancang untuk dapat
dalam Penelitian ini akan mengangkat mengakomodasi sumber
tentang studi kasus perencanaan data eksternal (data dari luar sistem
warehouse pada Departemen Pertanian. operasional), misalnya :
Pembahasan akan difokuskan pada siklus  Data dari bursa efek,
pengembangan data warehouse, desain

62
ISSN 2087-2658
Jurnal Nasional Pendidikan Teknik Informatika (JANAPATI)
Volume 5, Nomor 2, Juli 2016

 Data dari internet (dengan berbeda. Untuk dapat digunakan,


teknologi web farming), data tersebut harus mengalami
 Data dari sistem mobile konversi menjadi format yang
(misalnya phone cell). dimengerti oleh pengguna.
4. Menyediakan mekanisme bagi
2. Informasi yang tersimpan dalam pengguna agar dapat mengakses
Data warehouse dapat data warehouse.
dispesialisasikan lagi menjadi Pengguna data warehouse bisa
beberapa Data warehouse yang saja membutuhkan sudut pandang
lebih khusus (Data Mart) sehingga baru yang lebih kompleks untuk
dalam arsitektur terdapat proses mendukung perubahan analisis
tambahan untuk mempopulasikan perusahaan. Untuk itu, data
data dari Data warehouse ke warehouse harus memiliki
dalam beberapa Data Mart. mekanisme fleksibel yang dapat
3. Aplikasi yang berada pada layer memenuhi perubahan kebutuhan
pengguna berkembang menjadi pengguna akan akses terhadap
beberapa model misalnya : basis data.
berbasis web, berbasiskan
desktop, ataupun berbasiskan 1.2. Akses Pengguna
sistem mobile. Akses pengguna merupakan
komponen yang mendefinisikan bagaimana
Data warehouse mengumpulkan pengguna dapat melakukan akses pada
beberapa data mentah dari sistem Data warehouse. Pada umumnya untuk
operasional, dan mungkin terdapat juga melakukan akses terhadap Data
data eksternal lainya, kemudian melakukan warehouse, pengguna menggunakan
operasi terhadap data tersebut aplikasi/perangkat lunak untuk
(membersihkan, mengintegrasikan, dan mendefinisikan query dan analisis.
menyimpan data), dan akhirnya Perangkat lunak tersebut disebut sebagai
mendistribusikan hasilnya ke pengguna. Business Inteligence Software. Sebagai
Beberapa kriteria dalam mendesain contoh dari Business Inteligence Software
arsitektur data warehouse adalah sebagai adalah :
berikut [COR01] : 1. Sistem Pendukung Keputusan
1. Melakukan ekstraksi data dari (Decision Support System)
bermacam sumber. memungkinkan untuk melakukan ad
Data warehouse biasanya hoc query dan membangun report
melibatkan lebih dari satu data sumber. yang dapat digunakan untuk
2. Mengintegrasikan data ke tempat mendukung pengambilan
yang umum. keputusan.
Setelah data diekstrak dari 2. Sistem Informasi Eksekutif
beberapa sumber, data tersebut (Executive Information Systems)
tidak bisa begitu saja dimasukkan merupakan kombinasi antara
ke data warehouse. Data tersebut Decision Suport System/DSS
biasanya perlu dibersihkan dan dengan kemampuan untuk
dilakukan pengecekan terhadap melakukan analisis dan akses
keterhubungan antar data untuk terhadap sumber eksternal (misal
kemudian diintegrasikan ke basis layanan informasi saham dari Dow
data yang sama. Jones).
3. Menyimpan data dalam format yang 3. OLAP (Online Analytical
dapat digunakan pengguna. Processing) memungkinkan
Data dari berbagai sumber, yang melakukan analisis terhadap data
sebenarnya mewakili data sejenis, operasional sehingga bisa
mungkin mempunyai format yang menentukan trend

63
ISSN 2087-2658
Jurnal Nasional Pendidikan Teknik Informatika (JANAPATI)
Volume 5, Nomor 2, Juli 2016

bisnis,pendeteksian kesalahan teknologi ETL tools yang dapat melakukan


terhadap proses bisnis, dan otomasi proses integrasi data ke data
sebagainya. warehouse.
4. Data Mining Tools memungkinkan Secara singkat, metadata adalah
melakukan otomasi analisis data tentang data. Khususnya, metadata
terhadap data untuk menemukan ETL adalah data tentang proses ETL.
pola-pola tertentu yang dapat Pendefinisian metadata ETL diperlukan
digunakan untuk melakukan dalam rangka membangun program ETL
penyesuaian di dalam proses yang mempunyai tingkat reusability tinggi.
bisnis.
2.1.2. Extraction
Proses ektraksi mengidentifikasi
2. ETL (Extraction, Transformation, seluruh sumber data yang relevan dan
Loading) seefisien mungkin mengambil data
Di dalam proses ETL, data dari tersebut. Program ekstraksi berjalan
berbagai sumber secara periodik akan melalui file atau basis data, menggunakan
diekstrak dan diintegrasikan ke dalam data berbagai kriteria dalam memilih data, dan
warehoue [ONE97]. Extraction merupakan menemukan data yang sesuai, kemudian
proses untuk mengidentifikasi seluruh mentransportasikan data ke file atau basis
sumber data yang relevan dan mengambil data lainnya.
data dari sumber-sumber tersebut. Change data capture (CDC) adalah
Transformation adalah proses yang elemen penting dalam analisis ekstraksi.
mempunyai peran dalam melakukan Transaksi yang dijadikan data fakta hampir
pembersihan data dan integrasi skema selalu mempunyai timestamps. Tetapi, data
yang berbeda-beda ke dalam skema yang dimensi pada system sumber tidak selalu
terdefinisi dalam data warehouse. Loading mempunyai timestamps karena
adalah proses pemindahan data secara kecenderungannya yang tidak bergantung
fisik dari system operasional ke dalam data pada suatu event. Oleh sebab itu, CDC
warehouse. paling sulit diimplementasikan dengan data
dimensi.
2.1. Konsep ETL Ada beberapa cara
Pendefinisian lingkup ETL dengan mengimplementasikan CDC. Jika pada
cara menganalisis tiap target tabel (dimensi basis data sumber atau file terdapat
dan fakta) perlu dilakukan pada awal timestamps, implementasi akan jauh lebih
pembangunan arsitektur proses ETL. mudah. Bila tidak, CDC bisa
Untuk tiap tabel target, perlu diambil diimplementasikan dengan membaca log
informasi tentang kelakuannya, dimanakah file dari basis data sumber atau
data sumbernya dan proses bisnis apa saja mengimplementasikan trigger pada basis
yang bergantung kepadanya. data sumber. Pengimplementasian seperti
ini sangat riskan karena terlalu bergantung
2.1.1. Metadata kepada teknologi yang dimiliki basis data
Pada awal perkembangan data sumber. Implementasi seperti ini tidak akan
warehouse, proses integrasi direalisasikan berlaku jika data sumber berupa file.
dengan membuat program ETL spesifik Beberapa cara dalam mengenali
untuk struktur basis data sumber dan basis perubahan pada basis data sumber :
data data warehouse. 1. Timestamp
Kemudian, ditemukan bahwa Ekstraksi pada sistem yang
program-program ETL spesifik tadi pada menyimpan timestamp terhadap
intinya melakukan proses yang seragam. waktu insert dan update record,
Banyak blok-blok program yang bisa membuat CDC tidak perlu
dipergunakan kembali untuk proses ETL melakukan pencarian ke seluruh isi
lainnya. Pada titik itulah dikembangkan

64
ISSN 2087-2658
Jurnal Nasional Pendidikan Teknik Informatika (JANAPATI)
Volume 5, Nomor 2, Juli 2016

tabel untuk mengenali record apa Agregasi akan menghasilkan data


saja yang telah berubah. dengan tingkat detail tertentu.
2. Trigger 6. Conditional Branch
Trigger diimplementasikan pada Mirip dengan conditional
tabel sumber. Setiap record yang assignment tetapi fungsi
disimpan, diubah ataupun dihapus, kondisional pada conditional branch
trigger akan menuliskan pesan ke lebih rumit dengan tingkat
log file. Log file inilah yang akan kondisional yang bertingkat. Perlu
dijadikan informasi bagi data lebih dari sekedar tabel lookup
warehouse untuk meng-update untuk mengimplementasikannya.
datanya. Pada rakteknya, 7. Referential Integrity
implementasi trigger jarang Transformasi harus menjaga
dilakukan, karena membutuhkan integritas dari data warehouse,
modifikasi terhadap sistem sumber bahkan walaupun bersumber dari
yang berkemungkinan menurunkan data tidak valid yang tidak terjaga
performasi dari sistem sumber. integritasnya.
3. File Compare 8. Surrogate Key Resolution
Pembandingan dilakukan antara Surrogatye key memberikan
data yang terdapat pada sistem fleksibilitas tinggi dalam menangani
sumber sekarang dengan data data pada data warehouse
terakhir yang dimiliki oleh data dibandingkan penggunaan key
warehouse. Teknik ini kurang bawaan data sumber.
akurat dibandingkan teknik-teknik 9. User Written
sebelumnya, karena teknik ini Pengguna bisa mendefinisikan
menggunakan metode fungsi-fungsi tersendiri yang
pembandingan periodik snapshots. merupakan gabungan dari fungsi
aritmatik dan fungsi kondisional
2.1.3. Transformation sesuai dengan proses bisnis
Transformation adalah proses perusahaan.
manipulasi terhadap data dari sistem
sumber ke format lain pada data 2.1.4. Loading
warehouse atau data mart dalam rangka Proses loading akan memindahkan
menjadikannya sebuah informasi yang data yang telah ditransformasi ke data
bermakna. Fungsi-fungsi transformasi yang warehouse. Strategi loading ke integration
mungkin dilakukan adalah: [COR01] layer dibagi menjadi dua bagian, yaitu
1. Konversi Format strategi loading bagi table dimensi dan
Data harus dikonversi menjadi strategi loading bagi tabel fakta [COR01].
format yang umum.
2. Manipulasi string A. Strategi Loading Tabel
Meliputi konkatenasi, trim, up case, Dimensi
lower case dan sebagainya.
3. Fungsi aritmatik Ada tiga strategi loading tabel
Proses aritmatik bisa dibuat dalam dimensi. Setiap strategi menangani
modul terpisah ataupun perubahan data dimensi secara berbeda
menggunakan fungsi aritmatik yang bergantung kepada cara penanganan
dimiliki oleh SQL. terhadap data dimensi lama. Pada ketiga
4. Conditional Assignment strategi tersebut, jika tidak ditemukan
Biasanya diimplementasikan sebuah record dengan natural key yang
menggunakan tabel lookup yang sama, maka record baru akan
menyimpan nilai lama dari data dan ditambahkan. Natural key adalah atribut
mendefinisikan nilai barunya. pada dimensi yang secara unik
5. Agregasi membedakan record dimensi (bukan

65
ISSN 2087-2658
Jurnal Nasional Pendidikan Teknik Informatika (JANAPATI)
Volume 5, Nomor 2, Juli 2016

surrogate key). Jika ditemukan record Pada Departemen Pertanian, tidak


dengan natural key yang sama, maka : terdapat basis data terintegrasi antar
bagian. Basis data dikelola secara lokal
Strategi 1 : dan terpisah untuk bagian, dengan
Sejarah data tidak disimpan pada strategi masing–masing bagian menerapkan format
1. Jika nilai input telah ada di tabel dimensi data yang tidak seragam. Hal ini akan
berdasarkan nilai natural key, maka record mempersulit pihak eksekutif, yaitu pihak
tersebut akan diperbaharui. yang menduduki jabatan di pusat, dalam
hal pengambilan keputusan yang sifatnya
Strategi 2 : global. Data yang tersebar ini akan
Critical column adalah kolom-kolom menyulitkan pihak eksekutif dalam
penting pada tabel dimensi yang tetap melakukan analisis untuk mengekstrak
dijaga keberadaannya. Jika pada input data menjadi informasi yang diperlukan.
ditemukan satu atau lebih kolom yang Selain itu, basis data umumnya
termasuk critical column dan nilai pada digunakan untuk menyimpan data yang
input berbeda dengan nilai pada kolom terperinci. Hal ini kurang sesuai dengan
bersesuaian pada tabel dimensi (dan tetap kebutuhan data yang datang dari pihak
berdasarkan nilai natural key), maka record eksekutif. Pihak eksekutif umumnya
yang bersesuaian tadi akan expired dan menginginkan data yang berupa
record baru dengan surrogate key yang rangkuman, dan dalam bentuk tampilan
baru akan dimasukkan. Jika tidak grafis berupa diagram untuk memudahkan
ditemukan kesamaan nilai pada critical dalam pengambilan keputusan.
column, maka seperti pada strategi 1, Adapun permasalahan yang mungkin
record yang bersesuaian akan dihadapi dalam mengimplementasikan EIS
diperbaharui. pada Departemen Pertanian, berkaitan
dengan banyaknya bagian yang dimiliki
Strategi 3 : adalah :
Hampir mirip dengan strategi 2 yang 1. Antara satu basis data dengan
melakukan penanganan terhadap basis data lainnya ada
perubahan nilai pada critical column. kemungkinan terdapat
Bedanya, pada strategi 3 untuk tiap critical inkompatibilitas data, hal ini
column, beberapa kolom yang berbeda disebabkan oleh tidak
ditempatkan pada tiap record untuk diterapkannya format standar untuk
menyimpan nilai data sekarang dengan n data.
nilai data sebelumnya. Ketika terjadi 2. Mengekstrak informasi. Dari
perubahan nilai pada critical column, berbagai data yang tersimpan pada
semua nilai akan digeser, dan nilai terakhir data warehouse, sebuah EIS
(nilai paling lama) akan dihapus, kemudian dituntut untuk dapat mengekstrak
nilai terbaru dimasukkan. data mentah dari berbagai sumber
yang tersedia, untuk kemudian
1. Ilustrasi Kasus menghasilkan informasi yang
ESS diimplementasikan pada berguna untuk pihak eksekutif,
Departemen Pertanian yang memiliki biasanya untuk memprediksi trend
banyak bagian yang bergerak di berbagai untuk lima tahun ke depan.
bidang. Penggunaan EIS yang Untuk mengekstraksi informasi,
memanfaatkan data warehouse bertujuan perlu ditentukan format request
untuk mengintegrasikan data dari berbagai informasi kemudian dicocokkan
sumber basis data yang tersebar di bagian dengan data yang terdapat pada
produksi untuk meningkatkan efesiensi dan data warehouse. Sebagai ilustrasi,
efektifitas pengambilan keputusan oleh misalkan informasi yang diminta
pihak eksekutif. adalah berupa informasi umum dari
seluruh bagian yang dipegangnya.

66
ISSN 2087-2658
Jurnal Nasional Pendidikan Teknik Informatika (JANAPATI)
Volume 5, Nomor 2, Juli 2016

Misalkan format data yang telah


ditentukan untuk request informasi 1.1. Analisis Skema Integration
tersebut adalah berupa : jumlah Layer
pengeluaran pada bulan tersebut, Skema integration layer yang
segmentasi customer, biaya dibangun akan memenuhi prinsip integritas
operasional per bulan, serta alokasi dan mengabaikan kecepatan respon
biaya resiko. terhadap query dari pengguna. Nantinya
3. Menjaga akurasi data. Dalam hal pengguna tidak akan melakukan query
ini, timbul masalah bagaimana secara langsung ke integration layer
memastikan data yang diakses oleh melainkan ke data mart. Untuk memenuhi
pengguna EIS adalah data yang kebutuhan di atas, skema integration layer
diinginkan. yang dibangun memenuhi prinsip
4. Menentukan selang waktu yang normalisasi.
tepat untuk memproduksi dan Tabel-tabel pada integration layer
menyimpan data ke dalam data dibagi menjadi dua macam:
warehouse. Misalkan menentukan
frekuensi pengumpulan data dari - Tabel Dimensi
seluruh bagian, apakah satu bulan,
dua bulan, atau selang waktu yang Tabel dimensi lebih jarang mengalami
lain. perubahan dibandingkan dengan tabel
Menentukan batas waktu untuk fakta. Ekstraksi tabel dimensi melibatkan
menyimpan data. Mengingat jumlah pengecekan terhadap data dimensi yang
data yang tersimpan bisa mencapai telah ada. Apabila data dimensi telah ada
jumlah yang sangat banyak, oleh sebelumnya, tidak akan dilakukan
karena itu perlu ditentukan batas penambahan ke basis data. Secara berkala
waktu penyimpanan data. Agar akan dilakukan pengecekan kevalidan data
menghemat kapasitas memori dan dimensi pada basis data data warehouse
meningkatkan performansi EIS dari dengan data sumber. Apabila data yang
segi kecepatan. berhubungan sudah tidak ada di data
sumber, maka data pada data warehouse
2. Analisis akan expired. Pada data sumber, data
Pada bagian analisis akan dibahas dimensi tidak berhubungan dengan event
mengenai batasan masalah dalam tertentu. Jika data dimensi masih valid,
pembangunan proses ETL, skema maka data dimensi masih terdapat pada
integration layer yang digunakan, proses data sumber.
ETL yang dipilih, analisis kebutuhan
metadata, analisis pembangunan proses - Tabel Fakta
ETL dinamis dan teknologi yang berkaitan
dengan pembangunan proses ETL Tabel fakta akan terikat pada event tertentu
dinamis. di basis data sumber. Sehingga pada
Pada analisis ini juga akan setiap record pada tabel fakta akan
menganalisis konsep-konsep umum dalam berhubungan dimensi waktu. Ekstraksi
proses ETL. Proses ETL yang dimaksud tabel fakta berasumsi data yang telah
adalah proses ETL antara data sumber dan diekstrak tidak akan berubah lagi nilainya
integration layer. Proses ETL akan pada basis data sumber. Untuk itu,
dibangun di atas basis data sumber dan ekstraksi tabel fakta akan dilakukan jika
data warehouse yang menggunakan tabel fakta sumber sudah tidak mungkin
skema relasional. Proses ETL dinamis dan dirubah lagi, sehingga data fakta pada data
metadata nya yang akan dibangun terbatas warehouse dapat terjamin kevalidannya.
terhadap pemenuhan kebutuhan kasus Tabel fakta akan diekstraksi pada tabel
pembangunan data warehouse sumber yang sifatnya transaksional dan
Departemen Pertanian.

67
ISSN 2087-2658
Jurnal Nasional Pendidikan Teknik Informatika (JANAPATI)
Volume 5, Nomor 2, Juli 2016

relatif cepat mengalami perubahan perubahan sistem sumber dapat


(penambahan). dideterminasi dengan tingkat presisi waktu
tinggi. Pengaplikasian metode ini
6.2. Analisis Proses ETL membutuhkan tambahan storage untuk
A. Extraction menyimpan log file. Dengan trigger, proses
Penentuan pendekatan yang ekstraksi akan lebih efisien dalam
digunakan pada ekstraksi sangat terkait melakukan pencarian record mana yang
dengan analisis bisnis proses, harus diekstrak. Pengaplikasian metode ini
pendefinisian area subjek, serta desain akan menurunkan performansi sistem
logik/fisik data warehouse. Berdasarkan sumber, sebab setiap kali transaksi terjadi
tiga metode mengenali data mana yang akan ada proses tambahan pada sistem
harus diekstrak yaitu timestamp, trigger, sumber yaitu proses penulisan ke dalam
dan file compare akan ditentukan metode log file.
mana yang akan diaplikasikan pada Metode file compare (atau bisa
pembangunan ETL dinamis. disebut record compare) tidak bergantung
Metode-metode pengenalan terhadap kondisi sistem sumber. Dengan
perubahan pada tabel sumber ini, hanya metode ini, detail dari perubahan data
dilakukan terhadap tabel-tabel dimensi. sumber tidak dapat dideterminasi karena
Seperti yang telah disebutkan sebelumnya, sifatnya yang melakukan perbandingan
ekstraksi tabel-tabel fakta dilakukan periodik snapshots. Metode ini tidak
dengan asumsi telah dideterminasi membutuhkan penambahan storage pada
sebelumnya record-record mana yang sistem sumber. Proses file compare
harus diekstrak. merupakan proses rumit yang
Metode timestamp sangat membutuhkan banyak sumber daya dalam
bergantung terhadap kondisi sistem melakukan ekstraksi. Tetapi
sumber. Metode ini bisa diterapkan jika pengaplikasiannya tidak berpengaruh
pada sistem sumber yang melakukan terhadap performansi sistem sumber.
pencatatan waktu terhadap pemasukan Matriks perbandingan tiga metode di atas
dan perubahan record. Akan lebih mudah dapat dilihat pada tabel 3.1
lagi jika penghapusan record tidak benar-
benar menghapus record dari basis data, Tabel 3.1 Perbandingan Metode Ekstraksi
tetapi hanya memberikan flag “terhapus” No. Aspek Timest Trigger File
pada record. Pendukung amp Compare
Dengan metode ini setiap detail 1 Ketergantung Bergant Bergant Tidak
perubahan sistem sumber dapat an ung ung Bergantung
dideterminasi dengan tingkat presisi waktu terhadap
tinggi. Pengaplikasian metode ini sistem
menambah jumlah atribut pada tiap tabel sumber
sebanyak minimal dua atribut, yaitu 2 Akurasi data Akurat Akurat Kurang
timestamp insert dan flag valid data. terekstrak akurat
Dengan timestamp, proses ekstraksi akan 3 Penambahan Butuh Butuh Tidak Butuh
lebih efisien dalam melakukan pencarian storage
record mana yang harus diekstrak. Secara sistem
umum, pengaplikasian metode ini tidak Sumber
terlalu berpengaruh terhadap performansi 4 Efisiensi Efisien Efisien Kurang
sistem sumber. proses Efisien
Sama seperti metode timestamp, 5 Pengaruh Kecil Besar Tidak
metode trigger juga sangat bergantung terhadap Berpengaru
terhadap kondisi sistem sumber. Metode ini performansi h
bisa diterapkan hanya terhadap sistem sistem
sumber yang mendukung teknologi trigger. sumber
Dengan metode ini, setiap detail

68
ISSN 2087-2658
Jurnal Nasional Pendidikan Teknik Informatika (JANAPATI)
Volume 5, Nomor 2, Juli 2016

Berdasarkan matriks perbandingan dimensi yang mungkin memiliki nilai natural


metode ekstraksi, maka dipilih file compare key yang sama dalam kurun waktu valid
sebagai metode ekstraksi proses ETL yang berbeda.
dinamis yang akan dibangun. Alasan
utamanya adalah metode file compare 1.4. Loading
tidak bergantung terhadap sistem sumber Berikut ini akan dibahas strategi
sedangkan pada kasus pembangunan data loading bagi tabel dimensi dan tabel fakta.
warehouse Departemen Pertanian, tidak Seperti telah disebutkan sebelumnya, ada
dimungkinkan mekanisme perubahan tiga strategi loading tabel dimensi yaitu :
sistem sumber.
(1) Melakukan update terhadap record
1.3. Transformation bersesuaian.
Berdasarkan kebutuhan pada (2) Mengimplementasikan critical column
pembangunan data warehouse dengan penambahan record.
Departemen Pertanian maka fungsi-fungsi (3) Mengimplementasikan critical column
transformasi yang dipilih untuk dengan penambahan sejarah isi pada
diimplementasikan adalah konversi format, record yang sama.
manipulasi string, fungsi aritmatik,
conditional assignment, referential integrity Strategi pertama memiliki
dan surrogate key resolution. kelemahan dalam nilai keakuratan data.
Format masukan data yang Sebab, bisa ditemukan suatu data dimensi
didukung oleh proses ETL dinamis adalah dengan nilai natural key yang sama tetapi
string, number dan date. String dan date mengacu pada informasi yang berbeda
akan disimpan pada integration layer pada jangka waktu yang berbeda. Di lain
sebagai string. Sedangkan number tetap pihak, strategi pertama membutuhkan
akan disimpan sebagai number. storage yang paling sedikit diantara strategi
Manipulasi string yang dilakukan yang lain.
adalah operasi string sederhana, yaitu up Strategi dua memiliki keakuratan
case dan lower case yang penyimpanan nilai paling tinggi di antara
diimplementasikan pada query strategi lainnya. Data dimensi dengan nilai
pengambilan data sumber. natural key yang sama dan jangka waktu
Fungsi aritmatik yang digunakan keberlakuan yang berbeda, tetap dapat
terbatas pada operasi aritmatik sederhana disimpan dengan resolusi surrogate key.
yaitu sum untuk penjumlahan, count untuk Data dari tabel fakta tetap dapat akurat
penghitungan jumlah record dan avg untuk mengacu ke data dimensi yang
menghitung nilai rata-rata data sumber. seharusnya. Di lain pihak, strategi kedua ini
Conditional assignment akan membutuhkan storage yang paling banyak
diimplementasikan menggunakan tabel diantara strategi yang lain.
transformasi yang menyimpan nilai data Strategi tiga selain sulit diterapkan
sumber beserta nilai transformasinya. (tidak ada query yang mampu melakukan
Fungsi conditional assignment ini tidak pergeseran nilai antar atributnya) juga
memikirkan aspek waktu, sehingga kondisi kurang memiliki nilai keakuratan.
transformasi nilai akan valid pada saat Penyimpanan sejarah nilai atribut tidak
proses ETL dilakukan saja. akan banyak berharga tanpa penyimpanan
Referential integrity dijaga dengan nilai waktu keberlakuannya.
asumsi data sumber telah terjaga Untuk menjamin keakuratan data
integritasnya, sehingga proses ETL hanya maka strategi dua akan dipilih sebagai
melakukan ekstraksi terhadap referential metode loading pada proses ETL dinamis
integrity yang telah didefinisikan pada data yang akan dibangun. Pada proses ETL
sumber. yang dibangun, tidak akan disimpan nilai-
Surrogate key diterapkan dengan nilai critical column untuk tiap tabel
tujuan sebagai pembeda bagi nilai data dimensi, sehingga tiap-tiap kolom pada

69
ISSN 2087-2658
Jurnal Nasional Pendidikan Teknik Informatika (JANAPATI)
Volume 5, Nomor 2, Juli 2016

tabel dimensi akan dianggap sebagai 6 Pembedaan Analisis sumber.


critical column. jenis tabel
Seperti yang sudah dijelaskan (table dimensi
sebelumnya, proses loading ke tabel fakta atau fakta)
akan dilakukan tanpa memperhatikan data 7 Data lineage Proses ETL
sejarah di tabel fakta. Loading ke tabel (dePenelitian
fakta akan berasumsi data yang akan tentang semua
dimasukkan belum pernah dimasukkan transformasi
sebelumnya ke tabel fakta. yang terjadi
pada data
1.5. Analisis Metadata Proses ETL sumber untuk
Dinamis mendapatkan
Informasi metadata yang dipilih domain
akan sangat berpengaruh terhadap proses sumber)
ETL dinamis yang akan dibangun. Tabel 8 Statistik ETL Proses ETL
3.2 memperlihatkan jenis-jenis metadata (seperti, Waktu
apa saja yang dibutuhkan untuk terakhir proses
membangun sebuah proses ETL dinamis. ETL, jumlah
record ter-load,
Tabel 3.2 Jenis Metadata Proses ETL jumlah error,
No. Item Metadata Didapatkan dari dan lain-lain)
Proses 1.6. Analisis Pembangunan
1 Definisi data Analisis sumber. Proses ETL Dinamis
sumber Skema basis data Pembangunan proses ETL dinamis
sumber ataupun akan terbatas terhadap pemenuhan
definisi dari File kebutuhan pembangunan data warehouse
sumber. Departemen Pertanian. Proses ini harus
2 Definisi data Proses pemodelan. mampu independen terhadap skema data
target Pemodelan skema sumber, skema integration layer, bisnis
basis data pada proses antara data pada data sumber dan
data warehouse integration layer dan proses transformasi
ataupun data mart yang didefinisikan pada bisnis proses.
yang mendukung Pendefinisian skema data sumber
kebutuhan analisis. hanya akan diimplementasikan berupa
3 DePenelitian Analisis sumber, definisi query pengaksesan datanya. Untuk
bisnis antara proses pemodelan, tiap-tiap atribut pada data sumber harus
data pada atau proses ETL. dilakukan rename agar sesuai dengan nilai
sumber dan Jika data tidak atribut yang bersesuaian pada basis data
target tersedia pada integration layer. Skema integration layer
skema sumber akan didefinisikan dalam skema basis data
ataupun tool relasional.
pemodelan, data Pada skema table integration layer
harus didefinisikan akan dibedakan antara tabel dimensi dan
secara manual tabel fakta. Bisnis proses antara data
pada ETL tool. sumber dan integration layer akan
4 Metoda dan Definisi didefinikan dalam relasi one-to-one antara
pengelolaan middleware, data dimensi atau fakta dengan data
hak username dan pengaksesan query pada data sumber.
pengaksesan password untuk Proses transformasi akan didefinisikan
data mengakses data secara sederhana berupa tabel
sumber dan target. transformasi yang menyimpan nilai data
5 Transformasi Proses ETL lama beserta nilai transformasinya.

70
ISSN 2087-2658
Jurnal Nasional Pendidikan Teknik Informatika (JANAPATI)
Volume 5, Nomor 2, Juli 2016

1.7. Algoritma ETL Dimana external data tersebut dapat


diambil dari beberapa source, diantaranya
SQL Server 2000, Oracle, Excel, HTML,
Start dsb. Sesudah pengumpulan external data,
dilanjutkan dengan pembuatan package
(paket, kemudian melakukan pengecekan
Pengumpulan External apakah source external data sudah sesuai.
Data Contoh dalam hal ini adalah source
external data dari SQL Server 2000 tidak
dapat dijadikan satu dengan source
Pembuatan Local external data Oracle. Apabila source
Package external data belum sesuai, maka proses
dikembalikan lagi ke tahap awal, yaitu
pembuatan package. Apabila source
Extract external data sudah sesuai, maka sistem
Sesuai Tidak melakukan extract.
Tidak Dengan Setelah sistem melakukan extract,
Source External maka selesailah sudah proses extract
Data? dalam ETL, yang kemudian dilanjutkan
dengan proses Transform. Dimana
Ya package yang sudah terkelompok, di
transformasikan (transform) kemudian di
Lakukan eksekusi (execute) sehingga menghasilkan
Extract package yang siap untuk dijadikan
metadata.
Proses Loading dalam ETL
Package hanyalah sebatas me-load package
Yang Terkelompok menjadi sebuah metadata.

1.8. Analisis Teknologi yang


digunakan
Transform
Transform

Package Sesuai kebutuhan dari pengguna,


data warehouse akan dibangun pada
DBMS SQL Server 2000. Pembangunan
proses ETL dinamis dapat menggunakan
Execute beragam teknologi. Dapat menggunakan
Package aplikasi standalone yang dibangun dalam
beragam bahasa pemrograman seperti C,
C++, Java, Pascal, VB dan sebagainya.
PackageYang Bahasa-bahasa pemrograman tersebut
Sudah Siap Untuk telah mendukung koneksi ke berbagai
Dijadikan Meta Data macam DBMS baik secara langsung
maupun melalui Open Database
Connectivity (ODBC). Dapat juga
Stop menggunakan fitur DBMS tempat data
warehouse dikembangkan. Pada SQL
Server 2000 terdapat fitur Data
Transformation Services (DTS) yang dapat
digunakan untuk melakukan impor dan
Gambar 3.1 Algoritma ETL ekspor data dari dan ke berbagai macam
DBMS.
Proses Extract pada ETL dimulai
dengan pengumpulan external data.

71
ISSN 2087-2658
Jurnal Nasional Pendidikan Teknik Informatika (JANAPATI)
Volume 5, Nomor 2, Juli 2016

2. Analisis Kasus Data warehouse sistem operasional kurang bisa


Departemen Pertanian dijadikan acuan untuk melakukan
Pembuatan data warehouse analisis.
Departemen Pertanian ini merupakan
inisialisasi bagi pembangunan data 2. Waktu
warehouse Departemen Pertanian secara Setelah terjadi sebuah transaksi
menyeluruh. Pembuatan data warehouse pada sistem operasional, pihak
ini mengambil dua domain dari bisnis eksekutif tidak bias mendapatkan
proses Departemen Pertanian yaitu Basis laporannya dalam waktu yang
Data Statistik Pertaniandan Basis Data cepat. Pihak eksekutif harus
Ekspor Impor. melewati proses birokrasi yang
Pembuatan data warehouse ini panjang untuk mendapatkannya.
memiliki tujuan untuk memenuhi kebutuhan
analisis secara umum eksekutif 3. Format
Departemen Pertanian. Pembuatan data Format laporan biasanya
warehouse ini berusaha membangun didefinisikan oleh pihak eksekutif
sebuah sistem dinamis yang mudah pada awal permintaan laporan.
dikembangkan apabila terdapat kebutuhan Setelah laporan dengan format
baru dari pihak eksekutif. tertentu bisa diaksesnya, pihak
Selama ini, pihak eksekutif eksekutif harus melakukan proses
Departemen Pertanian melakukan akses yang sama untuk mendapatkan
terhadap data laporan melalui Pusat Data informasi dalam format yang
dan Informasi Departemen Pertanian berbeda. Intinya adalah pihak
(PUSDATIN). Walaupun memiliki hak eksekutif memiliki kesulitan untuk
akses langsung ke data di masing-masing memandang informasi yang sama
sistem operasional di bawahnya, tetapi dalam bentuk yang berbeda,
data tersebut adalah data transaksional misalnya spreadsheets atau chart.
yang terlalu detail dan kurang bisa
dijadikan acuan analisis. 4. Integritas
Walaupun informasi yang
7.1. Kebutuhan Sistem Data warehouse dibutuhkan telah didapatkan,
Departemen Pertanian keakuratan dari data masih
Pelaksanaan proses, ekstraksi data diragukan. Proses manual yang
operasional kemudian menampilkannya melibatkan data besar dan
dalam bentuk laporan, secara manual rendundan rawan akan kesalahan.
mempunyai banyak kendala. Perangkuman
data yang melibatkan banyak sumber Data warehouse menyediakan
merupakan sebuah proses rumit yang kemampuan untuk menanggulangi
rawan akan kesalahan. Tingkat kerumitan kelemahan-kelemahan diatas. Dengan
bisa bertambah apabila proses melibatkan data warehouse, pihak eksekutif memiliki
banyak data yang redundan. hak penuh untuk mendapatkan laporan
yang dibutuhkannya. Waktu yang
Secara umum, kelemahan-kelemahan dari dibutuhkan untuk mendapatkan laporan
sistem yang sekarang ada adalah : yang dibutuhkannya menjadi singkat.
1. Akses Dengan bantuan aplikasi pelaporan yang
Pihak eksekutif harus melalui pihak mendukung data warehouse, pihak
ketiga, dalam hal ini pihak eksekutif bisa melihat informasi yang
PUSDATIN, untuk mengakses dimilikinya dalam berbagai format.
laporan-laporan yang Proses otomasi dalam data
dibutuhkannya. Walaupun pihak warehouse, meminimalisir kesalahan dan
eksekutif memiliki akses langsung membuat keakuratan data lebih terjamin.
ke sistem operasional, data pada

72
ISSN 2087-2658
Jurnal Nasional Pendidikan Teknik Informatika (JANAPATI)
Volume 5, Nomor 2, Juli 2016

7.2. Penelitian Umum Data warehouse Apabila terdapat perubahan kebutuhan,


Departemen Pertanian administrator dapat mengganti jadwal
Seperti telah disebutkan ekstraksi sesuai kebutuhan.
sebelumnya, pembuatan data warehouse Hanya administrator yang memiliki
ini merupakan inisialisasi dibangunnya data hak akses langsung ke basis data data
warehouse keseluruhan Departemen warehouse.
Pertanian. Sebagai awalnya, data Pengguna tidak memiliki hak untuk
warehouse Departemen Pertanian akan mengakses langsung data pada basis data
melibatkan data dari tiga domain yaitu data warehouse. Antar muka pengguna
produksi, keuangan dan SDM. Data hanyalah OLAP tools, seperti telah
warehouse Departemen Pertanian disebutkan di atas.
dibangun dengan tujuan memberikan Basis data pada data warehouse
kemudahan pengaksesan informasi Departemen Pertanian dibangun di atas
terhadap data penting dalam bisnis proses DBMS SQL Server 2000. Tipe-tipe
Departemen Pertanian yang dilakukan oleh penyimpanan data menggunakan tipe
pihak eksekutif Departemen Pertanian standar yang disediakan DBMS seperti
yang dibutuhkan dalam pengambilan char, varchar, number, serta datetime.
keputusan strategis Departemen Pertanian. Fitur-fitur DBMS yang digunakan adalah
Sistem ini mengambil data dari tiga domain fitur standar pendefinisian basis data dan
sumber, mengintegrasikanya dalam basis tabel serta foreign key.
data tunggal dan menampilkannya kepada Untuk proses ETL digunakan fitur
pengguna dalam bentuk laporan-laporan. Data Transformation Service (DTS)
Data berasal dari sistem menggunakan ActiveX Script Task dalam
operasional dengan berbagai format basis bahasa VBScript.
data sumber dan format data. Sistem Data sumber akan diekstrak,
operasional ada yang menggunakan ditransformasi, dan di-load ke integration
Database Management System (DBMS), layer. Kemudian data akan diekstrak lagi
ada juga yang menggunakan file menjadi beberapa data mart. Aplikasi
spreadsheet (Microsoft Excel). Proses report akan berhubungan dengan data
ekstraksi dijadwalkan oleh administrator mart yang mempunyai data yang
data warehouse. Pendefinisian jadwal ini dibutuhkannya.
telah dilakukan sebelumnya oleh pihak Penulisan Penelitian ini hanya
eksekutif, pihak sistem operasional dan melingkupi proses pada flow 1 (ETL dari
administrator data warehouse. Selain data sumber ke integration layer). Untuk
melakukan penjadwalan ekstraksi, proses ekstrak data ke data mart dan
administrator sebenarnya juga proses penggunaan data pada data mart
melaksanakan tugas standar dalam tidak dibahas dalam Penelitian ini.
pemeliharaan basis data data warehouse. Setelah sistem data warehouse
Di antaranya adalah proses backup, mendapat data yang telah diekstrak dari
recovery, dan pengeksekusian proses sistem operasional, sistem akan
ekstraksi (di luar jadwal) apabila terdapat melakukan proses transformasi sederhana
kegagalan roses ekstraksi. yang termasuk di dalamnya proses
Tugas standar administrator ini cleaning sederhana dan integrasi
tidak digambarkan pada Gambar III-5. sederhana. Sistem memiliki dictionary
Pengguna yang ingin melihat laporan akan tentang nilai data yang mungkin terjadi dan
berhadapan dengan antarmuka Online data koreksi bila terdapat kesalahan nilai
Analytical Processing (OLAP) tools, yang data. Proses integrasi juga didefinisikan
akan menyampaikan informasi dalam data dalam dictionary berbentuk keterangan
warehouse dengan berbagai format. nilai reference terhadap data lain apabila
Proses ekstraksi dijadwalkan ada. Contoh proses cleaning adalah
secara default sebulan sekali untuk mengubah nilai data “palawija” menjadi
keseluruhan data system operasional. “non palawija”.

73
ISSN 2087-2658
Jurnal Nasional Pendidikan Teknik Informatika (JANAPATI)
Volume 5, Nomor 2, Juli 2016

langsung. Proses ini menghasilkan waktu


2.3. Analisis Sistem Data warehouse proses ETL yang lebih cepat tetapi di sisi
Departemen Pertanian lain menghabiskan resource pada sistem
Agar dapat dikembangkan menjadi operasional dan sistem data warehouse
data warehouse Departemen Pertanian sendiri. Untuk itu penjadwalan proses ETL
yang terintegrasi secara keseluruhan, dilakukan ketika sistem operasional sedang
sistem inisialisasi ini berusaha tidak sibuk melakukan transaksi. Seperti
dikembangkan dengan memikirkan telah disebutkan sebelumnya, proses
perkembangan kebutuhan yang dinamis. transformasi hanya melakukan proses
Perubahan-perubahan kebutuhan sederhana yaitu pengoreksian nilai data
berusaha diakomodasi oleh sistem tanpa menggunakan tabel dictionary. Setelah
perlu mengubah struktur sistem ataupun ditransformasi, data langsung di-load ke
program-program yang digunakan sistem. basis data data warehouse.
Perubahan kebutuhan diharapkan hanya
bersifat mengubah konfigurasi sistem. 3. Kesimpulan Penerapan
Sistem yang dibangun ini memiliki Dalam penerapan ini telah dipilih
kelemahan dalam proses integrasi. Proses beberapa metode yang digunakan untuk
integrasi kurang dilakukan menyeluruh merealisasikan pembangunan proses ETL
terhadap data dalam seluruh sistem. Selain dinamis. Digunakan metode file compare
disebabkan oleh data sumber yang tidak untuk melakukan ekstraksi data sumber.
menyeluruh (hanya sebagian sistem Fungsi-fungsi yang digunakan dalam
operasional), hal ini disebabkan karena proses transformasi adalah konversi
kotornya data pada sistem operasional format, manipulasi string, fungsi aritmatik,
yang menyebabkan diperlukan proses conditional assignment, referential integrity
integrasi lanjut yang lebih rumit. dan surrogate key resolution. Proses
Sebenarnya ada cara yang lebih mudah loading dibagi menjadi dua yaitu loading
yaitu mengubahproses bisnis sistem untuk tabel dimensi dan loading untuk tabel
operasional, tetapi hal ini cenderung tidak fakta. Untuk loading tabel dimensi, dipilih
dipilih karena membuat data warehouse strategi penggunaan critical column disertai
bergantung terhadap sistem operasional. dengan penambahan record.
Terdapat juga suatu informasi yang
sama, tetapi disimpan sebagai subjek yang I. Daftar Pustaka
berbeda dalam sistem ini. Pada intinya
proses integrasi lanjut dapat dikembangkan
pada sistem ini tanpa mempengaruhi 1. Fathansyah, Ir., 2002, Buku Teks
keseluruhan sistem. Ilmu Komputer Basis Data,
Informatika, Bandung
2.4. Analisis Proses ETL Sistem Data 2. Fowler, Martin, 2004, UML Distilled
warehouse Departemen Pertanian Edisi 3 Panduan Singkat Bahasa
Dalam rangka mendukung Pemodelan Objek Standar, 2005,
dibangunnya sebuah sistem data Andi, Yogyakarta
warehouse yang dinamis perlu dibangun 3. http://en.wikipedia.org/wiki/Extract,_
proses ETL yang dinamis pula. Proses ETL transform,_load
bergantung pada skema data sumber, 4. http://www.cert.or.id/~budi/courses/
proses transformasi, dan skema data ec7010/dikmenjur-2004/supawi-
output (basis data integration layer). report.pdf
Proses ETL data warehouse 5. http://www.ganesha.co.id
Departemen Pertanian dilakukan langsung 6. http://www.itech.fgcu.edu/cis/slides/
on the fly tanpa melibatkan table chapter10.ppt
sementara sebagai perantara. Data 7. http://www.iwaysoftware.com/produ
diekstrak kemudian dilakukan transformasi cts/images/etl_chart_sm4.gif
dan akhirnya di-load ke basis data secara

74
ISSN 2087-2658
Jurnal Nasional Pendidikan Teknik Informatika (JANAPATI)
Volume 5, Nomor 2, Juli 2016

8. http://www.mcrit.com/ASSEMBLIN 13. Pressman, Roger S., Ph.D., 2002,


G/assemb_central/WhatESS.htmhtt Rekayasa Perangkat Lunak
p://www.ptct.com/EIS.html Pendekatan Praktisi (Buku II), Andi,
9. http://www.utminers.utep.edu/mmah Yogyakarta
mood/cis5311dtmba/slides/chapter0 14. Suhendar, A. S.Si., Hariman
2.ppt Gunadi, S.Si., MT., 2002, Visual
10. Ibrahim, Nugroho Setyabudhi, Modeling Menggunakan UML dan
Takariyana Heni A., 2004, Rational Rose, Informatika,
Perancangan Data Warehouse Bandung
Pada Pusat Data dan Informasi 15. Turban, Efram, Jay E. Aronson, and
Pertanian, Tesis Magister Ting Peng Liang, 2005, Decision
Manajemen Informasi Universitas Support Systems and Intelligent
Bina Nusantara, Jakarta Systems (Sistem Pendukung
11. Inmon, W.H., 2002, Building The Keputusan dan Sistem Cerdas),
Data Warehouse, Third Edition, Edisi 7 Jilid 1, Andi, Yogyakarta
John Wiley and Sons, Inc., New 16. www.athens.edu/dreyfp/MIS/Third%
York 20Ed/PPP/Ch10.ppt
12. O’Neil, Bonnie, Michael Schrader, 17. www.itee.adfa.edu.au/courses/ACS
John Dakin, Kieron Hardy, Matthew C7309/work/ch08.ppt
Townsend, Michael Whitmer, 1997, 18. www.vancouver.wsu.edu/fac/roseg/
Oracle® Data Warehousing, MIS350/ch2.ppt
Norhern Lights Software, Ltd.,
SAMS Publishing

75

Anda mungkin juga menyukai