Anda di halaman 1dari 20

BAB SHOT

Analytics membedakan bisnis di abad ke-21. Data transaksional, sosial, seluler, cloud, Web, dan sensor
menawarkan potensi yang sangat besar. Tetapi tanpa alat yang dapat menganalisis tipe dan volume data
ini, tidak ada banyak perbedaan antara bisnis di abad ke-20 dan bisnis saat ini - kecuali untuk
peningkatan akses seluler. Alat, data berkualitas tinggi, dan keahlian manusia semuanya penting untuk
nilai analitik, seperti yang ditunjukkan pada Gambar 3.1. Keahlian manusia diperlukan karena analitik
saja tidak dapat menjelaskan alasan tren atau hubungan; tahu tindakan apa yang harus diambil; atau
memberikan konteks yang cukup untuk menentukan apa yang angka-angka itu wakili dan bagaimana
menafsirkannya.
Basis data, gudang data, data besar, dan teknologi intelijen bisnis (BI) berinteraksi untuk menciptakan
ekosistem bisnis-teknologi baru. Analis saat ini dihadapkan dengan arus masuk data yang sangat besar
yang perlu mereka saringhingga efisiensi operasional yang meningkatkan margin. Analitik data besar, BI,
dan penambangan data adalah alat untuk menemukan wawasan dan hubungan yang mungkin tidak
diakui. Penambangan teks adalah analisis data teks semi terstruktur atau tidak terstruktur. Tujuannya
adalah untuk mengubah informasi teks menjadi angka sehingga algoritma penambangan data dapat
diterapkan. Mayoritas informasi muncul sebagai teks bentuk bebas yang, sebelum pengembangan
penambangan teks, perlu dibaca secara keseluruhan agar informasi dapat diperoleh darinya. Data
penambangan atau teks yang diambil dari operasi bisnis sehari-hari mengungkapkan informasi berharga,
seperti keinginan pelanggan, produk yang paling penting, atau proses yang dapat dibuat lebih
efisien. Wawasan ini memperluas kemampuan untuk memanfaatkan peluang, meminimalkan risiko, dan
mengendalikan biaya.

TINGKAT TINGKAT KEBIJAKAN REATURENSI MODAL ASIA


Asia Capital Reasuransi Group (ACR; asiacapitalre.com) berkantor pusat di Singapura dengan kantor
cabang di Hong Kong dan Dubai (Gambar 3.2). ACR adalah grup reasuransi independen (risiko cakupan)
independen pertama di dunia yang melayani klien di wilayah Asia Tenggara yang berkembang pesat
meliputi Timur Tengah, Cina, India, Jepang, Australia, dan Selandia Baru. Ini mengkhususkan diri dalam
memberikan solusi reasuransi untuk risiko besar dan kompleks untuk organisasi dalam penerbangan,
kecelakaan, kredit, medis, motor, energi, teknik, kelautan, dan industri properti.
PENGUNGKAPAN DATA
Dalam 5 tahun, volume data ACR telah tumbuh dari 500 Gb (gigabytes) pada 2007 menjadi 30 Tb
(terabytes) pada 2012-dan diperkirakan akan mencapai 200 Tb pada 2017. Wakil Presiden Senior
Teknologi Informasi, Alvin Lim menjelaskan: "Bersama kami pertumbuhan dan ekspansi bisnis, kami
terus-menerus meninjau dan memperbarui sistem kami untuk memastikan bahwa kemampuan
manajemen data kami sangat sesuai untuk memberikan dukungan tanpa batas dan tanpa gangguan
seiring perkembangan perusahaan "(Hitachi, 2013). Di sektor keuangan, analisis data merupakan
persyaratan bisnis do-or-die
DATA DAN ANALYTIK LEVERAGE UNTUK ADVENTAGE STRATEGIS
Untuk mempertahankan keunggulan di sektor jasa keuangan yang sangat kompetitif, ACR
mengeksplorasi cara-cara untuk memanfaatkan data terstruktur dan besar secara strategis. Tantangan
utama yang dihadapi perusahaan adalah sebagai berikut:
1. Bagaimana mengurangi penundaan tradisional antara operasi dan analitik untuk memberikan
akses tepat waktu ke data untuk pelaporan dan analisis.
2. Cara mentransfer data di antara berbagai aplikasi dan sistemnya
3. Bagaimana memenuhi persyaratan peraturan pemerintah dan pelanggan untuk perencanaan
bisnis dan pemulihan bencana
4. Bagaimana cara menghasilkan wawasan dari data yang dapat diterapkan dalam konteks bisnis
dunia nyata untuk memperkuat posisi pasar perusahaan.
ACR membutuhkan infrastruktur TI dan platform analisis data yang kuat, fleksibel, dapat dikembangkan,
dan cukup cepat untuk menangani semua jenis data, termasuk data besar yang tidak terstruktur .
Untuk memenuhi persyaratan bisnisnya dan memandu investasi TI, ACR mengembangkan peta jalan
TI. Perusahaan berinvestasi dalam:
1. Platform SAP HANA: SAP HANA (saphana.com) menyediakan lingkungan terintegrasi
untuk mengakses data dari berbagai sumber data untuk analisis waktu-dekat . SAP HANA
mendukung sumber data yang terstruktur atau tidak terstruktur, batch (tidak dalam
waktu nyata) atau streaming (dalam waktu nyata), dan besar atau kecil.
2. Hitachi Unified Compute Platform (UCP). UCP adalah penyimpanan dan infrastruktur
platform untuk SAP HANA yang akan memungkinkan untuk op timize
kinerja sebuah platform yang alytics.
UCP menyediakan pemrosesan data, penyimpanan, dan distribusi pada kecepatan dan volume
yang belum pernah terjadi sebelumnya yang diperlukan oleh teknologi di dalam memori SAP
HANA. (Ingatan dijelaskan secara rinci dalam Bagian 3.4.)
ROADMAP IT
SAP HANA adalah platform untuk aplikasi real-time dan analitik untuk pengambilan keputusan
segera. Manfaat berinvestasi dengan SAP adalah bahwa ia berada di depan kurva pada analisis latensi
rendah dengan HANA serta kemampuan pemuatan data dan pemrosesan aliran yang cepat Data batch
merupakan latensi tinggi atau tidak dalam waktu nyata
MANFAAT BISNIS
Data streaming latensi rendah, atau dalam waktu nyata. Hitachi Unified Compute Platform (UCP)
meliputi penyimpanan, server, jaringan, dan perangkat lunak manajemen yang terintegrasi dan
dirancang untuk beban kerja yang sangat penting. In-memory mengacu pada pemrosesan yang
dilakukan dalam memori akses acak (RAM)
Dengan menggunakan Hitachi UCP untuk platform SAP HANA, ACR telah mampu mengkonsolidasikan
gudang datanya, mengurangi duplikasi data, dan menciptakan fondasi untuk meningkatkan manfaat dari
analisis data terstruktur dari operasi dan data tidak terstruktur dari dokumen asuransi , situs web,
Twitter , dan Facebook . Menurut Alvin Lim, platform manajemen data yang baru praktis menghilangkan
penundaan antara operasi dan manajer yang memberikan analitik informasi dan informasi real-
time. Misalnya, waktu untuk menghasilkan laporan turun dari beberapa hari menjadi 45 menit
Di ACR, operasi, perencanaan, keputusan, kontrol, dan semua fungsi manajemen lainnya bergantung
pada kemampuan untuk mengekstrak pengetahuan yang dapat ditindaklanjuti dari data, laporan
penting bisnis nyata, dan jawaban langsung atas pertanyaan
SISTEM MANAJEMEN DATABASE
Dengan sejumlah besar data tradisional dan besar sekarang tersedia, banyak perusahaan melakukan
investasi besar dalam infrastruktur data untuk meningkatkan kemampuan mereka mengumpulkan,
menganalisis, dan menggunakan data di seluruh perusahaan. Contoh umum tentang bagaimana data
digunakan untuk lebih memahami masalah bisnis dan solusi solusi adalah sebagai berikut:
a. Untuk mengidentifikasi pelanggan yang cenderung membelot ke pesaing dan insentif
retensi terbaik untuk ditawarkan kepada mereka.
b. Untuk mendeteksi transaksi penipuan dan mengendalikan perilaku penipuan.
c. Untuk membuat rekomendasi otomatis untuk produk yang kemungkinan besar direspon oleh
pelanggan secara positif, yang didasarkan pada profil pelanggan.
d. Untuk dapat membuat keputusan iklan sepersekian detik bagi pelanggan online untuk
menghindari keranjang belanja yang ditinggalkan
Ketika perusahaan berinvestasi dalam teknologi manajemen data terbaru, mereka berharap dapat
melakukan hal-hal yang tidak dapat mereka lakukan sebelumnya, dan untuk melakukan hal - hal yang
lebih baik daripada sebelumnya , seperti yang Anda baca dalam kasus Asia Capital Reasuransi.
TEKNOLOGI DAN TEKNIK PENGELOLAAN DATA
 D atabase adalah kumpulan dataset atau catatan yang disimpan secara sistematis
 Volatile mengacu pada data yang sering berubah

Teknologi dan teknik manajemen data primer yang menangkap, menyimpan, dan mempertahankan
kualitas data; terus memberi tahu pengguna; dan mendukung proses bisnis adalah sebagai berikut:
a. Database menyimpan data yang dihasilkan oleh aplikasi bisnis, sensor, operasi, dan sistem
pemrosesan transaksi (TPS). Data dalam basis data sangat fluktuatif. Perusahaan menengah dan
besar biasanya memiliki banyak basis data dari berbagai jenis.
b. Gudang data mengintegrasikan data dari berbagai basis data dan silo data dan mengaturnya
untuk analisis yang kompleks, penemuan pengetahuan, dan mendukung pengambilan
keputusan. Misalnya, data diambil dari database, diproses untuk membakukan formatnya, dan
kemudian dimuat ke dalam gudang data pada waktu tertentu, seperti mingguan. Dengan
demikian, data di gudang data tidak mudah menguap dan siap untuk dianalisis.
c. Data mart adalah gudang data skala kecil yang mendukung fungsi tunggal atau satu
departemen. Perusahaan yang tidak mampu berinvestasi dalam pergudangan data dapat mulai
dengan satu atau lebih data mart
d. Alat dan teknik data mining dan intelijen bisnis (BI) memproses data dan analisis statistik kinerja
untuk wawasan dan penemuan. Alat BI, misalnya, mengekstrak pengetahuan dari data,
menemukan hubungan yang bermakna dalam data, mendeteksi tren, dan mengidentifikasi
peluang dan risiko. Penambangan data dapat memberikan wawasan baru, membentuk dasar
yang dapat diandalkan untuk peramalan yang akurat, dan membantu manajer membuat
keputusan yang lebih baik .
Teknik pemrosesan data, kekuatan pemrosesan, dan kemampuan manajemen kinerja perusahaan telah
mengalami kemajuan revolusioner dalam beberapa tahun terakhir yang telah akrab dengan data besar,
analitik, mobilitas, dan cloud untuk alasan Anda menghitung
DBMS DAN SQL
Sistem manajemen basis data (DBMSS) terintegrasi dengan sistem pengumpulan data seperti TPS dan
aplikasi bisnis; menyimpan data secara terorganisir; dan menyediakan fasilitas untuk mengakses dan
mengelola data itu. Selama 25 tahun terakhir, basis data relasional telah menjadi model basis data
standar yang diadopsi oleh sebagian besar perusahaan. Sistem manajemen basis data relasional
(RDBMS) menyimpan data dalam tabel yang terdiri dari kolom dan baris, mirip dengan format
spreadsheet.
RDBMSS menyediakan akses ke data menggunakan bahasa query terstruktur-bahasa deklaratif
(SQL). Bahasa deklaratif menyederhanakan akses data karena mereka hanya mengharuskan pengguna
menentukan data apa yang ingin mereka akses (menggunakan format tertentu) tanpa harus menulis
kode. Format pernyataan SQL dasar adalah sebagai berikut:
SISTEM MANAJEMEN DATABASE DAN SQL
Database management systems (DBMSS) adalah perangkat lunak yang digunakan untuk mengelola
penambahan, pembaruan, dan keterlambatan data saat transaksi terjadi; dan mendukung pertanyaan
dan pelaporan data. Mereka adalah sistem OLTP. adalah SOL adalah bahasa permintaan standar untuk
mengakses database

Fungsi dasar yang dilakukan oleh DBMS adalah sebagai berikut:


1. Pemfilteran dan pembuatan profil data: DBMSS memproses dan menyimpan data secara efisien,
dan memeriksa data jika ada kesalahan, ketidakkonsistenan, redudansi, dan informasi yang tidak
lengkap.
2. Integritas dan pemeliharaan data: DBMSS mengoreksi, membakukan, dan memverifikasi
konsistensi dan integritas data.
3. Sinkronisasi data: DBMSS mengintegrasikan, mencocokkan, dan menautkan data dari sumber
internal dan eksternal
4. Keamanan dan akses data: DBMS melindungi integritas data dan mengontrol akses ke data
dengan cara pianned dan ad hoc dalam waktu yang dapat diterima.
Perangkat keras komputasi saat ini mampu mengolah data besar yang tidak mungkin beberapa tahun
yang lalu dan membuatnya tersedia sesuai permintaan melalui jaringan kabel atau nirkabel
Faktor-faktor yang perlu dipertimbangkan ketika mengevaluasi kinerja DBMS adalah sebagai berikut
a. Latensi data. Latency adalah waktu yang telah berlalu (atau delay) antara ketika
data yang dibuat dan kapan tersedia untuk query atau laporan. Aplikasi memiliki toleransi yang
berbeda untuk latensi. Sistem basis data cenderung memiliki latensi yang lebih pendek daripada
gudang data . Latensi pendek memberlakukan lebih banyak pembatasan pada suatu sistem.
b. Kemampuan untuk menangani volatilitas data. Basis data memiliki proses kekuatan untuk
menangani volatilitas data. Tingkat di mana data ditambahkan, diperbarui, atau dihapus
menentukan beban kerja yang harus dapat dikendalikan oleh basis data untuk mencegah
masalah dengan tingkat respons terhadap kueri.
c. Waktu respons kueri. Volume data memengaruhi waktu respons terhadap kueri dan eksplorasi
data. Banyak basis data data hama - yaitu, meringkas atau menghitung ulang hasil - sehingga
kueri memiliki tingkat respons yang lebih cepat.
d. Konsistensi data. Konsistensi langsung berarti bahwa segera setelah data diperbarui, respons
terhadap permintaan baru apa pun akan mengembalikan nilai yang diperbarui. Dengan
konsistensi akhirnya, tidak semua respons kueri akan mencerminkan perubahan data secara
uni. Hasil kueri yang tidak konsisten dapat menyebabkan masalah serius untuk dianalisis yang
bergantung pada data yang akurat.
e. Prediktabilitas Kueri . Semakin besar jumlah kueri ad hoc atau tak terduga, database harus lebih
fleksibel. Manajemen kinerja basis data atau permintaan menjadi lebih sulit ketika beban kerja
sangat tidak terduga sehingga tidak dapat dipersiapkan sebelumnya. Kemampuan untuk
menangani beban kerja adalah kriteria paling penting ketika memilih database.

PERBEDAAN ANTARA PEMROSESAN TRANSAKSI DAN SISTEM PEMROSESAN ANALYTICS


Ketika sebagian besar transaksi bisnis terjadi - misalnya, suatu barang dijual atau reservasi dibuat -
perubahan dilakukan segera ke basis data. Setiap transaksi menyebabkan penambahan, edit, atau
penghapusan. Catatan dan proses transaksi DBMSS dalam database; dan mendukung pertanyaan dan
pelaporan. Dengan adanya jenis fungsi ini, DBMS disebut sebagai sistem pemrosesan transaksi online
(OLTP). Secara teknis, OLTP adalah desain basis data yang mengoptimalkan efisiensi pemrosesan aksi
dan efisiensi kueri. Basis data OLTP memproses jutaan transaksi per detik. Namun, desain basis data
tidak kondusif untuk analisis data. Keterbatasan ini mengarah pada pengembangan teknologi data
warehouse. Gudang data dan data mart dioptimalkan untuk pemrosesan analitik online (OLAP), yang
mencakup penambangan data untuk BI, dan dukungan keputusan . OLAP adalah istilah yang digunakan
untuk menggambarkan analisis data kompleks dari gudang data. Lihat Catatan Teknis 3.2.
VENDOR MENANGGAPI PERMINTAAN DATA
Pertumbuhan data yang merajalela dan kebutuhan akan solusi untuk menanganinya telah
memberikan dorongan bagi inovasi TI. Vendor yang mendominasi pasar ini - misalnya, Oracle, IBM,
Microsoft, Teradata, dan CISCO - terus menanggapi perkembangan kebutuhan manajemen data dengan
perangkat lunak dan perangkat keras yang cerdas dan canggih. Teknologi perangkat keras canggih
memungkinkan penskalaan ke volume data dan beban kerja yang jauh lebih tinggi dari yang sebelumnya
mungkin; atau dapat menangani beban kerja tertentu. DBMS relasional tujuan umum yang lebih lama
tidak memiliki skalabilitas atau fleksibilitas untuk beban kerja khusus atau sangat besar tetapi sangat
baik dalam hal apa yang mereka lakukan.
Database adalah:
 Dirancang dan dioptimalkan untuk memastikan bahwa setiap transaksi dicatat dan
disimpan segera
 Mudah menguap karena data terus diperbarui, ditambahkan, atau diedit.
 Sistem OLTP
Gudang data adalah
 Dirancang dan dioptimalkan untuk analisis dan respons cepat terhadap kueri.
 Tidak mudah menguap. Stabilitas ini penting untuk dapat menganalisis data dan membuat
perbandingan. Ketika data disimpan, mereka mungkin tidak pernah diubah atau dihapus
untuk melakukan analisis tren atau membuat perbandingan dengan data yang lebih baru.
 Sistem OLAP
 Berorientasi subjek, yang berarti bahwa data yang diambil diatur untuk memiliki data
serupa yang dihubungkan bersama.
PERINGKAT VENDOR DBMS
DBMSS perusahaan dengan peringkat tertinggi pada pertengahan 2014 adalah Oracle Oracle, Microsoft
SQL Server, PostgreSQL, DB2 IBM, dan Teradata Database. Sebagian besar sistem operasi ganda (OS).
 DB2 banyak digunakan di pusat data dan berjalan di Linux, UNIX, Windows, dan mainframe
 Kemudahan penggunaan, ketersediaan, dan integrasi sistem operasi Windows SQL Server
menjadikannya pilihan yang mudah bagi perusahaan yang memilih produk Microsoft untuk
perusahaan mereka
 PostgreSQL adalah database open source paling canggih, sering digunakan oleh aplikasi game
online dan Skype, Yahoo !, dan MySpace.
 MYSQL, yang diakuisisi oleh Oracle pada Januari 2010, menggerakkan ratusan ribu situs web
komersial dan sejumlah besar aplikasi internal perusahaan.
KECENDERUNGAN MENUJU SISTEM NOSQL
RDBMSS masih merupakan mesin basis data yang dominan, sementara sistem manajemen data yang
lebih baru mengambil peran penting. Secara khusus, sistem NOSQL (kependekan dari "tidak hanya SQL")
mendapatkan penerimaan karena kemampuan mereka untuk menangani data yang tidak terstruktur
dan terstruktur. Sistem NOSQL telah meningkat popularitasnya sebesar 50% dari 2013 hingga 2014.
Meskipun NOSQL telah ada selama DBMS relasional, istilah itu sendiri tidak diperkenalkan untuk tahun
2009. Saat itulah banyak sistem baru dikembangkan untuk mengatasi persyaratan yang sedang
berlangsung. untuk DBMS. menangani data besar, skalabilitas, dan toleransi kesalahan untuk aplikasi
Web besar. Skalabilitas berarti sistem dapat meningkatkan ukuran untuk menangani pertumbuhan data
atau beban peningkatan jumlah pengguna secara bersamaan. Dengan kata lain, sistem scalable efisien
mempengaruhi tuntutan komputasi kinerja tinggi. Toleransi kesalahan berarti bahwa kegagalan tunggal
tidak akan mengakibatkan hilangnya layanan.
Sistem NOSQL adalah kelompok sistem database yang heterogen yang berupaya mengklasifikasikannya
sebagai sangat tidak membantu. Namun, keunggulan umum mereka adalah sebagai berikut:

 Performa lebih tinggi


 Distribusi data yang mudah pada node yang berbeda, yang memungkinkan skalabilitas dan
toleransi kesalahan
 Fleksibilitas yang lebih besar
 Administrasi lebih sederhana
Dengan penawaran NOSQL terbanyak , sebagian besar biaya tidak terletak pada perolehan basis
data, melainkan dalam mengimplementasikannya. Data perlu dipilih dan dimigrasikan (dipindahkan) ke
database baru. Microsoft berharap dapat mengurangi biaya ini dengan menawarkan solusi migrasi
SAMPAH MASUK SAMPAH KELUAR
Pengumpulan data adalah proses yang sangat kompleks yang dapat menimbulkan masalah terkait
kualitas data yang dikumpulkan. Oleh karena itu, terlepas dari bagaimana data dikumpulkan, mereka
perlu divalidasi sehingga pengguna tahu mereka dapat mempercayai mereka. Ekspresi klasik yang
menyimpulkan situasinya adalah "sampah masuk, sampah keluar" (GIGO) dan "sampah masuk, Injil
keluar" yang berpotensi lebih berisiko. Dalam kasus terakhir, data berkualitas buruk dipercaya dan
digunakan sebagai dasar untuk perencanaan. Anda telah menemukan perlindungan data, seperti
pemeriksaan integritas, untuk membantu meningkatkan kualitas data saat Anda mengisi formulir
online. Misalnya, formulir tidak akan menerima alamat email yang tidak ditetapkan dengan benar
BIAYA DAN KONSEKUENSI DATA KOTOR
Data kotor - yaitu, data berkualitas buruk - kurang integritas dan tidak dapat dipercaya. Terlalu sering,
manajer dan pekerja informasi benar-benar dibatasi oleh data yang tidak dapat dipercaya karena
mereka tidak lengkap, di luar konteks, ketinggalan zaman, tidak akurat, tidak dapat diakses, atau sangat
berlebihan sehingga mereka memerlukan waktu berminggu-minggu untuk menganalisis. Dalam situasi
seperti itu, pembuat keputusan menghadapi terlalu banyak ketidakpastian untuk membuat keputusan
bisnis yang cerdas. Biaya data berkualitas buruk dapat dinyatakan sebagai rumus:
Biaya data berkualitas buruk = Hilang bisnis + Biaya untuk mencegah kesalahan + Biaya untuk
memperbaiki kesalahan
Contoh dari biaya ini termasuk yang berikut ini
 Bisnis yang hilang. Bisnis hilang ketika peluang penjualan terlewatkan, pesanan dikembalikan
karena barang yang salah dikirimkan, atau kesalahan membuat frustrasi dan mengusir
pelanggan
 Menghabiskan waktu untuk mencegah kesalahan. Jika data tidak dapat dipercaya, maka
karyawan perlu menghabiskan lebih banyak waktu dan upaya untuk memverifikasi informasi
agar menghindari kesalahan
 Waktu yang dihabiskan untuk memperbaiki kesalahan. Staf basis data perlu memproses koreksi
terhadap basis data. Misalnya, biaya untuk memperbaiki kesalahan di Urent Corporation
diperkirakan sebagai berikut
 Dua anggota staf basis data menghabiskan 25% dari pemrosesan hari kerja mereka dan
memverifikasi koreksi data setiap hari 2 orang 25% dari 8 jam / hari-4 jam / hari
mengoreksi kesalahan
 Gaji per jam adalah $ 50 per jam berdasarkan tingkat pembayaran dan manfaat $ 50
untuk 4 jam / hari- $ 200 / hari kesalahan koreksi
 250 hari kerja per tahun $ 200 / hari 250 hari $ 50.000 / tahun untuk memperbaiki
kesalahan
Biaya data berkualitas buruk menyebar ke seluruh perusahaan, memengaruhi sistem dari
pengiriman dan penerimaan hingga akunting dan layanan pelanggan. Kesalahan data biasanya muncul
dari fungsi atau departemen yang menghasilkan atau membuat data dan bukan di dalam departemen
TI. Ketika semua biaya dipertimbangkan, nilai menemukan dan memperbaiki penyebab kesalahan data
menjadi jelas. Dalam masa penurunan anggaran, beberapa organisasi mungkin tidak memiliki sumber
daya untuk proyek-proyek tersebut dan bahkan mungkin tidak menyadari masalahnya. Orang lain
mungkin menghabiskan sebagian besar waktu mereka untuk memperbaiki masalah, sehingga membuat
mereka tidak punya waktu untuk bekerja mencegahnya. Untuk perusahaan tertentu, sulit untuk
menghitung biaya penuh dari kualitas data yang buruk dan efek jangka panjangnya. Bagian dari
kesulitannya adalah penundaan waktu antara kesalahan dan ketika itu terdeteksi. Kesalahan bisa sangat
sulit untuk diperbaiki, terutama ketika sistem meluas di seluruh perusahaan. Kekhawatiran lain adalah
bahwa dampak kesalahan bisa tidak dapat diprediksi atau serius. Sebagai contoh, biaya kesalahan
karena data yang tidak dapat dipertanggungjawabkan dan tidak benar saja diperkirakan mencapai $ 40
miliar per tahun di sektor ritel (Zynapse, 2010). Dan satu perusahaan perawatan kesehatan yang
agennya bekerja dengan banyak IS, tetapi tidak memperbarui detail klien di setiap IS, melihat biaya
tahunannya naik $ 9 juta.
KEPEMILIKAN DATA DAN POLITIK ORGANISASI
Terlepas dari kebutuhan akan data berkualitas tinggi, politik organisasi dan masalah teknis
membuatnya sulit untuk dicapai. Sumber masalahnya adalah kepemilikan data-yaitu, siapa yang
memiliki atau bertanggung jawab atas data tersebut. Masalah kepemilikan data ada ketika tidak ada
kebijakan yang mendefinisikan tanggung jawab dan akuntabilitas untuk mengelola data. Format data
yang tidak konsisten dari berbagai departemen menciptakan serangkaian masalah tambahan ketika
organisasi mencoba untuk menggabungkan aplikasi individual ke dalam sistem hadiah masuk
terintegrasi
Kecenderungan untuk mendelegasikan tanggung jawab kualitas data kepada tim teknis yang
tidak memiliki kendali atas kualitas data, berbeda dengan pengguna bisnis yang memiliki kontrol seperti
itu, adalah perangkap umum lain yang menghalangi pengumpulan data berkualitas tinggi. Mereka yang
mengelola bisnis atau bagian dari bisnis ditugaskan untuk mencoba meningkatkan kinerja bisnis dan
mempertahankan pelanggan. Kompensasi terkait dengan peningkatan profitabilitas, mendorong
pertumbuhan pendapatan, dan peningkatan kualitas layanan pelanggan. Indikator kinerja utama (KPIS)
ini dipantau secara ketat oleh manajer senior yang ingin menemukan dan menghilangkan cacat yang
merusak kinerja. Anehnya bahwa hanya sedikit manajer yang meluangkan waktu untuk memahami
bagaimana kinerja dipengaruhi oleh data berkualitas buruk. Dua contoh membuat alasan kuat untuk
investasi dalam data berkualitas tinggi
Bank ritel. Untuk eksekutif bank ritel, manajemen risiko adalah masalah nomor satu. Diabaikan
karena risiko berkontribusi pada krisis jasa keuangan 2008 . Meskipun strategi manajemen risiko, banyak
bank masih mengalami kerugian besar. Bagian dari masalah di banyak bank adalah bahwa mereka
memungkinkan mereka untuk memantau risiko hanya pada tingkat produk-hipotek, pinjaman, atau
kartu kredit. ISR tingkat manajemen risiko produk memantau eksposur risiko pelanggan untuk hipotek,
atau untuk pinjaman, atau untuk kartu kredit, dan sebagainya - tetapi tidak untuk pelanggan untuk
semua produk. Dengan IS tingkat produk, bank tidak dapat melihat eksposur risiko penuh dari
pelanggan. Keterbatasan risiko tingkat produk yang dibungkam ini memiliki implikasi serius bagi kinerja
bisnis karena pelanggan risiko buruk tidak dapat diidentifikasi dengan mudah, dan data pelanggan dalam
berbagai Ss mungkin berbeda. Misalnya, pertimbangkan apa yang terjadi ketika setiap manajemen risiko
tingkat produk memasukkan data ke IS pemasaran. Pemasaran dapat menawarkan insentif kebiasaan
buruk untuk mengambil kartu kredit lain atau kredit yang tidak dapat mereka bayar. Dan karena bank
juga tidak dapat mengidentifikasi pelanggan terbaiknya, mereka mungkin diabaikan dan dibujuk oleh
penawaran yang lebih baik yang ditawarkan oleh pesaing. Skenario ini menggambarkan bagaimana
kepemilikan data dan manajemen kualitas data sangat penting untuk manajemen risiko. Cacat data dan
termasuk data dapat dengan cepat memicu pemasaran yang akurat dan kerugian yang meningkat . Satu
bank ritel yang menghadapi masalah ini kehilangan 16% dari bisnis hipoteknya dalam waktu 18 bulan
sementara kerugian dalam bisnis kartu kreditnya meningkat (Ferguson, 2012).
Pabrikan Banyak pabrikan berada di bawah kekuasaan pengecer basis-besar pelanggan yang
kuat. Produsen ingin menyelaraskan proses mereka dengan pelanggan ritel besar agar mereka
bahagia. Aligamen ini memungkinkan pengecer memesan secara terpusat untuk semua toko atau
memesan secara lokal dari pabrikan tertentu. Mendukung pemesanan pusat dan lokal membuat
perencanaan produksi menjadi sulit. Misalnya, setiap situs manufaktur harus mengumpulkan data
pesanan dari sistem pemesanan pusat dan sistem pemesanan lokal untuk mendapatkan gambaran
lengkap tentang apa yang akan diproduksi di setiap situs. Tanpa data yang akurat dan terbaru, pesanan
mungkin tidak terisi, atau pabrik mungkin memiliki persediaan berlebih. Salah satu pabrikan yang
berusaha membuat pengecer kuncinya senang dengan menerapkan pemesanan pusat dan lokal tidak
dapat memproses pesanan dengan benar di setiap lokasi pabrikan. Tidak ada kepemilikan data dan
kurangnya kontrol atas bagaimana data mengalir pesanan di seluruh operasi bisnis memiliki dampak
negatif. Proses bisnis yang saling bertentangan dan duplikat di setiap lokasi produksi menyebabkan
kesalahan data, yang menyebabkan kesalahan dalam pembuatan, pengemasan, dan
pengiriman. Pelanggan sangat tidak puas.
Dua contoh ini mewakili konsekuensi dari kurangnya kepemilikan data dan kualitas data. Memahami
dampak dari data yang salah kelola menjadikan pemilik kapal dan data yang akurat menjadi prioritas
yang lebih tinggi
Kepatuhan terhadap berbagai peraturan federal dan negara bagian bergantung pada data yang kuat dan
metrik tepercaya yang digunakan untuk pelaporan peraturan. Kepemilikan data, kualitas data, dan data
yang dikelola secara formal menjadi prioritas utama dalam agenda CFOS dan CEOS yang dimintai
pertanggungjawaban pribadi jika perusahaan mereka dinyatakan melanggar peraturan.

SIKLUS DATALIFE DAN PRINSIP DATA


Daur hidup data adalah model yang menggambarkan cara perjalanan data melalui suatu organisasi,
seperti yang ditunjukkan pada Gambar 3.3. Daur hidup data dimulai dengan penyimpanan dalam
database, dimuat ke dalam gudang data untuk dianalisis, kemudian dilaporkan kepada pekerja
pengetahuan atau digunakan dalam aplikasi bisnis. Manajemen rantai pasokan (SCM), manajemen
hubungan pelanggan (CRM), dan e-commerce adalah aplikasi perusahaan yang membutuhkan data yang
mudah diakses yang dapat diakses agar berfungsi dengan baik.
Tiga prinsip data umum terkait dengan perspektif siklus hidup data dan membantu memandu keputusan
investasi TI .
 Prinsip berkurangnya nilai data. Nilai data berkurang seiring bertambahnya usia . Ini adalah
prinsip yang sederhana, namun kuat. Sebagian besar organisasi tidak dapat beroperasi pada
kinerja puncak dengan blind spot (kurangnya ketersediaan data) selama 30 hari atau
tidak. Global lembaga jasa keuangan mengandalkan data mendekati real-time untuk puncak
perfor Mance .
 Prinsip penggunaan 90490 data. Menurut prinsip penggunaan data 9090, mayoritas data yang
disimpan, setinggi 90%, jarang diakses setelah 90 hari (kecuali untuk tujuan audit). Artinya,
sekitar 90% data kehilangan sebagian besar nilainya setelah 3 bulan
 Prinsip data dalam konteks. Kemampuan untuk menangkap, memproses, memformat, dan
mendistribusikan data dalam waktu dekat atau lebih cepat memerlukan investasi besar dalam
arsitektur data (Bab 2) dan infrastruktur untuk menghubungkan sistem POS jarak jauh ke
penyimpanan data, sistem analisis data, dan aplikasi pelaporan. Investasi dapat dibenarkan
dengan prinsip bahwa data harus diintegrasikan, diolah, dianalisis, dan diformat menjadi
informasi yang dapat ditindaklanjuti.
DATA MASTER DAN MANAJEMEN DATA MASTER
Ketika data menjadi lebih kompleks dan volumenya meledak, kinerja basis data menurun. Salah satu
solusinya adalah penggunaan data master dan manajemen data master (MDM), seperti yang
diperkenalkan pada Bab 2. Proses MDM mengintegrasikan data dari berbagai sumber atau aplikasi
perusahaan untuk menciptakan pandangan yang lebih lengkap (terpadu) dari pelanggan, produk, atau
entitas lain . Gambar 3.4 menunjukkan bagaimana data master dihapus sebagai lapisan antara data
transaksional dalam database dan data analitik dalam data warehouse. Meskipun vendor dapat
mengklaim bahwa solusi MDM mereka menciptakan "versi tunggal kebenaran," klaim ini mungkin tidak
benar. Pada kenyataannya, MDM tidak dapat membuat versi data tunggal yang disatukan karena
membangun pandangan yang sepenuhnya menyatu dari semua data master sama sekali tidak mungkin.
FILE REFERENSI UTAMA DAN ENTITAS DATA
Secara realistis, MDM mengkonsolidasikan data dari berbagai sumber data ke dalam file referensi
utama, yang kemudian memasukkan data kembali ke aplikasi, menciptakan data yang akurat dan
konsisten di seluruh perusahaan. Dalam IT at Work 3.1, peserta dalam rantai pasokan perawatan
kesehatan pada dasarnya mengembangkan file referensi utama dari entitas data utamanya. Entitas data
adalah segala sesuatu yang nyata atau abstrak yang ingin dikumpulkan dan disimpan oleh
perusahaan. Entitas data master adalah entitas utama perusahaan, seperti pelanggan, produk, pemasok,
karyawan, dan aset.
Setiap departemen memiliki kebutuhan data master yang berbeda. Pemasaran, misalnya, berkaitan
dengan penetapan harga produk, merek, dan kemasan produk, sedangkan produksi berkaitan dengan
biaya dan jadwal produk. File referensi master pelanggan dapat mengumpankan data ke semua sistem
perusahaan yang memiliki komponen hubungan pelanggan, memberikan gambar pelanggan yang lebih
bersatu. Demikian pula, file referensi master produk dapat mengumpankan data ke semua sistem
produksi dalam perusahaan.
MDM mencakup alat untuk membersihkan dan mengaudit klaster data master serta alat untuk
mengintegrasikan dan menyinkronkan data agar lebih mudah diakses. MDM menawarkan solusi bagi
manajer yang frustrasi dengan seberapa terfragmentasi dan terpencarnya sumber data mereka (Gambar
3.4).

DATA BESAR DAN ANALISIS


Pangsa pasar adalah persentase usia total penjualan di pasar yang ditangkap oleh merek, produk, atau
perusahaan
Manajer pemasaran senior dari pengecer besar mengetahui bahwa perusahaannya terus kehilangan
pangsa pasar kepada pesaing di banyak segmen menguntungkan mereka. Kerugian mereka berlanjut
meskipun kampanye penjualan yang menggabungkan promosi online dengan peningkatan
merchandizing (Brown et al., 2011). Untuk memahami penyebab menurunnya pangsa pasar, tim
manajer senior mempelajari praktik pesaing mereka. Mereka menemukan bahwa taktik pemasaran
mereka bukan masalah, tetapi apa yang telah dilakukan pesaing. Pesaing
 telah banyak berinvestasi dalam TI untuk mengumpulkan, mengintegrasikan, dan menganalisis
data dari setiap toko dan unit penjualan.
 Telah menautkan data ini ke basis data pemasok, sehingga memungkinkan untuk menyesuaikan
harga secara real time, untuk memesan ulang item yang laris secara otomatis, dan untuk
memindahkan barang dari satu toko ke toko lainnya dengan mudah.
 Secara konstan menguji, mengintegrasikan, dan melaporkan informasi segera tersedia di seluruh
organisasi-dari lantai toko ke kantor CFO
Marjin operasi adalah ukuran persentase pendapatan perusahaan yang tersisa setelah membayar biaya
variabelnya, seperti upah dan bahan baku. Meningkat berarti perusahaan menghasilkan lebih banyak
per dolar penjualan. Semakin tinggi o perating marjin , lebih baik.
Tim manajemen senior menyadari bahwa pesaing mereka mencuri pelanggan mereka karena analitik
data besar memungkinkan mereka untuk menentukan peluang peningkatan di seluruh rantai pasokan
dari pembelian hingga manajemen ketersediaan di dalam toko. Secara khusus, para pesaing mampu
memprediksi bagaimana mereka akan berperilaku dan menggunakan pengetahuan itu untuk siap
merespons dengan cepat. Kasus ini adalah contoh dari apa yang telah dipelajari para peneliti. Menurut
McKinsey Global Institute (MGI), analitik data besar telah membantu perusahaan mengungguli pesaing
mereka. MGI memperkirakan bahwa pengecer yang menggunakan analitik data besar meningkatkan
margin operasi mereka lebih dari 60%. Pengecer, asuransi, dan layanan keuangan terkemuka
menggunakan data besar untuk merebut pangsa pasar dari pesaing lokal (Breuer, Forina, & Moulton,
2013). Sebuah studi IBM menunjukkan bahwa perusahaan-perusahaan dengan analisis dan optimisasi
data tingkat lanjut dapat mengalami pertumbuhan laba 20 kali lebih tinggi dan pengembalian modal
investasi 30% lebih tinggi (ibm.com, 2011)
Sebagian besar aplikasi data besar termasuk dalam salah satu kategori ini: analitik pelanggan, inovasi
produk baru, penipuan dan kepatuhan, dan analitik operasional. Contoh bagaimana big data dan
Hadoop memberikan nilai bisnis nyata dengan mengurangi pemborosan dan meningkatkan kualitas
kinerja produk dan layanan adalah sebagai berikut:
 Di sebuah perusahaan jasa keuangan terkemuka, akan dibutuhkan 36 jam untuk
menganalisis 4 juta akun pelanggan dengan tiga kategori pengeluaran per akun
menggunakan teknologi analitik tradisional. Dengan teknologi big data, kira-kira
memproses 30 juta akun pelanggan hanya membutuhkan waktu 51 menit, atau 96% lebih
cepat memberikan wawasan dalam waktu dekat.
 Dengan menganalisis perilaku pelanggan dan bagaimana pelanggan menggunakan game
mereka, sebuah perusahaan game menggandakan pendapatan
penjualannya. Menggunakan analitik, perusahaan menemukan apa yang memotivasi
pengguna untuk terus bermain dan apa yang membuat mereka bosan; dan apa yang
memotivasi pengguna untuk membeli produk tambahan alih-alih meninggalkan permainan
- dan meningkatkan permainan.
 Dengan mengevaluasi transaksi jutaan rekening kartu kredit, sebuah perusahaan kartu
pembayaran dapat mengidentifikasi dan mencegah sejumlah besar biaya penipuan kecil,
Mengetahui pola penipuan menghemat US $ 2 miliar dalam potensi penipuan kartu kredit.
Di bagian ini, Anda belajar tentang nilai-nilai, tantangan, dan teknologi yang terlibat dalam
menempatkan data dan analitik untuk digunakan untuk mendukung keputusan dan tindakan. Keempat
V tentang variasi analitik, volume, kecepatan, dan kebenaran - dijelaskan dalam Tabel 3.1.
Data besar dapat memiliki dampak dramatis pada keberhasilan perusahaan mana pun, atau mereka
dapat menjadi pengeluaran besar yang berkontribusi rendah. Namun, kesuksesan tidak dicapai hanya
dengan teknologi. Banyak perusahaan mengumpulkan dan menangkap data dalam jumlah besar tetapi
menghabiskan sedikit usaha untuk memastikan kebenaran dan nilai data ditangkap pada tahap
transaksional atau titik asal. Penekanan pada arah ini tidak hanya akan meningkatkan kepercayaan pada
dataset, tetapi juga secara signifikan mengurangi upaya untuk analitik dan meningkatkan kualifikasi
pengambilan keputusan. Keberhasilan juga tergantung pada memastikan bahwa Anda menghindari
asumsi yang tidak valid, yang dapat dilakukan dengan menguji asumsi selama analisis.
GUDANG DATA ENTERPRISE DAN DART MARTS
Gudang data menyimpan data dari berbagai sistem sumber dan basis data di seluruh perusahaan untuk
menjalankan kueri analitik terhadap kumpulan data besar yang dikumpulkan selama periode waktu yang
lama. Gudang adalah sumber utama data yang dibersihkan untuk analisis, pelaporan, dan BI. Seringkali,
data diringkas dengan cara yang memungkinkan respons cepat terhadap permintaan. Misalnya, hasil
kueri dapat mengungkapkan perubahan perilaku pelanggan dan mendorong keputusan untuk
mengembangkan kembali strategi periklanan. Gudang data yang mengumpulkan data dari sumber dan
basis data yang berbeda di seluruh perusahaan disebut gudang data perusahaan (EDW ).
Tingginya biaya gudang data dapat membuatnya terlalu mahal untuk diterapkan oleh perusahaan. Data
mart adalah versi yang lebih murah, versi yang diperkecil yang dapat diimplementasikan dalam waktu
yang jauh lebih singkat, misalnya, dalam waktu kurang dari 90 hari. Data mart melayani departemen
atau fungsi tertentu, seperti keuangan, pemasaran, atau operasi. Karena mereka menyimpan jumlah
data yang lebih kecil, mereka lebih cepat, lebih mudah digunakan, dan bernavigasi.
PROSEDUR UNTUK MENYIAPKAN DATA EDW UNTUK ANALYTICS
Pertimbangkan database bank. Setiap setoran, penarikan, pembayaran pinjaman, atau transaksi lainnya
menambah atau mengubah data. Volatilitas yang disebabkan oleh pemrosesan transaksi yang konstan
membuat analisis data menjadi sulit - dan tuntutan untuk memproses jutaan transaksi per detik
menggunakan kekuatan pemrosesan basis data. Sebaliknya, data di gudang relatif stabil, sesuai
kebutuhan untuk analisis. Oleh karena itu, pilih data dipindahkan dari database ke gudang. Secara
khusus, data
1. Diekstraksi dari database yang ditunjuk
2. Diubah oleh format standar, pembersihan . dan mengintegrasikannya.
3. Dimuat ke dalam warchouse data
Tiga prosedur ini - ekstrak, transformasi, dan beban - dirujuk oleh ETL awal mereka. Di warebouse, data
hanya baca, yaitu, mereka tidak berubah sampai ETL berikutnya
Tiga teknologi yang terlibat dalam menyiapkan data mentah untuk analitik meliputi ETL change data
capture (CDC), dan deduplikasi data ("deduping the data"). Proses CDC menangkap perubahan yang
dilakukan di sumber data dan kemudian menerapkan perubahan itu di seluruh penyimpanan data
perusahaan untuk menjaga sinkronisasi data. CDC meminimalkan sumber daya yang diperlukan untuk
proses ETL dengan hanya berurusan dengan perubahan data. Proses pemotongan menghapus duplikat
dan membakukan format data, yang membantu meminimalkan penyimpanan dan sinkronisasi data.
Gambar 3.5 adalah gambaran umum dari proses membangun dan menggunakan data warehouse. Data
disimpan dalam database operasional (di sebelah kiri gambar). Data yang menarik diekstraksi, diubah
menjadi format standar, dan kemudian dimuat ke dalam gudang data. Gudang mengatur data dalam
berbagai cara - berdasarkan bidang fungsional subjek, veadores, dan produk. Seperti yang ditunjukkan,
arsitektur data warehouse mendefinisikan aliran data yang dimulai ketika data ditangkap oleh sistem
transaksi, sumber data disimpan dalam database transaksional (operasional); Proses ETL memindahkan
data dari basis data ke gudang data atau data mart, di mana data tersedia untuk akses, laporan, dan
analisis

DUKUNGAN WAKTU NYATA DARI GUDANG DATA AKTIF


Teknologi gudang awal terutama mendukung aplikasi strategis yang tidak memerlukan waktu respons
instan, interaksi pelanggan langsung, atau integrasi dengan sistem operasional. ETL mungkin dilakukan
seminggu sekali atau sebulan sekali. Tetapi permintaan akan informasi untuk mendukung interaksi dan
operasi pelanggan secara real-time mengarah pada pergudangan dan analisis data waktu-nyata yang
dikenal sebagai gudang data aktif (ADW). Peningkatan besar dalam daya komputasi, kecepatan
pemrosesan, dan memori memungkinkan ADW. ADW tidak dirancang untuk mendukung pengambilan
keputusan strategis eksekutif, tetapi lebih untuk mendukung operasi. Misalnya, perusahaan pelayaran
seperti DHL menggunakan armada besar truk untuk memindahkan jutaan paket. Setiap hari dan
sepanjang hari, manajer operasional membuat keputusan yang mempengaruhi garis bawah, seperti:
"Apakah kita memerlukan empat truk untuk menjalankan ini?" "Dengan dua pengemudi yang tertunda
karena cuaca buruk, apakah kita perlu membawa bantuan tambahan? Pergudangan data tradisional
tidak cocok untuk dukungan operasi segera, tetapi pergudangan data aktif. Misalnya, rekan dengan
ADW dapat:
 Berinteraksi dengan pelanggan untuk memberikan layanan pelanggan yang unggul.
 Tanggapi acara bisnis dalam waktu dekat.
 Bagikan data status terkini di antara pedagang, vendor, pelanggan, dan rekanan

Berikut ini adalah beberapa contoh bagaimana dua perusahaan menggunakan ADW:
 Modal Satu. Capital One menggunakan ADW untuk melacak "skor profitabilitas" setiap
pelanggan untuk menentukan tingkat layanan pelanggan yang akan diberikan kepada orang
itu. Layanan personalisasi berbiaya lebih tinggi hanya diberikan kepada mereka yang memiliki
skor tinggi. Misalnya, ketika seorang pelanggan memanggil Capital One, ia diminta untuk
memasukkan nomor kartu kredit, yang dikaitkan dengan skor profitabilitas. Pelanggan
berpenghasilan rendah hanya mendapatkan unit respons suara; pelanggan dengan laba tinggi
terhubung ke perwakilan layanan pelanggan langsung (CSR) karena perusahaan ingin
meminimalkan risiko kehilangan pelanggan tersebut. OS Travelocity. Jika Anda menggunakan
 Travelocity, sebuah ADW menemukan penawaran perjalanan terbaik khusus untuk
Anda. Tujuannya adalah untuk menggunakan "data hari ini hari ini" alih-alih "data kemarin hari
ini." ADW agen perjalanan online mengalami riwayat pencarian Anda dan definisi minat dan
kemudian memperkirakan penawaran perjalanan yang kemungkinan besar akan Anda
beli. Penawaran relevan dan tepat waktu untuk meningkatkan pengalaman Anda, yang
membantu menutup penjualan di pasar yang sangat kompetitif. Misalnya, ketika pelanggan
mencari penerbangan dan hotel di Las Vegas, Travelocity mengenali minat - pelanggan ingin
pergi ke Vegas. ADW mencari penerbangan dengan harga terbaik dari semua operator,
membangun beberapa paket penawaran, dan menyajikannya secara real time kepada
pelanggan. Ketika pelanggan melihat penawaran yang dipersonalisasi yang telah mereka minati,
ADW membantu menghasilkan pengalaman pelanggan yang lebih baik. Pengalaman berbasis
data real-time meningkatkan tingkat konversi dan penjualan.
Konten data warehouse dapat dikirimkan ke pembuat keputusan di seluruh perusahaan melalui
cloud atau intranet milik perusahaan. Pengguna dapat melihat, meminta, dan menganalisis data
dan menghasilkan laporan menggunakan browser Web. Ini adalah metode pengiriman data
yang ekonomis dan efektif.

DATA WAREHOUSING MENDUKUNG TINDAKAN SERTA KEPUTUSAN


Banyak organisasi membangun gudang data karena mereka frustrasi dengan data yang tidak konsisten
yang tidak dapat mendukung keputusan atau tindakan. Dilihat dari perspektif ini, gudang data adalah
investasi infrastruktur yang dibuat perusahaan untuk mendukung operasi yang sedang berlangsung dan
di masa depan, seperti
a. Pemasaran dan penjualan. Memberi tahu orang-orang tentang status produk, efektivitas
program pemasaran, dan profitabilitas lini produk, dan memungkinkan mereka mengambil
tindakan cerdas untuk memaksimalkan keuntungan per pelanggan
b. Harga dan kontrak. Menghitung biaya secara akurat untuk mengoptimalkan harga
kontrak. Tanpa data biaya yang akurat, harga mungkin di bawah atau terlalu dekat dengan
biaya; atau harga mungkin tidak kompetitif karena terlalu tinggi
c. Peramalan. Perkirakan permintaan pelanggan untuk produk dan layanan
d. Penjualan. Menghitung profitabilitas dan produktivitas penjualan untuk semua wilayah dan
wilayah; mengembalikan hasil berdasarkan geografi, produk, grup penjualan, atau individu.
e. Finaacial. Menyediakan data real-time untuk persyaratan kredit yang optimal, analisis
portofolio, dan tindakan yang mengurangi risiko atau beban utang buruk Tabel 3.2 merangkum
beberapa aplikasi gudang data yang berhasil
ANALISIS DATA BESAR DAN PENEMUAN DATA
Analisis data membantu pengguna menemukan wawasan. Wawasan ini dikombinasikan dengan
pengalaman manusia memungkinkan orang untuk mengenali hubungan yang bermakna lebih cepat atau
mudah, dan kemudian, menyadari implikasi strategis dari situasi ini. Bayangkan mencoba memahami
data cepat dan luas yang dihasilkan oleh kampanye media sosial di Facebook atau oleh sensor yang
terpasang pada mesin atau objek. Sensor berbiaya rendah memungkinkan untuk memantau semua jenis
benda fisik - sementara analitik memungkinkan untuk memahami data tersebut untuk mengambil
tindakan secara real time. Misalnya, data sensor dapat dianalisis secara waktu nyata:
 Untuk memantau dan mengatur kondisi suhu dan iklim makanan yang mudah busuk saat
diangkut dari pertanian ke supermarket.
 Mengendus tanda-tanda kerusakan buah dan sayuran mentah dan mendeteksi risiko
kontaminasi Escherichia coli.
 Untuk melacak kondisi mesin yang beroperasi dan memprediksi kemungkinan kegagalan.
 Untuk melacak keausan mesin dan menentukan kapan pemeliharaan pra ventilasi diperlukan.
Data sensor yang dihasilkan mesin dan perangkat menjadi proporsi yang lebih besar dari data besar,
menurut laporan penelitian oleh IDC (Lohr, 2012). Diperkirakan bahwa data ini akan meningkat menjadi
42% dari semua data pada tahun 2020, meningkat tajam dari tingkat 11% pada tahun 2005.
HADOOP DAN PENGURANGAN PETA
Volume data besar melebihi kapasitas pemrosesan infra struktur basis data konvensional. Platform
pemrosesan yang banyak digunakan adalah Apache Hadoop (hadoop.apache org). Itu tidak
menempatkan kondisi pada struktur data yang dapat diproses. Hadoop mendistribusikan masalah
komputasi di sejumlah server. Hadoop mengimplementasikan MapReduce dalam dua tahap sebagai
berikut:

a. Tahap peta. MapReduce memecah dataset besar menjadi himpunan bagian yang lebih kecil; lalu
bagikan subset di antara beberapa server tempat sebagian diproses.
b. Kurangi panggung. sebagian hasil dari tahap peta kemudian digabungkan kembali dan tersedia
untuk alat analitik.
MEMBERIKAN NILAI DARI SENSOR D ATA
Splunk k (splunk.com) adalah platform untuk mengelola data mesin dari sensor, perangkat, dan sistem
mekanis. Pabrikan dan perusahaan perangkat dengan sejumlah besar perangkat yang terhubung
dan fasilitas industri menggunakan Splunk untuk mendapatkan tingkat baru Opera Intelligence dan nilai
yang lebih besar dari data mesin mereka. Mereka menggunakan Splunk dalam berbagai cara, termasuk
yang berikut:
 Manajemen aplikasi perangkat. Meningkatkan wawasan tentang kinerja aplikasi dan layanan
dan mengurangi waktu henti layanan.
 Pemecahan masalah dan manajemen perangkat dan jaringan. Waktu dan ketersediaan
perangkat manajemen yang lebih baik, termasuk status baterai dan konektivitas jaringan
 Keamanan dan kepatuhan perangkat. Mengurangi insiden keamanan dan mencegah
pelanggaran data di berbagai perangkat, layanan, dan aplikasi.
 Analisis bisnis data perangkat dan pengguna akhir. Lebih memahami aplikasi perangkat, dan
data layanan untuk memberikan wawasan bisnis baru
Untuk menyimpan data, Hadoop memiliki sistem file terdistribusi sendiri, HaDoop File Systems (HDFS),
yang berfungsi dalam tiga tahap sebagai berikut:
 Memuat data ke dalam HDFS
 Melakukan operasi MapReduce.
 Mengambil hasil dari HDFS

Gambar 3.6 menunjukkan bagaimana Facebook menggunakan teknologi basis data dan Hadoop. IT at
Work 3.3 menjelaskan bagaimana First Wind telah menerapkan analitik data besar untuk meningkatkan
operasi ladang anginnya dan mendukung keberlanjutan planet ini dengan mengurangi emisi karbon
yang merusak lingkungan
PENAMBANGAN DATA DAN TEKS
Saat Anda membaca, DBMSS mendukung kueri untuk mengekstrak data atau mendapatkan jawaban
dari basis data yang sangat besar. Tetapi untuk melakukan kueri, Anda harus terlebih dahulu tahu apa
yang harus ditanyakan atau apa yang ingin Anda jawab. Dalam penambangan data dan penambangan
teks, itu sebaliknya. Penambangan data dan teks digunakan untuk menemukan pengetahuan yang Anda
tidak tahu ada di database. Penambangan data bukanlah metode atau teknik tunggal, tetapi kumpulan
teknik yang berbeda yang mencari pola dan hubungan dalam data. Teknologi penambangan teks
berupaya mengekstraksi informasi yang bermakna dari data tekstual yang tidak terstruktur, seringkali
dari media sosial.
Analitik bisnis menggambarkan seluruh fungsi penerapan teknologi, algoritma, keahlian manusia, dan
penilaian. Penambangan data dan teks adalah teknik analitik khusus. Perusahaan berinvestasi dalam alat
penambangan data untuk menambah nilai bisnis. Nilai bisnis terbagi dalam tiga kategori, seperti yang
ditunjukkan pada Gambar 3.7. Berikut ini adalah kasus singkat yang menggambarkan jenis nilai bisnis
yang dibuat oleh penambangan data dan teks
1. di Tesco, Inggris terkemuka. supermarket, kesuksesan pasar telah dikreditkan sebagian besar
untuk penambangan informasi pelanggan dari program loyalitas Clubcard. Tesco berekspansi ke
pasar baru di Eropa Tengah dan Timur, Cina, India, dan Amerika Serikat. Penambangan data
sangat efektif sehingga Tesco menghasilkan lebih dari 150 juta setahun laba dari penjualan
informasi tentang kebiasaan belanja semua pembeli, termasuk 16 juta anggota Clubcard .
2. Mega-retailer Walmart ingin pembeli online-nya menemukan apa yang mereka cari dengan
lebih cepat. Walmart menganalisis data clickstream dari 45 juta pembelanja online
bulanannya; kemudian menggabungkan data tersebut dengan skor popularitas relatif produk
dan kategori Skor popularitas telah dihasilkan oleh penambangan teks aliran media sosial
pengecer. Pelajaran yang diperoleh dari analisis diintegrasikan ke dalam mesin pencari Polaris
yang digunakan oleh pelanggan di situs web perusahaan. Polaris telah menghasilkan kenaikan
10-15% pada pembeli online yang menyelesaikan pembelian, yang sama dengan sekitar $ 1
miliar dalam penjualan online tambahan
3. Operasi toko roti McDonald's menggantikan peralatan manual dengan penganalisa foto
berkecepatan tinggi untuk memeriksa ribuan roti per menit untuk warna, ukuran, dan distribusi
biji wijen. Secara otomatis, oven dan proses memanggang menyesuaikan secara instan untuk
membuat roti yang seragam dan mengurangi ribuan pon limbah setiap tahun. Perusahaan
produk makanan lain juga menggunakan analisis foto untuk menyortir setiap kentang goreng
yang diproduksi untuk mengoptimalkan kualitas
4. Infinity Insurance menemukan wawasan baru yang diterapkan untuk meningkatkan
penyimpangan operasi penipuannya. Teks perusahaan asuransi menambang laporan adjuster
bertahun-tahun untuk mencari pendorong utama klaim penipuan. Sebagai hasilnya, perusahaan
mengurangi penipuan sebesar 75% dan melakukan kliminasi pemasaran kepada pelanggan
dengan kemungkinan besar klaim penipuan.
DATA DAN TEKS
Perangkat lunak penambangan data memungkinkan pengguna untuk menganalisis data dari berbagai
dimensi atau sudut, mengkategorikannya, dan menemukan korelasi atau pola di antara bidang dalam
bidang data. Hingga 75% dari data organisasi adalah dokumen pemrosesan kata yang tidak terstruktur,
media sosial, pesan teks, audio, video, gambar dan diagram, faks dan memo, pusat panggilan atau
catatan klaim, dan sebagainya. Penambangan teks adalah kategori luas yang melibatkan penafsiran kata
dan konsep dalam konteks. Setiap pelanggan menjadi advokat atau musuh merek dengan secara bebas
mengekspresikan pendapat dan sikap yang menjangkau jutaan pelanggan saat ini atau calon pelanggan
di media sosial. Penambangan teks membantu perusahaan memanfaatkan ledakan pendapat pelanggan
yang diungkapkan secara online. Komentar sosial dan media sosial sedang ditambang untuk analisis
sentimen atau untuk memahami niat konsumen. Dalam perusahaan yang inovatif tahu bahwa
mereka bisa lebih berhasil dalam memenuhi kebutuhan pelanggan mereka, jika mereka memahaminya
dengan lebih baik. Alat dan teknik untuk menganalisis teks, dokumen, dan konten tidak terstruktur
lainnya tersedia dari beberapa vendor.
MENGGABUNGKAN PENAMBANGAN DATA DAN TEKS
Menggabungkan penambangan data dan teks dapat menciptakan nilai yang lebih besar. Palomäki dan
Oksanen (2012) menunjukkan bahwa menambang teks atau data yang tidak terstruktur memungkinkan
organisasi untuk meramalkan masa depan, bukan hanya melaporkan masa lalu. Mereka juga mencatat
bahwa metode peramalan menggunakan data terstruktur yang ada dan teks tidak terstruktur dari
sumber internal dan eksternal memberikan pandangan terbaik tentang apa yang ada di depan.
PROSEDUR ANALISIS TEKS
Dengan analisis teks, informasi diekstraksi dari sejumlah besar jenis informasi tekstual. Langkah-langkah
dasar yang terlibat dalam analisis teks meliputi yang berikut:
1. Eksplorasi. Pertama, dokumen dieksplorasi. Ini mungkin terjadi dalam bentuk jumlah kata
yang sederhana dalam kumpulan dokumen, atau dengan secara manual membuat area topik
untuk mengelompokkan dokumen setelah membaca sampelnya. Misalnya, apa jenis masalah
utama (rem atau kerusakan mesin) yang telah diidentifikasi dalam klaim garansi mobil baru-
baru ini? Tantangan dari upaya eksplorasi adalah salah eja atau disingkat kata, akronim, atau
slang.
2. Pra-pemrosesan. Sebelum analisis atau pengkategorisasian konten secara otomatis, teks
perlu dipersiapkan terlebih dahulu untuk membakukannya sedapat mungkin. Seperti dalam
analisis tradisional, hingga 80% dari waktu preprocessing dapat dihabiskan sebelum
mengolah dan membakukan data. Kata-kata yang salah ejaan, singkatan, dan gaul mungkin
perlu diubah menjadi istilah yang konsisten. Misalnya, BTW akan distandarisasi menjadi
"omong-omong" dan "pesan suara kiri" dapat ditandai sebagai "Ivm."
3. Kategorisasi dan Pemodelan. Konten kemudian siap untuk dikategorikan. Mengkategorikan
pesan atau dokumen dari informasi yang terkandung di dalamnya dapat dicapai dengan
menggunakan model statistik dan aturan bisnis Seperti halnya pengembangan model
tradisional, sampel dokumen diperiksa untuk melatih model. Penambahan - dokumen
kemudian diproses untuk memvalidasi keakuratan dan ketepatan model, dan akhirnya
dokumen baru dievaluasi menggunakan model akhir (diberi skor). Model kemudian dapat
dimasukkan ke dalam produksi untuk pemrosesan otomatis dokumen baru saat mereka tiba
Analisis teks dapat membantu mengidentifikasi rasio pos positif / negatif yang berkaitan dengan
promosi. Ini bisa menjadi alat validasi yang kuat untuk melengkapi penelitian pelanggan dan inisiatif
umpan balik primer dan sekunder lainnya. Perusahaan yang meningkatkan kemampuan mereka untuk
menavigasi dan menambang papan dan blog yang relevan dengan industri mereka cenderung
mendapatkan keuntungan informasi yang cukup besar dibandingkan pesaing mereka.

KECERDASAN BISNIS
Quicken Loans, Inc. adalah pemberi pinjaman hipotek online terbesar dan pemberi pinjaman ritel over-
semua terbesar kedua di Amerika Serikat. Salah satu faktor kunci keberhasilan adalah BI. Lebih dari
hampir satu dekade, manajemen kinerja telah berevolusi dari proses manual pembuatan laporan
menjadi dashboard yang digerakkan oleh BI dan peringatan yang ditetapkan pengguna yang
memungkinkan para pemimpin bisnis untuk secara proaktif mengatasi hambatan dan mengidentifikasi
peluang untuk pertumbuhan dan peningkatan. Pada Penghargaan Praktik Terbaik 2013 Warehousing
Institute (TDWI) Data 2013 yang mengakui perusahaan untuk solusi BI kelas dunia dan pergudangan
data mereka, manajer Quicken menjelaskan
Pertumbuhan ini dapat dikaitkan dengan keberhasilan pelat pinjaman online kami. Platform pinjaman
kami yang terukur dan digerakkan oleh teknologi memungkinkan kami untuk menangani lonjakan besar
dalam aplikasi pinjaman sekaligus menjaga waktu penutupan untuk sebagian besar pinjaman kami
dalam 30 hari atau kurang. (TDWI, 2013)
Menggunakan BI, perusahaan telah meningkatkan kecepatan dari aplikasi Anda untuk menutup yang
memungkinkannya untuk memenuhi kebutuhan klien secara menyeluruh dan secepat mungkin.
Sejak 1980-an, perusahaan terkemuka seperti Quicken telah menyebarkan BI Apa yang dimulai sebagai
alat untuk mendukung penjualan, pemasaran, dan layanan pelanggan telah berkembang secara luas
menjadi platform strategis berskala enterprise Sistem BI digunakan untuk operasi dan proses bisnis dan
juga digunakan untuk mendukung pengambilan keputusan strategis . Perubahan terbaru dalam BI
adalah penggunaannya untuk intelijen operasional di berbagai sistem dan bisnis - memperluas
penggunaan BI di seluruh organisasi. Kondisi bisnis yang kompleks dan kompetitif tidak membuat
banyak kesalahan.

PLATFORM ANALYTIK BI DAN DATA BESAR


Alat analisis data dan sistem BI dijalankan pada server, tetapi sistem ini umumnya tidak diskalakan untuk
menangani data besar. Biasanya, sistem ini mengekstraksi data dari gudang data perusahaan atau data
mart. Tetapi untuk menangani pertumbuhan volume dan variasi data, perusahaan perlu berinvestasi
dalam platform berskala lebih besar, seperti Hadoop atau sistem manajemen basis data pemrosesan
masalvely parallel (MPP)

PEMROSESAN PARALEL BESAR DAN PEMROSESAN DALAM MEMORI


MPP adalah jenis arsitektur komputasi di mana pemrosesan dilakukan oleh banyak unit pemrosesan
pusat (CPUS, atau prosesor) yang bekerja secara paralel untuk menjalankan satu program. Arsitektur
MPP hemat biaya, terutama dalam aplikasi memori tinggi seperti analitik data besar dan pemrosesan
video definisi tinggi. Efek menggunakan MPP dalam lingkungan data warehouse adalah bahwa efisiensi
paralel berarti upaya untuk menciptakan 100 catatan sama dengan yang untuk menciptakan 100.000
catatan. Data disimpan dalam memori. Penyimpanan data dalam memori jauh lebih efisien daripada
menyimpan di disk. In-memory dan ruang disk adalah istilah yang banyak digunakan. Disk, juga disebut
hard drive atau penyimpanan sekunder, menyediakan penyimpanan data dan program jangka
panjang. Memori mengacu pada memori akses acak (RAM) atau memori primer, yang berada di dalam
komputer. RAM terdiri dari chip kecil yang juga dikenal sebagai modul memori. Komputer menggunakan
memori untuk menyimpan sistem operasi (OS) dan program lain yang aktif berjalan. Pemrosesan yang
dilakukan dalam RAM adalah pemrosesan dalam memori. Ukuran RAM menentukan kecepatan
pemrosesan. RAM dapat diakses ratusan kali lebih cepat daripada hard drive, itulah sebabnya program
aktif dimuat ke dalam RAM

VENDOR ANALISIS DATA


Beberapa vendor analitik data, seperti SAS, sedang mengembangkan perangkat lunak atau implementasi
di memori mereka sendiri di atas Hadoop, tetapi sebagian besar analitik data perusahaan dan perangkat
lunak BI dikombinasikan dengan platform manajemen data dari vendor pihak ketiga - seperti yang Anda
baca dalam Kasus 3.1 tentang Grup Asia Capital Reasuransi.
Yang membingungkan, ada banyak vendor teknologi yang juga menawarkan kemampuan analitik
data. Contohnya adalah IBM menawarkan SPSS dan Cognos; SAP menawarkan BusinessObjects dan
Analisis Prediktif; dan Oracle dan Teradata memiliki mitra-kapal dengan vendor analitik termasuk SAS.

PANDANGAN TENTANG BIG DATA MARKETPLACE DARI PERSPEKTIF PLATFORM


Data besar masih dalam tahap masa pertumbuhan tidak seperti tahap matang BI. Pasar big data
berubah dengan cepat, dan akan ada konsolidasi yang signifikan dalam beberapa tahun karena vendor
yang lebih besar memperoleh yang lebih kecil.
Pasar data besar berkembang dengan kecepatan tinggi, dan Hadoop berada di garis depan dari
perubahan yang luar biasa ini, memungkinkan bisnis untuk menemukan wawasan yang sebelumnya
tidak dapat diakses. Melihat kembali ke 2010, tidak ada yang bisa memprediksi pasar big data pada
pertengahan 2010-an. Hal yang sama akan dikatakan 5 tahun ke depan.
MANFAAT BISNIS BI
BI memberikan data pada saat nilai kepada pembuat keputusan - memungkinkannya untuk mengambil
fakta penting dari data perusahaan secara real time atau mendekati waktu nyata. Solusi BI dengan
dashboard yang dirancang dengan baik, misalnya, memberikan pengecer dengan lebih baik
visibilitas ke dalam inventaris untuk membuat keputusan yang lebih baik tentang apa yang harus
dipesan, berapa banyak dan kapan untuk mencegah kehabisan stok atau meminimalkan persediaan
yang ada di rak gudang
Perusahaan menggunakan solusi BI untuk menentukan pertanyaan apa yang akan diajukan dan
menemukan jawabannya. Alat BI mengintegrasikan dan menggabungkan data dari berbagai sumber
internal dan eksternal dan kemudian mengolahnya menjadi informasi untuk membuat keputusan cerdas
BI menjawab pertanyaan seperti ini: produk mana yang memiliki tingkat penjualan berulang tertinggi
dalam 6 bulan terakhir? Apakah pelanggan seperti di Facebook terkait dengan pengejaran
produk? Bagaimana tren penjualan dikelompokkan berdasarkan kelompok produk selama 5 tahun
terakhir? Seperti apa bentuk penjualan harian di masing-masing wilayah penjualan saya?
Menurut TDWI, BI "menyatukan data, teknologi, analitik, dan pengetahuan manusia untuk
mengoptimalkan keputusan bisnis dan pada akhirnya mendorong keberhasilan suatu perusahaan.
Program BI biasanya menggabungkan gudang data perusahaan dan platform BI atau perangkat yang
ditetapkan untuk mengubah data menjadi informasi bisnis yang dapat digunakan dan dapat
ditindaklanjuti. "(TDWI 2014). Selama bertahun-tahun, manajer mengandalkan analitik bisnis untuk
membuat keputusan yang lebih baik. Berbagai survei dan studi sepakat untuk menganalisis kinerja masa
lalu dan mengidentifikasi peluang untuk meningkatkan kinerja masa depan. BI semakin penting
TANTANGAN UMUM: PEMILIHAN DATA DAN KUALITAS
Perusahaan tidak dapat menganalisis semua data mereka - dan banyak dari mereka tidak akan
menambah nilai. Oleh karena itu, tantangan yang tak berkesudahan adalah bagaimana menentukan
data mana yang akan digunakan untuk BI dari apa yang tampak seperti opsi tak terbatas (Schroeder,
2013). Salah satu tujuan dari strategi BI adalah untuk menyediakan kerangka kerja untuk memilih data
yang paling relevan tanpa membatasi pilihan untuk mengintegrasikan sumber data baru. Kelebihan
informasi adalah masalah utama bagi eksekutif dan karyawan. Tantangan umum lainnya adalah kualitas
data, khususnya yang berkaitan dengan informasi online, karena sumber dan akurasi mungkin dapat
diverifikasi
Menyelaraskan BISNIS STRATEGI WI TH STRATEGI
Laporan dan dasbor adalah alat pengiriman, tetapi mereka mungkin tidak mengirimkan BI. Untuk
mendapatkan nilai terbaik dari BI, CIO perlu bekerja dengan CFO dan para pemimpin bisnis lainnya
untuk membuat program tata kelola BI yang misinya adalah mencapai yang berikut ini (Acebo et al.,
2013):
1. Mengartikulasikan strategi bisnis dengan jelas
2. Dekonstruksi strategi bisnis ke dalam serangkaian tujuan dan sasaran spesifik-sasaran
3. Identifikasi indikator kinerja utama (KPIS) yang akan digunakan untuk mengukur
kemajuan menuju setiap target
4. Prioritaskan daftar KPI
5. Buat rencana untuk mencapai tujuan dan sasaran berdasarkan prioritas
6. Perkirakan biaya yang dibutuhkan untuk mengimplementasikan rencana Bl
7. Menilai dan memperbarui prioritas berdasarkan hasil bisnis dan perubahan dalam
strategi bisnis

Arsitektur dan Analisis BI


Arsitektur BI sedang mengalami kemajuan teknologi dalam menanggapi data besar dan tuntutan kinerja
pengguna akhir (Watson, 2012). Vendor BI menghadapi tantangan sosial, sensor, dan tipe data baru
lainnya yang harus dikelola dan dianalisis. Salah satu teknologi canggih yang dapat membantu
menangani data besar adalah RI di awan Bagan alur pada Gambar 3.8 mencantumkan faktor-faktor
kunci yang berkontribusi terhadap peningkatan penggunaan BI. Itu dapat di-host di cloud publik atau
pribadi. Dengan cloud publik, layanan BL Ini dapat di-host pada penyedia yang menyimpan data dan /
atau perangkat lunak yang diakses melalui koneksi Internet. Untuk cloud pribadi, perusahaan
menyimpan data dan perangkat lunaknya sendiri tetapi menggunakan teknologi berbasis cloud.
Untuk BI berbasis cloud, opsi populer yang ditawarkan oleh semakin banyak vendor alat BI adalah
perangkat lunak sebagai layanan (SaaS). MicroStrategy menawarkan MicroStrategy Cloud, yang
menyediakan penyebaran cepat dengan pengurangan risiko dan biaya proyek. Pendekatan cloud ini
menarik bagi perusahaan kecil dan menengah yang memiliki staf TI terbatas dan ingin mengendalikan
biaya dengan cermat. Kerugian potensial termasuk waktu respons yang lebih lambat, risiko keamanan,
dan risiko cadangan.

Anda mungkin juga menyukai