Anda di halaman 1dari 21

CHAPTER 3

DATA MANAGEMENT, BIG DATA, AND BUSINESS INTELLIGANCE


Database Management System
Banyak perusahaan melakukan investasi besar-besaran pada infrastruktur data untuk
meningkatkan kemampuan mereka untuk mengumpulkan, menganalisis, dan menggunakan
data untuk perusahaan secara keseluruhan. Contoh umum bagaimana data digunakan untuk
lebih memahami masalah bisnis dan menemukan solusinya adalah sebagai berikut:

Untuk mengidentifikasi pelanggan yang cenderung akan beralih menjadi pesaing dan

menentukan insentif retensi terbaik untuk ditawarkan kepada mereka.


Untuk mendeteksi kecurangan transaksi dan mengendalikan perilaku curang.
Untuk mengotomatiskan rekomendasi untuk produk yang paling direspon dengan

baik oleh pelanggan.


Untuk mampu membuat keputusan iklan split-second untuk pelanggan online untuk
menghindari shopping carts yang ditinggalkan.
Saat perusahaan melakukan investasi di teknologi manajemen terbaru, mereka

mengharapkan untuk melakukan hal yang tidak bisa mereka lakukan sebelumnya, dan
melakukan hal lebih baik dari sebelumnya.
Teknik dan Teknologi Manajemen Data
Inti dari tehnik dan teknologi manajemen data adalah

menangkap, menyimpan dan

mempertahankan kualitas data; tetap membuat pengguna terinformasi; dan mendukung


proses bisnis sebagai berikut:

Database penyimpanan data yang dihasilkan dari applikasi bisnis, sensor, operasi, dan

sistem proses transaksi (TPS).


Data warehouse gabungan data dari berbagai database dan data silos dan mengatur
mereka untuk analisis yang kompleks, penemuan ilmu dan untuk mendukung

pengambilan keputusan.
Data marts data warehouse skala kecil yang mendukung satu fungsi atau satu
departemen. Perusahaan ayng tidak bisa berinvestasi di data warehouse bisa memulai

dengan satu atau lebih data marts.


Data mining dan business intelligence (BI) alat dan tehnik proses data dan
menampilkan analisis statistik untuk insight dan pengetahuan. BI adalah alat untuk
misalnya, mengambil informasi dari data, menemukan hubungan yang meaningful
pada data, mendeteksi tren, dan mengidentifikasi kesempatan dan resiko. Mining data

bisa menyediakan wawasan baru, analisis dasar yang reliable untuk perkiraan yang
akurat dan membantu manajer membuat keputusan yang lebih baik.
Sistem Manajemen Database dan SQL
Database management systems (DBMs) berhubungan dengan sistem pengumpulan data,
seperti TPS dan aplikasi bisnis; menyimpan data dengan cara diatur; dan menyediakan
fasilitas untuk menilai dan mengelola data. Relational database management system
(RDBMS) menyimpan data di tabel yang terdiri dari kolom dan deretan, mirip dengan
format spreadsheet.
RDBMS menyediakan akses ke data menggunakan declarative language-structured
query language (SQL). Bahasa deklaratif mempermudah akses data karena mereka
mengharuskan penggunan menentukan data apa yang mereka ingin akses (menggunakan
spesifik format) tanpa harus menulis kode.
Faktor-faktor yang Menentukan Kinerja DBMS
Faktor-faktor yang dipertimbangkan saat mengevaluasi kinerja dari DBMS adalah:

Latensi data. Latensi adalah waktu yang berlalu (terlambat) antara saat data dibuat
dan saat data available untuk dilaporkan. Sistem datase memiliki waktu latensi

yang lebih singkat dari data warehouse.


Kemampuan untuk menghadapi volatilitas data. Database memiliki kekuatan

pengolahan untuk menghadapi votalitas data.


Waktu respon pertanyaan (query). Volume data mempengaruhi waktu respon
pertanyaan dan eksplorasi data. Banyak database melakukan pestage data-yaitu,
meringkas atau memperkirakan sebelum hasil- sehingga pertanyaan bisa direspon

lebih cepat.
Konsistensi data. Konsistensi segera berarti

bahwa sesaat setelah data

diperbaharui, respon untuk pertanyaan akan kembali diperbaharui. Tidak konsisten


hasil pertanyaan bisa menyebabkan masalah yang serius untuk analisis yang

bergantung pada keakuratan data.


Meramalkan kemungkinan pertanyaan. Semakin besar jumlah ad hoc atau
pertanyaan yang tidak terduga, semakin fleksibel database yang dibutuhkan.
Database atau manajemen kinerja pertanyaan semakin sulit saat beban kerja tidak
terduga sehingga mereka tidak bisa mempersiapkan untuk kedepannya.

Perbedaan Antara Pengolahan Transaksi dan Sistem Pengolahan Analisis


DBMSs mencatat dan mengolah transaski di database; dan mendukung query dan pelaporan.
Berdasarkan fungsi ini, DBMSs disebut sebagai sistem pengolahan transaksi online (OLTP).
Secara teknis, OLTP merupakan desain database yang mengoptimalkan efisiensi pengolahan
transaksi dan efisiensi query. database OLTP mengolah jutaan transaksi setiap detiknya.
Meskipun begitu, desain databse tidak bisa dipakai untuk analisis data. Keterbatasan ini
mendorong pengembangan teknologi warehouse data. Data warehouse dan data marts
diptimalkan untuk pengolahan analisis online (OLAP), yang termasuk mining data untuk BI,
mendukung keputusan.
Respon Vendor untuk Permintaan Data
Pertumbuhan data yang semakin besar dan kebutuhan akan solusi untuk menghadapi masalah
mendorong terjadinya inovasi IT. Vendor yang mendominasi pasar ini-contohnya, Oracle,
IBM, Microsoft, Teradata, and CISCO- selanjutnya merespon kebutuhan pengembangan
manajemen data dengan software dan hardware yang lebih cerdas dan maju. Teknologi
hardware yang lebih maju (baru) mampu scaling volume data dan beban kerja yang lebih
banyak dari yang dimungkinkan sebelumnya; atau bisa menghadapi beban kerja yang
spesifik.
Ranking Vendor DBMS
Perusahaan yang memiliki ranking tertinggi DBMS pada pertengahan tahun 2014 adalah
Oracles MysQL, Microsofts SQL Server, PostgreSQL, IBMs DB2, dan Teradata Database.
Kebanyakan perusahaan tersebut menjalankan beberapa sistem operasi.

DB2 digunakan pada pusat data dan berjalan pada Linux, UNIX, Windows, dan

mainframe.
Kemudahan dalam penggunaan SQL Server, ketersediaan, dan integrasi sistem operasi
Windows merupakan pilihan yang mudah bagi perusahaan yang memilih produk

Microsoft untuk usaha mereka.


PostgreSQL merupakan database open source yang paling maju, yang sering

digunakan pada aplikasi game online, Skype, Yahoo!, dan MySpace.


MySQL yang diakuisisi oleh Oracle pada Januari 2010, menguasai ratusan hingga
ribuan website komersil dan aplikasi internal perusahaan.

Tren menuju Sistem NoSQL

RDBMSs merupakan mesin database dominan, sedangkan yang mengambil peranan


utama adalah sistem manajemen data yang lebih baru. NoSQL (merupakan singkatan dari
not only SQL). Sistem NoSQL dapat diterima dengan baik karena kemampuannya untuk
mengendalikan data yang tidak terstruktur dan semi stuktur. Sistem NoSQL meningkat
popularitasnya dari tahun 2013 ke 2014. Meskipun NoSQL telah ada sejak kemunculan
DBMS, istilah itu sendiri belum diperkenalkan sampai tahun 2009. Hal itu dikarenakan
banyak sistem-sistem baru yang mulai berkembang dalam rangka untuk menangani
kebutuhan DBMS-misalnya, menangani data besar, skalabilitas, dan toleransi kesalahan
untuk aplikasi web yang besar. Skalabilitas memiliki arti bahwa sistem dapat meningkatkan
ukurannya untuk mengendalikan perkembangan data atau beban peningkatan jumlah
pengguna secara bersamaan. sistem scalable secara efisien dapat memenuhi permintaan
komputasi kinerja yang tinggi. Toleransi kesalahan memiliki arti bahwa kegagalan tunggal
tidak akan mengakibatkan hilangnya layanan.
Sistem NoSQL merupakan sekelompok sistem database heterogen yang mencoba
mengklasifikasikan sesuatu yang tidak berguna. Meskipun seperti itu, terdapat manfaatnya
sebagai berikut:

Kinerja yang lebih tinggi


Distribusi data yang mudah pada node yang berbeda, yang memperbolehkan adanya

scalabilitas dan toleransi kesalahan


Fleksibiltas yang baik
Administrasi yang lebih sederhana
Dengan banyaknya penawaran NoSQL, sebagian besar dari penggunaan biaya tidak

terletak dalam memperoleh database, melainkan dalam mengimplementasikannya. Data harus


dipilih dan dimigrasi (dipindah) ke database yang baru. Microsoft berharap untuk mengurangi
biaya-biaya tersebut dengan menawarkan solusi migrasi.
Garbage In, Garbage Out
Sekumpulan data merupakan suatu proses yang kompleks yang dapat menyebabkan
masalah-masalah, terkait dengan kualitas data yang dikumpulkan. Oleh karena itu, terlepas
dari bagaimana data dikumpulkan, data harus divalidasi sehingga pengguna tahu bahwa
mereka dapat mempercayai data-data tersebut. Ungkapan klasik yang meringkas situasi
tersebut adalah garbage in, garbage out (GIGO) dan risiko yang berpotensi garbage in,
gospel out. Pada kasus selanjutnya, data dengan kualitas yang rendah dapat dipercaya dan
digunakan pada perencanaan dasar. Kita telah menemui perlindungan data, seperti cek

integritas, yaitu untuk meningkatkan kualitas data ketika kita mengisi suatu formulir online.
Contohnya, formulir tidak akan menerima alamat email yang formatnya tidak benar.
Biaya Data Kotor (Dirty Data) dan Konsekuensinya
Dirty Data merupakan data yang kualitasnya rendah, kurangnya integritas dan tidak
dapat dipercaya. Biasanya, manajer dan pekerja informasi sebenarnya khawatir dengan data
yang tidak dapat dipercaya karena data-data tersebut tidak lengkap, keluar konteks,
ketinggalan jaman, tidak akurat, yang membutuhkan waktu berminggu-minggu untuk
menganalisisnya. Dalam situasi semacam itu, pembuat kepurusan menghadapi ketidakpastian
yang cukup tinggi untuk membuat keputusan bisnis yang cerdas. Biaya data kualitas rendah
dapat dirumuskan sebagai berikut:
Biaya data kualitas rendah = Bisnis yang hilang + Biaya untuk mencegah kesalahan + Biaya
untuk memperbaiki kesalahan
Contoh dari biaya-biaya tersebut adalah sebagai berikut:

Bisnis yang hilang


Bisnis hilang ketika kesempatan penjualan terlewatkan, pesanan dikembalikan karena
adanya kesalahan pada item yang dikirimkan, atau kesalahan dalam pengiriman.
Waktu yang dibutuhkan untuk mencegah kesalahan
Jika data tidak dapat dipercaya, kemudian para karyawan harus menghabiskan waktu
dan usaha yang lebih banyak untuk memeriksa informasi untuk menghindari adanya

kesalahan
Waktu yang dibutuhkan untuk memperbaiki kesalahan
Staf database harus memproses perbaikan ke database
Biaya data kualitas rendah menyebar ke seluruh perusahaan, mempengaruhi sistem

mulai dari pengiriman dan penerimaan ke akuntansi dan layanan pelanggan. Kesalahan data
dapat muncul dari departemen yang menghasilkan atau membuat data-dan tidak dalam
departemen IT. Ketika semua biaya dipertimbangkan, nilai dari penemuan dan perbaikan
penyebab kesalahan data menjadi jelas. Saat penurunan anggaran, beberapa organisasi
mungkin tidak mempunyai sumber daya untuk proyek tersebut dan kemungkinan tidak sadar
akan adanya masalah. Lainnya mungkin menghabiskan waktu untuk memperbaiki masalah
mereka.
Untuk perusahaan tertentu, beberapa kesusahan untuk menghitung full cost dari data
kulitas rendah dan pengaruh jangka panjangnya. Bagian yang dirasa sulit itu adalah waktu
penundaan antara kesalahaan dan ketika kesalahan itu dideteksi. Error bisa saja sangat sulit

untuk diperbaiki dan yang perlu diperhatikan adalah dampak dari kesalahan tersebut tidak
dapat diperbaiki dan dapat menjadi begitu serius.
Kepemilikan Data dan Politik Organisasi
Politik organisasi dan masalah teknis dapat mengakibatkan sulitnya mencapai
kebutuhan data dengan kualitas yang tinggi. Sumber dari masalah tersebut adalah
kepemilikan data (data ownership) yang merupakan siapa yang memiliki atau yang
bertanggung jawab terhadap data. Masalah kepemilikan data itu muncul ketika tidak ada
kebijakan yang mendefinisikan pertanggungjawaban dan akuntabilitas dari pengelolaan data.
Format data yang tidak konsisten dari berbagai departemen dapat menciptakan sekumpulan
masalah tambahan dan organisasi mencoba menggabungkan aplikasi individu ke dalam
sistem perusahaan.
Mereka yang mengelola bisnis atau bagian dari bisnis ditugaskan untuk meningkatkan
kinerja bisnis dan mempertahankan pelanggan. Terkait dengan meningkatkan profitabilitas,
mendorong pertumbuhan pendapatan dan meningkatkan layanan pelanggan. Indikator kinerja
kunci diawasi oleh manajer senior yang ingin menemukan dan menyingkirkan kesalahan
yang dapat merugikan kinerja perusahaan. Beberapa manajer membutuhkan waktu untuk
memahami bagaimana kinerja itu dipengaruhi oleh data dengan kualitas rendah. Dua contoh
kasus yang kuat mengenai investasi data berkualitas tinggi.
Bank Retail. Pada eksekutif bank retail, masalah utamanya adalah manajemen risiko.
Meskipun telah menggunakan strategi manajemen risiko, masih banyak bank yang
mengalami kerugian besar. Hal itu terjadi karena di beberapa bank, sistem informasi
mereka mengawasi risikonya hanya pada tingkat produk, yaitu hipotek, pinjaman,

atau kartu kredit.


Pabrik. Produsen ingin menyesuaikan proses mereka dengan pelanggan retail besar
untuk membuat pelanggan senang. Penyesuaian ini memungkinkan pengecer untuk
memesan seara terpusat ke semua toko atau memesan secara lokal ke produsen
tertentu. Pemesanan terpusat dan lokal menyulitkan perencanaan produksi.
Dua contoh tersebut menunjukkan konsekuensi dari kurangnya kepemilikan data dan

kualitas data. Kepemilikan data, kualitas data, dan data yang dikelola secara resmi merupakan
agenda CFO dan CEO yang merupakan tanggung jawab pribadi jika perusahaan mereka
ditemukan melanggar peraturan.
SIKLUS HIDUP DATA DAN PRINSIP DATA

Siklus hidup data merupakan model yang menggambarkan perjalanan Data cara pikir
suatu organisasi, ditunjukkan pada Gambar 3.3. siklus hidup data dimulai dengan
penyimpanan dalam database, untuk yang dimuat ke dalam data warehouse untuk analisis,
kemudian

dilaporkan

ke

pekerja

pengetahuan

atau

digunakan

dalam

aplikasi

bisnis.Manajemen rantai suplai (SCM), manajemen hubungan pelanggan (CRM), dan ecommerce adalah aplikasi enterprise yang membutuhkan up-to-date mudah data yang dapat
diakses untuk berfungsi dengan baik.
Tiga prinsip data umum berhubungan dengan perspektif siklus hidup data dan
membantu untuk memandu keputusan investasi IT:
1. Prinsip mengurangi nilai data. Nilai data berkurang dengan bertambahnya usia
mereka. Ini adalah sederhana prinsip, namun kuat. Sebagian besar organisasi tidak
dapat beroperasi pada kinerja puncak dengan bintik-bintik buta (kurangnya
ketersediaan data) dari 30 hari atau lebih. Global lembaga jasa keuangan bergantung
pada data mendekati real-time untuk kinerja puncak.
2. Prinsip
90/90
penggunaan data. Menurut

90/90

data

yang

digunakan iple princ, mayoritas data yang tersimpan, setinggi 90%, jarang diakses
setelah 90 hari (kecuali untuk tujuan audit). Artinya, sekitar 90% dari data yang
kehilangan sebagian besar nilai mereka setelah 3 bulan.
3. Prinsip data konteks. Kemampuan untuk menangkap, format yang proses, dan
mendistribusikan data secara real time dekat atau lebih cepat membutuhkan investasi
yang besar dalam arsitektur data (Bab 2) dan infrastruktur untuk menghubungkan
sistem POS remote untuk penyimpanan data, sistem analisis data, dan pelaporan
aplikasi.Investasi dapat dibenarkan pada prinsip bahwa data harus terintegrasi, diolah,
dianalisis, dan diformat menjadi informasi ditindaklanjuti.
MASTER DATA DAN MASTER PENGELOLAAN DATA
Sebagai data menjadi lebih kompleks dan volume mereka meledak, kinerja database
degradasi. Salah satu solusi adalah penggunaan data master dan manajemen data master
(MDM), seperti yang diperkenalkan dalam Bab 2. proses MDM mengintegrasikan data dari
berbagai sumber dan aplikasi perusahaan untuk menciptakan lebih lengkap (unified)
pandangan pelanggan, produk, atau badan lainnya . Gambar 3.4 menunjukkan bagaimana
data master berfungsi sebagai lapisan antara data transaksional dalam database dan analisis
data dalam gudang data. Meskipun vendor dapat mengklaim bahwa solusi MDM mereka
menciptakan "satu versi kebenaran," klaim ini mungkin tidak benar. Pada kenyataannya,

MDM tidak dapat menciptakan versi bersatu tunggal dari data karena membangun pandangan
benar-benar terpadu dari semua data master sama sekali tidak mungkin.
Guru Referensi Berkas Dan Entitas data
Realistis, MDM mengkonsolidasikan data dari berbagai sumber data ke file referensi
induk, yang kemudian feed data kembali ke aplikasi, sehingga menciptakan data yang akurat
dan konsisten di seluruh perusahaan. Dalam IT di Work 3.1, peserta dalam rantai pasokan
perawatan kesehatan pada dasarnya dikembangkan file referensi master entitas data
kunci. Sebuah entitas data sesuatu yang nyata atau abstrak tentang yang perusahaan ingin
mengumpulkan dan menyimpan data. Entitas data master adalah entitas utama perusahaan,
seperti pelanggan, produk, pemasok, karyawan, dan aset.
Setiap departemen memiliki berbeda kebutuhan data master. Pemasaran, misalnya,
corcerned dengan harga produk, merek, dan kemasan produk, sedangkan produksi corcerned
dengan biaya produk dan jadwal. Sebuah file referensi master pelanggan dapat memasukkan
data ke semua sistem perusahaan yang memiliki komponen hubungan pelanggan, sehingga
memberikan gambaran yang lebih terpadu pelanggan. Demikian pula, file referensi produk
master dapat memberi makan data ke semua sistem produksi dalam perusahaan.
Sebuah MDM termasuk alat untuk membersihkan dan audit elemen data master serta
alat untuk mengintegrasikan dan sinkronisasi data untuk membuat mereka lebih mudah
diakses. MDM menawarkan solusi bagi manajer yang frustrasi dengan bagaimana
terfragmentasi dan tersebar sumber data mereka (Gambar 3.4).
Big Data dan Analytics
Manajer pemasaran senior dari pengecer besar mengetahui bahwa perusahaannya
telah terus kehilangan pangsa pasar ke pesaing dalam banyak segmen yang menguntungkan
mereka. Kerugian mereka terus meskipun kampanye penjualan yang dikombinasikan promosi
online dengan meningkatkan merchandizing (Brown et al., 2011).Untuk memahami penyebab
menurunnya pangsa pasar, tim manajer senior mempelajari praktik pesaing mereka. Mereka
menemukan bahwa taktik pemasaran mereka tidak masalah, melainkan apa yang pesaing
yang telah dilakukan. Pesaing:
1. Telah berinvestasi di TI untuk mengumpulkan, mengintegrasikan, dan menganalisis
data dari setiap toko dan penjualan unit.
2. Telah dikaitkan data ini untuk database pemasok, sehingga memungkinkan untuk
menyesuaikan harga secara real time, untuk menyusun ulang item laris otomatis, dan
bergeser item dari toko ke toko dengan mudah.

3. Terus-menerus menguji, mengintegrasikan, dan melaporkan informasi langsung


tersedia di seluruh organisasi-dari lantai toko ke kantor CFO 's.
Tim manajemen senior menyadari bahwa pesaing mereka mencuri pergi pelanggan
mereka karena analisis data yang besar memungkinkan mereka untuk menentukan peluang
perbaikan di seluruh pasokan rantai-dari pembelian ke manajemen ketersediaan di
toko. Secara khusus, peserta mampu memprediksi bagaimana pelanggan akan berperilaku dan
menggunakan pengetahuan yang harus dipersiapkan untuk merespon dengan cepat. Kasus ini
adalah contoh dari apa yang penelitian telah belajar. Menurut McKinsey Global Institute
(MGI), perusahaan analisis data besar telah membantu mengungguli pesaing mereka. MGI
memperkirakan bahwa pengecer menggunakan analisis data besar meningkatkan margin
operasi mereka dengan lebih dari 60%. Pengecer terkemuka, asuransi, dan jasa keuangan
menggunakan data besar untuk merebut pangsa pasar dari pesaing lokal (Breuer, FORINA, &
Moulton, 2013). Sebuah studi IBM menunjukkan bahwa perusahaan dengan analisis data
yang canggih dan optimasi dapat mengalami pertumbuhan laba 20 kali lebih dan kembali
30% lebih tinggi dari modal yang diinvestasikan (ibm.com, 2011).
Sebagian besar aplikasi data besar jatuh ke dalam salah satu kategori ini: analisis
pelanggan, inovasi produk baru, penipuan dan kepatuhan, dan analisis operasional. Contoh
bagaimana data besar dan Hadoop memberikan nilai bisnis yang nyata dengan mengurangi
limbah dan meningkatkan kualitas produk dan layanan kinerja adalah sebagai berikut:

Di sebuah perusahaan jasa keuangan terkemuka, itu akan mengambil 36 jam untuk
menganalisis 4 juta rekening nasabah dengan tiga kategori pengeluaran per account
menggunakan teknologi analitik tradisional. Dengan teknologi data besar, pengolahan
sekitar 30 juta rekening nasabah akan mengambil hanya 51 menit, atau 96% lebih

cepat-memberikan wawasan di dekat real-time.


Dengan menganalisis perilaku pelanggan dan bagaimana pelanggan menggunakan
permainan

mereka,

sebuah

perusahaan

game

dua

kali

lipat

pendapatan

penjualan.Menggunakan analisis, perusahaan menemukan apa yang memotivasi


pengguna untuk terus bermain dan apa yang bosan mereka, dan apa yang pengguna
termotivasi untuk membeli add-on produk bukannya meninggalkan permainan-dan

meningkatkan permainan.
Dengan mengevaluasi transaksi jutaan rekening kartu kredit, perusahaan kartu
pembayaran mampu mengidentifikasi dan mencegah sejumlah besar tuduhan
penipuan kecil.Mengetahui pola penipuan disimpan US $ 2 milyar pada penipuan
kartu kredit potensial.

Pada bagian ini, Anda belajar tentang nilai, tantangan, dan teknologi yang terlibat
dalam menempatkan data dan analisis yang digunakan untuk mendukung keputusan dan
tindakan. Empat V untuk analisis-berbagai, volume, kecepatan, dan kebenaran-dijelaskan
pada Tabel 3.1.
Data besar dapat memiliki dampak yang dramatis pada keberhasilan perusahaan
apapun, atau mereka dapat menjadi rendah memberikan kontribusi biaya besar. Namun,
keberhasilan

ini

tidak

dicapai

dengan

teknologi

saja. Banyak

perusahaan

yang

mengumpulkan dan menangkap data dalam jumlah besar tetapi menghabiskan sedikit usaha
untuk memastikan kebenaran dan nilai data yang diambil pada tahap transaksional atau
tempat asal. Penekanan dalam arah ini tidak hanya akan meningkatkan kepercayaan dalam
dataset, tetapi juga secara signifikan mengurangi upaya untuk analisis dan meningkatkan
kualitas pengambilan keputusan. Kesuksesan tergantung juga pada memastikan bahwa Anda
menghindari asumsi yang tidak valid, yang dapat dilakukan dengan menguji asumsi selama
analisis.
Tabel 3.1 empat analisis data yang V
1. Ragam: lingkungan analitik telah dikeluarkan dari menarik data dari sistem perusahaan
untuk memasukkan data besar dan sumber yang tidak terstruktur.
2. Volume: volume besar data terstruktur dan tidak terstruktur dianalisis
3. Velocity: kecepatan akses ke laporan yang diambil dari data mendefinisikan perbedaan
antara analisis yang efektif dan tidak efektif.
4. Kebenaran: memvalidasi data dan penggalian wawasan bahwa manajer dan pekerja dapat
mempercayai merupakan faktor kunci dari analisis sukses. Kepercayaan analisis telah
berkembang lebih sulit dengan ledakan sumber data.
Penyiksaan Data yang Cukup Panjang dan Itu Akan Mengakui .... tapi Mungkin Tidak
Menyatakan Kenyataannya (Torture Data Long Enough and It Will Confess ... but May
Not Tell the Truth)
Seperti yang disampaikan di blog Harvard Business Review (HBR), Jika kamu menyiksa
data dengan cukup panjang, data tersebut akan mengakui (Neill, 2013). Artinya, analitik
akan memproduksi hasil, namun hasil tersebut mungkin kurang berarti atau menyesatkan.
Sebagai contoh, beberapa orang mempercayai bahwa hasil Super Bowl pada Februari
memprediksi apakah pasar saham akan naik atau turun tahun tersebut. Jika National Football
Conference (NFC) menang, pasar saham akan meningkat; sebaliknya, saham akan tenggelam.
Melihat hasil selama 30 tahun, paling sering NFC memenangkan Super Bowl dan pasar akan
naik. Apakah ini berarti sesuatu? Tidak.

Keahlian Manusia dan Pertimbangan Diperlukan


Keahlian manusia dan pertimbangkan diperlukan untuk menginterpretasikan output dari
analitik (sesuai dengan figur 3.1).

Data menjadi tidak bernilai jika kita tidak bisa

menganalisis, menginterpretasi, mengerti, dan mengaplikasikannya pada hasil. Hal ini


membawa beberapa tantangan:

Data perlu dipersiapkan untuk analisis. Sebagai contoh, data yang tidak lengkap atau

dobel perlu untuk diperbaiki.


Data yang kotor menurunkan nilai dari analitik. Kebersihan data sangat penting
untuk penggalian data (data mining) dan proyek analisis. Analis mengeluhkan analitik
data sama saja dengan pekerjaan penjagaan karena mereka menghabiskan banyak
waktu pada proses manual, proses yang rawan kesalahan untuk membersihkan data.
Jenis dan jumlah data yang besar berarti lebih banyak data kotor yang lebih sulit

untuk ditangani.
Data seharusnya dimasukkan ke dalam konteks yang penuh arti. Jika analisis yang
salah atau rangkaian data yang digunakan, output akan menjadi omong kosong saja
seperti pada contoh pemenang Super Bowl dan kinerja pasar saham. Dinyatakan
sebaliknya, manajer membutuhkan keadaan dalam rangka memahami bagaimana data
tradisional dan big data.

IT pada Work 3.2 mendeskripsikan bagaimana analitik big data, kolaborasi, dan keahlian
manusia ditransformasikan pada proses pengembangan obat yang baru.
Gudang data memperoleh data dari berbagai sumber sistem dan database lintas
perusahaan dalam rangka menjalankan analytical queries terhadap rangkaian data yang
dikumpulkan dalam periode waktu yang panjang. Gudang adalah sumber utama data ysng
telah dibersihkan untuk analisis, pelaporan, dan BI. Seringkali, data diringkas dalam cara
yang memungkinkan respon cepat pada pertanyaan. Misalnya, hasil pertanyaan dapat
mengungkapkan perubahan tingkah laku konsumen dan membawa keputusan untuk
mengembangkan ulang strategi pengiklanan. Gudang data yang menarik bersamaan data
dari banyak sumber dan database sepanjang perusahaan disebut enterprise data
warehouse (EDW).
Data yang berbiaya tinggi dapat membuat mereka terlalu mahal untuk
diimplementasikan perusahaan. Data marts lebih berbiaya rendah, versi dengan skala
menurun yang dapat diimplementasikan dalam waktu yang lebih singkat, sebagai contoh
dalam kurang dari 90 hari. Data marts menyediakan departemen spesifik atau fungsinya

seperti keuangan, pemasaran, atau operasi. Seperti menyimpan jumlah data yang sedikit,
mereka lebih cepat, lebih mudah diatur dan digunakan.
Prosedur untuk menyiapkan Data EDW untuk Analisis
Termasuk data base bank. Setiap deposit, penarikan kembali, pembayaran pinjaman, atau
transaksi lain ditambahkan atau mengubah data. Keadaan terombang-ambing disebakan
oleh proses transaksi konstan yang membuat analisis data sulit dan permintaan untuk
memproses jutaan transaksi per detik dihabiskan kekuatan pemrosesan database.
Sebaliknya, data di gudang relatif stabil untuk kebutuhan analisis. Oleh karena itu,
pemilihan data berpindah dari database ke warehouse. Secara spesifik, data:
1. Dikutip dari database yang ditunjuk
2. Ditransformasikan dengan format, pembersihan, dan penggabungan yang terstandar
3. Dimuat ke data warehouse
Ketiga prosedur ini mengutip, mentransformasi, memuat disebut dengan ETL.
Dalam warehouse, data hanya dapat dibaca, artinya data tidak bisa diubah sampai ETL
selanjutnya.
Tiga teknologi yang digunakan dalam menyiapkan data mentah untuk analitik
termasuk ETL, change data capture (CDC), dan data deduplikasi. Proses CDC
menangkap perubahan yang dilakukan pada sumber data dan mengaplikasikan perubahan
tersebut melalui simpanan data perusahaan untuk menjaga data tetap sinkron. CDC
meminimalisasi sumber daya yang dibutuhkan untuk proses ETL dengan hanya
berhubungan dengan perubahan data. Proses deduping menghilangkan duplikasi dan
menstandarkan format data yang membantu meminimalisasi penyimpanan dan sinkron
data.
Figur 3.5 merupakan tinjauan dari proses pembangunan dan penggunaan data warehouse.
Data disimpan di database operasi (kiri ke kanan). Data kepentingan dikutip,
ditransformasikan menjadi format standar, dan dimasukkanke data warehouse. Data
warehouse mengatur data dalam berbagai cara dengan subjek, area fungsional, vendor,
dan produk. Seperti disajikan, arsitektur data warehouse menentukan aliran data mulai
ketika data direkam oleh sistem transaksi; sumber data disimpan pada database
transaksional; proses ETL memindah data dari database ke warehouse atau data marts,
dimana data tersedia untuk diakses, dilaporkan, dan dianalisis.
REAL TIME DUKUNGAN DARI ACTIVE DATA WAREHOUSE

Teknologi data warehouse awalnya didukung aplikasi strategis yang tidak memerlukan
waktu,

respon yang instan, interaksi pelanggan langsung, atau integrasi dengan sistem

operasional. ETL mungkin telah dilakukan sekali per minggu atau sebulan sekali. Tapi
permintaan untuk informasi untuk mendukung interaksi pelanggan yang real time dan operasi
menyebabkan real time pergudangan dan analisis yang dikenal sebagai data pergudangan
aktif (ADW). Peningkatan besar dalam daya komputasi, pengolahan kecepatan, dan memori
dapat dibuat oleh ADW. ADW tidak dirancang untuk mendukung pengambilan keputusan
strategi eksekutif, melainkan untuk mendukung operasi. Misalnya, perusahaan pelayaran
seperti DHL menggunakan armada besar truk untuk memindahkan jutaaan paket. Setiap hari
dan sepanjang hari, manajer operasional membuat ribuan keputusan yang mempengaruhi
bawahan seperti: "kita perlu empat truk untuk menjalankan ini?" "Dengan dua pembalap
tertunda buruk apakah, kita perlu membawa bantuan tambahan? "Data tradisional
pergudangan tidak cocok untuk dukungan operasional langsung, namun data aktif gudang
perumahan. Misalnya, perusahaan dengan ADW mampu:
Berinteraksi dengan pelanggan untuk memberikan layanan pelanggan yang unggul
Menanggapi peristiwa bisnis secara real time
Berbagi data secara up-to-da-te di kalangan pedagang, penjual, pelanggan, dan rekan
Berikut ini adalah beberapa contoh bagaimana dua perusahaan menggunakan ADW
One Capital. salah satu modal menggunakan ADW untuk melacak "skor profitabilitas"
setiap pelanggan untuk menentukan tingkat layanan yang diberikan pada pelanggan.
Misalnya, ketika seorang pelanggan diminta untuk memasukkan nomor kartu kredit, pada
pelanggan yang skor profitabilitasnya tinggi. Pelanggan keuntungan rendah mendapatkan unit
respon suara saja sedangkan pelanggan dengan keuntungan yang tinggi terhubung dengan
CSR karena perusahaan ingin meminimalkan risiko kehilangan pelanggan mereka.
Travelocity. Jika Anda menggunakan Travelocity, sebuah ADW dapat menemukan
kesepakatan perjalanan terbaik khusus untuk Anda. Tujuannya adalah untuk menggunakan
todays data today bukan yesterdays data today. Agen perjalanan online ADW ini
menganalisis tujuan riwayat penelusuran minat dan kemudian memprediksi penawaran wisata
yang kemungkinan besar dibeli. Penawaran yang relevan dan tepat waktu untuk
meningkatkan pengalaman Anda. Misalnya ketika seorang pelanggan mencari penerbangan
dan hotel di Las Vegas, Travelocity mengakui bahwa kepentingan pelanggan ingin pergi ke
Vegas. ADW melakukan pencarian untuk penerbangan dengan harga terbaik dari semua
operator, membangun beberapa penawaran paket, dan sekarang mereka secara real time
kepada pelanggan. Ketika pelanggan melihat penawaran personal mereka sudah menarik,

ADW membantu menghasilkan pengalaman pelanggan yang lebih baik meningkatkan tingkat
konversi dan penjualan.
isi data pergudangan dapat disampaikan kepada para pembuat keputusan di seluruh
perusahaan melalui perusahaan yang dimiliki intranet. Pengguna dapat melihat permintaan
dan menganalisis data dan membuat laporan dengan menggunakan web browser. Ini adalah
metode pengiriman data yang sangat ekonomis dan efektif.
Pergudangan Data Dukungan Action Serta Keputusan.
Banyak organisasi yang membangun gudang data karena mereka frustrasi dengan data yang
tidak konsisten dan tidak bisa mendukung keputusan atau tindakan. Dilihat dari perspektif ini,
gudang data

merupakan investasi infrastruktur dari perusahaan untuk mendukung

pembanguna berkelanjutan seperti:

Pemasaran dan penjualan. Membuat orang diberitahu tentang status pemasaran


produk, efektivitas program dan profitabilitas lini produk dan memungkinkan mereka

untuk mengambil tindakan cerdas untuk memaksimalkan profitabilitas pelanggan.


Harga dan kontak. menghitung biaya secara akurat dalam rangka mengoptimalkan
harga kontrak. Tanpa data biaya yang akurat, harga mungkin di bawah atau dekat

biaya atau harga mungkin tidak kompetitif karena mereka terlalu tinggi.
Peramalan. Perkiraan pelanggan untuk produk dan jasa
Penjualan. menghitung profitabilitas penjualan dan produktivitas semua wilayah dan
daerah; menganalisis hasil berdasarkan geografi, produk, penjualan grup atau

individu.
Keuangan. Menyediakan data real time untuk istilah optimal kredit, analisis
portofolio, dan tindakan yang mengurangi risiko atau beban utang buruk.

BIG ANALYTICS DATA DAN DATA DISCOVERY


analisis data membantu pengguna menemukan wawasan. wawasan ini dikombinasikan
dengan keahlian manusia memungkinkan orang untuk mengenali hubungan yang lebih cepat
atau mudah; dan lebih jauh lagi, menyadari implikasi strategi situasi saat ini. Bayangkan
untuk memahami data yang cepat dan luas yang dihasilkan oleh kampanye media sosial di
facebook atau dengan sensor yang melekat pada mesin atau benda. sensor biaya rendah
memungkinkan untuk memantau semua jenis benda fisik sementara analisis memungkinkan
untuk memahami data mereka untuk mengambil tindakan secara real time. Sebagai contoh,
data sensor dapat dianalisis secara real time:

Untuk memantau dan mengatur kondisi suhu dan iklim makanan yang mudah rusak seperti
diangkut dari pertanian ke supermarket
Untuk mengendus

tanda-tanda pembusukan buah-buahan dan sayuran mentah dan

mendeteksi risiko kontaminasi Escherichia coli


Untuk melacak kondisi mesin operasi dan memprediksi kemungkinan kegagalan
Untuk melacak keausan mesin dan menentukan kapan pemeliharaan preventif diperlukan
Mesin dan perangkat yang dihasilkan data sensor menjadi proporsi data yang besar. menurut
sebuah laporan penelitian oleh IDC (Lohr, 2012). Memperkirakan bahwa data ini akan
meningkat menjadi 42% dari semua data pada tahun 2020, meningkat tajam dari level 11%
pada tahun 2005.
Hadoop dan MapReduce
Volume data yang besar melebihi kapasitas pengolahan infrastruktur basis data konvensional.
Sebuah platform pengolahan banyak digunakan adalah Apache Hadoop. Apache Hadoop
dapat memproses kondisi di struktur dari data. Hadoop mendistribusikan masalah komputasi
di sejumlah server. Hadoop mengimplementasikan mapreduce dalam dua tahap sebagai
berikut:
1. Tahap Peta. MapReduce memecah dataset besar menjadi beberapa bagian yang lebih kecil;
kemudian mendistribusikan subset antara beberapa server di mana mereka sebagian diproses.
2. Mengurangi panggung. Hasil parsial dari panggung peta kemudian digabungkan dan
tersedia alat bantu analitik.
TEACH CATATAN Mewujudkan Nilai dari Sensor data
Splunk (splunk.com) adalah platform untuk mengelola data mesin dari sensor, perangkat dan
sistem mekanik. Perangkat pembuatan dan perusahaan dengan sejumlah besar perangkat
terhubung dan fasilitas industri menggunakan splunk untuk mendapatkan tingkat yang baru
kecerdasan operasional dan nilai yang lebih besar dari data mesin mereka. Mereka
menggunakan splunk dalam berbagai cara, termasuk yang berikut:
aplikasi manajemen perangkat. Meningkatkan wawasan aplikasi dan layanan kinerja dan
mengurangi downtime layanan.
Perangkat dan troubleshooting jaringan dan manajemen. manajer yang lebih baik
perangkat uptime dan ketersediaan, termasuk status baterai dan konektivitas jaringan.
keamanan perangkat dan kepatuhan. Mengurangi insiden keamanan dan mencegah
accros pelanggaran data, perangkat, layanan, aplikasi.

Perangkat dan pengguna akhir analisis bisnis data. Lebih memahami perangkat,
aplikasi, dan layanan data untuk memberikan wawasan bisnis baru.
Untuk menyimpan data, Hadoop memiliki sendiri mendistribusikan sistem file Hadoop
sistem file (HDFS), yang berfungsi dalam tahap ada sebagai berikut:
Data Banyak ke HDFS
Melakukan operasi MapReduce
Mengambil hasil dari HDFS
Gambar 3.6 menunjukkan teknologi database menggunakan cara facebook dan Hadoop. IT di
tempat kerja 3.3 menggambarkan bagaimana angin pertama telah diterapkan analisis data
yang besar untuk meningkatkan bahwa operasi atau peternakan angin dan untuk mendukung
keberlanjutan planet dengan mengurangi emisi karbon yang merusak lingkung
Data dan Text Mining
Seperti yang kamu baca, pertanyaan support dari DBMS untuk menyaring data atau
mendapatkan jawaban dari database yang besar. Tetapi dalam melakukan pertanyaan, kamu
harus tau dulu untuk apa kamu bertanya dan jawaban apa yang kamu inginkan. Dalam data
mining atau text mining, itu adalah kebalikannya. Data dan text mining digunakan untuk
menemukan pengetahuan yang kamu tidak tau itu ada di database. Data mining bukanlah
metode atau teknik tunggal, tetapi perkumpulan dari teknik yang berbeda untuk mencari
corak dan hubungan dalam data. Teknologi text mining berupaya untuk menyaring informasi
berharga dari data textual tidak berstruktur, keseringan dari media social.
Analisis bisnis mendeskripsikan seluruh fungsi dari penerapan teknologi, algoritma,
keahlian manusia, dan penilaian. Data dan text mining dispesifikan ke tenik analitik.
Membentuk nilai bisnis
Perusahaan memasukan dalam peralatan data mining untuk menambah nilai bisnis.
Nilai bisnis dibagi dalam tiga kategori, yang ditunjukan pada gambar 3.7.
Berikut adalah kasus untuk mengilustrasikan tipe dari pembentukan nilai bisnis yang dibuat
oleh data dan text mining.
1. Pada Tesco, Supermarket terkemuka di U.K, pasar sukses mempercayakan pada
sebuah tingkat besar dalam tambang informasi kostumer dari loyalitas program
clubcard. Textco memperluasnya kedalam pasar baru dalam pusat dan eropa barat,
china, india, dan USA. Data mining sangat efektif bagi generasi tesco, lebih dari 50

juta keuntungan dalam setahun dalam penjualan informasi atas kebiasaan belanja dari
semua pembeli, termasuk 16 juta anggota clubcard.

Membuat informasi yang dibutuhkan saat mereka butuh untuk


dibuat
Menemukan wawasan yang tidak diketahui, corak, dan hubungannya

Mengotomasisasi, merampingkan atau mendigitaliasai proses bisnis

Figure 3.7 Nilaibisnis yang dibagidalam 3 bucket

2. Retailer terbesar Walmart ingin pembeli online untuk menemukan apa yang mereka
inginkan lebih cepat. Walmart menganalisa clickstream data dari 45 juta pembeli
perbulan; kemudian mengkombinasikan data dengan produk dan kategori yang
berhubungan dengan skor popularitasnya. Skor popularitas telah dihasilkan oleh text
mining di stream media sosial retailer. Pelajaran dari analisis terpadu kedalam mesin
pencarian Polaris digunakan oleh kotumer dalam website perusahaan. Perusahaan
telah menghasilkan kenaikan 10-15% dalam kelengkapan pembelian pembeli online,
yang kira-kira sama dengan $1 miliyar dalam tambahan penjualan online.
3. Mc Donald bakery mengoprasikan pergantian peralatan manual dengan dengan
analisis photo kecepatan tinggi untuk memeriksa ribuan roti per menit dari warna,
ukuran, dan distribusi biji wijen. Secara otomatis, proses oven dan baking secara
instan menciptakan roti seragam untuk mengurangi seribu ponds pembuangan setiap
tahun. Produk makanan lainnya juga menggunakan analisis photo untuk mengawasi
setiap produksi French fries untuk mengoptimalkan kualitas.
4. Asuransi Infinity menemukan pengetahuan yang dapat

diterapkan

untuk

meningkatkan kinerja dari kecurangan operasi. Text mined tahunan perusahaan


asuransi melaporkan untuk melihat kunci driver dari penipuan claim. Sebagai hasilnya
perusahaan menurunkan tindakan

penipuan sebesar 75% dan mengeliminasi

pemasaran untuk kostumer dengan kemungkinan tinggi dari penipuan claim.


Data dan Text
Software data mining memungkinkan pengguna untu menganalisis data dari berbagai dimensi
atau sudut, mengkategorikan mereka, dan menemukan korelasi atau corak antara bidang

dalam gudang data. Sebesar 75% dari sebuah data organisasi adalah dokumen pengolahan
data tidak berstruktur, media social, sms, audio, video, gambar dan diagram, fax dan memo,
call centre dan sebagainya. Text mining adalah kategori utama yang melibatkan penafsiran
kata dan konsep dalam sebuah konteks. Banyak kostumer menjadi seorang brand advocate
atau penentang dari kebebasan memberikan pendapat dan sikap dalam membantu perusahaan
memasuki ledakan pendapat kostumer secara online. Pengomentar social dan media social
menjadi tambang untuk analisis sentiment atau untuk mengeti maksud dari kostumer.
Perusahaan inovatif tau mereka harus lebih sukses dalam menemukan kebutuhan kostumer,
jika mereka mengerti tentang itu lebih baik. Alat dan teknik untuk analisis text, dokumen dan
konten unstruktur, disediakan dari berbagai vendor.
Mengkombinasikan data dan text mining
Mengkombinasikan data dan text mining dapat dibentuk bahkan bernilai besar Palomaki dan
oksanen (2012) menunjukan bahwa mining text atau data tidak berstruktur memungkinkan
organisasi untuk memperkirakan ramalan laporan bukan hanya dimasa lalu. Mereka juga
menyatakan bahwa metode forcasting menggunakan struktur data yang ada dan text tidak
berstruktur dari kedua sumber daya internal dan external yang menyediakan pandangan
terbaik apa yang ada didepan.
Prosedur Analisis Text
Dengan analisis text, informasi disaring dari kuantitas yang besar dari bermacam tipe
dari informasi textual. Langkah dasar yang terlibat didalam analisis text adalah sebagai
berikut:
1. Explorasi. Pertama dokumen diexplorasi, ini mungkin terjadi dalam bentuk
perhitungan kata sederhana dalam koleksi dokumen, atau secara manual mebentuk
area topic untuk kategori dokumen setelah membaca sebuah sampel dari mereka.
Sebagai contoh apa tipe isu utamanya (kerusakan atau kesalahan mesin?) ini telah
diidentifikasi

dalam

klaim

garansi

automobile?

Sebuah

tantangan

untuk

mengeksplorasi upaya salah eja atau singkatan, akronim, atau slang.


2. Prepocessing. Sebelum menganalisis automatisasi kategorisasi dari konten, text
mungkin

membutuhkan

preprocessed

untuk

standarisasi

untuk

tingkat

kemungkinannya. Sebagai analisis tradisional, lebih dari 80% dari waktu


preprocessing dapat dihabiskan untuk menyiapkan dan standarisasi data. Salah eja,
singkatan, slang mungkin membutuhkan transformasi kedalam kondisi yang

konsisten. Sebagai contoh, BTW akan distandariasai menjadi by the way dan
meninggalkan pesan suara yang akan ditandai sebagai lvm.
3. Categori dan Model. Konten kemudian siap untuk dikategorikan, pesan kategori atau
dokumen dari informasi terkandung dalam nya dan dapat dicapai menggunakan model
statistic dan peraturan bisnis. Dengan pembentukan model tradisional, sampel
dokumen di periksa ke model kereta. Penambahan dokumen kemudian di proses
untuk divalidasi keakuratan dan presisi dari model, pada akhirnya dokumen baru
dievaluasi menggunakan model akhir (scored). Model dapat diletakan kedalam
produksi untuk automatisasi pemprosesan dari dokumen baru yang tiba.
Analisis text dapat membantu mengidentifikasi rasio positif/ negative yang
berhubungan dengan promosi. Itu dapat menjadi alat validasi yang kuat untuk melengkapi
penelitian utama dan kedua dari kostumer dan inisiatif manajemen feedback. Perusahaan
meningkatkan kemampuan mereka untuk menavigasi dan text mine boards dan blog
relavan dengan industry mereka dimana mungkin akan menaikan keuntungan informasi
yang besar dari competitor mereka.
KECERDASAN BISNIS
Quicken Loan,Inc. Merupakan pemberi pinjaman online terbesar dan kedua terbesar dari
seluruh pemberi pinjaman retail di US. Satu faktor kesuksesan adalah kecerdasan bisnis
(Business Intelegence/BI). Hampir lebih dari satu dekade, manajemen kinerja ditingkatkan
dari sebuah proses manual laporan ke instrumen BI-Driven dan user-defined alerts yang
memungkinkan urusan pimpinan bisnis menjadi proaktif dengan hambatan, dan
mengidentifikasi peluang pertumbuhan dan perbaikan. Pada Best Practice Awards TDWI
2013

diakui perusahaan-perusahaan untuk BI kelas dunia mereka dan solusi data

pergudangan (data warehousing solution), manajer Quicken menjelaskan :


Pertumbuhan ini dapat ditujukan untuk kesuksesan program pinjaman online kami.
Kenaikan kami, program pinjaman berbasis pendorong teknologi (technologydriven) memunkinkan kami untuk menangani operasi besar dalam aplikasi pinjaman
saat waktu penutupan penerimaan untuk mayoritas pinjaman kami dalam 30 hari
atau kurang dari 30 hari.

Dengan menggunakan BI, perusahaan meningkatkan kecepatan dari permintaan pinjaman


sampai penutupan, yang memungkinkannya untuk memenuhi kebutuhan klien sepenuhnya
dan secepat mungkin.
Sejak tahun 1980, contoh perusahaan seperti Quicken yang menyebarluaskan BI.
Awal yang sama bagi suatu alat untuk mendukung penjualan, pemasaran, dan pelayanan
pelanggan menjadi mendunia ke dalam suatu program strategis perusahaan yang luas. Sistem
BI digunakan bagi operasi dan proses bisnis dan juga digunakan untuk mendukung

pengambilan keputusan strategis. Perubahan baru-baru ini dalam BI adalah kegunaannya bagi
kecerdasan operasional (Operational Intelegence) lintas sistem dan bisnis memperluas
penggunaan BI sepenuhnya. Kondisi bisnis yang kompleks dan kompetitif tidak luput dari
kekurangan dan kesalahan.
BI DAN PROGRAM ANALISIS BIG DATA
Alat analisis data dan sistem BI beroperasi dalam suatu server, namun sistem tersebut
tidak secara umum mampu menangani Big Data. Secara khas, sistem extract data dari data
pergudangan perusahaan atau data peerdagangan. Tetapi dalam hal memperbesar volume dan
variasi data, perusahaan perlu untuk berinvestasi dalam program skala besar seperti sistem
manajemen database Hadoop atau Masively Prallel Processing (MPP).
Massively Parallel Processing and In-Memory Processing
MPP adalah salah satu jenis program komputer dimana dalam memproses dilakukan
dengan beberapa CPU yang bekerja secara paralel untuk mengelola suatu program. Program
MPP adalah suatu bentuk efektivitas biaya, khususnya dalam aplikasi bermemori tinggi
seperti analisis Big Data dan memproses video dengan ketentuan tinggi. Dampak penggunaan
MPP dalam suatu data pergudangan adalah efisiensi paralelnya, artinya, upaya untuk
membuat 100 catatan sama dengan membuat 100.000 catatan. disimpan dalam memori. Data
dalam memori disimpan secara lebih efisien dalam disk juga disebut sebagai hard drive atau
menyimpanan kedua. Memori mengaraka ke RAM atau memori utama yang terletak didalam
komputer.
Data Analitics Vendors
Beberapa data analitics vendors seperti SAS dikembangkan dalam memori softuare atau
diterapkan pada program Hadook, namun satu merioritas perusahaan menggunakan data
analitics dan softuare BI dalam kombinasi dengan program manajemen data.
Gambaran tentang Pasar Big Data dari Suatu Perspektif Program
Suatu pasar dengan big data berubah dengan cepat, dan akan berubah menjadi gabungan
yang sikmifikan dalam beberapa tahun sebagai fendor terbesar. Pasar dengan big data
berkembang dengan suatu tingkat kecepatan yang bisa dikatakan 5 atau beberapa tahun
kedepan.

MANFAAT BI BAGI BISNIS


BI menyediakan data pada momen of value untuk seorang pembuat keputusan. Perusahan
menggunakan solusi BI untuk menentukan jawaban pertanyaan seperti prodak apa yang
memiliki tingkat pengembalian tertinggi dalam penjualan 6 bulan terakhir ? Apakah
pelanggan menyukai pembelian di facebook ? bagaimana tren penjualan 5tahun terakhir ? dan
sebagainya. Program BI sering mengkombinasikan suatu data pergudangan perusahan dan
suatu program BI atau seperangkat alat untuk mengubah data kedalam suatu kegunaan, dan
informasi dalam tindakan bisnis. Untuk beberapa tahun manajer dipercayakan dalam analisis
bisnis untuk membuat keputusan atas informasih yang baik. Beberapa surve setujuh dengan
pertumbuha BI dalam menganalisis kinerja akhir dan mengidentifikasih peluang untuk
memperbaiki kinerja masa depan.
Mensejajarkan Strategi Bisnis dengan Strategi BI
Pencatatan dan instrumennya adalah alat perantara, tetapi mungkin tidak menjadi seperti
BI. Untuk mendapat nilai terbaik dari BI, CIO perlu untuk bekerja dengan CFO dan pmpinan
bisnis lainnya dalam membuat suatu program kepemimpinan BI dalam misinya untuk
mencapai:
1. Kejelasan strategi bisnis
2. Analisa strategi bisnis kedalam suatu kumpulan tujuan, sasaran, dan target.
3. Mengidentifikasi indikator kinerja utama yang akan digunakan untuk mengukur
kemajuan pencapaian tiap target.
4. Menentukan prioritas dalam daftar indikator kinerja utama.
5. Membuat suatau rencana untuk mencapai tujuan dan sasaran berdasarkan prioritas.
6. Mengiestimasi biaya yang dibutukan bagi implementasi rencana BI.
7. Menilai dan membaharui prioritas berdasarkan hasil dan perubahan bisnis dalam
strategi bisnis.
Rancangan dan analisis BI
Rancangan BI mengalami kemajuan teknologi dalam menjawab keperluan kinerja bagi
pengguna akhir. Suatu kemajuan teknologi yang mampu membantu menangani big data
adalah BI ideklaut. Bagan yang ditampilkan dibawa ini merupakan faktor kunci yang
berkontribusi untuk meningkatkan penggunaan BI.
Alat Cerdas
Kemajuan
BI dan
Dimanapun
Dibuat Analitik
untuk akses
Membantu
informasi
yang sulit
menyanyakan
pertanyaan yang tidak
diketahui dan tidak
terjawab sebelumnya

Data adalah Bisnis


Cloud-enabled BI
Besar
dan Anlaitik
Ketika data
Menyediakan biaya
menyediakan informasi
rendahdan solusi yang
yang mendukung
fleksibel
keputusan dan
tindakan

Anda mungkin juga menyukai