Untuk mengidentifikasi pelanggan yang cenderung akan beralih menjadi pesaing dan
mengharapkan untuk melakukan hal yang tidak bisa mereka lakukan sebelumnya, dan
melakukan hal lebih baik dari sebelumnya.
Teknik dan Teknologi Manajemen Data
Inti dari tehnik dan teknologi manajemen data adalah
Database penyimpanan data yang dihasilkan dari applikasi bisnis, sensor, operasi, dan
pengambilan keputusan.
Data marts data warehouse skala kecil yang mendukung satu fungsi atau satu
departemen. Perusahaan ayng tidak bisa berinvestasi di data warehouse bisa memulai
bisa menyediakan wawasan baru, analisis dasar yang reliable untuk perkiraan yang
akurat dan membantu manajer membuat keputusan yang lebih baik.
Sistem Manajemen Database dan SQL
Database management systems (DBMs) berhubungan dengan sistem pengumpulan data,
seperti TPS dan aplikasi bisnis; menyimpan data dengan cara diatur; dan menyediakan
fasilitas untuk menilai dan mengelola data. Relational database management system
(RDBMS) menyimpan data di tabel yang terdiri dari kolom dan deretan, mirip dengan
format spreadsheet.
RDBMS menyediakan akses ke data menggunakan declarative language-structured
query language (SQL). Bahasa deklaratif mempermudah akses data karena mereka
mengharuskan penggunan menentukan data apa yang mereka ingin akses (menggunakan
spesifik format) tanpa harus menulis kode.
Faktor-faktor yang Menentukan Kinerja DBMS
Faktor-faktor yang dipertimbangkan saat mengevaluasi kinerja dari DBMS adalah:
Latensi data. Latensi adalah waktu yang berlalu (terlambat) antara saat data dibuat
dan saat data available untuk dilaporkan. Sistem datase memiliki waktu latensi
lebih cepat.
Konsistensi data. Konsistensi segera berarti
DB2 digunakan pada pusat data dan berjalan pada Linux, UNIX, Windows, dan
mainframe.
Kemudahan dalam penggunaan SQL Server, ketersediaan, dan integrasi sistem operasi
Windows merupakan pilihan yang mudah bagi perusahaan yang memilih produk
integritas, yaitu untuk meningkatkan kualitas data ketika kita mengisi suatu formulir online.
Contohnya, formulir tidak akan menerima alamat email yang formatnya tidak benar.
Biaya Data Kotor (Dirty Data) dan Konsekuensinya
Dirty Data merupakan data yang kualitasnya rendah, kurangnya integritas dan tidak
dapat dipercaya. Biasanya, manajer dan pekerja informasi sebenarnya khawatir dengan data
yang tidak dapat dipercaya karena data-data tersebut tidak lengkap, keluar konteks,
ketinggalan jaman, tidak akurat, yang membutuhkan waktu berminggu-minggu untuk
menganalisisnya. Dalam situasi semacam itu, pembuat kepurusan menghadapi ketidakpastian
yang cukup tinggi untuk membuat keputusan bisnis yang cerdas. Biaya data kualitas rendah
dapat dirumuskan sebagai berikut:
Biaya data kualitas rendah = Bisnis yang hilang + Biaya untuk mencegah kesalahan + Biaya
untuk memperbaiki kesalahan
Contoh dari biaya-biaya tersebut adalah sebagai berikut:
kesalahan
Waktu yang dibutuhkan untuk memperbaiki kesalahan
Staf database harus memproses perbaikan ke database
Biaya data kualitas rendah menyebar ke seluruh perusahaan, mempengaruhi sistem
mulai dari pengiriman dan penerimaan ke akuntansi dan layanan pelanggan. Kesalahan data
dapat muncul dari departemen yang menghasilkan atau membuat data-dan tidak dalam
departemen IT. Ketika semua biaya dipertimbangkan, nilai dari penemuan dan perbaikan
penyebab kesalahan data menjadi jelas. Saat penurunan anggaran, beberapa organisasi
mungkin tidak mempunyai sumber daya untuk proyek tersebut dan kemungkinan tidak sadar
akan adanya masalah. Lainnya mungkin menghabiskan waktu untuk memperbaiki masalah
mereka.
Untuk perusahaan tertentu, beberapa kesusahan untuk menghitung full cost dari data
kulitas rendah dan pengaruh jangka panjangnya. Bagian yang dirasa sulit itu adalah waktu
penundaan antara kesalahaan dan ketika kesalahan itu dideteksi. Error bisa saja sangat sulit
untuk diperbaiki dan yang perlu diperhatikan adalah dampak dari kesalahan tersebut tidak
dapat diperbaiki dan dapat menjadi begitu serius.
Kepemilikan Data dan Politik Organisasi
Politik organisasi dan masalah teknis dapat mengakibatkan sulitnya mencapai
kebutuhan data dengan kualitas yang tinggi. Sumber dari masalah tersebut adalah
kepemilikan data (data ownership) yang merupakan siapa yang memiliki atau yang
bertanggung jawab terhadap data. Masalah kepemilikan data itu muncul ketika tidak ada
kebijakan yang mendefinisikan pertanggungjawaban dan akuntabilitas dari pengelolaan data.
Format data yang tidak konsisten dari berbagai departemen dapat menciptakan sekumpulan
masalah tambahan dan organisasi mencoba menggabungkan aplikasi individu ke dalam
sistem perusahaan.
Mereka yang mengelola bisnis atau bagian dari bisnis ditugaskan untuk meningkatkan
kinerja bisnis dan mempertahankan pelanggan. Terkait dengan meningkatkan profitabilitas,
mendorong pertumbuhan pendapatan dan meningkatkan layanan pelanggan. Indikator kinerja
kunci diawasi oleh manajer senior yang ingin menemukan dan menyingkirkan kesalahan
yang dapat merugikan kinerja perusahaan. Beberapa manajer membutuhkan waktu untuk
memahami bagaimana kinerja itu dipengaruhi oleh data dengan kualitas rendah. Dua contoh
kasus yang kuat mengenai investasi data berkualitas tinggi.
Bank Retail. Pada eksekutif bank retail, masalah utamanya adalah manajemen risiko.
Meskipun telah menggunakan strategi manajemen risiko, masih banyak bank yang
mengalami kerugian besar. Hal itu terjadi karena di beberapa bank, sistem informasi
mereka mengawasi risikonya hanya pada tingkat produk, yaitu hipotek, pinjaman,
kualitas data. Kepemilikan data, kualitas data, dan data yang dikelola secara resmi merupakan
agenda CFO dan CEO yang merupakan tanggung jawab pribadi jika perusahaan mereka
ditemukan melanggar peraturan.
SIKLUS HIDUP DATA DAN PRINSIP DATA
Siklus hidup data merupakan model yang menggambarkan perjalanan Data cara pikir
suatu organisasi, ditunjukkan pada Gambar 3.3. siklus hidup data dimulai dengan
penyimpanan dalam database, untuk yang dimuat ke dalam data warehouse untuk analisis,
kemudian
dilaporkan
ke
pekerja
pengetahuan
atau
digunakan
dalam
aplikasi
bisnis.Manajemen rantai suplai (SCM), manajemen hubungan pelanggan (CRM), dan ecommerce adalah aplikasi enterprise yang membutuhkan up-to-date mudah data yang dapat
diakses untuk berfungsi dengan baik.
Tiga prinsip data umum berhubungan dengan perspektif siklus hidup data dan
membantu untuk memandu keputusan investasi IT:
1. Prinsip mengurangi nilai data. Nilai data berkurang dengan bertambahnya usia
mereka. Ini adalah sederhana prinsip, namun kuat. Sebagian besar organisasi tidak
dapat beroperasi pada kinerja puncak dengan bintik-bintik buta (kurangnya
ketersediaan data) dari 30 hari atau lebih. Global lembaga jasa keuangan bergantung
pada data mendekati real-time untuk kinerja puncak.
2. Prinsip
90/90
penggunaan data. Menurut
90/90
data
yang
digunakan iple princ, mayoritas data yang tersimpan, setinggi 90%, jarang diakses
setelah 90 hari (kecuali untuk tujuan audit). Artinya, sekitar 90% dari data yang
kehilangan sebagian besar nilai mereka setelah 3 bulan.
3. Prinsip data konteks. Kemampuan untuk menangkap, format yang proses, dan
mendistribusikan data secara real time dekat atau lebih cepat membutuhkan investasi
yang besar dalam arsitektur data (Bab 2) dan infrastruktur untuk menghubungkan
sistem POS remote untuk penyimpanan data, sistem analisis data, dan pelaporan
aplikasi.Investasi dapat dibenarkan pada prinsip bahwa data harus terintegrasi, diolah,
dianalisis, dan diformat menjadi informasi ditindaklanjuti.
MASTER DATA DAN MASTER PENGELOLAAN DATA
Sebagai data menjadi lebih kompleks dan volume mereka meledak, kinerja database
degradasi. Salah satu solusi adalah penggunaan data master dan manajemen data master
(MDM), seperti yang diperkenalkan dalam Bab 2. proses MDM mengintegrasikan data dari
berbagai sumber dan aplikasi perusahaan untuk menciptakan lebih lengkap (unified)
pandangan pelanggan, produk, atau badan lainnya . Gambar 3.4 menunjukkan bagaimana
data master berfungsi sebagai lapisan antara data transaksional dalam database dan analisis
data dalam gudang data. Meskipun vendor dapat mengklaim bahwa solusi MDM mereka
menciptakan "satu versi kebenaran," klaim ini mungkin tidak benar. Pada kenyataannya,
MDM tidak dapat menciptakan versi bersatu tunggal dari data karena membangun pandangan
benar-benar terpadu dari semua data master sama sekali tidak mungkin.
Guru Referensi Berkas Dan Entitas data
Realistis, MDM mengkonsolidasikan data dari berbagai sumber data ke file referensi
induk, yang kemudian feed data kembali ke aplikasi, sehingga menciptakan data yang akurat
dan konsisten di seluruh perusahaan. Dalam IT di Work 3.1, peserta dalam rantai pasokan
perawatan kesehatan pada dasarnya dikembangkan file referensi master entitas data
kunci. Sebuah entitas data sesuatu yang nyata atau abstrak tentang yang perusahaan ingin
mengumpulkan dan menyimpan data. Entitas data master adalah entitas utama perusahaan,
seperti pelanggan, produk, pemasok, karyawan, dan aset.
Setiap departemen memiliki berbeda kebutuhan data master. Pemasaran, misalnya,
corcerned dengan harga produk, merek, dan kemasan produk, sedangkan produksi corcerned
dengan biaya produk dan jadwal. Sebuah file referensi master pelanggan dapat memasukkan
data ke semua sistem perusahaan yang memiliki komponen hubungan pelanggan, sehingga
memberikan gambaran yang lebih terpadu pelanggan. Demikian pula, file referensi produk
master dapat memberi makan data ke semua sistem produksi dalam perusahaan.
Sebuah MDM termasuk alat untuk membersihkan dan audit elemen data master serta
alat untuk mengintegrasikan dan sinkronisasi data untuk membuat mereka lebih mudah
diakses. MDM menawarkan solusi bagi manajer yang frustrasi dengan bagaimana
terfragmentasi dan tersebar sumber data mereka (Gambar 3.4).
Big Data dan Analytics
Manajer pemasaran senior dari pengecer besar mengetahui bahwa perusahaannya
telah terus kehilangan pangsa pasar ke pesaing dalam banyak segmen yang menguntungkan
mereka. Kerugian mereka terus meskipun kampanye penjualan yang dikombinasikan promosi
online dengan meningkatkan merchandizing (Brown et al., 2011).Untuk memahami penyebab
menurunnya pangsa pasar, tim manajer senior mempelajari praktik pesaing mereka. Mereka
menemukan bahwa taktik pemasaran mereka tidak masalah, melainkan apa yang pesaing
yang telah dilakukan. Pesaing:
1. Telah berinvestasi di TI untuk mengumpulkan, mengintegrasikan, dan menganalisis
data dari setiap toko dan penjualan unit.
2. Telah dikaitkan data ini untuk database pemasok, sehingga memungkinkan untuk
menyesuaikan harga secara real time, untuk menyusun ulang item laris otomatis, dan
bergeser item dari toko ke toko dengan mudah.
Di sebuah perusahaan jasa keuangan terkemuka, itu akan mengambil 36 jam untuk
menganalisis 4 juta rekening nasabah dengan tiga kategori pengeluaran per account
menggunakan teknologi analitik tradisional. Dengan teknologi data besar, pengolahan
sekitar 30 juta rekening nasabah akan mengambil hanya 51 menit, atau 96% lebih
mereka,
sebuah
perusahaan
game
dua
kali
lipat
pendapatan
meningkatkan permainan.
Dengan mengevaluasi transaksi jutaan rekening kartu kredit, perusahaan kartu
pembayaran mampu mengidentifikasi dan mencegah sejumlah besar tuduhan
penipuan kecil.Mengetahui pola penipuan disimpan US $ 2 milyar pada penipuan
kartu kredit potensial.
Pada bagian ini, Anda belajar tentang nilai, tantangan, dan teknologi yang terlibat
dalam menempatkan data dan analisis yang digunakan untuk mendukung keputusan dan
tindakan. Empat V untuk analisis-berbagai, volume, kecepatan, dan kebenaran-dijelaskan
pada Tabel 3.1.
Data besar dapat memiliki dampak yang dramatis pada keberhasilan perusahaan
apapun, atau mereka dapat menjadi rendah memberikan kontribusi biaya besar. Namun,
keberhasilan
ini
tidak
dicapai
dengan
teknologi
saja. Banyak
perusahaan
yang
mengumpulkan dan menangkap data dalam jumlah besar tetapi menghabiskan sedikit usaha
untuk memastikan kebenaran dan nilai data yang diambil pada tahap transaksional atau
tempat asal. Penekanan dalam arah ini tidak hanya akan meningkatkan kepercayaan dalam
dataset, tetapi juga secara signifikan mengurangi upaya untuk analisis dan meningkatkan
kualitas pengambilan keputusan. Kesuksesan tergantung juga pada memastikan bahwa Anda
menghindari asumsi yang tidak valid, yang dapat dilakukan dengan menguji asumsi selama
analisis.
Tabel 3.1 empat analisis data yang V
1. Ragam: lingkungan analitik telah dikeluarkan dari menarik data dari sistem perusahaan
untuk memasukkan data besar dan sumber yang tidak terstruktur.
2. Volume: volume besar data terstruktur dan tidak terstruktur dianalisis
3. Velocity: kecepatan akses ke laporan yang diambil dari data mendefinisikan perbedaan
antara analisis yang efektif dan tidak efektif.
4. Kebenaran: memvalidasi data dan penggalian wawasan bahwa manajer dan pekerja dapat
mempercayai merupakan faktor kunci dari analisis sukses. Kepercayaan analisis telah
berkembang lebih sulit dengan ledakan sumber data.
Penyiksaan Data yang Cukup Panjang dan Itu Akan Mengakui .... tapi Mungkin Tidak
Menyatakan Kenyataannya (Torture Data Long Enough and It Will Confess ... but May
Not Tell the Truth)
Seperti yang disampaikan di blog Harvard Business Review (HBR), Jika kamu menyiksa
data dengan cukup panjang, data tersebut akan mengakui (Neill, 2013). Artinya, analitik
akan memproduksi hasil, namun hasil tersebut mungkin kurang berarti atau menyesatkan.
Sebagai contoh, beberapa orang mempercayai bahwa hasil Super Bowl pada Februari
memprediksi apakah pasar saham akan naik atau turun tahun tersebut. Jika National Football
Conference (NFC) menang, pasar saham akan meningkat; sebaliknya, saham akan tenggelam.
Melihat hasil selama 30 tahun, paling sering NFC memenangkan Super Bowl dan pasar akan
naik. Apakah ini berarti sesuatu? Tidak.
Data perlu dipersiapkan untuk analisis. Sebagai contoh, data yang tidak lengkap atau
untuk ditangani.
Data seharusnya dimasukkan ke dalam konteks yang penuh arti. Jika analisis yang
salah atau rangkaian data yang digunakan, output akan menjadi omong kosong saja
seperti pada contoh pemenang Super Bowl dan kinerja pasar saham. Dinyatakan
sebaliknya, manajer membutuhkan keadaan dalam rangka memahami bagaimana data
tradisional dan big data.
IT pada Work 3.2 mendeskripsikan bagaimana analitik big data, kolaborasi, dan keahlian
manusia ditransformasikan pada proses pengembangan obat yang baru.
Gudang data memperoleh data dari berbagai sumber sistem dan database lintas
perusahaan dalam rangka menjalankan analytical queries terhadap rangkaian data yang
dikumpulkan dalam periode waktu yang panjang. Gudang adalah sumber utama data ysng
telah dibersihkan untuk analisis, pelaporan, dan BI. Seringkali, data diringkas dalam cara
yang memungkinkan respon cepat pada pertanyaan. Misalnya, hasil pertanyaan dapat
mengungkapkan perubahan tingkah laku konsumen dan membawa keputusan untuk
mengembangkan ulang strategi pengiklanan. Gudang data yang menarik bersamaan data
dari banyak sumber dan database sepanjang perusahaan disebut enterprise data
warehouse (EDW).
Data yang berbiaya tinggi dapat membuat mereka terlalu mahal untuk
diimplementasikan perusahaan. Data marts lebih berbiaya rendah, versi dengan skala
menurun yang dapat diimplementasikan dalam waktu yang lebih singkat, sebagai contoh
dalam kurang dari 90 hari. Data marts menyediakan departemen spesifik atau fungsinya
seperti keuangan, pemasaran, atau operasi. Seperti menyimpan jumlah data yang sedikit,
mereka lebih cepat, lebih mudah diatur dan digunakan.
Prosedur untuk menyiapkan Data EDW untuk Analisis
Termasuk data base bank. Setiap deposit, penarikan kembali, pembayaran pinjaman, atau
transaksi lain ditambahkan atau mengubah data. Keadaan terombang-ambing disebakan
oleh proses transaksi konstan yang membuat analisis data sulit dan permintaan untuk
memproses jutaan transaksi per detik dihabiskan kekuatan pemrosesan database.
Sebaliknya, data di gudang relatif stabil untuk kebutuhan analisis. Oleh karena itu,
pemilihan data berpindah dari database ke warehouse. Secara spesifik, data:
1. Dikutip dari database yang ditunjuk
2. Ditransformasikan dengan format, pembersihan, dan penggabungan yang terstandar
3. Dimuat ke data warehouse
Ketiga prosedur ini mengutip, mentransformasi, memuat disebut dengan ETL.
Dalam warehouse, data hanya dapat dibaca, artinya data tidak bisa diubah sampai ETL
selanjutnya.
Tiga teknologi yang digunakan dalam menyiapkan data mentah untuk analitik
termasuk ETL, change data capture (CDC), dan data deduplikasi. Proses CDC
menangkap perubahan yang dilakukan pada sumber data dan mengaplikasikan perubahan
tersebut melalui simpanan data perusahaan untuk menjaga data tetap sinkron. CDC
meminimalisasi sumber daya yang dibutuhkan untuk proses ETL dengan hanya
berhubungan dengan perubahan data. Proses deduping menghilangkan duplikasi dan
menstandarkan format data yang membantu meminimalisasi penyimpanan dan sinkron
data.
Figur 3.5 merupakan tinjauan dari proses pembangunan dan penggunaan data warehouse.
Data disimpan di database operasi (kiri ke kanan). Data kepentingan dikutip,
ditransformasikan menjadi format standar, dan dimasukkanke data warehouse. Data
warehouse mengatur data dalam berbagai cara dengan subjek, area fungsional, vendor,
dan produk. Seperti disajikan, arsitektur data warehouse menentukan aliran data mulai
ketika data direkam oleh sistem transaksi; sumber data disimpan pada database
transaksional; proses ETL memindah data dari database ke warehouse atau data marts,
dimana data tersedia untuk diakses, dilaporkan, dan dianalisis.
REAL TIME DUKUNGAN DARI ACTIVE DATA WAREHOUSE
Teknologi data warehouse awalnya didukung aplikasi strategis yang tidak memerlukan
waktu,
respon yang instan, interaksi pelanggan langsung, atau integrasi dengan sistem
operasional. ETL mungkin telah dilakukan sekali per minggu atau sebulan sekali. Tapi
permintaan untuk informasi untuk mendukung interaksi pelanggan yang real time dan operasi
menyebabkan real time pergudangan dan analisis yang dikenal sebagai data pergudangan
aktif (ADW). Peningkatan besar dalam daya komputasi, pengolahan kecepatan, dan memori
dapat dibuat oleh ADW. ADW tidak dirancang untuk mendukung pengambilan keputusan
strategi eksekutif, melainkan untuk mendukung operasi. Misalnya, perusahaan pelayaran
seperti DHL menggunakan armada besar truk untuk memindahkan jutaaan paket. Setiap hari
dan sepanjang hari, manajer operasional membuat ribuan keputusan yang mempengaruhi
bawahan seperti: "kita perlu empat truk untuk menjalankan ini?" "Dengan dua pembalap
tertunda buruk apakah, kita perlu membawa bantuan tambahan? "Data tradisional
pergudangan tidak cocok untuk dukungan operasional langsung, namun data aktif gudang
perumahan. Misalnya, perusahaan dengan ADW mampu:
Berinteraksi dengan pelanggan untuk memberikan layanan pelanggan yang unggul
Menanggapi peristiwa bisnis secara real time
Berbagi data secara up-to-da-te di kalangan pedagang, penjual, pelanggan, dan rekan
Berikut ini adalah beberapa contoh bagaimana dua perusahaan menggunakan ADW
One Capital. salah satu modal menggunakan ADW untuk melacak "skor profitabilitas"
setiap pelanggan untuk menentukan tingkat layanan yang diberikan pada pelanggan.
Misalnya, ketika seorang pelanggan diminta untuk memasukkan nomor kartu kredit, pada
pelanggan yang skor profitabilitasnya tinggi. Pelanggan keuntungan rendah mendapatkan unit
respon suara saja sedangkan pelanggan dengan keuntungan yang tinggi terhubung dengan
CSR karena perusahaan ingin meminimalkan risiko kehilangan pelanggan mereka.
Travelocity. Jika Anda menggunakan Travelocity, sebuah ADW dapat menemukan
kesepakatan perjalanan terbaik khusus untuk Anda. Tujuannya adalah untuk menggunakan
todays data today bukan yesterdays data today. Agen perjalanan online ADW ini
menganalisis tujuan riwayat penelusuran minat dan kemudian memprediksi penawaran wisata
yang kemungkinan besar dibeli. Penawaran yang relevan dan tepat waktu untuk
meningkatkan pengalaman Anda. Misalnya ketika seorang pelanggan mencari penerbangan
dan hotel di Las Vegas, Travelocity mengakui bahwa kepentingan pelanggan ingin pergi ke
Vegas. ADW melakukan pencarian untuk penerbangan dengan harga terbaik dari semua
operator, membangun beberapa penawaran paket, dan sekarang mereka secara real time
kepada pelanggan. Ketika pelanggan melihat penawaran personal mereka sudah menarik,
ADW membantu menghasilkan pengalaman pelanggan yang lebih baik meningkatkan tingkat
konversi dan penjualan.
isi data pergudangan dapat disampaikan kepada para pembuat keputusan di seluruh
perusahaan melalui perusahaan yang dimiliki intranet. Pengguna dapat melihat permintaan
dan menganalisis data dan membuat laporan dengan menggunakan web browser. Ini adalah
metode pengiriman data yang sangat ekonomis dan efektif.
Pergudangan Data Dukungan Action Serta Keputusan.
Banyak organisasi yang membangun gudang data karena mereka frustrasi dengan data yang
tidak konsisten dan tidak bisa mendukung keputusan atau tindakan. Dilihat dari perspektif ini,
gudang data
biaya atau harga mungkin tidak kompetitif karena mereka terlalu tinggi.
Peramalan. Perkiraan pelanggan untuk produk dan jasa
Penjualan. menghitung profitabilitas penjualan dan produktivitas semua wilayah dan
daerah; menganalisis hasil berdasarkan geografi, produk, penjualan grup atau
individu.
Keuangan. Menyediakan data real time untuk istilah optimal kredit, analisis
portofolio, dan tindakan yang mengurangi risiko atau beban utang buruk.
Untuk memantau dan mengatur kondisi suhu dan iklim makanan yang mudah rusak seperti
diangkut dari pertanian ke supermarket
Untuk mengendus
Perangkat dan pengguna akhir analisis bisnis data. Lebih memahami perangkat,
aplikasi, dan layanan data untuk memberikan wawasan bisnis baru.
Untuk menyimpan data, Hadoop memiliki sendiri mendistribusikan sistem file Hadoop
sistem file (HDFS), yang berfungsi dalam tahap ada sebagai berikut:
Data Banyak ke HDFS
Melakukan operasi MapReduce
Mengambil hasil dari HDFS
Gambar 3.6 menunjukkan teknologi database menggunakan cara facebook dan Hadoop. IT di
tempat kerja 3.3 menggambarkan bagaimana angin pertama telah diterapkan analisis data
yang besar untuk meningkatkan bahwa operasi atau peternakan angin dan untuk mendukung
keberlanjutan planet dengan mengurangi emisi karbon yang merusak lingkung
Data dan Text Mining
Seperti yang kamu baca, pertanyaan support dari DBMS untuk menyaring data atau
mendapatkan jawaban dari database yang besar. Tetapi dalam melakukan pertanyaan, kamu
harus tau dulu untuk apa kamu bertanya dan jawaban apa yang kamu inginkan. Dalam data
mining atau text mining, itu adalah kebalikannya. Data dan text mining digunakan untuk
menemukan pengetahuan yang kamu tidak tau itu ada di database. Data mining bukanlah
metode atau teknik tunggal, tetapi perkumpulan dari teknik yang berbeda untuk mencari
corak dan hubungan dalam data. Teknologi text mining berupaya untuk menyaring informasi
berharga dari data textual tidak berstruktur, keseringan dari media social.
Analisis bisnis mendeskripsikan seluruh fungsi dari penerapan teknologi, algoritma,
keahlian manusia, dan penilaian. Data dan text mining dispesifikan ke tenik analitik.
Membentuk nilai bisnis
Perusahaan memasukan dalam peralatan data mining untuk menambah nilai bisnis.
Nilai bisnis dibagi dalam tiga kategori, yang ditunjukan pada gambar 3.7.
Berikut adalah kasus untuk mengilustrasikan tipe dari pembentukan nilai bisnis yang dibuat
oleh data dan text mining.
1. Pada Tesco, Supermarket terkemuka di U.K, pasar sukses mempercayakan pada
sebuah tingkat besar dalam tambang informasi kostumer dari loyalitas program
clubcard. Textco memperluasnya kedalam pasar baru dalam pusat dan eropa barat,
china, india, dan USA. Data mining sangat efektif bagi generasi tesco, lebih dari 50
juta keuntungan dalam setahun dalam penjualan informasi atas kebiasaan belanja dari
semua pembeli, termasuk 16 juta anggota clubcard.
2. Retailer terbesar Walmart ingin pembeli online untuk menemukan apa yang mereka
inginkan lebih cepat. Walmart menganalisa clickstream data dari 45 juta pembeli
perbulan; kemudian mengkombinasikan data dengan produk dan kategori yang
berhubungan dengan skor popularitasnya. Skor popularitas telah dihasilkan oleh text
mining di stream media sosial retailer. Pelajaran dari analisis terpadu kedalam mesin
pencarian Polaris digunakan oleh kotumer dalam website perusahaan. Perusahaan
telah menghasilkan kenaikan 10-15% dalam kelengkapan pembelian pembeli online,
yang kira-kira sama dengan $1 miliyar dalam tambahan penjualan online.
3. Mc Donald bakery mengoprasikan pergantian peralatan manual dengan dengan
analisis photo kecepatan tinggi untuk memeriksa ribuan roti per menit dari warna,
ukuran, dan distribusi biji wijen. Secara otomatis, proses oven dan baking secara
instan menciptakan roti seragam untuk mengurangi seribu ponds pembuangan setiap
tahun. Produk makanan lainnya juga menggunakan analisis photo untuk mengawasi
setiap produksi French fries untuk mengoptimalkan kualitas.
4. Asuransi Infinity menemukan pengetahuan yang dapat
diterapkan
untuk
dalam gudang data. Sebesar 75% dari sebuah data organisasi adalah dokumen pengolahan
data tidak berstruktur, media social, sms, audio, video, gambar dan diagram, fax dan memo,
call centre dan sebagainya. Text mining adalah kategori utama yang melibatkan penafsiran
kata dan konsep dalam sebuah konteks. Banyak kostumer menjadi seorang brand advocate
atau penentang dari kebebasan memberikan pendapat dan sikap dalam membantu perusahaan
memasuki ledakan pendapat kostumer secara online. Pengomentar social dan media social
menjadi tambang untuk analisis sentiment atau untuk mengeti maksud dari kostumer.
Perusahaan inovatif tau mereka harus lebih sukses dalam menemukan kebutuhan kostumer,
jika mereka mengerti tentang itu lebih baik. Alat dan teknik untuk analisis text, dokumen dan
konten unstruktur, disediakan dari berbagai vendor.
Mengkombinasikan data dan text mining
Mengkombinasikan data dan text mining dapat dibentuk bahkan bernilai besar Palomaki dan
oksanen (2012) menunjukan bahwa mining text atau data tidak berstruktur memungkinkan
organisasi untuk memperkirakan ramalan laporan bukan hanya dimasa lalu. Mereka juga
menyatakan bahwa metode forcasting menggunakan struktur data yang ada dan text tidak
berstruktur dari kedua sumber daya internal dan external yang menyediakan pandangan
terbaik apa yang ada didepan.
Prosedur Analisis Text
Dengan analisis text, informasi disaring dari kuantitas yang besar dari bermacam tipe
dari informasi textual. Langkah dasar yang terlibat didalam analisis text adalah sebagai
berikut:
1. Explorasi. Pertama dokumen diexplorasi, ini mungkin terjadi dalam bentuk
perhitungan kata sederhana dalam koleksi dokumen, atau secara manual mebentuk
area topic untuk kategori dokumen setelah membaca sebuah sampel dari mereka.
Sebagai contoh apa tipe isu utamanya (kerusakan atau kesalahan mesin?) ini telah
diidentifikasi
dalam
klaim
garansi
automobile?
Sebuah
tantangan
untuk
membutuhkan
preprocessed
untuk
standarisasi
untuk
tingkat
konsisten. Sebagai contoh, BTW akan distandariasai menjadi by the way dan
meninggalkan pesan suara yang akan ditandai sebagai lvm.
3. Categori dan Model. Konten kemudian siap untuk dikategorikan, pesan kategori atau
dokumen dari informasi terkandung dalam nya dan dapat dicapai menggunakan model
statistic dan peraturan bisnis. Dengan pembentukan model tradisional, sampel
dokumen di periksa ke model kereta. Penambahan dokumen kemudian di proses
untuk divalidasi keakuratan dan presisi dari model, pada akhirnya dokumen baru
dievaluasi menggunakan model akhir (scored). Model dapat diletakan kedalam
produksi untuk automatisasi pemprosesan dari dokumen baru yang tiba.
Analisis text dapat membantu mengidentifikasi rasio positif/ negative yang
berhubungan dengan promosi. Itu dapat menjadi alat validasi yang kuat untuk melengkapi
penelitian utama dan kedua dari kostumer dan inisiatif manajemen feedback. Perusahaan
meningkatkan kemampuan mereka untuk menavigasi dan text mine boards dan blog
relavan dengan industry mereka dimana mungkin akan menaikan keuntungan informasi
yang besar dari competitor mereka.
KECERDASAN BISNIS
Quicken Loan,Inc. Merupakan pemberi pinjaman online terbesar dan kedua terbesar dari
seluruh pemberi pinjaman retail di US. Satu faktor kesuksesan adalah kecerdasan bisnis
(Business Intelegence/BI). Hampir lebih dari satu dekade, manajemen kinerja ditingkatkan
dari sebuah proses manual laporan ke instrumen BI-Driven dan user-defined alerts yang
memungkinkan urusan pimpinan bisnis menjadi proaktif dengan hambatan, dan
mengidentifikasi peluang pertumbuhan dan perbaikan. Pada Best Practice Awards TDWI
2013
pengambilan keputusan strategis. Perubahan baru-baru ini dalam BI adalah kegunaannya bagi
kecerdasan operasional (Operational Intelegence) lintas sistem dan bisnis memperluas
penggunaan BI sepenuhnya. Kondisi bisnis yang kompleks dan kompetitif tidak luput dari
kekurangan dan kesalahan.
BI DAN PROGRAM ANALISIS BIG DATA
Alat analisis data dan sistem BI beroperasi dalam suatu server, namun sistem tersebut
tidak secara umum mampu menangani Big Data. Secara khas, sistem extract data dari data
pergudangan perusahaan atau data peerdagangan. Tetapi dalam hal memperbesar volume dan
variasi data, perusahaan perlu untuk berinvestasi dalam program skala besar seperti sistem
manajemen database Hadoop atau Masively Prallel Processing (MPP).
Massively Parallel Processing and In-Memory Processing
MPP adalah salah satu jenis program komputer dimana dalam memproses dilakukan
dengan beberapa CPU yang bekerja secara paralel untuk mengelola suatu program. Program
MPP adalah suatu bentuk efektivitas biaya, khususnya dalam aplikasi bermemori tinggi
seperti analisis Big Data dan memproses video dengan ketentuan tinggi. Dampak penggunaan
MPP dalam suatu data pergudangan adalah efisiensi paralelnya, artinya, upaya untuk
membuat 100 catatan sama dengan membuat 100.000 catatan. disimpan dalam memori. Data
dalam memori disimpan secara lebih efisien dalam disk juga disebut sebagai hard drive atau
menyimpanan kedua. Memori mengaraka ke RAM atau memori utama yang terletak didalam
komputer.
Data Analitics Vendors
Beberapa data analitics vendors seperti SAS dikembangkan dalam memori softuare atau
diterapkan pada program Hadook, namun satu merioritas perusahaan menggunakan data
analitics dan softuare BI dalam kombinasi dengan program manajemen data.
Gambaran tentang Pasar Big Data dari Suatu Perspektif Program
Suatu pasar dengan big data berubah dengan cepat, dan akan berubah menjadi gabungan
yang sikmifikan dalam beberapa tahun sebagai fendor terbesar. Pasar dengan big data
berkembang dengan suatu tingkat kecepatan yang bisa dikatakan 5 atau beberapa tahun
kedepan.