Anda di halaman 1dari 30

CAHPTER 3 DATA MANAGEMENT, DATA ANALYTICS, AND BUSINESS INTELLIGENCE

3.1 Manajemen Data dan Teknologi Basis Data

Karena volume data yang luar biasa yang dibuat oleh organisasi biasa, manajemen data yang efektif
sangat penting untuk mencegah biaya penyimpanan melonjak di luar kendali dan mengendalikan
pertumbuhan data sambil mendukung kinerja yang lebih baik. Manajemen data mengawasi siklus hidup
data end-to-end dari pembuatan dan penyimpanan awal hingga saat data tersebut menjadi usang dan
dihapus. Tujuan dari pengelolaan data antara lain sebagai berikut:

1. Mengurangi risiko dan biaya kepatuhan terhadap peraturan.

2. Memastikan persyaratan hukum terpenuhi.

3. Menjaga keamanan data.

4. Menjaga akurasi dan ketersediaan data.

5. Menyetujui konsistensi data yang berasal atau pergi ke beberapa lokasi.

6. Memastikan bahwa data sesuai dengan praktik terbaik organisasi untuk akses, penyimpanan,
pencadangan, dan pembuangan.

Biasanya, data yang lebih baru, dan data yang lebih sering diakses, disimpan di media penyimpanan
yang lebih cepat, tetapi lebih mahal, sementara data yang kurang penting disimpan di media yang lebih
murah dan lebih lambat. Manfaat utama dari manajemen data mencakup kepatuhan yang lebih besar,
keamanan yang lebih tinggi, tanggung jawab hukum yang lebih sedikit, strategi penjualan dan
pemasaran yang lebih baik, klasifikasi produk yang lebih baik, dan tata kelola data yang lebih baik untuk
mengurangi risiko. Teknologi manajemen data berikut memberi informasi kepada pengguna dan
mendukung berbagai tuntutan bisnis:

• Database menyimpan data yang dihasilkan oleh aplikasi bisnis, sensor, operasi, dan sistem
pemrosesan transaksi (TPS). Data di beberapa database bisa sangat fluktuatif. Perusahaan menengah
dan besar biasanya memiliki banyak basis data dari berbagai jenis—terpusat dan terdistribusi.

• Gudang data mengintegrasikan data dari beberapa database dan silo data di seluruh organisasi, dan
mengaturnya untuk analisis yang kompleks, penemuan pengetahuan, dan untuk mendukung
pengambilan keputusan. Misalnya, data diekstraksi dari database, diproses untuk menstandardisasi
formatnya, dan kemudian dimuat ke gudang data pada waktu tertentu, seperti mingguan. Dengan
demikian, data dalam gudang data bersifat non-volatil—dan siap untuk dianalisis.

• Data mart adalah gudang data skala kecil yang mendukung satu fungsi atau satu departemen.
Perusahaan yang tidak mampu berinvestasi dalam pergudangan data dapat memulai dengan satu atau
lebih data mart.
• Intelijen bisnis (BI)—alat dan teknik memproses data dan melakukan analisis statistik untuk wawasan
dan penemuan—yaitu, untuk menemukan hubungan yang bermakna dalam data, tetap mendapatkan
informasi secara real time, mendeteksi tren, dan mengidentifikasi peluang dan risiko. Masing-masing
teknologi manajemen basis data ini akan dibahas secara lebih rinci nanti dalam bab ini.

Sistem Manajemen Basis Data dan SQL

Teknik pemrosesan data, kekuatan pemrosesan, dan kemampuan manajemen kinerja perusahaan telah
mengalami kemajuan revolusioner dalam beberapa tahun terakhir karena alasan yang sudah Anda kenal
—data besar, mobilitas, dan komputasi awan. Dekade terakhir, bagaimanapun, telah melihat munculnya
pendekatan baru, pertama dalam pergudangan data dan, baru-baru ini, untuk pemrosesan transaksi.
Mengingat banyaknya transaksi yang terjadi setiap hari dalam suatu organisasi, data dalam basis data
terus digunakan atau diperbarui. Volatilitas database membuat tidak mungkin untuk menggunakannya
untuk pengambilan keputusan yang kompleks dan tugas-tugas pemecahan masalah. Untuk alasan ini,
data diekstraksi dari database, diubah (diproses untuk menstandarisasi data), dan kemudian dimuat ke
dalam gudang data.

Basis data adalah kumpulan set data atau catatan yang disimpan dengan cara yang sistematis.

Sistem manajemen basis data (DBMS) terintegrasi dengan sistem pengumpulan data seperti TPS dan
aplikasi bisnis; menyimpan data dengan cara yang terorganisir; dan menyediakan fasilitas untuk
mengakses dan mengelola data tersebut. Faktor-faktor yang perlu dipertimbangkan ketika mengevaluasi
kinerja sistem manajemen database tercantum dalam Catatan Teknis 3.1. Selama 25 tahun terakhir,
database relasional telah menjadi model database standar yang diadopsi oleh sebagian besar
perusahaan. Database relasional menyimpan data dalam tabel yang terdiri dari kolom dan baris, mirip
dengan format spreadsheet, seperti yang ditunjukkan pada Gambar 3.3.

Sistem manajemen basis data (DBMS) adalah perangkat lunak yang digunakan untuk mengelola
penambahan, pembaruan, dan penghapusan data saat transaksi terjadi, dan untuk mendukung kueri
dan pelaporan data. Mereka adalah sistem pemrosesan transaksi online (OLTP).

Sistem manajemen relasional (RDBMS) menyediakan akses ke data menggunakan bahasa deklaratif—
bahasa kueri terstruktur (SQL). Bahasa deklaratif menyederhanakan akses data dengan mengharuskan
pengguna hanya menentukan data apa yang ingin mereka akses tanpa menentukan bagaimana akses
akan dicapai. Format pernyataan SQL dasar adalah SELECT column_name(s) FROM table_name WHERE
condition Contoh SQL ditunjukkan pada Gambar 3.4.

Kueri adalah permintaan pengguna ad hoc (tidak direncanakan) untuk data tertentu.

Structured query language (SQL) adalah bahasa query standar untuk mengakses database.

Fungsi DBMS Diperlukan tampilan data yang akurat dan konsisten di seluruh perusahaan sehingga
seseorang dapat membuat keputusan berdasarkan informasi yang dapat ditindaklanjuti yang
mendukung strategi bisnis. Fungsi yang dilakukan oleh DBMS untuk membantu membuat tampilan
seperti itu ditunjukkan pada Gambar 3.5.
Sistem pemrosesan transaksi online (OLTP) dirancang untuk:mengelola data transaksi yang bersifat
fluktuatif.

Pemrosesan Transaksi Online dan Pemrosesan Analitik Online

Ketika sebagian besar transaksi bisnis terjadi—misalnya, suatu barang dijual atau dikembalikan, pesanan
dikirim atau dibatalkan, pembayaran atau penyetoran dilakukan—perubahan segera dilakukan pada
database. Perubahan online ini adalah penambahan, pembaruan, atau penghapusan. DBMS merekam
dan memproses transaksi dalam database, dan mendukung kueri dan pelaporan. Mengingat fungsinya,
DBMS disebut sebagai sistem pemrosesan transaksi online (OLTP). OLTP adalah desain database yang
memecah informasi kompleks menjadi tabel data yang lebih sederhana untuk mencapai keseimbangan
antara efisiensi pemrosesan transaksi dan efisiensi kueri. Basis data OLTP memproses jutaan transaksi
per detik. Namun, database tidak dapat dioptimalkan untuk penambangan data, sistem pemrosesan
analitik online kompleks (OLAP), dan dukungan keputusan. Keterbatasan ini menyebabkan pengenalan
teknologi data warehouse. Gudang data dan data mart dioptimalkan untuk OLAP, penambangan data,
BI, dan dukungan keputusan. OLAP adalah istilah yang digunakan untuk menggambarkan analisis data
kompleks dari gudang data. Singkatnya, database dioptimalkan untuk pemrosesan transaksi dan
pemrosesan kueri yang sangat cepat. Gudang data dioptimalkan untuk analisis.

DBMS dan Vendor Data Warehousing Menanggapi Permintaan Data Terbaru

Salah satu pendorong utama perubahan di pasar manajemen data adalah peningkatan jumlah data yang
harus dikelola. Perusahaan membutuhkan DBMS yang kuat dan solusi pergudangan data, analitik, dan
pelaporan. Empat vendor yang mendominasi pasar ini Oracle, IBM, Microsoft, dan Teradata—terus
merespons kebutuhan pengelolaan data yang terus berkembang dengan perangkat lunak dan perangkat
keras yang lebih cerdas dan canggih. Teknologi perangkat keras canggih memungkinkan penskalaan ke
volume data dan beban kerja yang jauh lebih tinggi daripada sebelumnya, atau dapat menangani beban
kerja tertentu. Database relasional tujuan umum yang lebih lama DBMS tidak memiliki skalabilitas atau
fleksibilitas untuk beban kerja khusus atau sangat besar, tetapi sangat baik dalam apa yang mereka
lakukan. Tren Menuju Sistem NoSQL RDBMS masih merupakan mesin database yang dominan, tetapi
tren menuju sistem NoSQL (singkatan dari "tidak hanya SQL") sudah jelas. Sistem NoSQL meningkat
popularitasnya sebesar 96% dari 2014 hingga 2016. Meskipun NoSQL telah ada selama DBMS relasional,
istilah itu sendiri tidak diperkenalkan hingga 2009. Saat itulah banyak sistem baru dikembangkan untuk
mengatasi persyaratan yang berkembang untuk DBMS—yaitu, menangani data besar, skalabilitas, dan
toleransi kesalahan untuk aplikasi Web besar. Skalabilitas berarti sistem dapat bertambah besar untuk
menangani pertumbuhan data atau beban peningkatan jumlah pengguna secara bersamaan. Dengan
kata lain, sistem yang dapat diskalakan secara efisien memenuhi tuntutan komputasi kinerja tinggi.
Toleransi kesalahan berarti bahwa tidak ada kegagalan tunggal yang mengakibatkan hilangnya layanan.
Sistem NoSQL adalah sekelompok sistem basis data yang heterogen sehingga upaya untuk
mengklasifikasikannya tidak terlalu membantu. Namun, keuntungan umum mereka adalah sebagai
berikut:

• kinerja yang lebih tinggi


• distribusi data yang mudah pada node yang berbeda, yang memungkinkan skalabilitas dan toleransi
kesalahan

• fleksibilitas yang lebih besar

• administrasi yang lebih sederhana

Mulai tahun 2010 dan berlanjut hingga 2016, Microsoft telah mengerjakan penulisan ulang pertama dari
eksekusi query SQL Server sejak Versi 7 dirilis pada tahun 1998. Tujuannya adalah untuk menawarkan
kecepatan seperti NoSQL tanpa mengorbankan kemampuan database relasional. Dengan sebagian besar
penawaran NoSQL, sebagian besar biaya tidak terletak pada perolehan database, melainkan dalam
mengimplementasikannya. Data perlu dipilih dan dimigrasikan (dipindahkan) ke database baru.

Microsoft berharap dapat mengurangi biaya ini dengan menawarkan solusi migrasi. Peringkat Vendor
DBMS Lima besar sistem database perusahaan tahun 2016 adalah Database 12c Oracle, Microsoft SQL
Server, IBM DB2, SAP Sybase ASE, dan PostgreSQL:

1. Oracle 12c Database mengkonsolidasikan dan mengelola database sebagai layanan cloud
melalui arsitektur multitenant Oracle dan kemampuan pemrosesan data dalam memori dan
dapat disediakan dengan cepat.
2. 2. Kemudahan penggunaan, ketersediaan, dan integrasi sistem operasi Windows Microsoft SQL
Server
3. menjadikannya pilihan yang mudah bagi perusahaan yang memilih produk Microsoft untuk
perusahaan mereka.
4. 3. IBM DB2 banyak digunakan di pusat data besar dan berjalan di Linux, UNIX, Windows, IBM
iSeries, dan mainframe.
5. 4. SAP Sybase ASE adalah kekuatan utama setelah 25 tahun sukses dan berkembang.
Mendukung penguncian partisi, batas kueri yang dilonggarkan, pengoptimalan rencana kueri,
dan penetapan utas dinamis.
6. 5. PostgreSQL adalah database open source yang paling canggih, sering digunakan oleh aplikasi
game online dan Skype, Yahoo!, dan MySpace. Basis data ini berjalan pada berbagai macam
sistem operasi termasuk Linux, Windows, FreeBSD, dan Solaris.

3.2 Arsitektur Database Terpusat dan Terdistribusi

Database dapat dipusatkan atau didistribusikan, seperti yang ditunjukkan pada Gambar 3.6. Kedua jenis
database memerlukan satu atau lebih cadangan dan harus diarsipkan di dalam dan di luar lokasi jika
terjadi kecelakaan atau insiden keamanan. Selama beberapa dekade platform database utama terdiri
dari file database terpusat pada komputer mainframe besar. Manfaat konfigurasi database terpusat
meliputi:

1. Kontrol kualitas data yang lebih baik Konsistensi data lebih mudah jika data disimpan di satu lokasi
fisik karena penambahan, pembaruan, dan penghapusan data dapat dilakukan dengan cara yang
terawasi dan teratur.
2. Keamanan TI yang lebih baik Data diakses melalui komputer induk terpusat, di mana mereka dapat
dilindungi dengan lebih mudah dari akses atau modifikasi yang tidak sah.

Kerugian utama dari database terpusat, seperti semua sistem terpusat, adalah penundaan transmisi
ketika pengguna tersebar secara geografis. Perangkat keras dan jaringan yang lebih kuat mengimbangi
kerugian ini. Sebaliknya, database terdistribusi menggunakan arsitektur klien/server untuk memproses
permintaan informasi. Basis data disimpan di server yang berada di pusat data perusahaan, cloud
pribadi, atau cloud publik (Gambar 3.7). Keuntungan dari database terdistribusi termasuk keandalan—
jika satu situs mogok, sistem akan terus berjalan—dan kecepatan—lebih cepat untuk mencari bagian
dari database daripada keseluruhan. Namun, jika ada masalah dengan jaringan yang digunakan basis
data terdistribusi, itu dapat menyebabkan masalah ketersediaan dan perangkat keras dan perangkat
lunak yang sesuai bisa mahal untuk dibeli.

Basis data terpusat menyimpan semua data dalam satu komputasi pusat seperti mainframe atau server.
Database terdistribusi menyimpan bagian dari database pada beberapa komputer dalam jaringan.
Garbage masuk Garbage keluar

Pengumpulan data adalah proses yang sangat kompleks yang dapat menimbulkan masalah mengenai
kualitas data yang dikumpulkan. Oleh karena itu, terlepas dari bagaimana data dikumpulkan, data
tersebut perlu divalidasi sehingga pengguna tahu bahwa mereka dapat mempercayainya. Ungkapan
klasik yang merangkum situasinya adalah "sampah masuk, sampah keluar" (GIGO) dan "sampah masuk,
keluarkan garbage in, gospel out" yang berpotensi lebih berisiko. Dalam kasus terakhir, data berkualitas
buruk dipercaya dan digunakan sebagai dasar perencanaan. Misalnya, Anda mungkin pernah mengalami
pengamanan data, seperti pemeriksaan integritas, untuk membantu meningkatkan kualitas data saat
Anda mengisi formulir online, seperti saat formulir tidak menerima alamat email atau nomor kartu
kredit yang tidak diformat. benar. Tabel 3.2 mencantumkan karakteristik yang biasanya terkait dengan
data yang kotor atau berkualitas buruk.

Biaya dan Konsekuensi Data Kotor Seperti yang dibahas dalam Bab 2, terlalu sering manajer dan pekerja
informasi sebenarnya dibatasi oleh data yang tidak dapat dipercaya karena tidak lengkap, di luar
konteks, usang, tidak akurat, tidak dapat diakses, atau terlalu banyak sehingga memerlukan waktu
berminggu-minggu untuk menganalisis . Dalam situasi seperti itu, pembuat keputusan menghadapi
terlalu banyak ketidakpastian untuk membuat keputusan bisnis yang cerdas. Rata-rata, sebuah
organisasi mengalami 40% pertumbuhan data setiap tahun, dan 20% dari data tersebut ternyata kotor.
Setiap titik data kotor, atau catatan, berharga $100 jika tidak diselesaikan (RingLead, 2015). Biaya data
berkualitas buruk menyebar ke seluruh perusahaan, memengaruhi sistem mulai dari pengiriman dan
penerimaan hingga akuntansi dan layanan pelanggan. Kesalahan data biasanya muncul dari fungsi atau
departemen yang menghasilkan atau membuat data—dan bukan di dalam departemen TI. Ketika semua
biaya dipertimbangkan, nilai menemukan dan memperbaiki penyebab kesalahan data menjadi jelas.
Pada saat anggaran menurun, beberapa organisasi mungkin tidak memiliki sumber daya untuk proyek
semacam itu dan bahkan mungkin tidak menyadari masalahnya. Orang lain mungkin menghabiskan
sebagian besar waktu mereka untuk memperbaiki masalah, sehingga membuat mereka tidak punya
waktu untuk berusaha mencegahnya. Namun, manfaat dari tindakan pencegahan terhadap data kotor
sangat besar. Biayanya $1 untuk mencegah dan $10 untuk memperbaiki data kotor. Sementara biaya
jangka pendek untuk membersihkan dan mencegah data kotor tidak realistis untuk beberapa
perusahaan, kesimpulan jangka panjangnya jauh lebih mahal (Kramer, 2015). Data yang buruk
merugikan bisnis A.S. ratusan miliar dolar per tahun dan memengaruhi kemampuan mereka untuk
keluar dari iklim ekonomi yang sulit. Nilai yang salah dan ketinggalan zaman, data yang hilang, dan
format data yang tidak konsisten dapat menyebabkan hilangnya pelanggan, penjualan, dan pendapatan;
misalokasi sumber daya; dan strategi penetapan harga yang salah. Pertimbangkan perusahaan yang
mengikuti struktur biaya yang terkait dengan data bersih/kotor yang dijelaskan di atas dengan 100.000
titik data. Selama rentang tiga tahun, dengan membersihkan 20% dari data kotor selama tahun pertama
dan menggunakan metode pencegahan untuk tahun-tahun berikutnya, perusahaan akan menghemat
$8.495.000. Murni berdasarkan kualitas datanya, sebuah perusahaan dengan sejumlah besar data
secara hipotetis dapat meningkatkan pendapatannya sebesar 70% (RingLead, 2015).

Biaya data berkualitas buruk dapat dinyatakan sebagai rumus:

Cost of Poor-Quality Data = Lost Business + Cost toPrevent Errors +Cost to Correct Errors

Contoh biaya tersebut antara lain sebagai berikut:

• Bisnis yang hilang Bisnis hilang ketika peluang penjualan terlewatkan, pesanan dikembalikan karena
barang yang dikirim salah, atau kesalahan membuat frustrasi dan membuat pelanggan menjauh.

• Waktu yang dihabiskan untuk mencegah kesalahan Jika data tidak dapat dipercaya, maka karyawan
perlu menghabiskan lebih banyak waktu dan upaya untuk memverifikasi informasi untuk menghindari
kesalahan.

• Waktu yang dihabiskan untuk mengoreksi kesalahan Staf database perlu memproses koreksi ke
database.

Misalnya, biaya koreksi kesalahan di U-rent Corporation diperkirakan sebagai berikut:

A. Dua anggota staf basis data menghabiskan 25% dari hari kerja mereka untuk memproses dan
memverifikasi koreksi data setiap hari: 2 orang * 25% dari 8 jam / hari 4 jam / hari mengoreksi kesalahan

B. Gaji per jam adalah $50 per jam berdasarkan tingkat pembayaran dan tunjangan:

$50 / jam * 4 jam / hari $200 / hari mengoreksi kesalahan

C. 250 hari kerja per tahun: $200 / hari * 250 hari $50,000 / tahun untuk memperbaiki kesalahan

Untuk perusahaan tertentu, sulit untuk menghitung biaya penuh dari data berkualitas buruk dan efek
jangka panjangnya. Bagian dari kesulitannya adalah waktu tunda antara kesalahan dan saat terdeteksi.
Kesalahan bisa sangat sulit untuk diperbaiki, terutama ketika sistem meluas ke seluruh perusahaan.
Kekhawatiran lain adalah bahwa dampak kesalahan bisa tidak terduga, luas jangkauannya, dan serius.

Kepemilikan Data dan Politik Organisasi

Kepatuhan terhadap berbagai peraturan federal dan negara bagian bergantung pada data yang kokoh
dan metrik tepercaya yang digunakan untuk pelaporan peraturan. Kepemilikan data, kualitas data, dan
data yang dikelola secara formal merupakan prioritas tinggi dalam agenda CFO dan CEO yang
bertanggung jawab secara pribadi jika perusahaan mereka terbukti melanggar peraturan. Terlepas dari
kebutuhan akan data berkualitas tinggi, politik organisasi dan masalah teknis membuat hal itu sulit
dicapai. Sumber masalahnya adalah kepemilikan data—yaitu, siapa yang memiliki atau bertanggung
jawab atas data tersebut. Masalah kepemilikan data muncul ketika tidak ada kebijakan yang
mendefinisikan tanggung jawab dan akuntabilitas untuk mengelola data. Format data yang tidak
konsisten dari berbagai departemen menciptakan serangkaian masalah tambahan ketika organisasi
mencoba menggabungkan aplikasi individual ke dalam sistem perusahaan yang terintegrasi.
Kecenderungan untuk mendelegasikan tanggung jawab kualitas data kepada tim teknis yang tidak
memiliki kendali atas kualitas data, berbeda dengan pengguna bisnis yang memiliki kendali seperti itu,
adalah perangkap umum lainnya yang menghalangi pengumpulan data berkualitas tinggi. Mereka yang
mengelola bisnis atau bagian dari bisnis bertugas untuk berusaha meningkatkan kinerja bisnis dan
mempertahankan pelanggan. Kompensasi terkait dengan peningkatan profitabilitas, mendorong
pertumbuhan pendapatan, dan meningkatkan kualitas layanan pelanggan. Indikator kinerja utama (KPI)
ini dipantau secara ketat oleh manajer senior yang ingin menemukan dan menghilangkan cacat yang
membahayakan kinerja. Anehnya, begitu sedikit manajer yang meluangkan waktu untuk memahami
bagaimana kinerja dipengaruhi oleh data berkualitas rendah. Dua contoh menjadi alasan kuat untuk
investasi dalam data berkualitas tinggi.

Perbankan ritel: Untuk eksekutif bank ritel, manajemen risiko adalah masalah nomor satu. Mengabaikan
risiko berkontribusi pada krisis jasa keuangan 2008. Terlepas dari strategi manajemen risiko, banyak
bank masih mengalami kerugian besar. Sebagian dari masalah di banyak bank adalah IS mereka
memungkinkan mereka untuk memantau risiko hanya pada tingkat produk—hipotek, pinjaman, atau
kartu kredit. Sistem manajemen risiko tingkat produk memantau eksposur risiko pelanggan untuk
hipotek, atau untuk pinjaman, atau untuk kartu kredit, dan sebagainya—tetapi tidak untuk pelanggan
untuk semua produk. Dengan IS tingkat produk, bank tidak dapat melihat eksposur risiko penuh dari
pelanggan. Keterbatasan risiko tingkat produk yang tersembunyi ini memiliki implikasi serius bagi kinerja
bisnis karena pelanggan berisiko buruk tidak dapat diidentifikasi dengan mudah, dan data pelanggan di
berbagai IS mungkin berbeda. Namun, bank mulai menggunakan data besar untuk menganalisis risiko
secara lebih efektif. Meskipun masih sangat terbatas pada data risiko kartu kredit, pinjaman, dan
hipotek, daya komputasi yang lebih murah dan lebih cepat memungkinkan mereka untuk menyimpan
catatan data pelanggan yang lebih baik dan lebih inklusif. Pemantauan portofolio menawarkan deteksi
dini dan analitik prediktif untuk calon pelanggan, dan model risiko yang lebih canggih menunjukkan pola
rumit yang tidak terlihat oleh mata telanjang dalam kumpulan data besar. Juga, lebih banyak masukan
berbasis fakta dan metode organisasi standar sedang diterapkan untuk mengurangi bias petugas
pinjaman dan kredit untuk mengambil risiko pada pelanggan yang tidak diinginkan. Pemasaran:
Pertimbangkan apa yang terjadi ketika setiap IS manajemen risiko tingkat produk memasukkan data ke
IS pemasaran. Pemasaran mungkin menawarkan insentif kepada pelanggan yang berisiko buruk untuk
mengambil kartu kredit atau pinjaman lain yang tidak dapat mereka bayar kembali. Dan karena bank
juga tidak dapat mengidentifikasi pelanggan terbaiknya, mereka mungkin diabaikan dan dibujuk oleh
kesepakatan yang lebih baik yang ditawarkan oleh pesaing. Skenario ini menggambarkan bagaimana
kepemilikan data dan manajemen kualitas data sangat penting untuk manajemen risiko. Cacat data dan
data yang tidak lengkap dapat dengan cepat memicu pemasaran yang tidak akurat dan kerugian yang
meningkat. Ketergantungan bank yang meningkat pada pemodelan bisnis mengharuskan manajer risiko
memahami dan mengelola risiko model dengan lebih baik. Meskipun kerugian sering tidak dilaporkan,
konsekuensi dari kesalahan dalam model bisa menjadi ekstrim. Misalnya, sebuah bank besar Asia-Pasifik
kehilangan $4 miliar ketika menerapkan model suku bunga yang berisi asumsi yang salah dan kesalahan
entri data. Mitigasi risiko akan memerlukan pedoman dan proses yang ketat untuk mengembangkan dan
memvalidasi model, serta pemantauan dan peningkatan yang konstan (Harle et al., 2016).
Manufaktur: Banyak produsen bergantung pada basis pelanggan yang kuat—pengecer besar.Produsen
ingin menyelaraskan proses mereka dengan proses pelanggan ritel besar untuk membuat mereka
senang. Penyelarasan ini memungkinkan pengecer untuk memesan secara terpusat untuk semua toko
atau memesan secara lokal dari produsen tertentu. Mendukung pemesanan pusat dan lokal
mempersulit perencanaan produksi. Misalnya, setiap lokasi manufaktur harus mengumpulkan data
pesanan dari sistem pemesanan pusat dan sistem pemesanan lokal untuk mendapatkan gambaran
lengkap tentang apa yang harus diproduksi di setiap lokasi. Tanpa data yang akurat dan terkini, pesanan
mungkin tidak terisi, atau produsen mungkin memiliki persediaan berlebih. Salah satu produsen yang
mencoba membuat pengecer utamanya senang dengan menerapkan pemesanan pusat dan lokal tidak
dapat memproses pesanan dengan benar di setiap lokasi produksi. Tidak ada kepemilikan data dan
kurangnya kontrol atas bagaimana data pesanan mengalir di seluruh operasi bisnis memiliki dampak
negatif. Proses bisnis yang saling bertentangan dan menduplikasi di setiap lokasi manufaktur
menyebabkan kesalahan data, yang menyebabkan kesalahan dalam pembuatan, pengepakan, dan
pengiriman. Pelanggan sangat tidak puas. Contoh-contoh ini menunjukkan konsekuensi dari kurangnya
kepemilikan data dan kualitas data.

Memahami dampak data yang salah kelola terhadap kinerja bisnis menyoroti kebutuhan untuk
menjadikan kepemilikan data dan akurasi data sebagai prioritas tinggi.

Siklus Hidup Data dan Prinsip Data

Siklus hidup data adalah model yang menggambarkan cara perjalanan data melalui organisasi seperti
yang ditunjukkan pada Gambar 3.8. Siklus hidup data dimulai dengan penyimpanan dalam database,
dimuat ke gudang data untuk dianalisis, kemudian dilaporkan ke pekerja pengetahuan atau digunakan
dalam bisnis

Siklus hidup data dimulai dengan penyimpanan dalam database, dimuat ke gudang data untuk dianalisis,
kemudian dilaporkan ke pekerja pengetahuan atau digunakan dalam aplikasi bisnis. Manajemen rantai
pasokan (SCM), manajemen hubungan pelanggan (CRM), dan e-niaga adalah aplikasi perusahaan yang
memerlukan data terkini dan mudah diakses agar berfungsi dengan baik. Tiga prinsip data umum terkait
dengan perspektif siklus hidup data dan membantu memandu keputusan investasi TI:

1. Prinsip nilai data yang semakin berkurang Nilai data berkurang seiring bertambahnya usia. Ini adalah
prinsip yang sederhana, namun kuat. Sebagian besar organisasi tidak dapat beroperasi pada kinerja
puncak dengan titik buta (kurangnya ketersediaan data) selama 30 hari atau lebih. Lembaga jasa
keuangan global mengandalkan data yang hampir real-time untuk kinerja puncak.

2. Prinsip penggunaan data 90/90 Menurut prinsip penggunaan data 90/90, sebagian besar data yang
disimpan, hingga 90%, jarang diakses setelah 90 hari (kecuali untuk tujuan audit). Artinya, sekitar 90%
data kehilangan sebagian besar nilainya setelah tiga bulan.

3. Prinsip data dalam konteks Kemampuan untuk menangkap, memproses, memformat, dan
mendistribusikan data dalam waktu dekat atau lebih cepat memerlukan investasi besar dalam arsitektur
data (Bab 2) dan infrastruktur untuk menghubungkan sistem POS jarak jauh ke penyimpanan data,
sistem analisis data , dan aplikasi pelaporan. Investasi tersebut dapat dibenarkan dengan prinsip bahwa
data harus diintegrasikan, diproses, dianalisis, dan diformat menjadi “informasi yang dapat
ditindaklanjuti”.

Data Master dan Manajemen Data Master

Ketika data menjadi lebih kompleks dan volumenya meledak, kinerja database menurun. Salah satu
solusinya adalah penggunaan master data dan master data management (MDM) seperti yang
diperkenalkan di Bab 2. Proses MDM mengintegrasikan data dari berbagai sumber atau aplikasi
perusahaan untuk membuat tampilan pelanggan, produk, atau entitas lain yang lebih lengkap (terpadu).
Gambar 3.9 menunjukkan bagaimana data master berfungsi sebagai lapisan antara data transaksional
dalam database dan data analitik di gudang data. Meskipun vendor mungkin mengklaim bahwa solusi
MDM mereka menciptakan "satu versi kebenaran", klaim ini mungkin tidak benar. Pada kenyataannya,
MDM tidak dapat membuat satu versi data terpadu karena membangun tampilan yang sepenuhnya
terpadu dari semua data master sama sekali tidak mungkin.

File Referensi Master dan Entitas Data Secara realistis, MDM menggabungkan data dari berbagai sumber
data ke dalam file referensi utama, yang kemudian memasukkan data kembali ke aplikasi, sehingga
menciptakan data yang akurat dan konsisten di seluruh perusahaan. Dalam TI di Tempat Kerja 3.1,
peserta dalam rantai pasokan layanan kesehatan pada dasarnya mengembangkan file referensi utama
dari entitas data utamanya. Entitas data adalah segala sesuatu yang nyata atau abstrak yang ingin
dikumpulkan dan disimpan oleh perusahaan. Entitas data master adalah entitas utama perusahaan,
seperti pelanggan, produk, pemasok, karyawan, dan aset.

Setiap departemen memiliki kebutuhan data master yang berbeda. Pemasaran, misalnya, berkaitan
dengan harga produk, merek, dan kemasan produk, sedangkan produksi berkaitan dengan biaya dan
jadwal produk. File referensi master pelanggan dapat memasukkan data ke semua sistem perusahaan
yang memiliki komponen hubungan pelanggan, sehingga memberikan gambaran pelanggan yang lebih
terpadu. Demikian pula, file referensi master produk dapat memasukkan data ke semua sistem produksi
dalam perusahaan. MDM mencakup alat untuk membersihkan dan mengaudit elemen data master serta
alat untuk mengintegrasikan dan menyinkronkan data agar lebih mudah diakses. MDM menawarkan
solusi bagi para manajer yang frustrasi dengan betapa terfragmentasi dan tersebarnya sumber data
mereka.

3.3 Gudang Data


Gudang data adalah sumber utama data yang dibersihkan untuk analisis, pelaporan, dan intelijen bisnis
(BI). Seringkali data diringkas dengan cara yang memungkinkan respons cepat terhadap kueri. Misalnya,
hasil kueri dapat mengungkapkan perubahan perilaku pelanggan dan mendorong keputusan untuk
mengembangkan kembali strategi periklanan.

Gudang data yang mengumpulkan data dari sumber dan database yang berbeda di seluruh seluruh
perusahaan disebut gudang data perusahaan (EDW). Gudang data menyimpan data dari berbagai sistem
sumber dan database di seluruh perusahaan untuk menjalankan kueri analitik terhadap kumpulan data
besar yang dikumpulkan selama periode waktu yang lama. Biaya gudang data yang tinggi dapat
membuatnya terlalu mahal untuk diterapkan oleh perusahaan. Data mart adalah versi gudang data
dengan biaya lebih rendah dan diperkecil yang dapat diimplementasikan dalam waktu yang jauh lebih
singkat, misalnya, dalam waktu kurang dari 90 hari. Data mart melayani departemen atau fungsi
tertentu, seperti keuangan, pemasaran, atau operasi. Karena mereka menyimpan jumlah data yang lebih
kecil, mereka lebih cepat dan lebih mudah digunakan, dan dinavigasi.

Prosedur untuk Mempersiapkan Data EDW untuk Analitik

Pertimbangkan database bank. Setiap penyetoran, penarikan, pembayaran pinjaman, atau transaksi
lainnya menambah atau mengubah data. Volatilitas yang disebabkan oleh pemrosesan transaksi yang
konstan membuat analisis data menjadi sulit—dan tuntutan untuk memproses jutaan transaksi per detik
menghabiskan kekuatan pemrosesan database. Sebaliknya, data di gudang relatif stabil, sesuai
kebutuhan untuk analisis. Oleh karena itu, pilih data yang dipindahkan dari database ke gudang. Secara
khusus, datanya adalah sebagai berikut:

1. Diekstraksi dari database yang ditunjuk.

2. Ditransformasikan dengan menstandardisasi format, membersihkan data, mengintegrasikannya.


3. Dimuat ke dalam gudang data.

Ketiga prosedur ini—mengekstrak, mengubah, dan memuat—disebut dengan inisial ETL (Gambar 3.10).
Di gudang, data hanya-baca; yaitu, mereka tidak berubah sampai ETL berikutnya.

Tiga teknologi yang terlibat dalam menyiapkan data mentah untuk analitik termasuk ETL, change data
capture (CDC), dan deduplikasi data (“deduping data”). Proses CDC menangkap perubahan yang dibuat
pada sumber data dan kemudian menerapkan perubahan tersebut di seluruh penyimpanan data
perusahaan untuk menjaga sinkronisasi data. CDC meminimalkan sumber daya yang diperlukan untuk
proses ETL dengan hanya menangani perubahan data. Proses deduping menghapus duplikat dan
menstandardisasi format data, yang membantu meminimalkan penyimpanan dan sinkronisasi data.

Membangun Gudang Data

Gambar 3.11 menggambarkan proses membangun dan menggunakan data warehouse. Data organisasi
dari sistem proses transaksi operasional disimpan dalam database operasional
(sisi kiri gambar). Tidak semua data ditransfer ke gudang data. Seringkali, hanya data ringkasan yang
ditransfer. Gudang mengatur data dalam berbagai cara—berdasarkan subjek, area fungsional, vendor,
dan produk. Seperti yang ditunjukkan, arsitektur gudang data mendefinisikan aliran data yang dimulai
ketika data ditangkap oleh sistem transaksi; data sumber disimpan dalam database transaksional
(operasional); Proses ETL memindahkan data dari database ke gudang data atau data mart, di mana data
tersedia untuk akses, laporan, dan analisis.

Dukungan Real-Time dari Gudang Data Aktif

Teknologi gudang data awal terutama mendukung aplikasi strategis yang tidak memerlukan waktu
respons instan, interaksi pelanggan langsung, atau integrasi dengan sistem operasional. ETL mungkin
dilakukan seminggu sekali atau sebulan sekali. Namun, permintaan akan informasi untuk mendukung
interaksi dan operasi pelanggan waktu nyata mengarah ke pergudangan dan analitik data waktu nyata—
dikenal sebagai active data warehouse (ADW). Peningkatan besar-besaran dalam daya komputasi,
kecepatan pemrosesan, dan memori memungkinkan ADW. ADW tidak dirancang untuk mendukung
pengambilan keputusan strategis eksekutif, melainkan untuk mendukung operasi. Misalnya, perusahaan
pelayaran seperti DHL menggunakan armada truk yang besar untuk memindahkan jutaan paket. Setiap
hari dan sepanjang hari, manajer operasional membuat ribuan keputusan yang mempengaruhi laba,
seperti: "Apakah kita perlu empat truk untuk menjalankan ini?" "Dengan dua pengemudi tertunda
karena cuaca buruk, apakah kita perlu membawa bantuan ekstra?" Pergudangan data tradisional tidak
cocok untuk dukungan operasional langsung, tetapi pergudangan data aktif. Misalnya, perusahaan
dengan ADW dapat:

• Berinteraksi dengan pelanggan untuk memberikan layanan pelanggan yang unggul.

• Menanggapi acara bisnis dalam waktu dekat.

• Bagikan data status terkini di antara pedagang, vendor, pelanggan, dan rekanan.

Berikut adalah beberapa contoh bagaimana dua perusahaan menggunakan ADW.

Capital One. Capital One menggunakan ADW-nya untuk melacak "skor profitabilitas" setiap pelanggan
untuk menentukan tingkat layanan pelanggan yang akan diberikan kepada orang tersebut. Layanan
pribadi berbiaya lebih tinggi hanya diberikan kepada mereka yang memiliki skor tinggi. Misalnya, ketika
seorang pelanggan menelepon Capital One, dia diminta untuk memasukkan nomor kartu kredit, yang
terkait dengan skor profitabilitas. Pelanggan berpenghasilan rendah hanya mendapatkan unit respons
suara; pelanggan dengan laba tinggi terhubung ke perwakilan layanan pelanggan (CSR) langsung karena
perusahaan ingin meminimalkan risiko kehilangan pelanggan tersebut.

kota wisata. Jika Anda menggunakan Travelocity, ADW akan menemukan penawaran perjalanan terbaik
khusus untuk Anda. Tujuannya adalah untuk menggunakan "data hari ini hari ini" daripada "data
kemarin hari ini." ADW biro perjalanan online menganalisis riwayat pencarian Anda dan tujuan yang
menarik; kemudian memprediksi penawaran perjalanan yang kemungkinan besar akan Anda beli.
Penawaran relevan dan tepat waktu untuk meningkatkan pengalaman Anda, yang membantu menutup
penjualan di pasar yang sangat kompetitif. Misalnya, ketika pelanggan mencari penerbangan dan hotel
di Las Vegas, Travelocity mengenali minat—pelanggan ingin pergi ke Vegas. ADW mencari penerbangan
dengan harga terbaik dari semua operator, membuat beberapa penawaran paket, dan menyajikannya
secara real time kepada pelanggan. Ketika pelanggan melihat penawaran yang dipersonalisasi yang
sudah mereka minati, ADW membantu menghasilkan pengalaman pelanggan yang lebih baik.
Pengalaman berbasis data waktu nyata meningkatkan tingkat konversi dan penjualan. Konten gudang
data dapat dikirimkan ke pengambil keputusan di seluruh perusahaan melalui cloud atau intranet milik
perusahaan. Pengguna dapat melihat, menanyakan, dan menganalisis data dan menghasilkan laporan
menggunakan browser Web. Ini adalah metode pengiriman data yang sangat ekonomis dan efektif.

Data Warehousing Mendukung Tindakan serta Keputusan

Banyak organisasi membangun gudang data karena mereka frustrasi dengan data yang tidak konsisten
yang tidak dapat mendukung keputusan atau tindakan. Dilihat dari perspektif ini, data warehouse
adalah investasi infrastruktur yang dilakukan perusahaan untuk mendukung operasi yang sedang
berlangsung dan yang akan datang, antara lain sebagai berikut:

• Pemasaran Memberi informasi kepada orang-orang tentang status produk, efektivitas program
pemasaran, dan profitabilitas lini produk; dan memungkinkan mereka mengambil tindakan cerdas untuk
memaksimalkan profitabilitas per pelanggan.

• Harga dan kontrak Menghitung biaya secara akurat untuk mengoptimalkan harga kontrak. Tanpa data
biaya yang akurat, harga mungkin di bawah atau terlalu dekat dengan biaya; atau harga mungkin tidak
kompetitif karena terlalu tinggi.

• Peramalan Memperkirakan permintaan pelanggan untuk produk dan layanan.

• Penjualan Menghitung profitabilitas dan produktivitas penjualan untuk semua wilayah dan wilayah;
menganalisis hasil berdasarkan geografi, produk, grup penjualan, atau individu.

• Keuangan Menyediakan data real-time untuk persyaratan kredit yang optimal, analisis portofolio, dan
tindakan yang mengurangi risiko atau beban utang macet.
3.4 Analisis Data Besar dan Penemuan Data

Seperti seluler dan cloud, data besar dan analitik data tingkat lanjut membentuk kembali organisasi dan
proses bisnis untuk meningkatkan efisiensi dan meningkatkan kinerja. Firma riset IDC memperkirakan
bahwa pengeluaran data besar dan analitik akan mencapai $187 miliar pada tahun 2019
(Ovalsrud, 2016). Analisis data adalah alat penting di seluruh organisasi, yang membantu pengguna
menemukan wawasan waktu nyata yang bermakna untuk memenuhi harapan pelanggan, mencapai
hasil yang lebih baik, dan tetap kompetitif. Wawasan yang lebih dalam ini dikombinasikan dengan
keahlian manusia memungkinkan orang untuk mengenali hubungan yang bermakna dengan lebih cepat
atau mudah; dan lebih jauh lagi, menyadari implikasi strategis dari situasi ini. Bayangkan mencoba
memahami data yang cepat dan luas yang dihasilkan oleh kampanye media sosial di Facebook atau oleh
sensor yang dipasang pada mesin atau objek. Sensor berbiaya rendah memungkinkan untuk memantau
semua jenis hal fisik—sementara analitik memungkinkan untuk memahami data tersebut untuk
mengambil tindakan secara real time. Misalnya, data sensor dapat dianalisis secara real time:

• Untuk memantau dan mengatur suhu dan kondisi iklim makanan yang mudah rusak seperti:

mereka diangkut dari pertanian ke supermarket.

• Untuk mengendus tanda-tanda pembusukan buah-buahan dan sayuran mentah dan mendeteksi risiko
kontaminasi E. coli.

• Untuk melacak kondisi mesin yang beroperasi dan memprediksi kemungkinan kegagalan.

• Untuk melacak keausan mesin dan menentukan kapan pemeliharaan preventif diperlukan.

Di bagian ini, Anda akan belajar tentang nilai, tantangan, dan teknologi yang terlibat dalam penggunaan
data dan analitik untuk mendukung keputusan dan tindakan, bersama dengan contoh keahlian yang saat
ini sangat diminati oleh organisasi yang memperluas upaya mereka untuk melatih, mempekerjakan, dan
mempertahankan profesional data yang kompeten (Career Insight 3.1).
Big data adalah kumpulan data yang sangat besar yang terlalu besar atau kompleks untuk dianalisis
menggunakan teknik pemrosesan data tradisional.

Analisis data adalah teknik analisis kualitatif atau kuantitatif kumpulan data untuk mengungkapkan
pola, tren, dan asosiasi yang sering berhubungan dengan perilaku dan interaksi manusia, untuk
meningkatkan produktivitas dan keuntungan bisnis.

Ketika kumpulan data terlalu besar atau kompleks untuk dianalisis menggunakan aplikasi pemrosesan
data tradisional, alat analitik data besar digunakan. Salah satu sektor terbesar dari hubungan pelanggan
relatif terhadap data besar adalah analisis nilai pelanggan (CVA). CVA mempelajari fenomena baru-baru
ini bahwa pelanggan lebih bersedia untuk menggunakan dan membeli produk, layanan, dan saluran
layanan pelanggan yang inovatif sambil menuntut peningkatan jumlah produk yang dipersonalisasi dan
berkualitas tinggi. Perusahaan dan produsen menggunakan analitik data besar untuk menangkap
kombinasi ini untuk mengubah informasi menjadi data yang dapat digunakan untuk melacak dan
memprediksi tren. Jika perusahaan tahu apa yang disukai pelanggan, apa yang membuat mereka
membelanjakan lebih banyak, dan kapan mereka senang, mereka dapat memanfaatkan informasi untuk
membuat mereka senang dan menyediakan produk dan layanan yang lebih baik. Perusahaan juga dapat
menggunakan analitik data besar untuk menyimpan dan menggunakan data mereka di seluruh rantai
pasokan. Untuk memaksimalkan efektivitas analitik data, perusahaan biasanya menyelesaikan tujuan ini
selama proses transformasi input mereka:

• Berinvestasi besar dalam TI untuk mengumpulkan, mengintegrasikan, dan menganalisis data dari
setiap toko dan unit penjualan.

• Tautkan data ini ke database pemasok, sehingga memungkinkan untuk menyesuaikan harga secara
real time, untuk memesan ulang item yang laris secara otomatis, dan untuk memindahkan item dari
toko ke toko dengan mudah.

• Terus-menerus menguji, mengintegrasikan, dan melaporkan informasi yang tersedia secara instan di
seluruh organisasi— dari lantai toko hingga kantor CFO.

Program big data ini memungkinkan mereka untuk menunjukkan peluang peningkatan di seluruh rantai
pasokan—dari pembelian hingga manajemen ketersediaan di dalam toko. Secara khusus, perusahaan
mampu memprediksi bagaimana pelanggan akan berperilaku dan menggunakan pengetahuan itu untuk
bersiap merespons dengan cepat. Menurut Louis Columbus di Forbes, permintaan pasar untuk analitik
data besar akan mencapai peningkatan terbesar dalam sejarah. Perangkat lunak untuk analitik bisnis
akan meningkat lebih dari 50% pada tahun 2019. Perangkat lunak analitik preskriptif akan bernilai $1,1
miliar pada tahun 2019, dibandingkan dengan nilainya sebesar $415 juta pada tahun 2014. Sejak
meningkatkan fokus pada tren permintaan pelanggan, secara efektif memasuki pasar baru dan
memproduksi model bisnis yang lebih baik, dan meningkatkan kinerja organisasi adalah tujuan
terpenting bagi perusahaan abad ke-21, analisis bisnis akan dibutuhkan di hampir setiap contoh.
Memanfaatkan manfaat intelijen bisnis memungkinkan sektor-sektor seperti perawatan kesehatan
bersaing di area yang sebelumnya tidak dapat mereka masuki (Columbus, 2016). Agar efektif dalam
menggunakan analisis data, organisasi harus memperhatikan empat V analitik—keragaman, volume,
kecepatan, dan kebenaran—ditunjukkan pada Gambar 3.12

. Data besar dapat memiliki dampak dramatis pada keberhasilan perusahaan mana pun, at au mereka
dapat menjadi pengeluaran besar dengan kontribusi rendah. Namun, kesuksesan tidak dicapai dengan
teknologi saja. Banyak perusahaan mengumpulkan dan menangkap data dalam jumlah besar, tetapi
menghabiskan sedikit upaya untuk memastikan kebenaran dan nilai data yang diambil pada tahap
transaksional atau titik asal. Penekanan pada arah ini tidak hanya akan meningkatkan kepercayaan pada
kumpulan data, tetapi juga secara signifikan mengurangi upaya analitik dan meningkatkan kualitas
pengambilan keputusan. Keberhasilan juga bergantung pada memastikan bahwa Anda menghindari
asumsi yang tidak valid, yang dapat dilakukan dengan menguji asumsi selama analisis.

Dibutuhkan Keahlian dan Pertimbangan Manusia

Keahlian dan penilaian manusia diperlukan untuk menginterpretasikan keluaran analitik (lihat
Gambar 3.13). Data tidak berharga jika Anda tidak dapat menganalisis, menafsirkan, memahami, dan
menerapkan hasilnya dalam konteks. Hal ini memunculkan beberapa tantangan:

• Data perlu disiapkan untuk analisis Misalnya, data yang tidak lengkap atau duplikat perlu diperbaiki.

• Data kotor menurunkan nilai analitik “Kebersihan” data sangat penting untuk proyek penambangan
dan analisis data. Analis mengeluh bahwa analitik data seperti pekerjaan kebersihan karena mereka
menghabiskan begitu banyak waktu untuk proses manual yang rawan kesalahan untuk membersihkan
data. Volume dan variasi data yang besar berarti lebih banyak data yang kotor dan lebih sulit untuk
ditangani.

• Data harus dimasukkan ke dalam konteks yang berarti Jika analisis atau kumpulan data yang salah
digunakan, hasilnya akan menjadi tidak masuk akal, seperti pada contoh pemenang Super Bowl dan
kinerja pasar saham. Dinyatakan secara terbalik, manajer membutuhkan konteks untuk memahami
bagaimana menafsirkan data tradisional dan besar.
IT at Work 3.2 menjelaskan bagaimana analitik data besar, kolaborasi, dan keahlian manusia telah
mengubah proses pengembangan obat baru. Data sensor yang dihasilkan mesin menjadi proporsi yang
lebih besar dari data besar (Gambar 3.14), menurut laporan penelitian oleh IDC (2015). Diperkirakan
bahwa data ini akan meningkat menjadi dua pertiga dari semua data pada tahun 2020, mewakili
peningkatan yang signifikan dari tingkat 11% pada tahun 2005. Selain pertumbuhannya sebagai bagian
dari data yang dianalisis, pasar untuk data sensor akan meningkat menjadi $1,7 triliun pada tahun 2020.
Di sisi konsumen, faktor penting di pasar ini adalah ledakan teknologi yang dapat dikenakan—produk
seperti FitBit dan Apple Watch. Pengguna bahkan tidak perlu lagi memasukkan data ke perangkat ini
karena secara otomatis dikumpulkan dan dilacak secara real time. Di sektor publik dan perusahaan, data
sensor dan Internet of Things (IoT) digunakan dalam kemajuan proses bisnis yang mendukung TI seperti
pabrik otomatis dan pusat distribusi serta produk yang mendukung TI seperti teknologi yang dapat
dikenakan (IDC,  2015) . Upaya reformasi kesehatan federal telah mendorong organisasi perawatan
kesehatan menuju data besar dan analitik. Organisasi-organisasi ini berencana menggunakan analitik
data besar untuk mendukung manajemen siklus pendapatan, pemanfaatan sumber daya, pencegahan
penipuan, manajemen kesehatan, dan peningkatan kualitas.

Hadoop dan MapReduce Volume data besar melebihi kapasitas pemrosesan infrastruktur basis data
konvensional. Platform pemrosesan yang banyak digunakan adalah Apache Hadoop.

Itu tidak menempatkan kondisi pada struktur data yang dapat diprosesnya. Hadoop mendistribusikan
masalah komputasi di sejumlah server. Hadoop mengimplementasikan MapReduce dalam dua tahap:

1. Tahap peta MapReduce memecah kumpulan data besar menjadi himpunan bagian yang lebih kecil;
kemudian mendistribusikan subset di antara beberapa server tempat mereka diproses sebagian.

2. Tahap pengurangan Hasil sebagian dari tahap peta kemudian digabungkan kembali dan tersedia untuk
alat analisis.
Untuk menyimpan data, Hadoop memiliki sistem file terdistribusi sendiri, Hadoop File System (HDFS),
yang berfungsi dalam tiga tahap:

• Memuat data ke dalam HDFS.

• Melakukan operasi MapReduce.

• Mengambil hasil dari HDFS.

Gambar 3.15 menunjukkan bagaimana Facebook menggunakan teknologi database dan Hadoop. IT at


Work 3.3 menjelaskan bagaimana First Wind telah menerapkan analitik data besar untuk meningkatkan
operasi ladang anginnya dan untuk mendukung keberlanjutan planet ini dengan mengurangi kerusakan
lingkungan emisi karbon.

Data dan Teks mining

Penambangan data dan teks berbeda dari DBMS dan analitik data. Seperti yang telah Anda baca
sebelumnya dalam bab ini, DBMS mendukung query untuk mengekstrak data atau mendapatkan
jawaban dari database besar. Namun, untuk melakukan query dalam DBMS Anda harus terlebih dahulu
mengetahui pertanyaan yang ingin Anda jawab. Anda juga telah membaca bahwa Analisis Data
menjelaskan seluruh fungsi penerapan teknologi, algoritme, keahlian manusia, dan penilaian.
Penambangan data dan teks adalah teknik analitik khusus yang memungkinkan pengguna menemukan
pengetahuan yang tidak mereka ketahui ada di basis data. Perangkat lunak penambangan data
memungkinkan pengguna untuk menganalisis data dari berbagai dimensi atau sudut,
mengkategorikannya, dan menemukan korelasi atau pola di antara bidang-bidang di gudang data.
Hingga 75% dari data organisasi adalah dokumen pengolah kata yang tidak terstruktur, media sosial,
pesan teks, audio, video, gambar dan diagram, faks dan memo, pusat panggilan atau catatan klaim, dan
sebagainya. IT at Work 3.4 menjelaskan salah satu contoh bagaimana pemerintah AS menggunakan
perangkat lunak penambangan data untuk terus meningkatkan sistem deteksi dan pencegahannya.
Penambangan teks adalah kategori luas yang melibatkan penafsiran kata dan konsep dalam konteks.
Setiap pelanggan menjadi advokat atau musuh merek dengan bebas mengekspresikan pendapat dan
sikap yang menjangkau jutaan pelanggan saat ini atau calon pelanggan di media sosial. Penambangan
teks membantu perusahaan memanfaatkan ledakan opini pelanggan yang diungkapkan secara online.
Komentar sosial dan media sosial sedang ditambang untuk analisis sentimen atau untuk memahami
maksud konsumen. Perusahaan yang inovatif tahu bahwa mereka bisa lebih berhasil dalam memenuhi
kebutuhan pelanggan mereka, jika mereka memahaminya dengan lebih baik. Alat dan teknik untuk
menganalisis teks, dokumen, dan konten tidak terstruktur lainnya tersedia dari beberapa vendor.
Menggabungkan data dan penambangan teks dapat menciptakan nilai yang lebih besar. Burns (2016)
menunjukkan bahwa teks pertambangan atau data nonstruktural memungkinkan organisasi untuk
meramalkan masa depan, bukan hanya melaporkan masa lalu. Dia juga mencatat bahwa metode
peramalan menggunakan data terstruktur yang ada dan teks tidak terstruktur dari keduanya

sumber internal dan eksternal memberikan pandangan terbaik tentang apa yang ada di depan.

Menciptakan Nilai Bisnis

Perusahaan berinvestasi dalam alat penambangan data untuk menambah nilai bisnis. Nilai bisnis terbagi
dalam tiga kategori, seperti yang ditunjukkan pada Gambar 3.16.

Berikut adalah beberapa kasus singkat yang menggambarkan jenis nilai bisnis yang diciptakan oleh data
dan text mining.
1. Menggunakan analisis pola, Argo Corporation, produsen peralatan pertanian yang berbasis di Georgia,
mampu mengoptimalkan opsi konfigurasi produk untuk mesin pertanian dan permintaan pelanggan
waktu nyata untuk menentukan konfigurasi dasar yang optimal untuk mesinnya. Akibatnya, Argo
mengurangi variasi produk sebesar 61% dan memangkas hari persediaan sebesar 81% sambil tetap
mempertahankan tingkat layanannya.

2. Pengecer besar Walmart ingin pembeli onlinenya menemukan apa yang mereka cari lebih cepat.
Walmart menganalisis data clickstream dari 45 juta pembeli online bulanannya; kemudian
menggabungkan data tersebut dengan skor popularitas terkait produk dan kategori. Skor popularitas
telah dihasilkan oleh penambangan teks aliran media sosial pengecer. Pelajaran yang didapat dari
analisis diintegrasikan ke dalam mesin pencari Polaris yang digunakan oleh pelanggan di situs web
perusahaan. Polaris telah menghasilkan peningkatan 10% hingga 15% pada pembeli online yang
menyelesaikan pembelian, yang setara dengan sekitar $1 miliar dalam penjualan online tambahan.

3. Operasi toko roti McDonald's menggantikan peralatan manual dengan analisis foto berkecepatan
tinggi untuk memeriksa ribuan roti per menit untuk warna, ukuran, dan distribusi biji wijen. Secara
otomatis, oven dan proses pemanggangan menyesuaikan secara instan untuk membuat roti yang
seragam dan mengurangi ribuan pon limbah setiap tahun. Perusahaan produk makanan lain juga
menggunakan analisis foto untuk menyortir setiap kentang goreng yang diproduksi untuk
mengoptimalkan kualitas.

4. Infinity Insurance menemukan wawasan baru yang diterapkan untuk meningkatkan kinerja operasi
penipuannya. Perusahaan asuransi mengirim teks laporan adjuster bertahun-tahun untuk mencari
pendorong utama klaim penipuan. Akibatnya, perusahaan mengurangi penipuan sebesar 75%, dan
menghilangkan pemasaran kepada pelanggan dengan kemungkinan besar klaim penipuan.

Prosedur Analisis Teks

Dengan analitik teks, informasi diekstraksi dari sejumlah besar berbagai jenis informasi tekstual.
Langkah-langkah dasar yang terlibat dalam analisis teks meliputi:

1. Eksplorasi Pertama, dokumen dieksplorasi. Ini mungkin terjadi dalam bentuk jumlah kata sederhana
dalam kumpulan dokumen, atau dengan membuat area topik secara manual untuk mengkategorikan
dokumen setelah membaca sampelnya. Misalnya, apa jenis masalah utama (rem atau kerusakan mesin)
yang telah diidentifikasi dalam klaim garansi mobil baru-baru ini? Tantangan dari upaya eksplorasi
adalah kata, akronim, atau slang yang salah eja atau disingkat.

2. Prapemrosesan Sebelum analisis atau kategorisasi otomatis konten, teks mungkin perlu diproses
terlebih dahulu untuk menstandarkannya sejauh mungkin. Seperti dalam analisis tradisional, hingga 80%
waktu prapemrosesan dapat dihabiskan untuk menyiapkan dan menstandarisasi data. Kata-kata yang
salah eja, singkatan, dan bahasa gaul mungkin perlu diubah menjadi istilah yang konsisten. Misalnya,
BTW akan distandarisasi menjadi "omong-omong" dan "pesan suara kiri" dapat ditandai sebagai "lvm."
3. Mengkategorikan dan memodelkan Konten kemudian siap untuk dikategorikan. Mengkategorikan
pesan atau dokumen dari informasi yang terkandung di dalamnya dapat dicapai dengan menggunakan
model statistik dan aturan bisnis. Seperti pengembangan model tradisional, dokumen sampel diperiksa
untuk melatih model. Dokumen tambahan kemudian diproses untuk memvalidasi akurasi dan presisi
model, dan terakhir dokumen baru dievaluasi menggunakan model akhir (skor). Model kemudian dapat
dimasukkan ke dalam produksi untuk pemrosesan otomatis dokumen baru saat mereka tiba.

Peringkat Vendor Analytics

Aplikasi analitik mencakup fungsi intelijen bisnis yang dijual sebagai aplikasi mandiri untuk dukungan
keputusan atau disematkan dalam solusi terintegrasi. Pengenalan alat pendukung keputusan intuitif,
dasbor, dan visualisasi data (dibahas secara mendetail di Bab 11) memiliki dukungan

menambahkan beberapa komponen interaktif yang menarik ke analitik data besar untuk menghidupkan
data dan memungkinkan orang yang tidak ahli menggunakannya. Organisasi berinvestasi dalam analitik,
BI, dan aplikasi penambangan data/teks berdasarkan fitur dan kemampuan baru di luar yang ditawarkan
oleh sistem warisan mereka. Vendor analitik menawarkan segalanya mulai dari alat pelaporan yang
mudah digunakan hingga perangkat lunak yang sangat canggih untuk mengatasi masalah analisis data
yang paling kompleks. Daftar lima vendor analitik dan aplikasi BI teratas ditampilkan di Tabel 3.4.

3.5 Intelijen Bisnis dan Manajemen Arsip Elektronik


Perkembangan berkelanjutan dalam analitik data dan intelijen bisnis (BI) membuat semakin penting bagi
organisasi untuk menyadari perbedaan antara istilah-istilah ini dan berbagai cara mereka menambahkan
nilai dalam suatu organisasi. Bidang BI dimulai pada akhir 1980-an dan telah menjadi kunci keunggulan
kompetitif di seluruh industri dan di perusahaan dari semua ukuran. Tidak seperti analitik data yang
memiliki kemampuan prediktif, BI adalah istilah komprehensif yang mengacu pada alat analitik dan
pelaporan yang secara tradisional digunakan untuk menentukan tren dalam data historis. Perbedaan
utama antara analitik data dan BI adalah bahwa analitik menggunakan algoritme untuk secara statistik
menentukan hubungan antara data sedangkan BI menyajikan wawasan data yang dibuat oleh analitik
data dalam laporan, dasbor yang mudah digunakan, dan visualisasi interaktif. BI juga dapat
memudahkan pengguna untuk mengajukan pertanyaan terkait data dan memperoleh hasil yang
disajikan dengan cara yang mudah dipahami. Apa yang dimulai sebagai alat untuk mendukung
departemen penjualan, pemasaran, dan layanan pelanggan telah berkembang secara luas menjadi
platform strategis perusahaan yang luas. Sementara perangkat lunak BI digunakan dalam manajemen
operasional divisi dan proses bisnis, mereka juga digunakan untuk mendukung pengambilan keputusan
strategis perusahaan. Perubahan dramatis yang telah berlaku selama beberapa tahun terakhir adalah
pertumbuhan permintaan untuk intelijen operasional di berbagai sistem dan bisnis—meningkatkan
jumlah orang yang membutuhkan akses ke jumlah data yang meningkat. Kondisi bisnis yang kompleks
dan kompetitif tidak menyisakan banyak kesalahan. Sayangnya, beberapa perusahaan tidak dapat
menggunakan data mereka secara efisien, menciptakan biaya yang lebih tinggi untuk mengumpulkan
informasi daripada manfaat yang diberikannya. Untungnya, perangkat lunak BI membawa informasi
pengambilan keputusan ke bisnis hanya dalam dua klik. Usaha kecil memiliki minat yang sama dengan
perusahaan besar untuk meminta BI membantu pengambilan keputusan, tetapi mereka biasanya tidak
dilengkapi untuk membangun pusat data dan menggunakan dana untuk menyewa analis dan konsultan
TI. Namun, perangkat lunak BI bisnis kecil berkembang pesat di bidang analitik, dan semakin murah
untuk mengimplementasikannya sebagai alat pengambilan keputusan. Bisnis kecil tidak selalu memiliki
pekerja yang berspesialisasi dalam bidang tertentu, tetapi perangkat lunak BI memudahkan semua
karyawan untuk menganalisis data dan membuat keputusan (King, 2016).

Intelijen bisnis (BI) adalah seperangkat alat dan teknik untuk memperoleh dan mengubah data mentah
menjadi informasi yang bermakna dan berguna untuk tujuan analisis bisnis dalam bentuk laporan,
dasbor, atau visualisasi interaktif.

Manfaat Bisnis BI

BI menyediakan data pada saat yang bernilai bagi pembuat keputusan—memungkinkannya untuk
mengekstrak fakta penting dari data perusahaan secara real time atau mendekati real time. Solusi BI
dengan dasbor yang dirancang dengan baik, misalnya, memberi pengecer visibilitas yang lebih baik ke
inventaris untuk membuat keputusan yang lebih baik tentang apa yang harus dipesan, berapa banyak,
dan kapan untuk mencegah kehabisan stok atau meminimalkan inventaris yang ada di rak gudang.

Perusahaan menggunakan solusi BI

untuk menentukan pertanyaan apa yang harus diajukan dan menemukan jawaban atas pertanyaan
tersebut. Alat BI mengintegrasikan dan mengkonsolidasikan data dari berbagai sumber internal dan
eksternal dan kemudian memprosesnya menjadi informasi untuk membuat keputusan yang cerdas. BI
menjawab pertanyaan seperti ini:
Produk mana yang memiliki tingkat penjualan berulang tertinggi dalam enam bulan terakhir? Apakah
kesukaan pelanggan di Facebook berhubungan dengan pembelian produk? Bagaimana tren penjualan
dibagi berdasarkan kelompok produk selama lima tahun terakhir? Seperti apa penjualan harian di setiap
wilayah penjualan saya? Menurut The Data Warehousing Institute, BI “menyatukan data, teknologi,
analitik, dan pengetahuan manusia untuk mengoptimalkan keputusan bisnis dan pada akhirnya
mendorong kesuksesan perusahaan. Program BI biasanya menggabungkan gudang data perusahaan dan
platform atau alat BI untuk mengubah data menjadi informasi bisnis yang dapat digunakan dan
ditindaklanjuti” (The Data Warehousing Institute, 2014). Selama bertahun-tahun, para manajer
mengandalkan analisis bisnis untuk membuat keputusan yang lebih tepat. Berbagai survei dan studi
menyepakati pentingnya BI yang semakin meningkat dalam menganalisis kinerja masa lalu dan
mengidentifikasi peluang untuk meningkatkan kinerja masa depan.

Tantangan Umum: Pemilihan dan Kualitas Data

Perusahaan tidak dapat menganalisis semua data mereka—dan sebagian besar tidak akan menambah
nilai. Oleh karena itu, tantangan tanpa akhir adalah bagaimana menentukan data mana yang akan
digunakan untuk BI dari opsi yang tampaknya tidak terbatas (Oliphant, 2016). Salah satu tujuan strategi
BI adalah menyediakan kerangka kerja untuk memilih data yang paling relevan tanpa membatasi pilihan
untuk mengintegrasikan sumber data baru. Informasi yang berlebihan merupakan masalah utama bagi
para eksekutif dan karyawan. Tantangan umum lainnya adalah kualitas data, terutama yang berkaitan
dengan informasi online, karena sumber dan keakuratannya mungkin tidak dapat diverifikasi.

Menyelaraskan Strategi BI dengan Strategi Bisnis

Laporan dan dasbor adalah alat pengiriman, tetapi mungkin tidak memberikan intelijen bisnis. Untuk
mendapatkan nilai terbaik dari BI, CIO perlu bekerja dengan CFO dan pemimpin bisnis lainnya untuk
membuat program tata kelola BI yang misinya adalah

untuk mencapai hal berikut (Ladley, 2016):

1. Mengartikulasikan strategi bisnis dengan jelas.

2. Mendekonstruksi strategi bisnis menjadi serangkaian tujuan dan sasaran khusus—target.

3. Identifikasi indikator kinerja utama (KPI) yang akan digunakan untuk mengukur kemajuan menuju
setiap target.

4. Prioritaskan daftar KPI.

5. Membuat rencana untuk mencapai tujuan dan sasaran berdasarkan prioritas.

6. Perkirakan biaya yang diperlukan untuk mengimplementasikan rencana BI.

7. Menilai dan memperbaharui prioritas berdasarkan hasil bisnis dan perubahan strategi bisnis.
Setelah menyelesaikan aktivitas ini, analis BI dapat mengidentifikasi data yang akan digunakan di BI dan
sistem sumber. Ini adalah pendekatan pengembangan berbasis bisnis yang dimulai dengan strategi
bisnis dan bekerja mundur untuk mengidentifikasi sumber data dan data yang perlu diperoleh dan
dianalisis. Bisnis menginginkan KPI yang dapat digunakan oleh pengguna dan manajemen departemen.
Selain itu, pengguna menginginkan akses real-time ke data ini sehingga mereka dapat memantau proses
dengan latensi sekecil mungkin dan mengambil tindakan korektif setiap kali KPI menyimpang dari target
mereka. nilai-nilai. Untuk menghubungkan perspektif strategis dan operasional, pengguna harus dapat
menelusuri dari angka-angka yang sangat terkonsolidasi atau diringkas ke dalam angka-angka rinci dari
mana mereka berasal untuk melakukan analisis mendalam.

Arsitektur dan Analisis BI

Arsitektur BI mengalami kemajuan teknologi dalam menanggapi data besar dan tuntutan kinerja
pengguna akhir (Wise, 2016). Vendor BI menghadapi tantangan sosial, sensor, dan tipe data baru lainnya
yang harus dikelola dan dianalisis. Salah satu kemajuan teknologi yang dapat membantu menangani big
data adalah BI di cloud. Gambar 3.17 mencantumkan faktor utama yang berkontribusi terhadap
peningkatan penggunaan BI. Itu dapat di-host di cloud publik atau pribadi. Meskipun layanan cloud
datang dengan lebih banyak perawatan, mengoptimalkan layanan dan menyesuaikannya untuk
perusahaan membawa manfaat yang tak terbantahkan dalam keamanan data. Dengan cloud publik,
penyedia layanan menghosting data dan/atau perangkat lunak yang diakses melalui koneksi Internet.
Untuk private cloud, perusahaan menghosting data dan perangkat lunaknya sendiri, tetapi
menggunakan teknologi berbasis cloud.

Untuk BI berbasis cloud, opsi populer yang ditawarkan oleh semakin banyak vendor alat BI adalah
perangkat lunak sebagai layanan (SaaS). MicroStrategy menawarkan MicroStrategy Cloud, yang
menyediakan penerapan cepat dengan pengurangan risiko dan biaya proyek. Pendekatan cloud ini
menarik bagi perusahaan kecil dan menengah yang memiliki staf TI terbatas dan ingin mengontrol biaya
dengan hati-hati. Kerugian potensial termasuk waktu respons yang lebih lambat, risiko keamanan, dan
risiko cadangan.

Analisis Kompetitif dalam Praktik: CarMax CarMax, Inc. adalah pengecer mobil bekas terbesar di negara
ini dan selama satu dekade tetap menjadi salah satu dari “100 Perusahaan Terbaik untuk Bekerja”
Majalah FORTUNE. CarMax adalah peritel tercepat dalam sejarah AS yang mencapai pendapatan $1
miliar. Pada tahun 2016 perusahaan memiliki lebih dari $15 miliar dalam penjualan bersih dan
pendapatan operasional, mewakili peningkatan 6,2% dari hasil tahun sebelumnya. Perusahaan
berkembang pesat karena penawaran pelanggan yang menarik—harga tanpa tawar-menawar dan
jaminan kualitas yang didukung oleh inspeksi 125 poin yang menjadi tolok ukur industri—dan
pembiayaan mobil. Per 30 November 2016, CarMax beroperasi di 169 lokasi di 39 negara bagian AS dan
memiliki lebih dari 22.000 karyawan tetap dan paruh waktu. CarMax terus meningkatkan dan
menyempurnakan sistem informasinya, yang diyakini sebagai keunggulan kompetitif inti. TI CarMax
mencakup hal-hal berikut:

• IS berpemilik yang menangkap, menganalisis, menafsirkan, dan mendistribusikan data tentang mobil
yang dijual dan dibeli CarMax.

• Aplikasi analisis data yang melacak setiap pembelian; jumlah test drive dan aplikasi kredit per mobil;
preferensi warna di setiap demografi dan wilayah.

• Teknologi toko eksklusif yang menyediakan manajemen dengan data real-time tentang setiap aspek
operasi toko, seperti manajemen persediaan, harga, transfer kendaraan, lelang grosir, dan produktivitas
konsultan penjualan.

• Sistem manajemen inventaris canggih yang membantu manajemen mengantisipasi kebutuhan


inventaris di masa mendatang dan mengelola harga. Di seluruh CarMax, analitik digunakan sebagai aset
strategis dan wawasan yang diperoleh dari analitik tersedia untuk semua orang yang membutuhkannya.

Manajemen Arsip Elektronik/Electronic Records Management (erms)

Semua organisasi membuat dan menyimpan catatan bisnis. Catatan adalah dokumentasi dari peristiwa
bisnis, tindakan, keputusan, atau transaksi. Contohnya adalah kontrak, penelitian dan pengembangan,
dokumen sumber akuntansi, memo, komunikasi pelanggan/klien, keputusan perekrutan dan promosi,
notulen rapat, posting sosial, teks, email, konten situs web, catatan database, dan file kertas dan
elektronik. Dokumen bisnis seperti spreadsheet, pesan email, dan dokumen pengolah kata adalah jenis
catatan. Sebagian besar arsip disimpan dalam format elektronik dan dipelihara sepanjang siklus
hidupnya—dari pembuatan hingga pengarsipan akhir atau pemusnahan oleh sistem manajemen arsip
elektronik (ERMS). Salah satu penerapan ERMS adalah di perusahaan yang diwajibkan oleh undang-
undang untuk menyimpan dokumen keuangan setidaknya selama tujuh tahun, desain produk selama
beberapa dekade, dan pesan email tentang promosi pemasaran selama satu tahun. Alat ERM utama
adalah perangkat lunak alur kerja, alat pembuat, pemindai, dan basis data. Sistem ERM memiliki
kemampuan query dan pencarian sehingga dokumen dapat diidentifikasi dan diakses seperti data dalam
database. Sistem ini berkisar dari yang dirancang untuk mendukung kelompok kerja kecil hingga sistem
perusahaan yang mendukung Web dengan fitur lengkap.

Kewajiban Hukum untuk Menyimpan Catatan Bisnis

Perusahaan perlu bersiap untuk menanggapi audit, investigasi federal, tuntutan hukum, atau tindakan
hukum lainnya terhadap mereka. Jenis tuntutan hukum terhadap perusahaan meliputi pelanggaran
paten, kelalaian keamanan produk, pencurian kekayaan intelektual, pelanggaran kontrak, pemutusan
yang salah, pelecehan, diskriminasi, dan banyak lagi. Karena manajemen senior harus memastikan
bahwa perusahaan mereka mematuhi kewajiban hukum dan peraturan, mengelola arsip elektronik (e-
rekaman) merupakan isu strategis bagi organisasi baik di sektor publik maupun swasta. Keberhasilan
ERM sangat bergantung pada kemitraan dari banyak pemain kunci, yaitu, manajemen senior, pengguna,
manajer arsip, arsiparis, administrator, dan yang paling penting, personel TI. Dikelola dengan benar,
arsip adalah aset strategis. Tidak dikelola atau dihancurkan, mereka menjadi kewajiban.

Praktik Terbaik ERM

Sistem ERM yang efektif menangkap semua data dan dokumen bisnis pada titik kontak pertama mereka
—pusat data, laptop, ruang surat, di lokasi pelanggan, atau kantor jarak jauh. Catatan memasuki
perusahaan dengan berbagai cara—dari formulir online, kode batang, sensor, situs web, situs sosial,
mesin fotokopi, email, dan banyak lagi. Selain menangkap seluruh dokumen secara keseluruhan, data
penting dari dalam dokumen dapat ditangkap dan disimpan di pusat penyimpanan yang dapat dicari.
Dengan cara ini, data dapat diakses untuk mendukung keputusan bisnis yang terinformasi dan tepat
waktu. Dalam beberapa tahun terakhir, organisasi seperti Association for Information and Image
Management (AIIM), National Archives and Records Administration (NARA), dan ARMA International
(sebelumnya Association of Records Managers and Administrators) telah membuat dan menerbitkan
standar industri untuk dokumen dan arsip. pengelolaan.

Sistem manajemen catatan elektronik (ERMS) terdiri dari: perangkat keras dan perangkat lunak yang
mengelola dan mengarsipkan dokumen elektronik dan dokumen kertas gambar; kemudian mengindeks
dan menyimpannya sesuai dengan kebijakan perusahaan.

Banyak artikel praktik terbaik, dan tautan ke sumber informasi berharga tentang manajemen dokumen
dan catatan, tersedia di situs web mereka. IT Toolbox menjelaskan delapan kerangka prinsip pencatatan
yang diterima secara umum oleh ARMA.

Manfaat ERM

Departemen atau perusahaan yang karyawannya menghabiskan sebagian besar waktunya untuk
mengarsipkan atau mengambil dokumen atau menyimpan catatan kertas dapat mengurangi biaya
secara signifikan dengan ERM. Sistem ini meminimalkan inefisiensi dan frustrasi yang terkait dengan
pengelolaan dokumen kertas dan alur kerja. Namun, mereka tidak membuat kantor tanpa kertas seperti
yang diperkirakan sebelumnya. ERM dapat membantu bisnis menjadi lebih efisien dan produktif dengan
hal-hal berikut:

• Memungkinkan perusahaan untuk mengakses dan menggunakan konten yang terdapat dalam
dokumen.

• Memotong biaya tenaga kerja dengan mengotomatisasi proses bisnis.

• Mengurangi waktu dan upaya yang diperlukan untuk menemukan informasi yang dibutuhkan bisnis
untuk mendukung pengambilan keputusan.
• Meningkatkan keamanan konten, sehingga mengurangi risiko pencurian kekayaan intelektual.

• Meminimalkan biaya yang terkait dengan pencetakan, penyimpanan, dan pencarian konten.

Saat alur kerja digital, produktivitas meningkat, biaya berkurang, kewajiban kepatuhan lebih mudah
diverifikasi, dan komputasi hijau menjadi mungkin. Komputasi hijau adalah inisiatif untuk melestarikan
sumber daya alam kita yang berharga dengan mengurangi efek penggunaan komputer kita terhadap
lingkungan. Anda dapat membaca tentang komputasi hijau dan topik terkait untuk mengurangi jejak
karbon, keberlanjutan, serta tanggung jawab etika dan sosial organisasi di Bab 14. ERM untuk Pemulihan
Bencana, Keberlanjutan Bisnis, dan Kepatuhan

Bisnis juga mengandalkan sistem ERM mereka untuk pemulihan bencana dan kelangsungan bisnis,
keamanan, berbagi pengetahuan dan kolaborasi, serta akses dokumen dari jarak jauh dan terkontrol.
Karena sistem ERM memiliki kemampuan akses berlapis-lapis, karyawan hanya dapat mengakses dan
mengubah dokumen yang diizinkan untuk mereka tangani. Ketika perusahaan memilih ERM untuk
memenuhi persyaratan kepatuhan, mereka harus mengajukan pertanyaan berikut:

1. Apakah perangkat lunak memenuhi kebutuhan organisasi? Misalnya, dapatkah DMS diinstal pada
jaringan yang ada? Bisakah itu dibeli sebagai layanan?

2. Apakah perangkat lunak mudah digunakan dan dapat diakses dari browser Web, aplikasi kantor, dan
aplikasi email? Jika tidak, orang tidak akan menggunakannya.

3. Apakah perangkat lunak memiliki antarmuka pengguna grafis dan Web yang ringan dan modern yang
secara efektif mendukung pengguna jarak jauh?

4.Sebelum memilih vendor, penting untuk memeriksa alur kerja dan bagaimana data, dokumen, dan
komunikasi mengalir di seluruh perusahaan. Misalnya, mengetahui informasi dokumen mana yang
digunakan dalam keputusan bisnis. Setelah kebutuhan dan persyaratan tersebut diidentifikasi, mereka
memandu pemilihan teknologi yang dapat mendukung jenis input—yaitu, menangkap dan
mengindeksnya sehingga dapat diarsipkan secara konsisten dan diambil sesuai permintaan.

IT at Work 3.5 menjelaskan bagaimana beberapa perusahaan saat ini menggunakan ERM. Membuat
cadangan catatan saja tidak cukup karena konten tidak akan diatur dan diindeks untuk mengambilnya
secara akurat dan mudah. Persyaratan untuk mengelola arsip—terlepas dari apakah itu fisik atau digital
—bukanlah hal baru.

Anda mungkin juga menyukai