TEKNOLOGI INFORMASI UNTUK BISNIS
RANGKUMAN MATERI KULIAH
Big Data Concepts and Tools
Disusun oleh Kelompok 9 :
1. (172114034) Maria Ermelinda Ririn Riastuti / Penyusun
2. (172114088) Isodorus Cahyo Nugroho / Pengumpul
3. (172114023) Maura Septy Christiandani / Presenter
4. (172114048) Melania Rosi Maryono / Anggota
5. (172114005) Anggita Pusparani / Anggota
PROGRAM STUDI AKUNTANSI
FAKULTAS EKONOMI
UNIVERSITAS SANATA DHARMA YOGYAKARTA
SEPTEMBER 2019
A. Definisi Big Data
Big Data adalah istilah yang menggambarkan volume data yang besar, baik data yang
terstruktur maupun data yang tidak terstruktur. Big Data telah digunakan dalam banyak
bisnis. Tidak hanya besar data yang menjadi poin utama tetapi apa yang harus dilakukan
organisasi dengan data tersebut. Big Data dapat dianalisis untuk wawasan yang mengarah
pada pengambilan keputusan dan strategi bisnis yang lebih baik.
Banyak yang berpikir bahwa “big data” adalah istilah yang salah. Karena makna dari big
data sendiri tidak persis sama. Yaitu big data bukan hanya “besar”, tetapi big data hanyalah
salah satu dari karakteristik yang sering dikaitkan dengan big data termasuk variency
(variansi), velocity (kecepatan), veracity (kebenaran) variability (variabilitas) dan value
proposition (proporsi nilai).
"V" Yang Mendefinisikan Big Data
Big data biasanya di devinisikan oleh 3 V yaitu : Volume, Variety (variensi) dan Velocity
(kecepatan). Selain ketiga itu, dapat dilihiat beberapa penyedia solusi big data menambahkan
“V” lainnya, seperti Veracity (IBM), Variability (SAS), dan Value Proposition (proporsi nilai)
Volume. Merupakan sifat big data yang paling umum. Banyak faktor yang mempengaruhi
atau berkontribusi terhadap peningkatan volume data secara eksponensial, seperti data
berbasis transaksi yang disimpan selama bertahun-tahun, data teks yang terus mengalir dari
media sosial, peningkatan data sensor yang dikumpulkan dan sebagainya. Di masa lalu,
aktivitas semacam ini menjadi masalah, namun dengan adanya teknologi baru (seperti
Hadoop) bisa meredakan masalah ini.
Variancy. Data yang dikumpulkan mempunyai format yang berbeda-beda. Mulai dari yang
terstruktur, data numerik dalam database tradisional, data dokumen terstruktur teks, email,
video, audio, transaksi keuangan dan lain-lain. Selain tiga bagian penting tersebut, para
peneliti Big Data juga menambah bagian yang termasuk penting lainnya seperti variabilitas
dan kompleksitas.
Velocity. Menurut Garter , kecepatan berarti kecepatan data yang dihasilkan dan severapa
cepat datadi proses untuk memenuhi kebutuhan atau permintaan. Aliran data harus ditangani
dengan secara cepat dan tepat bisa melalui hardware maupun software. Teknologi hardware
seperti tag RFID, sensor pintar lainnya juga dibutuhkan untuk menangani data yang real-time.
Veracity. Veracity adalah istilah yang diciptakan oleh IBM. Ini mengacu pada kesesuaian
dengan fakta : accurasy (akurasi), quality (kualitas), truthfulness (Kebenaran) atau atrest
analitytcs (kelayakan kepaercayaan data). Alat dan tenik ini sering digunakan untuk
menangani kebenaran big data dengan mengubah data menjadi wawasan yang berkualitas dan
dapat dipercaya.
Variability. Selain kecepatan pengumpulan data yang meningkat dan variasi data yang
semakin beraneka ragam, arus data kadang tidak konsisten dalam periode tertentu. Salah satu
contohnya adalah hal yang sedang tren di media sosial. Periodenya bisa harian, musiman,
dipicu peristiwa dadakan dan lain-lain. Beban puncak data dapat menantang untuk analis Big
Data, bahkan dengan data yang tidak terstruktur.
Value Proposition. Value Proposition adalah hal yang menggembirakan di dalam Big data.
Dengan menganalisi data yang besar dan kaya fitur, organisasi dapat memperoleh nilai bisnis
yang lebih besar yang mungkin tidak mereka miliki. Big data berarti analitik “besar” yang
berarti awasan yang kebih luas dan keputusan yang lebih baik yang dibutuhkan setiap
organisasi
B. Fundamentals Of Big Data Analytics (Dasar-Dasar Analitis Big Data)
Big data dengan sendirinya terlepas dari ukuran, jenis, atau kegiatan yang memberikan
nilai bagi organisasi mereka, di situlah analitik “besar” muncul. Gambar 7.4 menunjukan
gambaran grafis dari faktor-faktor keberhasilan yang paling penting untuk analisis big data
(Watson, 2012) :
1. A clear businnes need-alignment with the vision and the strategy (kebutuhan bisnis
yang jelas-selaras dengan visi dan strategi). Pendorong utama untuk analisis big data
harus menjadi kebutuhan bisnis di setiap level strategi, taktis dan operasi.
2. Strong, committed sponsorship-executuve champion (kekuatan dan sponsor yang
berkomitmen (juara eksekutif)hal ini adalah fakta, jika suatu organisasi tidak memiliki
sponsor yang kuat dan berkomitmen akan sulit untuk berhasil.
3. Alignment between the business and IT strategy (keselarasan antara strategi bisnis
dan TI) sangat penting untuk memastikan bahwa pekerjaan analitis selalu mendukung
strategi bisnis.
4. A fact based decision making culture ( Budaya pengambilan keputusan berdasarkan
fakta). Dalam budaya pengambilan keputusan berbasis fakta, angka di anggap lebih
penting dari pada intuisi, firasat atau anggapan yang mendorong pengambilan
keputusan.
5. A stonge data infrastructure (Infrastruktur data yang kuat). Infrastruktur berubah dan
di tingkatkan di era big data dengan teknologi baru. Keberhasilan tersebut
membutuhkan perpaduan antara infrastruktul lama dan baru untuk dapat bekerja
secara sinergis.
Masalah Bisnis Yang Diatasi Oleh Analisis Big Data
Masalah bisnis utama yang ditangani oleh big data secara keseluruhan adalah efisiensi
proses dan pengurangan biaya, serta meningkatkan pengalaman pelanggan. Berikut ini adalah
sebagian masalah yang dapat diatasi dengan menggunakan analitis big data:
Efisiensi proses dan pengurangan biaya
Manajemen merek
Maksimalisasi pendapatan, cross-selling dn up-selling
Manajemen risiko
Kepatuhan terhadap peraturan
Meningkatkan kemampuan keamanan
C. Teknologi Big Data
1. MapReduce
MapRaduce adalah teknik yang dpopulerkan oleh google yang mendistribusikan
Pemrosesan file data multistruktur besar di sekelompok besar di sekelompok mesin.
Kinerja tinggi di capai dengan memecah pemrosesan menjadi unit kerja kecil yang dapat
di jalankan secara paralel. MapReduce digunakan untuk membantu organisasi dalam
memproses dan menganalisis data bertingkat dengan volume besar. Maprduce mudah
dipahami oleh programer yang trampil.
2. Hadoop
Hadoop adalah kerangka kerja sumber terbuka untuk memproses, menyimpan, dan
menganalisis sejumlah besar data terdistribusi dan tidak terstruktur.cluster hadoop
dijalankan pada perangkat keras komoditas yang murah sehingga proyek dapat
ditingkatkan. Cara kerja Hadoop adalah sebagai berikut Klien mengakses data tidak
terstruktur dan terstruktur dari sumber termasuk file log, umpan media sosial, dan
penyimpanan data internal. Itu memecah data menjadi "bagian," yang kemudian dimuat
ke dalam sistem file yang terdiri dari beberapa node yang berjalan pada perangkat keras
komoditas. Penyimpanan file default di Hadoop adalah Sistem File Terdistribusi Hadoop,
atau HDFS. Sistem file seperti HDFS mahir menyimpan volume besar data yang tidak
terstruktur dan terstruktur karena mereka tidak memerlukan data untuk disusun dalam
baris dan kolom relasional. Setiap "bagian" direplikasi beberapa kali dan dimuat ke dalam
sistem file sehingga jika suatu simpul gagal, simpul lain memiliki salinan data yang
terdapat pada simpul yang gagal. Name Node bertindak sebagai fasilitator, yang
berkomunikasi kembali ke informasi klien seperti node mana yang tersedia, di mana
dalam cluster data tertentu berada, dan node mana yang gagal.
3. NoSQL
Gaya baru terkait database yang disebut NoSQL (Not Only SQL) memiliki
Hadoop, memproses volume besar data multistruktur. Namun, sedangkan Hadoop mahir
dalam mendukung analisis historis bets-style skala besar, NoSQl. Database ditujukan,
sebagian besar (meskipun ada beberapa pengecualian penting), untuk melayani data
diskrit yang disimpan di antara volume besar data multistruktur untuk pengguna akhir dan
aplikasi Big Data otomatis. Kemampuan ini sangat kurang dari teknologi basis data
relasional, yang tidak dapat mempertahankan kinerja aplikasi yang diperlukan Skala Data
Besar Dalam beberapa kasus, NOSQL dan Hadoop bekerja bersama.
D. Big Data dan Data Warehousing
Menggunakan Cases Untuk Data Hadoop
Seperti yang telah kita bahas sebelumnya dalam bab ini, Hadoop adalah hasil dari
perkembangan baru dalam teknologi jaringan komputer dan penyimpanan. Menggunakan
perangkat keras komoditas sebagai dasar, Hadoop menyediakan lapisan perangkat lunak yang
menjangkau seluruh kotak, mengubahnya menjadi satu sistem tunggal. Akibatnya, beberapa
pembeda utama jelas dalam arsitektur ini:
1. Hadoop as the repository and refinery. Karena volume Big Data datang dari sumber
seperti sensor, mesin, media sosial, dan interaksi clickstream, langkah pertama adalah
menangkap semua data secara andal dan biaya secara efektif.
2. Hadoop as the active arcive. beberapa bagian dari beban kerja pita sudah dialihkan ke
Hadoop dusters. Pergeseran ini terjadi karena dua alasan mendasar. Pertama,
meskipun mungkin tampak murah untuk menyimpan data pada kaset, biaya
sebenarnya datang dengan kesulitan pengambilan. Tidak hanya data yang disimpan
secara offline yang memerlukan waktu berjam-jam jika bukan hari untuk dipulihkan,
tetapi pita kaset itu sendiri juga cenderung mengalami degradasi dari waktu ke waktu,
membuat kehilangan data menjadi kenyataan dan memaksa perusahaan untuk
memperhitungkan biaya-biaya tersebut. Lebih buruk lagi, format kaset berubah setiap
beberapa tahun, mengharuskan organisasi untuk melakukan migrasi data besar-besaran
ke format kaset terbaru atau risiko ketidakmampuan untuk memulihkan data dari kaset
usang. Kedua, telah ditunjukkan bahwa ada nilai dalam menjaga data historis online
dan dapat diakses.
Menggunakan Untuk Data Warehousing
Setelah tiga puluh tahun investasi, penyempurnaan, dan pertumbuhan, daftar fitur yang
tersedia di gudang data cukup mengejutkan. Dibangun pada teknologi basis data relasional
menggunakan skema dan mengintegrasikan alat BI, perbedaan utama dalam arsitektur ini
adalah kinerja data warehouse Data terintegrasi yang menyediakan nilai bisnis Alat BI
Interaktif untuk pengguna akhir sebagai berikut :
1. Data warehouse perfomence (Kinerja gudang data). Pengindeksan dasar, ditemukan
dalam basis data sumber terbuka seperti MySQL atau Postgres, adalah fitur standar
yang digunakan untuk meningkatkan respons permintaan kueri atau memberlakukan
batasan pada data. Bentuk yang lebih maju seperti tampilan terwujud, indeks
gabungan agregat, indeks kubus, dan indeks gabungan jarang memungkinkan
peningkatan kinerja dalam warchouse data. Namun, peningkatan kinerja yang paling
penting hingga saat ini adalah pengoptimal berbasis biaya. Pengoptimal memeriksa
SQL yang masuk dan mempertimbangkan beberapa rencana untuk mengeksekusi
setiap query secepat mungkin.
2. Integrating data that provides business value (Mengintegrasikan data yang
memberikan nilai bisnis). Inti dari setiap gudang data adalah janji untuk menjawab
pertanyaan bisnis yang penting. Data terintegrasi adalah fondasi unik yang diperlukan
untuk mencapai tujuan ini. Menarik data dari berbagai area subjek dan berbagai
aplikasi ke dalam satu repositori adalah raison d'etre untuk gudang data.
3. Interactive BI Tools (Alat Bl Interaktif). Alat BI seperti MicroStrategy, Tableau, IBM
Cognos, dan lainnya memberikan pengguna bisnis akses langsung ke wawasan data
warehouse. Pengguna bisnis dapat membuat laporan dan analisis kompleks dengan
cepat dan dengan mudah menggunakan alat-alat ini. Akibatnya, ada tren di banyak
situs data warehouse menuju swalayan pengguna akhir. Pengguna bisnis dapat dengan
mudah meminta lebih banyak laporan daripada yang disediakan staf TI.
The Gray Areas—Any One Of The Twu Would Do Te Job (Daerah Abu-abu--Salah Satu
dari Dua Akan Melakukan Pekerjaan).
Meskipun ada beberapa daerah yang membedakan satu dari yang lain, ada juga arkas
abu-abu di mana warchouse data dan Hadoop tidak dapat dengan jelas dibedakan. Dalam
bidang ini, salah satu alat bisa menjadi solusi yang tepat - baik mengerjakan pekerjaan yang
sama baiknya atau tidak begitu baik pada tugas yang dihadapi. Memilih satu dari yang lain
tergantung pada persyaratan dan preferensi organisasi. Dalam banyak kasus, Hadoop dan
warchouse data bekerja bersama dalam rantai pasokan informasi, dan sama seringnya, satu
alat lebih baik untuk beban kerja tertentu (Awadallah & Graham, 2012).
Koksistensi Hadoop dan Data Warehouse
Ada beberapa skenario di mana penggunaan kombinasi Hadoop dan teknologi data
warehousing berbasis DBMS relasional lebih masuk akal. Berikut adalah beberapa skenario
tersebut (White, 2012):.
1. Gunakan Hadoop untuk menyimpan dan mengarsipkan data multistruktur.
Sebuah konektor ke DEMS relasional kemudian dapat digunakan untuk mengekstrak
data yang diperlukan dari Hadoop untuk dianalisis oleh DBMS relasional. Jika
DBMS relasional mendukung fungsi MapReduce, fungsi-fungsi ini dapat digunakan
untuk melakukan ekstraksi. Adaptor Aster-Hadoop, misalnya, menggunakan fungsi
SQL-MapReduce untuk menyediakan pemuatan data dua arah yang cepat antara
HDFS dan Aster Database. Data yang dimuat ke dalam Database Aster kemudian
dapat dianalisis menggunakan SQL dan MapReduce.
2. Gunakan Hadoop untuk memfilter, mengubah, dan atau mengkonsolidasikan
data multistruktur. Konektor seperti adaptor Aster-Hadoop dapat digunakan untuk
mengekstraksi hasil dari pemrosesan Hadoop ke DBMS relasional untuk analisis.
3. Gunakan Hadoop untuk menganalisis volume besar data multistruktur dan
mempublikasikan hasil analitik. Dalam aplikasi ini, Hadoop berfungsi sebagai
platform analitik tetapi hasilnya dapat diposting kembali ke lingkungan penyimpanan
data tradisional, penyimpanan data kelompok kerja bersama, atau antarmuka pengguna
umum.
4. Gunakan DBMS relasional yang menyediakan copability MopReduce sebagai
platform komputasi investigasi. Ilmuwan data dapat menggunakan DBMS
relasional (sistem Aster Database, misalnya) untuk menganalisis kombinasi data
terstruktur dan data multistruktur (diambil dari Hadoop) menggunakan campuran
pemrosesan SQL dan fungsi analitik MapReduce.
5. Gunakan alat permintaan front-end untuk mengakses dan menganalisis data. Di
sini, data disimpan di Hadoop dan DBMS relasional
E. Big data vendors dan platforms
Sebagai area teknologi yang relatif baru, lanskap vendor Big Data berkembang sangat
pesat. Sejumlah vendor telah mengembangkan distribusi Hadoop mereka sendiri, sebagian
besar didasarkan pada distribusi open source Apache tetapi dengan berbagai tingkat
kustomisasi kepemilikan. Dua pemimpin pasar dalam hal distribusi tampaknya adalah
Cloudera (cloudera.com) dan Hortonworks (hortonworks.com). dalam sub bab ini secara
singkat memperkenalkan lingkungan InfoSphere dan Teradata Aster IBM dan menyajikan
casing aplikasi singkat untuk masing-masingnya. Sub bab ini akan menjelaskankan dua
platform ini di sini karena keduanya adalah platform yang sukses secara komersial.
IBM InfoSphare BigInsight
IBM InfoSphare BigInsight adalah platform yang dibuat pada proyek open source
Apache Hadoop untuk menganalisis data terstruktur tradisional yang ditemukan dalam
database lama bersama dengan data semi dan tidak terstruktur seperti teks, video, audio,
gambar, media sosial, log Web, dan klik aliran. Platform ini menggabungkan banyak
implementasi MapReduce dari algoritma analitik untuk menjalankan aplikasi paralel berskala
besar dan dirancang untuk memberikan analitik lanjutan pada teknologi Hadoop yang secara
khusus dioptimalkan untuk persyaratan analisis Big Data.
Teradata Aster
Teradata Aster adalah platform Big Data untuk penyimpanan terdistribusi dan
pemrosesan set data multistruktur besar. Ini telah digunakan untuk optimisasi pemasaran,
deteksi penipuan, analitik olahraga, analisis jejaring sosial, analitik data mesin, analisis
energi, analitik kesehatan, dan banyak aplikasi lainnya. Teradata Aster telah memparalelkan
banyak fungsi analisis tradisional dan lanjutan. Ini memiliki kemampuan dalam melakukan
analisis deret waktu, analisis statistik, analisis klaster, penambangan aturan asosiasi
penambangan teks, analisis jejaring sosial, analitik visual, analitik lokasi, dan analitik
prediktif; semua dengan cara terdistribusi. Selain paket analisis tradisional, ia juga memiliki
beberapa paket analisis baru dan unik untuk analisis jalur. Ini juga kompatibel dengan bahasa
pemrograman lain seperti R, Python, dan Java. Arsitektur Teradata Aster telah mengadaptasi
arsitektur master-slave dari Apache Hadoop.
F. Big data dan Stream Analytics
Stream analytics (juga disebut analytics data-in-motion dan data real-time anaht cs,
antara lain) adalah istilah yang umum digunakan untuk proses analitik untuk mengekstraksi
informasi yang dapat ditindaklanjuti dari informasi yang terus mengalir / streaming data.
Aliran didefinisikan sebagai urutan berkelanjutan elemen data (Zikopoulos et al, 2013).
Elemen data dalam aliran sering disebut tupel. Dalam pengertian basis data relasional, tuple
mirip dengan deretan data (catatan, objek, contoh).
Sream Analytics Vs. Perpetual Analytics
Stream Analytics versus perpetual Analytics Istilah streaming dan perpetual mungkin
terdengar seperti hal yang sama bagi kebanyakan orang, dan dalam banyak kasus mereka
digunakan secara sinonim. Namun, dalam konteks sistem cerdas, ada perbedaan (Jonas,
2007). Stream Analytics melibatkan penerapan logika tingkat transaksi untuk pengamatan
waktu nyata. Aturan diterapkan pengamatan akun sebelumnya selama mereka terjadi di
jendela yang ditentukan; jendela ini memiliki ukuran acak (mis. 5 detik terakhir, 10.000
pengamatan terakhir). perpetual Analytics, di sisi lain, mengevaluasi setiap pengamatan yang
masuk terhadap pengamatan sebelumnya, di mana tidak ada ukuran jendela. Mengakui
bagaimana pengamatan baru ini berhubungan dengan semua pengamatan sebelumnya
memungkinkan penemuan wawasan waktu nyata Baik stream analytics dan perpetual
analytics memiliki pro dan kontra mereka dan tempat masing-masing di dunia analitik bisnis.
Critical Event Processing
Pemrosesan peristiwa kritis (Critical Event Processing) adalah metode menangkap,
melacak, dan menganalisis data stream untuk mendeteksi peristiwa (di luar kejadian normal)
dari jenis tertentu yang layak dilakukan. Pemrosesan peristiwa kompleks adalah aplikasi
analitik arus yang menggabungkan data dari berbagai sumber untuk menyimpulkan peristiwa
atau pola yang menarik baik sebelum benar-benar terjadi atau segera setelah terjadi.
Tujuannya adalah untuk mengambil tindakan cepat untuk mencegah (atau mengurangi efek
negatif dari) peristiwa-peristiwa ini (misalnya, penipuan atau intrusi jaringan) dari terjadi,
atau dalam kasus jendela peluang pendek, mengambil keuntungan penuh dari situasi di dalam
yang diizinkan waktu (berdasarkan perilaku pengguna di situs e-commerce, buat penawaran
promosi yang lebih mungkin ditanggapi), Peristiwa penting ini mungkin terjadi di berbagai
lapisan organisasi seperti lead penjualan, pesanan, atau panggilan layanan pelanggan.
Data Steam Mining (Penambangan Aliran Data)
Sebagai teknologi yang memungkinkan untuk analitik arus, adalah proses mengekstraksi
pola baru dan struktur pengetahuan dari perekaman data yang berkelanjutan dan cepat,
metode penambangan data tradisional membutuhkan data yang harus dikumpulkan dan
diorganisir dalam format file yang tepat, dan kemudian diproses secara rekursif untuk
mempelajari pola yang mendasari Anda. Sebaliknya, aliran data adalah aliran kontinu dari
urutan urutan kejadian yang dalam banyak aplikasi penambangan aliran data dapat dibaca /
diproses hanya sekali atau beberapa kali menggunakan kemampuan penyimpanan dan
penyimpanan yang terbatas.
G. Aplikasi Stream Analytics
Berikut adalah beberapa area aplikasi yang telah mendapatkan manfaat dari stream
analytics.
e-Commerce
Perusahaan e-Commerce seperti Amazon dan eBay (di antara banyak lainnya) berusaha
memanfaatkan data yang mereka kumpulkan ketika seorang pelanggan ada di situs Web
mereka. Setiap kunjungan halaman, setiap produk yang dilihat, setiap pencarian dilakukan,
dan setiap klik yang dilakukan dicatat dan dianalisis untuk memaksimalkan nilai yang
diperoleh dari kunjungan pengguna. aliran data dapat mengubah browser menjadi pembeli
dan pembeli menjadi shopaholics. Ketika situs web e-commerce, bahkan yang bukan anggota
kami, setelah beberapa klik di sana-sini kita mulai mendapatkan produk yang sangat menarik
dan penawaran harga bundel. Di belakang layar, analytics canggih mengolah data real-time
yang berasal dari klik kami, dan klik ribuan lainnya, untuk "memahami" apa yang kami
minati dalam beberapa kasus, bahkan kami tidak tahu itu) dan manfaatkan informasi itu
dengan membuat penawaran kreatif.
Telecommunications
Volume data yang berasal dari catatan perincian panggilan (CDR) untuk perusahaan
telekomunikasi sangat mencengangkan. Meskipun informasi ini telah digunakan untuk tujuan
penagihan untuk beberapa waktu sekarang, ada banyak pengetahuan yang terkubur jauh di
dalam Big Data ini yang baru-baru ini disadari oleh perusahaan telekomunikasi.
Penegakan Hukum dan Keamanan
Aliran big data memberikan peluang bagus untuk meningkatkan pencegahan kejahatan,
penegakan hukum, dan peningkatan keamanan. Mereka menawarkan potensi yang tak
tertandingi dalam hal aplikasi keamanan yang dapat dibangun di ruang angkasa, seperti
kewaspadaan situasional real-time, pengawasan multimodal, deteksi keamanan cyber,
penyadapan hukum, penyadapan hukum, pengawasan video, dan pengenalan wajah
(Zikopoulos et al., 2013). Sebagai aplikasi jaminan informasi, perusahaan dapat
menggunakan analitik streaming untuk mendeteksi dan mencegah integrasi jaringan, serangan
siber, dan aktivitas jahat dengan mengalirkan dan menganalisis log jaringan dan sumber daya
pemantauan aktivitas Internet lainnya.
Industri Tenaga
Karena meningkatnya penggunaan smart meters, jumlah data real-time yang
dikumpulkan oleh utilitas listrik meningkat secara eksponensial. Bergerak dari sebulan sekali
ke setiap 15 menit (atau lebih sering), pembacaan meter mengakumulasikan sejumlah besar
data berharga untuk utilitas listrik. Selain itu, perusahaan utilitas dapat mengintegrasikan
data cuaca dan kondisi alam lainnya ke dalam analitik mereka untuk mengoptimalkan
pembangkit listrik dari sumber alternatif (mis., Angin, matahari) dan untuk memperkirakan
permintaan energi dengan lebih baik pada granulasi geografis yang berbeda. Manfaat serupa
juga berlaku untuk utilitas lain seperti air dan gas alam.
Layanan Keuangan
Perusahaan jasa keuangan adalah salah satu contoh utama di mana analisis aliran Big
Data dapat memberikan keputusan yang lebih cepat dan lebih baik, keunggulan kompetitif,
dan pengawasan peraturan. Kemampuan untuk menganalisis data perdagangan volume tinggi
dengan kecepatan tinggi pada latensi sangat rendah di seluruh pasar dan negara menawarkan
keuntungan luar biasa untuk membuat keputusan jual / beli sepersekian detik yang berpotensi
menghasilkan keuntungan finansial yang besar. Selain keputusan jual / beli yang optimal,
stream analytics juga dapat membantu perusahaan jasa keuangan dalam pemantauan
perdagangan waktu nyata untuk mendeteksi penipuan dan kegiatan ilegal lainnya.
Ilmu Kesehatan
Perangkat medis modern (mis. Elektrokardiogram dan peralatan yang mengukur tekanan
darah, kadar oksigen darah, kadar gula darah, dan suhu tubuh) mampu menghasilkan data
diagnostik / sensor pancaran yang tak ternilai dengan kecepatan yang sangat cepat.
Memanfaatkan data ini dan menganalisisnya tidak seperti bidang lainnya. Selain membantu
perusahaan perawatan kesehatan menjadi lebih efektif dan efisien (dan karenanya lebih
kompetitif dan menguntungkan), analitik aliran juga meningkatkan kondisi pasien dan
menyelamatkan nyawa.
Pemerintah
Pemerintah di seluruh dunia berusaha menemukan cara untuk menjadi lebih efisien
(melalui penggunaan sumber daya terbatas secara optimal) dan efektif (menyediakan layanan
yang dibutuhkan dan diinginkan masyarakat). Ketika praktik-praktik untuk e-government
menjadi arus utama, ditambah dengan meluasnya penggunaan dan akses ke media sosial,
jumlah data yang sangat besar (baik terstruktur maupun tidak terstruktur) siap digunakan oleh
lembaga-lembaga pemerintah. Penggunaan aliran Data Besar ini secara tepat dan tepat waktu
membedakan lembaga-lembaga proaktif dan sangat efisien dari lembaga-lembaga yang masih
menggunakan metode tradisional untuk bereaksi terhadap situasi ketika mereka berkembang.
Cara lain di mana lembaga pemerintah dapat memanfaatkan kemampuan analitik waktu-nyata
adalah mengelola bencana alam seperti badai salju, badai, tornado, dan kebakaran hutan
melalui pengawasan data streaming yang berasal dari radar, sensor, dan perangkat deteksi
pintar lainnya.
H. Kesimpulan
Big Data sangat prnting digunakan dalam organisasi, tidak hanya berputar pada jumlah
data yang organisasi miliki, tetapi hal yang penting adalah bagaimana mengolah data internal
dan eksternal. Kita dapat mengambil data dari sumber manapun dan menganalisanya untuk
menemukan jawaban yang diinginkan dalam bisnis seperti pengurangan biaya, pengurangan
waktu, pengembangan produk baru dan optimalisasi penawaran produk, dan pengambilan
keputusan yang cerdas.
Ketika organisasi mampu menggabungkan jumlah data besar yang dimilikinya dengan
analisis bertenaga tinggi, organisasi dapat menyelesaikan tugas-tugas yang berhubungan
dengan bisnis seperti menentukan akar penyebab kegagalan untuk setiap masalah bisnis,
menghasilkan informasi mengenai titik penting penjualan berdasarkan kebiasaan pelanggan
dalam membeli, menghitung kembali seluruh risiko yang ada dalam waktu yang singkat, dan
mendeteksi perilaku penipuan yang dapat mempengaruhi organisasi.