Analisis Big Data berbeda dari analisis data tradisional terutama karena karakteristik
volume, kecepatan, dan variasi dari data yang sedang diproses. Untuk mengatasi persyaratan
yang berbeda untuk melakukan analisis pada Big Data, diperlukan metodologi langkah demi
langkah untuk mengatur aktivitas dan tugas yang terkait dengan memperoleh, memproses,
menganalisis, dan menggunakan kembali data. Bagian yang akan datang mengeksplorasi siklus
hidup analitik data spesifik yang mengatur dan mengelola tugas dan aktivitas yang terkait dengan analisis B
Dari perspektif adopsi dan perencanaan Big Data, penting bahwa selain siklus hidup, pertimbangan
dibuat untuk masalah pelatihan, pendidikan, perkakas, dan penempatan staf tim analitik data.
Siklus hidup analitik Big Data dapat dibagi menjadi sembilan tahap berikut, seperti yang ditunjukkan pada
Gambar 3.6:
1. Evaluasi Kasus Bisnis
2. Identifikasi Data
7. Analisis Data
8. Visualisasi Data
menentukan apakah masalah bisnis yang ditangani benar-benar masalah Big Data.
Untuk memenuhi syarat sebagai masalah Big Data, masalah bisnis harus terkait langsung dengan satu
atau lebih karakteristik volume, kecepatan, atau variasi Big Data.
Perhatikan juga bahwa hasil lain dari tahap ini adalah penentuan anggaran dasar yang diperlukan untuk
melaksanakan proyek analisis. Setiap pembelian yang diperlukan, seperti peralatan, perangkat keras, dan
pelatihan, harus dipahami terlebih dahulu sehingga investasi yang diantisipasi dapat dibandingkan dengan
manfaat yang diharapkan dari pencapaian tujuan. Iterasi awal dari siklus hidup analitik Big Data akan
membutuhkan lebih banyak investasi awal untuk teknologi, produk, dan pelatihan Big Data dibandingkan
dengan iterasi selanjutnya di mana investasi sebelumnya ini dapat dimanfaatkan berulang kali.
Identifikasi Data
Tahap Identifikasi Data yang ditunjukkan pada Gambar 3.8 didedikasikan untuk mengidentifikasi kumpulan
data yang diperlukan untuk proyek analisis dan sumbernya.
Machine Translated by Google
Gambar 3.8 Identifikasi Data adalah tahap 2 dari siklus hidup analitik Big Data.
Mengidentifikasi variasi sumber data yang lebih luas dapat meningkatkan kemungkinan
menemukan pola dan korelasi tersembunyi. Misalnya, untuk memberikan wawasan, akan
bermanfaat untuk mengidentifikasi sebanyak mungkin jenis sumber data terkait, terutama bila
tidak jelas apa yang harus dicari.
Bergantung pada ruang lingkup bisnis dari proyek analisis dan sifat masalah bisnis yang
ditangani, kumpulan data yang diperlukan dan sumbernya dapat berasal dari internal dan/atau
eksternal perusahaan.
Machine Translated by Google
Dalam kasus kumpulan data internal, daftar kumpulan data yang tersedia dari sumber internal, seperti
data mart dan sistem operasional, biasanya disusun dan dicocokkan dengan spesifikasi kumpulan data
yang telah ditentukan sebelumnya.
Dalam kasus kumpulan data eksternal, daftar kemungkinan penyedia data pihak ketiga, seperti pasar
data dan kumpulan data yang tersedia untuk umum, disusun. Beberapa bentuk data eksternal mungkin
disematkan di dalam blog atau jenis situs web berbasis konten lainnya, dalam hal ini data tersebut mungkin
perlu diambil melalui alat otomatis.
Bergantung pada jenis sumber data, data dapat berupa kumpulan file, seperti data yang dibeli dari penyedia
data pihak ketiga, atau mungkin memerlukan integrasi API, seperti dengan Twitter. Dalam banyak kasus,
terutama ketika menyangkut data eksternal dan tidak terstruktur, beberapa atau sebagian besar data yang
diperoleh mungkin tidak relevan (noise) dan dapat dibuang sebagai bagian dari proses penyaringan.
Data yang diklasifikasikan sebagai "rusak" dapat mencakup catatan dengan nilai yang hilang atau tidak
masuk akal atau tipe data yang tidak valid. Data yang disaring untuk satu analisis mungkin berharga untuk a
Machine Translated by Google
jenis analisis yang berbeda. Oleh karena itu, disarankan untuk menyimpan salinan verbatim dari
kumpulan data asli sebelum melanjutkan pemfilteran. Untuk meminimalkan ruang penyimpanan yang
diperlukan, salinan verbatim dapat dikompresi.
Baik data internal maupun eksternal perlu dipertahankan setelah dihasilkan atau memasuki batas
perusahaan. Untuk analitik batch, data ini disimpan ke disk sebelum analisis. Dalam kasus analitik
waktu nyata, data dianalisis terlebih dahulu dan kemudian disimpan ke disk.
Sebagaimana dibuktikan pada Gambar 3.10, metadata dapat ditambahkan melalui otomatisasi ke
data dari sumber data internal dan eksternal untuk meningkatkan klasifikasi dan kueri. Contoh metadata
yang ditambahkan mencakup ukuran dan struktur set data, informasi sumber, tanggal dan waktu
pembuatan atau pengumpulan, dan informasi khusus bahasa. Sangat penting bahwa metadata dapat
dibaca oleh mesin dan diteruskan ke tahap analisis berikutnya. Ini membantu mempertahankan sumber
data di sepanjang siklus hidup analitik Big Data, yang membantu membangun dan menjaga akurasi dan
kualitas data.
Gambar 3.10 Metadata ditambahkan ke data dari sumber internal dan eksternal.
Ekstraksi Data
Beberapa data yang diidentifikasi sebagai masukan untuk analisis mungkin datang dalam format
yang tidak sesuai dengan solusi Big Data. Kebutuhan untuk mengatasi jenis data yang berbeda lebih
mungkin dengan data dari sumber eksternal. Tahap siklus hidup Ekstraksi Data, yang ditunjukkan pada
Gambar 3.11, didedikasikan untuk mengekstraksi data yang berbeda dan mengubahnya menjadi format
yang dapat digunakan oleh solusi Big Data untuk tujuan analisis data.
Machine Translated by Google
Tingkat ekstraksi dan transformasi yang diperlukan bergantung pada jenis analitik dan kemampuan solusi
Big Data. Misalnya, mengekstrak bidang wajib dari data tekstual terbatas, seperti dengan file log server
web, mungkin tidak diperlukan jika solusi Big Data yang mendasarinya sudah dapat memproses file tersebut
secara langsung.
Demikian pula, mengekstraksi teks untuk analitik teks, yang memerlukan pemindaian seluruh dokumen,
disederhanakan jika solusi Big Data yang mendasarinya dapat langsung membaca dokumen dalam format
aslinya.
Machine Translated by Google
Gambar 3.12 mengilustrasikan ekstraksi komentar dan ID pengguna yang disematkan di dalam dokumen XML
tanpa perlu transformasi lebih lanjut.
Gambar 3.13 menunjukkan ekstraksi koordinat lintang dan bujur pengguna dari satu bidang JSON.
Gambar 3.13 ID pengguna dan koordinat pengguna diekstraksi dari satu bidang JSON.
Transformasi lebih lanjut diperlukan untuk memisahkan data menjadi dua bidang terpisah seperti yang
dipersyaratkan oleh solusi Big Data.
Tahap Validasi dan Pembersihan Data yang ditunjukkan pada Gambar 3.14 didedikasikan untuk menetapkan
aturan validasi yang sering rumit dan menghapus data tidak valid yang diketahui.
Machine Translated by Google
Solusi Big Data sering kali menerima data redundan di berbagai kumpulan data. Redundansi ini dapat dimanfaatkan
untuk menjelajahi kumpulan data yang saling berhubungan untuk menyusun parameter validasi dan mengisi data valid
yang hilang.
• Nilai pertama dalam Kumpulan Data B divalidasi terhadap nilai terkaitnya dalam Kumpulan Data
A.
Machine Translated by Google
• Nilai kedua dalam Kumpulan Data B tidak divalidasi terhadap nilai terkaitnya di
Dataset A.
• Jika ada nilai yang hilang, nilai tersebut dimasukkan dari Dataset A.
Gambar 3.15 Validasi data dapat digunakan untuk memeriksa dataset yang saling berhubungan untuk mengisi data
valid yang hilang.
Untuk analitik batch, validasi dan pembersihan data dapat dicapai melalui operasi ETL offline. Untuk analitik
waktu nyata, sistem dalam memori yang lebih kompleks diperlukan untuk memvalidasi dan membersihkan data
saat datang dari sumbernya. Provenance dapat memainkan peran penting dalam menentukan keakuratan dan
kualitas data yang dipertanyakan. Data yang tampak tidak valid mungkin masih berharga karena memiliki pola dan
tren tersembunyi, seperti yang ditunjukkan pada Gambar 3.16.
Gambar 3.16 Adanya data yang tidak valid mengakibatkan lonjakan. Meskipun data tampak tidak normal, ini
mungkin merupakan indikasi pola baru.
Tahap Agregasi dan Representasi Data, ditunjukkan pada Gambar 3.17, didedikasikan untuk mengintegrasikan
beberapa kumpulan data secara bersamaan untuk mendapatkan tampilan terpadu.
Machine Translated by Google
• Struktur Data – Meskipun format datanya mungkin sama, model datanya mungkin sama
berbeda.
• Semantik – Nilai yang diberi label berbeda dalam dua set data yang berbeda dapat memiliki
arti yang sama, misalnya “nama belakang” dan “nama belakang”.
Volume besar yang diproses oleh solusi Big Data dapat membuat agregasi data menjadi waktu dan
Machine Translated by Google
operasi intensif usaha. Mendamaikan perbedaan-perbedaan ini membutuhkan logika kompleks yang
dijalankan secara otomatis tanpa perlu campur tangan manusia.
Persyaratan analisis data di masa mendatang perlu dipertimbangkan selama tahap ini untuk membantu
mendorong penggunaan kembali data. Apakah agregasi data diperlukan atau tidak, penting untuk dipahami
bahwa data yang sama dapat disimpan dalam berbagai bentuk. Satu bentuk mungkin lebih cocok untuk jenis
analisis tertentu daripada yang lain. Misalnya, data yang disimpan sebagai BLOB akan sedikit berguna jika
analisis memerlukan akses ke bidang data individual.
Struktur data yang distandarisasi oleh solusi Big Data dapat bertindak sebagai penyebut umum yang dapat
digunakan untuk berbagai teknik dan proyek analisis. Hal ini memerlukan pembuatan pusat, repositori
analisis standar, seperti database NoSQL, seperti yang ditunjukkan pada Gambar 3.18.
Gambar 3.18 Contoh sederhana agregasi data di mana dua dataset diagregasi bersama menggunakan
kolom Id.
Gambar 3.19 menunjukkan potongan data yang sama yang disimpan dalam dua format berbeda.
Dataset A berisi potongan data yang diinginkan, tetapi merupakan bagian dari BLOB yang tidak mudah diakses
untuk kueri. Kumpulan data B berisi bagian data yang sama yang diatur dalam penyimpanan berbasis kolom,
memungkinkan setiap bidang untuk dikueri satu per satu.
Gambar 3.19 Dataset A dan B dapat digabungkan untuk membuat struktur data standar dengan solusi
Big Data.
Machine Translated by Google
Analisis Data
Tahap Analisis Data yang ditunjukkan pada Gambar 3.20 didedikasikan untuk
melaksanakan tugas analisis yang sebenarnya, yang biasanya melibatkan satu atau lebih
jenis analitik. Tahap ini dapat bersifat iteratif, terutama jika analisis data bersifat eksplorasi,
di mana analisis kasus diulang sampai ditemukan pola atau korelasi yang sesuai. Pendekatan
analisis eksplorasi akan dijelaskan secara singkat, bersama dengan analisis konfirmatori.
Bergantung pada jenis hasil analitik yang diperlukan, tahap ini bisa sesederhana menanyakan kumpulan data untuk
menghitung agregasi untuk perbandingan. Di sisi lain, ini bisa sama menantangnya dengan menggabungkan penambangan
data dan teknik analisis statistik yang kompleks untuk menemukan pola dan anomali atau menghasilkan model statistik
atau matematika untuk menggambarkan hubungan antar variabel.
Analisis data dapat diklasifikasikan sebagai analisis konfirmasi atau analisis eksplorasi, yang terakhir dikaitkan dengan
penambangan data, seperti yang ditunjukkan pada Gambar 3.21.
Gambar 3.21 Analisis data dapat dilakukan sebagai analisis konfirmasi atau eksplorasi.
Analisis data konfirmasi adalah pendekatan deduktif di mana penyebab dari fenomena yang diselidiki diusulkan
sebelumnya. Penyebab atau asumsi yang diajukan disebut hipotesis. Data kemudian dianalisis untuk membuktikan atau
menyangkal hipotesis dan memberikan jawaban pasti untuk pertanyaan spesifik. Teknik pengambilan sampel data
biasanya digunakan.
Temuan atau anomali yang tidak terduga biasanya diabaikan karena penyebab yang telah ditentukan telah diasumsikan.
Analisis data eksplorasi adalah pendekatan induktif yang terkait erat dengan penambangan data. Tidak ada hipotesis
atau asumsi yang telah ditentukan yang dihasilkan. Sebaliknya, data dieksplorasi melalui analisis untuk mengembangkan
pemahaman tentang penyebab fenomena tersebut.
Meskipun mungkin tidak memberikan jawaban pasti, metode ini memberikan arahan umum yang dapat memudahkan
penemuan pola atau anomali.
Visualisasi data
Kemampuan untuk menganalisis data dalam jumlah besar dan menemukan wawasan yang bermanfaat tidak banyak
nilainya jika satu-satunya yang dapat menginterpretasikan hasilnya adalah para analis.
Tahap Visualisasi Data, ditunjukkan pada Gambar 3.22, didedikasikan untuk menggunakan teknik dan
alat visualisasi data untuk mengkomunikasikan hasil analisis secara grafis untuk interpretasi yang efektif oleh
pengguna bisnis.
Machine Translated by Google
Hasil yang sama dapat disajikan dalam beberapa cara yang berbeda, yang dapat mempengaruhi
interpretasi hasil. Akibatnya, penting untuk menggunakan teknik visualisasi yang paling sesuai
dengan menjaga domain bisnis dalam konteks.
Aspek lain yang perlu diingat adalah bahwa menyediakan metode menelusuri
statistik yang relatif sederhana sangatlah penting, agar pengguna dapat memahami bagaimana
hasil gabungan atau agregat dihasilkan.
• Input untuk Sistem Perusahaan – Hasil analisis data dapat dimasukkan secara otomatis atau manual
langsung ke sistem perusahaan untuk meningkatkan dan mengoptimalkan perilaku dan kinerjanya.
Misalnya, toko online dapat diberi makan hasil analisis terkait pelanggan yang diproses yang dapat
memengaruhi cara menghasilkan rekomendasi produk. Model baru dapat digunakan untuk meningkatkan
logika pemrograman dalam sistem perusahaan yang ada atau dapat membentuk dasar sistem baru.
• Pengoptimalan Proses Bisnis – Pola, korelasi, dan anomali yang teridentifikasi yang ditemukan selama analisis
data digunakan untuk memperbaiki proses bisnis. Contohnya adalah mengkonsolidasikan rute transportasi
sebagai bagian dari proses rantai pasokan.
Model juga dapat mengarah pada peluang untuk meningkatkan logika proses bisnis.
• Peringatan – Hasil analisis data dapat digunakan sebagai masukan untuk peringatan yang ada atau dapat
menjadi dasar peringatan baru. Misalnya, peringatan dapat dibuat untuk memberi tahu pengguna melalui email
atau teks SMS tentang peristiwa yang mengharuskan mereka mengambil tindakan korektif.
Mayoritas tim TI ETI yakin bahwa Big Data adalah peluru perak yang akan mengatasi semua masalah
mereka saat ini. Namun, anggota TI yang terlatih menunjukkan bahwa mengadopsi Big Data tidak sama
dengan hanya mengadopsi platform teknologi.
Sebaliknya, serangkaian faktor pertama-tama perlu dipertimbangkan untuk memastikan adopsi Big Data
berhasil. Oleh karena itu, untuk memastikan bahwa dampak dari faktor-faktor terkait bisnis dipahami
sepenuhnya, tim TI duduk bersama dengan manajer bisnis untuk membuat laporan kelayakan. Melibatkan
personel bisnis pada tahap awal ini akan lebih membantu menciptakan lingkungan yang mengurangi
kesenjangan antara harapan yang dirasakan manajemen dan apa yang sebenarnya dapat diberikan oleh
TI.
Terdapat pemahaman yang kuat bahwa penerapan Big Data berorientasi pada bisnis dan akan membantu
ETI dalam mencapai tujuannya. Kemampuan Big Data untuk menyimpan dan memproses data tidak
terstruktur dalam jumlah besar dan menggabungkan beberapa kumpulan data akan membantu ETI
memahami risiko. Perusahaan berharap, sebagai hasilnya, dapat meminimalkan kerugian dengan hanya
menerima pelamar yang kurang berisiko sebagai pelanggan. Demikian pula, ETI memprediksi bahwa
kemampuan untuk melihat ke dalam data perilaku pelanggan yang tidak terstruktur dan menemukan
perilaku abnormal selanjutnya akan membantu mengurangi kerugian karena klaim penipuan dapat ditolak.
Keputusan untuk melatih tim IT di bidang Big Data telah meningkatkan kesiapan ETI untuk
mengadopsi Big Data. Tim percaya bahwa mereka sekarang memiliki keterampilan dasar yang diperlukan
untuk melakukan inisiatif Big Data. Data yang diidentifikasi dan dikategorikan sebelumnya menempatkan tim
pada posisi yang kuat untuk memutuskan teknologi yang dibutuhkan.
Keterlibatan awal manajemen bisnis juga telah memberikan wawasan yang memungkinkan mereka
mengantisipasi perubahan yang mungkin diperlukan di masa depan untuk menjaga platform solusi Big Data
sejalan dengan kebutuhan bisnis yang muncul.
Pada tahap awal ini, hanya segelintir sumber data eksternal, seperti media sosial dan data sensus, yang
telah teridentifikasi. Disepakati oleh personel bisnis bahwa anggaran yang cukup akan dialokasikan untuk
perolehan data dari penyedia data pihak ketiga. Mengenai privasi, pengguna bisnis agak berhati-hati dalam
memperolehnya
Machine Translated by Google
Meskipun pengguna bisnis bersemangat untuk dapat melakukan analitik mendalam melalui
penggunaan data yang tidak terstruktur, mereka mengajukan pertanyaan mengenai sejauh mana
mereka dapat mempercayai hasilnya, karena analisis tersebut melibatkan data dari penyedia
data pihak ketiga. Tim TI menanggapi bahwa kerangka kerja akan diadopsi untuk menambahkan
dan memperbarui metadata untuk setiap kumpulan data yang disimpan dan diproses sehingga
sumbernya dipertahankan setiap saat dan hasil pemrosesan dapat ditelusuri hingga ke sumber
data konstituen.
Sasaran ETI saat ini termasuk mengurangi waktu yang diperlukan untuk menyelesaikan klaim
dan mendeteksi klaim palsu. Pencapaian tujuan ini akan membutuhkan solusi yang memberikan
hasil tepat waktu. Namun, tidak diantisipasi bahwa dukungan analisis data waktu nyata akan
diperlukan. Tim IT percaya bahwa tujuan ini dapat dipenuhi dengan mengembangkan solusi Big
Data berbasis batch yang memanfaatkan teknologi Big Data open source.
Infrastruktur TI ETI saat ini terdiri dari standar jaringan yang relatif lebih tua. Demikian
pula, spesifikasi sebagian besar server, seperti kecepatan prosesor, kapasitas disk, dan
kecepatan disk, menentukan bahwa mereka tidak mampu memberikan kinerja pemrosesan data
yang optimal. Oleh karena itu disepakati bahwa infrastruktur TI saat ini memerlukan peningkatan
sebelum solusi Big Data dapat dirancang dan dibangun.
Baik tim bisnis maupun TI sangat yakin bahwa kerangka kerja tata kelola Big Data
diperlukan tidak hanya untuk membantu mereka menstandarkan penggunaan sumber data yang
berbeda, tetapi juga sepenuhnya mematuhi peraturan terkait privasi data.
Selanjutnya, karena fokus bisnis dari analisis data dan untuk memastikan hasil analisis
yang bermakna dihasilkan, diputuskan bahwa pendekatan analisis data iteratif yang mencakup
personel bisnis dari departemen terkait perlu diadopsi. Misalnya, dalam skenario “meningkatkan
retensi pelanggan”, tim pemasaran dan penjualan dapat disertakan dalam proses analisis data
langsung dari pemilihan kumpulan data sehingga hanya atribut yang relevan dari kumpulan data
tersebut yang dipilih.
Nantinya, tim bisnis dapat memberikan umpan balik yang berharga dalam hal interpretasi dan
penerapan hasil analisis.
Sehubungan dengan komputasi awan, tim TI mengamati bahwa tidak ada sistemnya yang saat
ini dihosting di awan dan bahwa tim tersebut tidak memiliki keahlian terkait awan. Fakta-fakta ini
di samping masalah privasi data mengarahkan tim TI pada keputusan untuk membangun solusi
Big Data di tempat. Grup mencatat bahwa mereka akan membiarkan opsi hosting berbasis cloud
terbuka karena ada beberapa spekulasi bahwa sistem CRM internal mereka dapat diganti dengan
solusi CRM perangkat lunak sebagai layanan yang dihosting di cloud di masa mendatang.
Machine Translated by Google
ETI menyediakan asuransi bangunan dan isi untuk pelanggan domestik dan komersial.
Meskipun penipuan asuransi dapat bersifat oportunistik dan terorganisir, penipuan
oportunistik dalam bentuk kebohongan dan pembesar-besaran mencakup sebagian besar
kasus. Untuk mengukur keberhasilan solusi Big Data untuk pendeteksian kecurangan, salah
satu KPI yang ditetapkan adalah pengurangan klaim penipuan sebesar 15%.
Identifikasi Data
Sejumlah dataset internal dan eksternal diidentifikasi. Data internal meliputi data polis,
dokumen aplikasi asuransi, data klaim, catatan penyesuaian klaim, foto insiden, catatan
agen call center dan email. Data eksternal meliputi data media sosial (umpan Twitter),
laporan cuaca, data geografis (GIS), dan data sensus. Hampir semua kumpulan data
mundur lima tahun ke belakang. Data klaim terdiri dari data klaim historis yang terdiri dari
beberapa bidang di mana salah satu bidang menentukan apakah klaim itu palsu atau sah.
Data polis diperoleh dari sistem administrasi polis, data klaim, foto insiden dan catatan
penyesuaian klaim diperoleh dari sistem manajemen klaim dan dokumen aplikasi asuransi
diperoleh dari sistem manajemen dokumen. Catatan penyesuaian klaim saat ini disematkan
dalam data klaim. Karenanya proses terpisah digunakan untuk mengekstraknya. Catatan dan
email agen pusat panggilan diperoleh dari sistem CRM.
Kumpulan data lainnya diperoleh dari penyedia data pihak ketiga. Salinan terkompresi dari
versi asli semua kumpulan data disimpan di disk. Dari perspektif asalnya, metadata berikut
dilacak untuk menangkap silsilah setiap kumpulan data: nama kumpulan data, sumber,
ukuran, format, checksum, tanggal yang diperoleh, dan jumlah catatan. Pemeriksaan cepat
kualitas data umpan Twitter dan laporan cuaca menunjukkan bahwa sekitar empat hingga
lima persen catatan mereka rusak.
Akibatnya, dua pekerjaan pemfilteran data batch ditetapkan untuk menghapus catatan
yang rusak.
Ekstraksi Data
Tim TI mengamati bahwa beberapa kumpulan data perlu diproses terlebih dahulu untuk
mengekstrak bidang yang diperlukan. Misalnya, kumpulan data tweet berformat JSON.
Untuk dapat menganalisis tweet, id pengguna, stempel waktu , dan teks tweet perlu
diekstraksi dan diubah menjadi bentuk tabel. Selanjutnya, kumpulan data cuaca tiba dalam
format hierarkis (XML), dan bidang-bidang seperti stempel waktu, prakiraan suhu, prakiraan
kecepatan angin, prakiraan arah angin, prakiraan salju , dan prakiraan banjir juga diekstrak
dan disimpan dalam bentuk tabel.
Analisis data
Tim TI melibatkan analis data pada tahap ini karena tidak memiliki keahlian yang tepat
untuk menganalisis data guna mendukung pendeteksian klaim penipuan. Untuk dapat
mendeteksi transaksi penipuan, pertama-tama sifat klaim penipuan perlu
Machine Translated by Google
Visualisasi data
Tim telah menemukan beberapa temuan menarik dan sekarang perlu menyampaikan
hasilnya kepada aktuaris, penjamin emisi dan penaksir klaim. Metode visualisasi yang
berbeda digunakan termasuk grafik batang dan garis dan plot pencar. Plot pencar
digunakan untuk menganalisis kelompok klaim palsu dan sah berdasarkan berbagai
faktor, seperti usia pelanggan, usia polis, jumlah klaim yang dibuat , dan nilai klaim.