Anda di halaman 1dari 49

LAPORAN PRAKTIKUM

VISUALISASI DATA STOK GUDANG PADA


TOSERBA MENGGUNAKAN GOOGLE COLAB

Laporan Praktikum ini di ajukan Sebagai Salah Satu Syarat Lulus Pada
Matakuliah Penambangan Data

DOSEN PENGAMPU
NOFRI YUDI ARIFIN, S.Kom., M.Kom

DISUSUN OLEH
NUR FADILA PUTRI (201055201116)

FAKULTAS TEKNIK
PROGRAM STUDI TEKNIK INFORMATIKA
UNIVERSITAS IBNU SINA
2023
HALAMAN PENGESAHAN LAPORAN PRATIKUM

Nama : Nur Fadila Putri


NPM : 201055201116
Program Studi : Teknik Informatika
Judul : Visualisasi Data Stok Gudang Pada Toserba
Menggunakan Google Colab

Laporan Pratikum ini telah disetujui pada tanggal, Juli 2023

Ka. Laboratorium Dosen Pengampu


Teknik Informatika , Matakuliah,

Hanafi, S.Kom., M.Kom Nofri Yudi Arifin, S.Kom.,M.Kom


NIDK. 8873810016 NIDN. 1001119003
HALAMAN MOTTO

Bahwa tiada yang orang dapatkan, kecuali yang ia usahakan, Dan bahwa
usahanya akan kelihatan nantinya. (Q.S. An Najm ayat 39-40)
Jangan terlalu memikirkan masa lalu karena telah pergi dan selesai, dan jangan
terlalu memikirkan masa depan hingga dia datang sendiri. Karena jika
melakukan yang terbaik dihari ini maka hari esok akan lebih baik.

Nur Fadila Putri

iii
KATA PENGANTAR

Puji syukur kami panjatkan kehadiran Tuhan Yang Maha Esa karena
dengan rahmat, karunia, serta taufik dan hidayah-Nya penulis dapat menyelesaikan
laporan tentang Penambangan Data ini dengan baik meskipun banyak kekurangan
didalamnya.
Kami sangat berharap laporan ini dapat berguna dalam rangka menambah
wawasan serta pengetahuan kita mengenai Penambangan Data. Kami juga
menyadari sepenuhnya bahwa di dalam laporan ini terdapat kekurangan dan jauh
dari kata sempurna. Oleh sebab itu, kami berharap adanya kritik, saran dan usulan
demi perbaikan laporan yang telah kami buat di masa yang akan datang, mengingat
tidak ada sesuatu yang sempurna tanpa saran yang membangun.
Semoga laporan sederhana ini dapat dipahami bagi siapapun yang
membacanya. Sekiranya laporan yang telah disusun ini dapat berguna bagi kami
sendiri maupun orang yang membacanya. Sebelumnya kami mohon maaf apabila
terdapat kesalahan kata-kata yang kurang berkenan dan kami memohon kritik dan
saran yang membangun demi perbaikan di masa depan.

Batam, 12 Juli 2023

Nur Fadila Putri

iv
DAFTAR ISI

Contents
HALAMAN PENGESAHAN LAPORAN PRATIKUM .................................. ii
HALAMAN MOTTO .......................................................................................... iii
KATA PENGANTAR ......................................................................................... iv
DAFTAR ISI ......................................................................................................... v
DAFTAR GAMBAR .......................................................................................... vii
DAFTAR TABEL .............................................................................................. viii
BAB I PENDAHULUAN ..................................................................................I-1
1.1. Latar Belakang Masalah ......................................................................... I-1
1.2 Identifikasi Masalah ............................................................................... I-1
1.3 Rumusan Masalah .................................................................................. I-2
1.4 Batasan Masalah ..................................................................................... I-2
1.5 Tujuan Data Mining ............................................................................... I-3
1.6 Manfaat Data Mining ............................................................................. I-3
1.7 Sistematika Penulisan ................................................................................. I-4
BAB II LANDASAN TEORI .......................................................................... II-5
2.1 Pengertian Data Mining ............................................................................ II-5
2.2 Pengenalan Pola, Data Mining, dan Machine Learning ............................ II-6
2.2.1 Tahap-Tahap Data mining.................................................................. II-7
2.3 Pengertian Data Warehouse .................................................................... II-10
2.3.1 Istilah-Istilah dalam Data Warehouse .............................................. II-11
2.4 Analisis Asosiasi ..................................................................................... II-14
2.4.1 Analisa pola frekuensi tinggi ........................................................... II-15
2.4.2 Pembentukan aturan assosiatif ......................................................... II-15
2.5 Algoritma Apriori.................................................................................... II-19
2.6 DBMS (Database Management System) dan MySQL ........................... II-21
2.6.1 SQL (Structured Query Language) .................................................. II-23
2.6.2 DDL (Data Definition Language) .................................................... II-23

v
2.6.3 DML (Data Manipulation Language) .............................................. II-24
BAB III METODELODI PRATIKUM ....................................................... III-1
3.1 Waktu dan Tempat Pengambilan Data ................................................ III-1
3.2 Jenis Data ............................................................................................ III-1
3.2.1 Data Primer .................................................................................. III-1
3.2.2 Data Sekunder .............................................................................. III-1
3.3 Metode Pengumpulan data .................................................................. III-2
3.3.1 Wawancara ........................................................................................ III-2
3.3.2 Observasi ........................................................................................... III-2
3.3.3 Dokumentasi ................................................................................ III-2
3.4 Metode Pengolahan Data ...................................................................... III2
BAB IV HASIL DAN PEMBAHASAN ........................................................ IV-1
4.1 Hasil ...................................................................................................... IV-1
4.1.1 Implementasi ..................................................................................... IV-1
BAB V KESIMPULAN DAN SARAN ........................................................ IV-12
5.1 Kesimpulan ........................................................................................ IV-12
5.2 Saran .................................................................................................. IV-12
DAFTAR PUSTAKA..................................................................................... IV-13

vi
DAFTAR GAMBAR

Gambar 2.1 Tahapan proses KDD dalam menghasilkan knowledge ................ II-6
Gambar 2.2 Hubungan Bidang Ilmu Data mining, Manchine learning dan
Pengenalan Pola .................................................................................................. II-7
Gambar 2.2.1 Tahap – tahap Data Mining (Han,2006) Tahap-tahap ................ II-8
Gambar 2.3.1 Bidang Ilmu data mining .......................................................... II-13
Gambar 4.1.1 Dataset pada tampilan Microsoft Excel ..................................... IV-1
Gambar 4.1.2 Tampilan awal google colab ...................................................... IV-2
Gambar 4.1.3 Cara menukar nama File ............................................................ IV-2
Gambar 4.1.4 Hasil ubah nama file .................................................................. IV-3
Gambar 4.1.5 Upload file ................................................................................. IV-3
Gambar 4.1.6 Hasil Output ............................................................................... IV-5
Gambar 4.1.7 Persentase kondisi barang digudang .......................................... IV-6
Gambar 4.1.8 Jumlah Barang Per Jenis dan Kondisi ....................................... IV-7
Gambar 4.1.9 Histogram untuk variabel jumlah .............................................. IV-8
Gambar 4.1.10 pivot table untuk jumlahbarang per bulan dan jenis barang .. IV-10

vii
DAFTAR TABEL

Tabel 2.4.1 Data Transaksi ............................................................................... II-16


Tabel 2.4.2 Nilai Support 1 itemset .................................................................. II-16
Tabel 2.4.3 Nilai Support 2 itemset .................................................................. II-17
Tabel 2.4.4 item set yang memenuhi minimum support .................................. II-17
Tabel 2.4.5 Hasil Gabungan 3 itemset.............................................................. II-17
Tabel 2.4.6 Nilai Support 3 itemset .................................................................. II-18
Tabel 2.4.7 Nilai Confindence Untuk Tiap Itemset ......................................... II-18
Tabel 3.1 Rencana Kegiatan …………………………………….…………...III-1

viii
BAB I
PENDAHULUAN

1.1. Latar Belakang Masalah


Data Mining adalah proses ekstraksi pengetahuan dari sekelompok data yang
besar. Salah satu teknik dalam data mining adalah klasifikasi. Klasifikasi dilakukan
untuk mengelompokkan sekumpulan data ke dalam kelas-kelas yang telah
ditentukan terlebih dahulu berdasarkan kesamaan karakteristik yang dimiliki.
Klasifikasi banyak digunakan diberbagai bidang, misal aplikasi klasifikasi di
bidang pengenalan pola, diagnosis medis, deteksi kegagalan di industri dan lain
sebagainya.
Google Collab atau Google Collaboratory merupakan salah satu produk
Google research yang berbasis Cloud yang dapat digunakan secara gratis.
Penciptaan Google Colab ini memang bertujuan untuk mempermudah pekerjaan
yang berkaitan dengan data science dan machine learning.
Pada Toserba yang ada di batam ini masih secara manual dalam menghitung
stok yang ada di Gudang mereka. Permasalahan mendasar bagi toko ini iyalah
membuat laporan stok Gudang yang masih manual, menghitung stok Gudang yang
masih manual dan melihat barang yang masih baik atau rusak secara manual.
Dengan aplikasi google colab kajian data mining sangat dimungkinkan untuk
diterapkan pada pencarian solusi untuk melakukan membuat laporan stok Gudang,
menghitung stok Gudang dengan cepat.

1.2 Identifikasi Masalah

Data Mining mengidentifikasi fakta- fakta atau kesimpulan-kesimpulan yang


di sarankan berdasarkan penyaringan melalui data untuk menjelajahi pola-pola atau
anomali-anomali data. Data Mining mempunyai 5 fungsi:
1. Classification, yaitu menyimpulkan definisi-definisi karakteristik sebuah
grup. Contoh: pelanggan-pelanggan perusahaan yang telah berpindah
kesaingan perusahaan yang lain.
II-2

2. Clustering, yaitu mengindentifikasikan kelompok-kelompok dari barang-


barang atau produk-produk yang mempunyai karakteristik khusus (clustering
berbeda dengan classification, dimana pada clustering tidak terdapat definisi-
definisi karakteristik awak yang di berikan pada waktu classification.)
3. Association, yaitu mengidentifikasikan hubungan antara kejadian-kejadian
yang terjadi pada suatu waktu, seperti isi-isi dari keranjang belanja.
4. Sequencing Hampir sama dengan association, sequencing
mengidentifikasikan hubungan-hubungan yang berbeda pada suatu periode
waktu tertentu, seperti pelanggan-pelanggan yang mengunjungi supermarket
secara berulang-ulang.
5. Forecasting memperkirakan nilai pada masa yang akan datang berdasarkan
pola-pola dengan sekumpulan data yang besar, seperti peramalan permintaan
pasar.

1.3 Rumusan Masalah


Beberapa permasalahan yang melatar belakangi penulisan laporan ini adalah
sebagai berikut :
1. Bagaimana cara implementasi data mining menggunakan google colab?
2. Bagaimana memenuhi Pemahaman tentang implementasi data mining
menggunakan google colab?
3. Bagaimana menyelesaikan Pengaruh Pemahaman implementasi data mining
menggunakan google colab?

1.4 Batasan Masalah


Agar pembahasan yang dilakukan mengarah pada pokok permasalahan yang
sedang dibahas serta menghindari kajian yang terlalu luas, maka perlu ditetapkan
batasan-batasan masalah yang akan menjadi ruang lingkup kajian yang akan
dilakukan dengan melihat hal-hal yang telah diuraikan diatas maka ruang lingkup
masalah yang akan dikaji meliputi:
1. Proses yang diolah adalah Pengaruh Pemahaman implementasi data
menggunakan google colab
II-3

2. Penggunaan website google colab sebagai pengolah data


3. Penggunaan google colab sebagai pengolahan data masih banyak keterbatasan

1.5 Tujuan Data Mining

Tujuan utama data mining adalah untuk mengambil informasi mentah dan
menentukan apakah ada kohesi atau korelasi di antara data.
1. Prediksi Tentukan bagaimana atribut tertentu akan berperilaku di masa depan.
Misalnya, berapa volume penjualan yang akan dihasilkan sebuah toko dalam
periode tertentu.
2. Identifikasi Identifikasi pola dalam data. Misalnya, pasangan yang baru
menikah cenderung menghabiskan lebih banyak uang untuk membeli
furnitur.
3. Klasifikasi Mempartisi data ke dalam kelas-kelas. Misalnya, pelanggan dapat
diklasifikasikan ke dalam kategori yang berbeda dengan perilaku yang
berbeda dalam berbelanja.
4. Optimalisasi Mengoptimalkan penggunaan sumber daya yang terbatas seperti
waktu, ruang, uang, atau materi. Misalnya, cara terbaik menggunakan iklan
untuk memaksimalkan keuntungan (penjualan).

1.6 Manfaat Data Mining

1. Membantu perusahaan mengumpulkan informasi yang dapat dipercaya


2. Merupakan solusi yang efisien dan hemat biaya dibandingkan dengan aplikasi
data lainnya
3. Membantu bisnis membuat produksi yang menguntungkan dan penyesuaian
operasional
4. Membantu bisnis membuat keputusan berdasarkan informasi
5. Membantu mendeteksi risiko kredit dan penipuan
6. Membantu para data scientist dengan mudah menganalisis sejumlah besar
data dengan cepat
II-4

7. Data scientist dapat menggunakan informasi tersebut untuk mendeteksi


penipuan, membuat model risiko, dan meningkatkan keamanan produk
8. Ini membantu ilmuwan data dengan cepat memulai prediksi otomatis tentang
perilaku dan tren serta menemukan pola tersembunyi.

1.7 Sistematika Penulisan


Untuk memberikan gambaran mengenai laporan yang akan dibuat, adapun
sistematika penulisan laporan disusun sebagai berikut:
BAB I PENDAHULUAN
Bab pendahuluan mendeskripsikan mengenai latar belakang masalah,
ramusan masalah, tujuan, manfaat dan sistematika penulisan.
BAB II LANDASAN TEORI
Berisi tentang teori-teori yang digunakan dalam penelitian, perancangan
dan pembuatan program.
BAB III METODELOGI PRATIKUM
Menguraikan gambaran objek penelitian, analisis semua permasalahan,
perancangan sistem baik secara umum maupun spesifik.
BAB IV HASIL DAN PEMBAHASAN
Memaparkan dari hasil-hasil tahapan penelitian, mulai dari analisis,
desain, hasil testing dan implementasinya.
BAB V PENUTUP
Menguraikan kesimpulan dari penelitian dan saran-saran sebagai bahan
pertimbangan untuk penelitian selanjutnya.
DAFTAR PUSTAKA
Tulisan yang tersusun di akhir sebuah karya ilmiah yang berisi nama
penulis, judul tulisan,penerbit, identitas penerbit dan tahun terbit sebagai
sumber atau rujukan seorang penulis.
LAMPIRAN
II-5

BAB II
LANDASAN TEORI

2.1 Pengertian Data Mining


Secara sederhana data mining adalah penambangan atau penemuan
informasi baru dengan mencari pola atau aturan tertentu dari sejumlah data yang
sangat besar (Davies, 2004). Data mining juga disebut sebagai serangkaian proses
untuk menggali nilai tambah berupa pengetahuan yang selama ini tidak diketahui
secara manual dari suatu kumpulan data (Pramudiono, 2007). Data mining, sering
juga disebut sebagai knowledge discovery in database (KDD). KDD adalah
kegiatan yang meliputi pengumpulan, pemakaian data, historis untuk menemukan
keteraturan, pola atau hubungan dalam set data berukuran besar (Santoso, 2007).

Data mining merupakan metode untuk mencari, menemukan dan


mendapatkan pola tertentu yang berbeda dari kumpulan big data, dimana data
tersebut tersimpan dalam suatu database, data warehouse, atau repositori
informasi lainnya.(Agarwal, 2014)

Untuk mendapatkan pola tertentu dari kumpulan big data diperlukan


langkah-langkah atau proses yang disebut Knowledge Discovery in Databases
(KDD) dimana data mining merupakan bagian tidak terpisahkan dari proses
tersebut.

Data mining berhubungan dengan penemuan sesuatu yang tersembunyi dan pola
data tertentu yang tidak diketahui sebelumnya.

1. Data mining biasa menggunakan data yang sangat besar. Biasanya data yang
besar digunakan untuk membuat hasil lebih dipercaya.
2. Data mining berguna untuk membuat keputusan yang kritis, terutama dalam
strategi (Davies, 2004).
II-6

Gambar 2.1 Tahapan proses KDD dalam menghasilkan knowledge

Berdasarkan beberapa pengertian tersebut dapat ditarik kesimpulan bahwa


data mining adalah suatu teknik menggali informasi berharga yang terpendam
atau tersembunyi pada suatu koleksi data (database) yang sangat besar sehingga
ditemukan suatu pola yang menarik yang sebelumnya tidak diketahui. Kata mining
sendiri berarti usaha untuk mendapatkan sedikit barang berharga dari sejumlah
besar material dasar. Karena itu data mining sebenarnya memiliki akar yang
panjang dari bidang ilmu seperti kecerdasan buatan (artificial intelligent), machine
learning, statistik dan database. Beberapa metode yang sering disebut-sebut
dalam literatur data mining antara lain clustering, lassification, association rules
mining, neural network, genetic algorithm dan lainlain (Pramudiono, 2007).

2.2 Pengenalan Pola, Data Mining, dan Machine Learning


Pengenalan pola adalah suatu disiplin ilmu yang mempelajari cara-cara
mengklasifikasikan obyek ke beberapa kelas atau kategori dan mengenali
kecenderungan data. Tergantung pada aplikasinya, obyek-obyek ini bisa berupa
pasien, mahasiswa, pemohon kredit, image atau signal atau pengukuran lain yang
perlu diklasifikasikan atau dicari fungsi regresinya (Santoso, 2007).Data mining,
sering juga disebut knowledge discovery in database (KDD), adalah kegiatan
yang meliputi pengumpulan, pemakaian data historis untuk menemukan
keteraturan, pola atau hubungan dalam set data berukuran besar. Keluaran dari data
mining ini bisa dipakai untuk memperbaiki pengambilan keputusan di masa depan.
II-7

Sehingga istilah pattern recognition jarang digunakan karena termasuk bagian dari
data mining (Santoso, 2007).

Machine Learning adalah suatu area dalam artificial intelligence atau


kecerdasan buatan yang berhubungan dengan pengembangan teknik-teknik yang
bisa diprogramkan dan belajar dari data masa lalu. Pengenalan pola, data mining
dan machine learning sering dipakai untuk menyebut sesuatu yang sama. Bidang
ini bersinggungan dengan ilmu probabilitas dan statistik kadang juga optimasi.
Machine learning menjadi alat analisis dalam data mining. Bagaimana
bidangbidang ini berhubungan bisa dilihat dalam gambar 2.4 (Santoso, 2007).

Gambar 2. 2 Hubungan Bidang Ilmu Data mining, Manchine learning dan


Pengenalan Pola
2.2.1 Tahap-Tahap Data mining

Sebagai suatu rangkaian proses, data mining dapat dibagi menjadi beberapa
tahap yang diilustrasikan di Gambar 2.5. Tahap-tahap tersebut bersifat interaktif,
pemakai terlibat langsung atau dengan perantaraan knowledge base
II-8

Gambar 2.2.1 Tahap – tahap Data Mining (Han,2006) Tahap-tahap

Data mining ada 6 yaitu :


1. Pembersihan data (data cleaning)
Pembersihan data merupakan proses menghilangkan noise dan data yang
tidak konsisten atau data tidak relevan. Pada umumnya data yang diperoleh, baik
dari database suatu perusahaan maupun hasil eksperimen, memiliki isian-isian
yang tidak sempurna seperti data yang hilang, data yang tidak valid atau juga hanya
sekedar salah ketik. Selain itu, ada juga atribut-atribut data yang tidak relevan
dengan hipotesa data mining yang dimiliki. Data-data yang tidak relevan itu juga
lebih baik dibuang. Pembersihan data juga akan mempengaruhi performasi dari
teknik data mining karena data yang ditangani akan berkurang jumlah dan
kompleksitasnya.
2. Integrasi data (data integration)
Integrasi data merupakan penggabungan data dari berbagai database ke
dalam satu database baru. Tidak jarang data yang diperlukan untuk data mining
tidak hanya berasal dari satu database tetapi juga berasal dari beberapa database
atau file teks. Integrasi data dilakukan pada atribut-aribut yang
mengidentifikasikan entitas-entitas yang unik seperti atribut nama, jenis produk,
nomor pelanggan dan lainnya. Integrasi data perlu dilakukan secara cermat karena
kesalahan pada integrasi data bisa menghasilkan hasil yang menyimpang dan
II-9

bahkan menyesatkan pengambilan aksi nantinya. Sebagai contoh bila integrasi data
berdasarkan jenis produk ternyata menggabungkan produk dari kategori yang
berbeda maka akan didapatkan korelasi antar produk yang sebenarnya tidak ada.
3. Seleksi Data (Data Selection)
Data yang ada pada database sering kali tidak semuanya dipakai, oleh karena
itu hanya data yang sesuai untuk dianalisis yang akan diambil dari database.
Sebagai contoh, sebuah kasus yang meneliti faktor kecenderungan orang membeli
dalam kasus market basket analysis, tidak perlu mengambil nama pelanggan,
cukup dengan id pelanggan saja.
4. Transformasi data (Data Transformation)
Data diubah atau digabung ke dalam format yang sesuai untuk diproses
dalam data mining. Beberapa metode data mining membutuhkan format data
yang khusus sebelum bisa diaplikasikan. Sebagai contoh beberapa metode standar
seperti analisis asosiasi dan clustering hanya bisa menerima input data
kategorikal. Karenanya data berupa angka numerik yang berlanjut perlu dibagibagi
menjadi beberapa interval. Proses ini sering disebut transformasi data.
5. Proses mining,
Merupakan suatu proses utama saat metode diterapkan untuk menemukan
pengetahuan berharga dan tersembunyi dari data.
6. Evaluasi pola (pattern evaluation),
Untuk mengidentifikasi pola-pola menarik kedalam knowledge based yang
ditemukan. Dalam tahap ini hasil dari teknik data mining berupa pola-pola yang
khas maupun model prediksi dievaluasi untuk menilai apakah hipotesa yang ada
memang tercapai. Bila ternyata hasil yang diperoleh tidak sesuai hipotesa ada
beberapa alternatif yang dapat diambil seperti menjadikannya umpan balik untuk
memperbaiki proses data mining, mencoba metode data mining lain yang lebih
sesuai, atau menerima hasil ini sebagai suatu hasil yang di luar dugaan yang
mungkin bermanfaat.
II-10

7. Presentasi pengetahuan (knowledge presentation),


Merupakan visualisasi dan penyajian pengetahuan mengenai metode yang
digunakan untuk memperoleh pengetahuan yang diperoleh pengguna. Tahap
terakhir dari proses data mining adalah bagaimana memformulasikan keputusan
atau aksi dari hasil analisis yang didapat. Ada kalanya hal ini harus melibatkan
orang-orang yang tidak memahami data mining. Karenanya presentasi hasil data
mining dalam bentuk pengetahuan yang bisa dipahami semua orang adalah satu
tahapan yang diperlukan dalam proses data mining. Dalam presentasi ini,
visualisasi juga bisa membantu mengkomunikasikan hasil data mining (Han,
2006)
2.3 Pengertian Data Warehouse
Pengertian Data Warehouse dapat bermacam-macam namun mempunyai inti
yang sama, seperti pendapat beberapa ahli berikut ini :
Menurut W.H. Inmon dan Richard D.H., data warehouse adalah koleksi data
yang mempunyai sifat berorientasi subjek,terintegrasi,time-variant, dan bersifat
tetap dari koleksi data dalam mendukung proses pengambilan keputusan
management.
Menurut Vidette Poe, data warehouse merupakan database yang bersifat
analisis dan read only yang digunakan sebagai fondasi dari sistem penunjang
keputusan.
Menurut Paul Lane, data warehouse merupakan database relasional yang
didesain lebih kepada query dan analisa dari pada proses transaksi, biasanya
mengandung history data dari proses transaksi dan bisa juga data dari sumber
lainnya. Data warehouse memisahkan beban kerja analisis dari beban kerja
transaksi dan memungkinkan organisasi menggabung/konsolidasi data dari
berbagai macam sumber. Jadi, data warehouse merupakan metode dalam
perancangan database, yang menunjang DSS (Decission Support System) dan EIS
(Executive Information System). Secara fisik data warehouse adalah database, tapi
perancangan data warehouse dan database sangat berbeda. Dalam perancangan
database tradisional menggunakan normalisasi, sedangkan pada data warehouse
normalisasi bukanlah cara yang terbaik.
II-11

Dari definisi-definisi yang dijelaskan tadi, dapat disimpulkan data warehouse


adalah database yang saling bereaksi yang dapat digunakan untuk query dan
analisisis, bersifat orientasi subjek, terintegrasi, time-variant,tidak berubah yang
digunakan untuk membantu para pengambil keputusan.

2.3.1 Istilah-Istilah dalam Data Warehouse

Beberapa istilah-istilah yang berhubungan dengan data warehouse antara


lain:
1. Decision Support System(DSS)
Menurut O‟Brien(2003, p21), “Decision support system is the new role for
information systems was provide managerial end-user with ad hoc and interactive
support of their decision-making process”, yang artinya DSS merupakan role baru
untuk sistem informasi yang menyediakan sistem manajerial end-user secara
harian dan merupakan dukungan interaktif dalam proses pembuatan keputusan.
Juga merupakan sistem yang menyediakan informasi kepada user yang
menjelaskan bagaimana sistem ini dapat menganalisa situasi dan mendukung suatu
keputusan yang baik.
2. Data Mart
Menurut Connoly-Begg (2002, p1067) “Data Mart is a subset of data
warehouse that support the requirements of a particular department of business
function”, yang artinya data mart adalah subset dari data warehouse yang
mendukung kebutuhan informasi dari suatu departemen atau fungsi bisnis tertentu.
data mart merupakan suatu bagian dari data warehouse yang dapat mendukung
pembuatan laporan dan analisis data pada suatu unit, bagian atau operasi
perusahaan.
Perbedaan antara data mart dan data warehouse adalah:
a Data Mart hanya berfokus pada kebutuhan user yang berkaitan dengan suatu
departemen atau fungsi bisnis.
b Data Mart tidak mengandung data operasional secara detil, tidak seperti data
warehouse.
II-12

c Data yang ada dalam data mart lebih sedikit daripada yang ada dalam data
warehouse, data mart juga lebih mudah dimengerti karena lebih sederhana.
3. OLAP (Online Analytical Processing)
Menurut Mallach (2000, p531), “OLAP is a category of sofware that enables
analyst, managers, and executive to gain insight into data through fast, consistent,
interactive access to a wide variety of possible views of information that has been
transformed from raw data to reflect the real dimensionality of the enterprise as
understood by the user”, yang artinya OLAP adalah kategori teknologi software
yang dapat memungkinkan penganalisa, manager, dan eksekutif untuk melihat data
yang ada dengan akses yang cepat, konsisten dan interaktif sehingga dapat melihat
informasi yang sudah di transformasi dari data mentah menjadi dimensi keadaan
nyata yang dapat dimengerti dengan mudah oleh user. OLAP juga merupakan
suatu pemrosesan database yang menggunakan tabel fakta dan dimensi untuk
dapat menampilkan berbagai bentuk laporan, query dari data yang berukuran besar.
4. OLTP (Online Transaction Processing)
Menurut O‟Brien (2003, p224), “OLTP is a real time transaction processing
systems”, yang artinya sebuah Transaction Processing Systems saat ini.
“Transaction Processing Systems (TPS) are cross-functional information systems
that process data resulting from the occurrence of business transaction”, yang
artinya TPS adalah sistem informasi yang cross-functional yang memproses data
sehari-hari dari sebuah kejadian dari transaksi bisnis. OLTP dirancang untuk
memungkinkan terjadinya pengaksesan secara bersamaan oleh beberapa user
terhadap sumber data yang sama dan mengatur proses yang diperlukan.
5. Dimensional Table (Tabel Dimensi)
Tabel yang berisikan kategori dengan ringkasan data detil yang dapat
dilaporkan seperti laporan keuntungan pada tabel fakta dapat dilaporkan sebagai
dimensi waktu (yang berupa perbulan, perkuartal, dan pertahun).
6. Fact Table (Tabel Fakta)
Merupakan tabel yang umumnya mengandung angka dan data historis
dimana key (kunci) yang dihasilkan sangat unik karena key nya merupakan
kumpulan foreign key dan primary key yang ada pada masing-masing tabel
II-13

dimensi yang berhubungan atau merupakan tabel terpusat dari skema bintang.
Tabel Fakta menyimpan tipe-tipe measure yang berbeda, seperti measure, yang
secara langsung terhubung dengan tabel dimensi dan measure yang tidak
berhubungan dengan tabel dimensi.
7. Data Mining
Menurut Aldeman (2000, p145), “Data Mining is a discovery process of
unknown unsuspected pattern of data”, yang artinya data mining adalah proses
pencarian pola data yang tidak diketahui atau tidak diperkirakan sebelumnya,
sedangkan menurut Hui Tang-MacLennan 17 (2005, p2), “Data mining is about
analyzing data and finding hidden pattern using automatic and semi–automatic
means”, yang artinya data mining adalah penganalisisan data dan penemuan pola
yang tersembunyi menggunakan arti yang otomatis dan semi-otomatis. Tujuan
utama dari data mining adalah untuk mengekstraksi pola dari data yang ada,
menambah nilai intrinsik dari data serta mengubahnya menjadi pengetahuan. Nama
lain data mining adalah Knowledge discovery from Databases (KDD).

Gambar 2.3.1 Bidang Ilmu data mining


II-14

2.4 Analisis Asosiasi


Analisis asosiasi atau association rule mining adalah teknik data mining
untuk menemukan aturan assosiatif antara suatu kombinasi item. Contoh aturan
assosiatif dari analisa pembelian di suatu pasar swalayan adalah dapat diketahuinya
berapa besar kemungkinan seorang pelanggan membeli roti bersamaan dengan
susu. Dengan pengetahuan tersebut pemilik pasar swalayan dapat mengatur
penempatan barangnya atau merancang kampanye pemasaran dengan memakai
kupon diskon untuk kombinasi barang tertentu.
Analisis asosiasi menjadi terkenal karena aplikasinya untuk menganalisa isi
keranjang belanja di pasar swalayan. Analisis asosiasi juga sering disebut dengan
istilah market basket analysis. Analisis asosiasi dikenal juga sebagai salah satu
teknik data mining yang menjadi dasar dari berbagai teknik data mining lainnya.
Khususnya salah satu tahap dari analisis asosiasi yang disebut analisis pola
frequensi tinggi (frequent pattern mining) menarik perhatian banyak peneliti untuk
menghasilkan algoritma yang efisien. Penting tidaknya suatu aturan assosiatif
dapat diketahui dengan dua parameter, support (nilai penunjang) yaitu persentase
kombinasi item tersebut dalam database dan confidence (nilai kepastian) yaitu
kuatnya hubungan antar item dalam aturan assosiatif. Aturan assosiatif biasanya
dinyatakan dalam bentuk : {roti, mentega} _ {susu} (support = 40%, confidence =
50%). Yang artinya : "50% dari transaksi di database yang memuat item roti dan
mentega juga memuat item susu. Sedangkan 40% dari seluruh transaksi yang ada
di database memuat ketiga item itu." Dapat juga diartikan : "Seorang konsumen
yang membeli roti dan mentega punya kemungkinan 50% untuk juga membeli
susu. Aturan ini cukup signifikan karena mewakili 40% dari catatan transaksi
selama ini."
Analisis asosiasi didefinisikan suatu proses untuk menemukan semua aturan
assosiatif yang memenuhi syarat minimum untuk support (minimum support) dan
syarat minimum untuk confidence (minimum confidence). Metodologi dasar
analisis asosiasi terbagi menjadi dua tahap :
II-15

2.4.1 Analisa pola frekuensi tinggi

Tahap ini mencari kombinasi item yang memenuhi syarat minimum dari nilai
support dalam database. Nilai support sebuah item diperoleh dengan rumus berikut:

Jumlah Transaksi mengandung A


Support (A) = . . . . . . . . (2.1)
Total Transaksi
sedangkan nilai support dari 2 item diperoleh dari rumus berikut:

Jumlah Transaksi mengandung A dan B


Support (A ∩ B) =
. . . . . . . . (2.2)
Total Transaksi

2.4.2 Pembentukan aturan assosiatif

Setelah semua pola frekuensi tinggi ditemukan, barulah dicari aturan


assosiatif yang memenuhi syarat minimum untuk confidence dengan menghitung
confidence aturan assosiatif A →B . Nilai confidence dari aturan A→ B diperoleh
dari rumus berikut:

Jumlah Transaksi mengandung A dan B


Confidence = P (B | A) =
. . . . . .(2.3)
Jumlah Transaksi mengandung A
Untuk memahami proses algoritma apriori maka berikut ini akan diberikan
ilustrasi penggunaan algoritma apriori. Dengan menggunakan database pada
Gambar 2.4 dan mengasumsikan minimum support 0,5 atau 2 transaksi . Sebagai
contoh suatu data transaksi yang didapat dari paper penerapan data mining untuk
strategi promosi pendidikan (Gunadi Widi Nurcahyo) dengan Tabel 2.4.1 data
transaksi sebagai berikut :
II-16

Tabel 2.4.1 Data Transaksi

Transaksi ID Item Set


1 Item A, Item C, Item D
2 Item B, Item C, Item E
3 Item A, Item B ,Item C, Item E
4 Item B, Item E

Misalkan diinginkan minimum support : 50% atau 0,5 (2 dari 4 transaksi)

1. Langkah 1: Mencari nilai support untuk masing – masing itemset. Seperti


yang ditunjukkan pada Tabel 2.4.2 L 1= {large 1-itemset}

Tabel 2.4.2 Nilai Support 1 itemset

Itemset Support
A 50%
B 75%
C 75%
D 25%
E 75%
2. Langkah 2 : Mencari kandidat itemset untuk L 2, gabungkan itemset
pada L1 (algoritma apriori-gen) { A B, A C, A E, B C, B E, C E}. Item D
tidak masuk dalam kombinasi karena nilai support tidak memenuhi
minimum support.
3. Langkah 3 : Hitung nilai Support untuk masing- masing itemset. Hasilnya
dapat ditunjukkan pada Tabel 2.4.3
II-17

Tabel 2.4.3 Nilai Support 2 itemset

Itemset Support
AB 25%
AC 50%
AE 25%
BC 50%
BE 75%
CE 50%
4. Langkah 4: tentukan item set yang memenuhi minimum support. Hasilnya
dapat ditunjukkan pada tabel 2.4.4 L 2 { large 2-itemset}

Tabel 2.4.4 item set yang memenuhi minimum support

Itemset Support
AC 50%
BC 50%
BE 75%
CE 50%
5. Langkah 5 : Ulangi langkah 2 - 4
6. Selanjutnyan gabungkan itemset pada L1 & L2. Hasilnya dapat ditunjukkan
pada Tabel 2.5.
Tabel 2.4.5 Hasil Gabungan 3 itemset

Itemset Gabungan 3 itemset


AC+BC ABC
AC+BE ACB, ACE,ABE
AC+CE ACE
BC+BE BCE
BC+CE BCE
BE+CE BCE
II-18

7. Langkah 6 : Hitung support dari setiap kandidat itemset L3


Hasilnya dapat ditunjukkan pada Tabel 2.6
Tabel 2.4.6 Nilai Support 3 itemset

Itemset Support
ABC 25%
ACE 25 %
ABE 25%
BCE 50%

8. Langkah 7 : L3 { large 3-itemset } { B C E} dan 3 itemset yang lainnya


dipangkas karena nilai support tidak memenuhi nilai minimum support.
9. Langkah 8 : Untuk mencari aturan asosiasi diperlukan juga minconfindence.
Misal minconfindence : 75 %, aturan asosiasi yang mungkin terbentuk dapat
ditunjukkan pada Tabel 2.7.

Tabel 2.4.7 Nilai Confindence Untuk Tiap Itemset

Aturan (X → Y) Support ( X ᴜ Y) Support X Confindence


BC→E 50% 50% 100%

BE→C 50% 75% 66.67%

CE→B 50% 50% 100%


A→C 50% 50% 100%
C→A 50% 75% 66.67%
B→C 50% 75% 66.67%

C→B 50% 75% 66.67%


B→E 75% 75% 100%
E→B 75% 75% 100%
C→E 50% 75% 66.67%
II-19

E→C 50% 75% 66.67%

2.5 Algoritma Apriori


Apriori adalah suatu algoritma yang sudah sangat dikenal dalam melakukan
pencarian frequent itemset dengan menggunakan teknik association rule .
Algoritma Apriori menggunakan knowledge mengenai frequent itemset yang telah
diketahui sebelumnya, untuk memproses informasi selanjutnya. Pada algoritma
Apriori untuk menentukan kandidat-kandidat yang mungkin muncul dengan cara
memperhatikan minimum support.
Adapun dua proses utama yang dilakukan dalam Algoritma Apriori, yaitu:
1. Join (penggabungan).
Pada proses ini setiap item dikombinasikan dengan item yang lainnya sampai
tidak terbentuk kombinasi lagi. Algoritma Apriori dibagi menjadi beberapa tahap
yang disebut iterasi atau pass. Tiap iterasi menghasilkan pola frekuensi tinggi
dengan panjang yang sama dimulai dari pass pertama yang menghasilkan pola
frekuensi tinggi dengan panjang satu.
Di iterasi pertama, support dari setiap item dihitung dengan men-scan
database. Setelah support dari setiap item didapat, item yang memiliki support
diatas minimum support dipilih sebagai pola frekuensi tinggi dengan panjang 1 atau
sering disingkat 1-itemset. Singkatan k-itemset berarti satu set yang terdiri dari k
item.
Iterasi kedua menghasilkan 2-itemset yang tiap set-nya memiliki dua item.
Pertama dibuat kandidat 2-itemset dari kombinasi semua 1-itemset. Lalu untuk tiap
kandidat 2-itemset ini dihitung support-nya dengan men-scan database.
2. Prune (pemangkasan).
Pada proses ini, hasil dari item yang telah dikombinasikan tadi lalu dipangkas
dengan menggunakan minimum support dan minimum confindence yang telah
ditentukan oleh user. Nilai minimum support disini artinya nilai yang digunakan
untuk menyeleksi lolos dan tidak lolosnya kandidat itemset . Penilaian untuk
minimum confindence yaitu nilai yang digunakan untuk menentukan batas lolos
dan tidak lolos aturan asosiasi dari kandidat 2 itemset dan 3 itemset yang
II-20

direlasikan. Setelah support dari semua kandidat 2-itemset didapatkan, kandidat


2itemset yang memenuhi syarat minimum support dan minimum confindence
dapat ditetapkan sebagai 2-itemset yang juga merupakan pola frekuensi tinggi
dengan panjang 2 item. Untuk selanjutnya pada iterasi ke-k dapat dibagi lagi
menjadi beberapa bagian (Sumber : Agrawal , R., Srikant, 1996) :
a. Pembentukan kandidat itemset, Kandidat k-itemset dibentuk dari kombinasi
(k-1)-itemset yang didapat dari iterasi sebelumnya. Satu ciri dari algoritma
Apriori adalah adanya pemangkasan kandidat k-itemset yang subset-nya
yang berisi k-1 item tidak termasuk dalam pola frekuensi tinggi dengan
panjang k-1.
b. Penghitungan support dari tiap kandidat k-itemset, support dari tiap kandidat
k-itemset didapat dengan men-scan database untuk menghitung jumlah
transaksi yang memuat semua item di dalam kandidat k-itemset tsb. Ini
adalah juga ciri dari algoritma Apriori dimana diperlukan penghitungan
dengan scan seluruh database sebanyak k-itemset terpanjang.
c. Tetapkan pola frekuensi tinggi, pola frekuensi tinggi yang memuat k item
atau k-itemset ditetapkan dari kandidat k-itemset yang support-nya lebih
besar dari minimum support.
d. Bila tidak didapat pola frekuensi tinggi baru maka seluruh proses dihentikan.
Bila tidak, maka k ditambah satu dan kembali ke bagian 1.
II-21

Gambar 2.5 Ilustrasi Algoritma Apriori


Walaupun algoritma Apriori mudah untuk dipahami dan dimplementasikan
dibandingkan dengan algoritma yang lainnya yang memang diterapkan untuk
proses association rule, akan tetapi algoritma Apriori juga memiliki kekurangan
yaitu, untuk melakukan pencarian frequent itemset, algoritma Apriori harus
melakukan scanning database berulang kali untuk setiap kombinasi item.
Hal tersebut menyebabkan banyaknya waktu yang dibutuhkan untuk
melakukan scanning database. Selain itu, dibutuhkan generate Analisis Market
Basket Dengan Algoritma Apriori dan FP-Growth Erwin candidate yang besar
untuk mendapatkan kombinasi item dari database.

2.6 DBMS (Database Management System) dan MySQL


DBMS merupakan suatu sistem perangkat lunak yang memungkinkan
pengguna (user) untuk membuat, memelihara, mengontrol, dan mengakses
database secara praktis dan efisien. Hampir semua DBMS dapat diintegrasikan
dengan web application salah satunya adalah MySQL. Konektivitas MySQL
dengan web application sangat baik, sehingga lebih sering digunakan dalam
aplikasi-aplikasi web application dari pada DBMS lainnya.

MySQL adalah DBMS yang didistribusikan secara gratis dibawah lisensi


dari General Public License (GPL) dimana setiap orang bebas untuk
menggunakanya tetapi tidak boleh menggunakan MySQL untuk dijadikan induk
turunan yang bersifat close source (komersial). MySQL merupakan turunan dari
salah satu konsep utama dalam database yaitu SQL (Structured Query Language).
Keunggulan dari MySQL adalah sebagai berikut :
1. Portability Dapat berjalan stabil pada berbagai system operasi,
diantaranya Windows, Linux, FreeBSD, Mac OS X Server, Solaris,
Asigma.
2. Open source Didistribusikan secara gratis dibawah lisesnsi dari
General Public License (GPL) dimana setiap orang bebas untuk
menggunakannya tetapi tidak boleh menggunakan MySQL untuk
dijadikan induk turunan yang bersifat close source (komersil) .
II-22

3. Multi user Dapat digunakan oleh beberapa user dalam waktu yang
bersamaan.
4. Performance Tuning Mempunyai kecepatan yang tinggi dalam
menangani query.
5. Column types Memiliki tipe kolom yang sangat kompleks, seperti :
signed/unsigned integer, float, double, char, varchar, text, blob, date,
time, datetime, timestamp, year dan enum.
6. Command dan function Memiliki operator dan fungsi secara penuh
yang mendukung select dan where dalam sebuah query.
7. Security Memiliki beberapa lapisan sekuritas seperti tingkat
subnetmask, hostname, privilege user dengan system perijinan yang
mendetail serta password yang terenkripsi.
8. Scalability dan limits Mampu menangani basis data dalam jumlah
besar, dengan jumlah field lebih dari 50 juta, 60 ribu table dan 5 milyar
record. Batas indeks yang dimiliki mencapai 32 buah per table.
9. Localication Dapat mendeteksi pesan kesalahan (error code) pada klien
dengan menggunakan lebih dari 20 bahasa.
10. Conncectivity Dapat dilakukan koneksi dengan klien menggunakan
protocol TCP/IP, Unix Socket, Named Pipes.
11. Interface Memiliki antarmuka terhadap berbagai aplikasi dan bahasa
pemrogrmaan dengan menggunakan fungsi API.
12. Clients dan tools Dilengkapi dengan berbagai tool yang dapat
digunakan untuk administrasi basis data sekaligus dokumen petunjuk
online.
13. Struktur table Memiliki struktur table yang lebih fleksibel dalam
menangani alter table dibandingkan dengan PostgreSQL dan Oracle.
II-23

2.6.1 SQL (Structured Query Language)

MySQL sebenarnya merupakan turunan dari salah satu konsep utama dalam
basis data sejak lama, yaitu SQL (Structured Query Language). SQL adalah sebuah
konsep pengoperasian basis data terutama untuk proses seleksi, pemasukan,
pengubahan dan penghapusan data yang dimungkinkan dapat dikerjakan dengan
mudah dan otomatis.
Didalam SQL terdapat 3 sub bahasa, yaitu: Data Definition Language (DDL)
yang digunakan untuk membangun objek – objek dalam database seperti tabel dan
indeks; Data manipulation Language (DML) yang digunakan untuk menambah,
mencari, mengubah, dan menghapus aris dalam tabel; dan Data Control Language
(DCL) yang digunakan untuk menangani masalah sekuriti dalam database. Ketiga
sub bahasa ini dapat kita akses setelah database dipanggil.

2.6.2 DDL (Data Definition Language)

DDL adalah perintah – perintah yang digunakan untuk membangun isi dari
database. DDL bertugas untuk membuat objek SQL dan menyimpan definisinya
dalam tabel. Contoh dari objek yang dimaksud adalah tabel, view, dan index.
Pembuatan tabel, perubahan struktur tabel, perubahan nama tabel, serta
perintahuntuk menghapus tabel, dilakukan dengan sub bahasa yang tergolong
dalam DDL Perintah – perintah yang digolongkan dalam DDL adalah :
a. Create : Perintah ini digunakan untuk membuat databs, tabel, dan objek lain
dalam database
b. Alter : Perintah ini digunakan untuk memodifikasi tabel, seperti mengganti
nama tabel, mengubah jenis/tipe field yang digunakan, mengubah nama field
baru atau mengurangi field tertentu
c. Drop : Perintah ini digunakan untuk menghapus database, tabel dan objek
lain dalam dabase.
II-24

2.6.3 DML (Data Manipulation Language)

DML digunakan untuk menampilkan, mengubah, menambah dan menghapus


baris dalam tabel. Perintah – perintah yang dihubungkan digolongkan dalam DML
antara lain:
a. Select : Perintah ini digunakan untuk menampilkan isi tabel baik semua isi
tabel atau sebagian isi tabel. Bahkan bisa pula menampilkan isi tabel yang
dihubungkan dengan tabel – tabel yang lain.
b. Insert : Perintah ini untuk mengisi atau menambahkan isi tabel. Pengisian
dapat dilakukan untuk seluruh field atau hanya sebagian filed saja.
c. Update : Seperti terlihat pada perintahnya. Perintah ini digunakan untuk
mengubah item – item tertentu dalam satu tabel.
d. Delete : Perintah ini digunakan untuk menghapus record – record dengan
kriteria tertentu.
BAB III
METODELODI PRATIKUM

3.1 Waktu dan Tempat Pengambilan Data


Lokasi Tempat Pengambilan Data di Download dari Internet.

Tabel 3.1 Rencana Kegiatan

No Kegiatan Maret April Mei Juni


1 Pengajuan Judul
Laporan Praktikum
2 Bimbingan BAB - I
3 Bimbingan BAB - II
4 Bimbingan BAB - III
5 Bimbingan BAB - IV
6 Bimbingan BAB - V
7 Presentasi Hasil

3.2 Jenis Data


Berdasarkan jenis dan Data yang dipakai dalam penulisan ini meliputi data
primer dan sekunder.
3.2.1 Data Primer

Data primer adalah suatu data yang bersumber dari lapangan yaitu data yang
diperoleh dari sumber asalnya yang pertama dan belum diolah dan diuraikan oleh
orang lain. Untuk memperoleh data primer, harus ditentukan wilayah dan
subyeknya.
3.2.2 Data Sekunder
Data sekunder adalah suatu data yang bersumber dari kepustakaan yaitu data
yang diperoleh dari data yang berbentuk dokumen.
III-2

3.3 Metode Pengumpulan data


Metode pengumpulan data merupakan salah satu aspek yang berperan dalam
kelancaran dan keberhasilan dalam suatu penelitian. Metode pengumpulan data yang
digunakan penulis untuk mengumpulkan sumbernya.
3.3.1 Wawancara

Wawancara adalah metode pengumpulan data yang dilakukan dengan cara


tanya jawab secara langsung.
3.3.2 Observasi

Dalam hal ini penulis melakukan pengambilan data secara langsung ketempat
penulis melakukan pengumpulan data. Adapun data yang diperoleh merupakan data
dari staf administrasi yang bertugas menangani data.
3.3.3 Dokumentasi

Teknik dokumentasi yaitu cara pengumpulan data primer dengan mengambil


data yang telah tersedia dalam bentuk berkas-berkas atau dokumen resmi yang ada
hubungannya dengan masalah dalam penulisan ini.

3.4 Metode Pengolahan Data


Metode pengolahan data yang digunakan dalam pembuatan laporan praktikum
ini adalah sebagai berikut:
1. Pengumpulan Data
2. Merancang Model
3. Merancang Interface
4. Pemrograman
5. Implementasi
Data dalam penelitian ini diambil dari hasil amatan dalam kegiatan perakitan
yang dilakukan pada laboratorium Analisis dan Perancangan Kerja
BAB IV
HASIL DAN PEMBAHASAN

4.1 Hasil
4.1.1 Implementasi

Dalam pengolahan Data Toserba untuk Menentukan berapa barang yang ada
di Gudang ,barang baik atau rusak, penulis menggunakan software atau aplikasi
bantu yaitu aplikasi Google colab menggunakan Bahasa pemograman Python.
Pada penelitian ini dataset yang digunakan adalah data penjualan toko serba
ada yang disimpan dalam format CSV (Comma-Separated Values). Dataset ini
berisi informasi tentang transaksi produk yang ada di Gudang, barang rusak atau
tidak dan tanggal masuk barang ke Gudang. Hal pertama yang dilakukan pengguna
dalam mengolah program Clustering K-Means yaitu menyiapkan dataset yang
dibuat menggunakan Microsoft Office Excel dengan format .csv.

Gambar 4.1.1 Dataset pada tampilan Microsoft Excel


IV-2

File output Microsoft Excel dengan format .csv akan terlihat seperti pada
Gambar 2. Dataset diatas merupakan data asli dari tempat penelitian yaitu took
serba ada di Batam. Setelah itu kita masuk ke google colab dengan cara bukak
google lalu ketik Google Colab lalu masuk menggunakan google drive.

Gambar 4.1.2 Tampilan awal google colab

Lalu ubah nama filenya dengan cara mengklik tanda lingkaran yang ada pada
gambar 4.1.3 di bawah lalu menuka nama file yang akan kita buat.

Gambar 4.1.3 Cara menukar nama File


IV-3

Gambar 4.1.4 Hasil ubah nama file

Langkah selanjutnya import library yang dibutuhkan dan Mengupload file


yang diperlukan ke google colab. Bagi yang tidak ingin menghubungkan google
colebnya dengan google drive Goole colab menyediakan tempat penyimpanan file
sementara yang akan di di hapus dalam rentang waktu tertentu.

Import library dengan perintah berikut:

import pandas as pd
import seaborn as sns
import matplotlib.pyplot as plt
import seaborn as sns

Upload file ke Goole Colab dengan perintah berikut :


from google.colab import files
uploaded = files.upload()

Lalu upload data file yang akan digunakan.

Gambar 4.1.5 Upload file


IV-4

Setelah itu kita akan load data Gudang ,menampilkan informasi data,
menampilkan struktur data, dan menampilkan statistic dasar dari data dengan cara
mengetil source code seperti yang dibawah ini :
# Load data
data = pd.read_csv("data_gudang (1).csv")
# menampilkan informasi data
print(data)

# menampilkan struktur data


data.info()

# menampilkan statistik dasar dari data


data.describe()

Jika berhasil akan muncul output seperti gambar bawah ini.


IV-5

Gambar 4.1.6 Hasil Output

Langkah selanjutnya yaitu menampilkan informasi data yang dibutuhkan seperti


jumlah barang digudang, jumlah barang rusak, jumlah barang baik, dan jumlah
barang kadaluarsa dengan cara memasukan code source seperti yang di bawah ini:

print(“Jumlah barang di udang:”, len(data))


print(“Jumlah barang rusak:”, len(data[data[‘kondisi_barang’]
== ‘rusak’]))
print(“Jumlah barang baik:”, len(data[data[‘kondisi_barang’]
== ‘baik’]))
print(“Jumlah barang kadaluarsa:”,
len(data[data[‘kondisi_barang’] == ‘kadaluarsa’]))

Jika berhasil akan muncul output seperti gambar bawah ini.

Setelah membuat jumlah barang digudang, jumlah barang rusak, jumlah barang
baik, dan jumlah barang kadaluarsa Langkah selanjutnya yaitu menampilkan
grafik pie untuk menampilkan informasi jumlah barang dengan cara dibawah ini :
IV-6

labels = [‘rusak’, ‘baik’, ‘kadaluarsa’]


sizes = [len(data[data[‘kondisi_barang’] == ‘rusak’]),
len(data[data[‘kondisi_barang’] == ‘baik’]),
len(data[data[‘kondisi_barang’] == ‘kadaluarsa’])]
colors = [‘#ff9999’,’#66b3ff’,’#99ff99’]
plt.pie(sizes, colors = colors, labels = labels,
autopct=’%1.1f%%’, startangle=90, pctdistance=0.85)
plt.title(‘Persentase kondisi barang di gudang’, fontsize=16,
fontweight=’bold’)
plt.axis(‘equal’)
plt.tight_layout()

Jika berhasil akan muncul output seperti gambar bawah ini.

Gambar 4.1.7 Persentase kondisi barang digudang

Jika sudah berhasil menampilkan grafik pie untuk menampilkan informasi jumlah
barang, selanjutnya membuat grafik bar untuk menampilkan informasi barang per
jenisnya.
sns.set(style="whitegrid")
sns.set_color_codes("pastel")
plt.figure(figsize=(12, 6))
sns.barplot(x="jenis_barang", y="jumlah", data=data,
hue="kondisi_barang")
plt.title('Jumlah barang per jenis dan kondisi', fontsize=16,
fontweight='bold')
plt.xlabel('Jenis Barang', fontsize=12)
plt.ylabel('Jumlah', fontsize=12)
IV-7

plt.xticks(fontsize=12, rotation=0)
plt.yticks(fontsize=12)
plt.legend(title='Kondisi', fontsize=12, title_fontsize=12)
plt.tight_layout()

code untuk menampilkan grafik


plt.show()

Jika berhasil akan muncul output seperti gambar bawah ini.

Gambar 4.1.8 Jumlah Barang Per Jenis dan Kondisi

Setelah membuat grafik bar untuk menampilkan informasi barang per jenisnya kita
akan membuat histogram untuk variable jumlah kita bisa menggunakan source
code seperti dibawah ini :
plt.hist(data['jumlah'], bins=10)
plt.xlabel('Jumlah')
plt.ylabel('Frekuensi')
plt.show()
IV-8

Dan jika berhasil akan muncul output seperti gambar dibawah ini:

Gambar 4.1.9 Histogram untuk variabel jumlah

Untuk membuat pivot table untuk jumlah barang per bulan dan jenis barang
menggunakan source code dibawah ini :
df = pd.read_csv('data_gudang (1).csv',
parse_dates=['tanggal_masuk'])

Lalu untuk membuat kolom bulan dan tahun dengan perintah seperti berikut :
df['bulan'] = df['tanggal_masuk'].dt.month
df['tahun'] = df['tanggal_masuk'].dt.year

membuat pivot table untuk jumlah barang per bulan dan jenis barang dengan
perintah dibawah ini
pt = df.pivot_table(index=['jenis_barang', 'bulan'],
columns='tahun', values='jumlah', aggfunc='sum')

Setelah membuat pivot table untuk jumlah barang perbulan selanjutnya membuat
plot untuk setiap jenis barang.
for jenis_barang in df['jenis_barang'].unique():
IV-9

fig, ax = plt.subplots(figsize=(8, 6))


ax.set_title(f'Jumlah Barang {jenis_barang} per Bulan')
sns.lineplot(data=pt.loc[jenis_barang], ax=ax)
ax.set_xlabel('Bulan')
ax.set_ylabel('Jumlah')
ax.legend(title='Tahun')
plt.show()

Jika berhasil akan muncul output seperti gambar dibawah ini :


IV-10

Jumlah Barang Makanan Perbulan

Jumlah Barang Kosmetik Perbulan

Gambar 4.1.10 pivot table untuk jumlah barang per bulan dan jenis_barang
IV-11

Lalu Langkah terakhir yaitu membuat Convert 'kondisi_barang' column to numeric


values, Calculate correlation matrix, dan Print correlation matrix dengan
menggunakan perintah :

import numpy as np

# Convert 'kondisi_barang' column to numeric values


data['kondisi_barang'] = data['kondisi_barang'].apply(lambda
x: 1 if x == 'baik' else 0)

data['jumlah'] = data['jumlah'].astype(int)

# Calculate correlation matrix


corr_matrix = np.corrcoef(data['jumlah'],
data['kondisi_barang'])

# Print correlation matrix


print(corr_matrix)

Jika berhasil akan muncul hasil output dibawah ini :


BAB V
KESIMPULAN DAN SARAN

5.1 Kesimpulan
Berdasarkan pembahasan yang telah dilakukan pada bab-bab sebelumnya
dari pembuatan laporan praktikum ini, maka penulis dapat mengambil kesimpulan
sebagai berikut:

1. Penggunaan Power dalam pengolahan data Penjualan menghasil Analisa


yang sangat baik.
2. Data adalah sumber dari semua informasi yang akan diolah, semakin
dalam data yang diperoleh maka semakin luas informasi yang dapat
dihasilkan

5.2 Saran
Beberapa saran yang mungkin dapat dijadikan acuan untuk pengembangan
dan penggunaan ke depannya :
1. Gunakan data yang real time akan menghasilkan informasi yang realtime
dan terbarukan pula.
2. Metoda pengolahan data menggunakan Power BI dapat terus
dikembangkan ke studi kasus yang juga.
DAFTAR PUSTAKA

Bertalya. 2009. Konsep Data Mining, Klasifikasi: Pohon Keputusan. Jakarta:


Universitas Gunadarma.
Dwi, A.S, Dimas. 2013. Model Prediksi Tingkat Kelulusan Mahasiswa dengan
Teknik Data Mining Menggunakan Metode Decision Tree C4.5. Skripsi.
Yogyakarta: Universitas Negeri Yogyakarta.
Teknomo, Kardi. 2007. K-Means Clustering. Diakses dari
http://croce.ggf.br/dados/K%20mean%20Clustering1.pdf. pada tanggal 02
April 2015, jam 10:16 WIB.
Astuti, D. (2019). Penentuan Strategi Promosi Usaha Mikro Kecil Dan Menengah
(UMKM) Menggunakan Metode CRISP-DM dengan Algoritma K-Means
Clustering. Journal of Informatics, Information System, Software
Engineering and Applications (INISTA), 1(2), 60–72.
https://doi.org/10.20895/inista.v1i2.71
Diartono, D. A., Zuliarso, E., Sulastri, S., & Anis, Y. (2022). PELATIHAN
PEMROGRAMAN BERBASIS KOMPUTASI AWAN UNTUK
MENDUKUNG PEMBELAJARAN JARAK JAUH BAGI SISWA SMK
Negeri 4 KENDAL. Jurnal Pengabdian Masyarakat Intimas (Jurnal
INTIMAS): Inovasi Teknologi Informasi Dan Komputer Untuk Masyarakat,
2(1), 1– 6. https://doi.org/10.35315/intimas.v2i1.8841
Fahrudin, T. M., Riyantoko, P. A., Hindrayani, K. M., & Mas Diyasa, I. G. S.
(2020). Exploratory Data Analysis pada Kasus COVID-19 di Indonesia
Menggunakan HiveQL dan Hadoop Environment. Prosiding Seminar
Nasional Informatika Bela Negara, 1, 115–123.
https://doi.org/10.33005/santika.v1i0.32
Fedushko, S., & Ustyianovych, T. (2022). E-Commerce Customers Behavior
Research Using Cohort Analysis: A Case Study of COVID-19. Journal of
Open Innovation: Technology, Market, and Complexity, 8(1), 12.
https://doi.org/10.3390/joitmc8010012
Harahap, M., Rozi, F., Yennimar, Y., & Siregar, S. D. (2021). Analisis Wawasan
Penjualan Supermarket dengan Data Science. Data Sciences Indonesia (DSI),
1(1), 1–7. https://doi.org/10.47709/dsi.v1i1.1173
Wahjoerini, W., Pamurti, A. A., & Prabowo, D. (2022). PELATIHAN
PEMBUATAN VISUALISASI DATA SPASIAL BAGI SISWA SMA
WALISONGO SEMARANG. SELAPARANG: Jurnal Pengabdian
Masyarakat Berkemajuan, 6(3), 1126.
https://doi.org/10.31764/jpmb.v6i3.933

Anda mungkin juga menyukai