Luki Henando
Teknik Komputer, Institut Teknologi Batam,
Jl. Gajah Mada Kompleks Vitka City, Tiban Ayu – Sekupang Batam
Email : luki.hernando04@gmail.com
Abstract
Data Mining is a process in an analysis of data on a large scale or in large quantities that aims to find
patterns that have meanings in decision support. In Finding these patterns can use the Algorithm Apriori
and FP-Growth algorithm which very popular in finding frequent itemset also determine or find the rule
of large database. In this study, using two algorithms that are Algorithm Apriori and FP-Growth that
can be used in for search the itemsets and find the association rules or rule of the results of selling
Laptop in Indocomputer Payakumbuh, in determining the brand of Laptop that is dominantly liked by
consumers, so it can use as consideration in increasing sales strategy in an effective and efficient.
Keywords: Knowledge Discovery Database, Data Mining, Apriori, FP-growth, Frequent itemset, Rule.
Abstrak
Data Mining Adalah suatu proses dalam sebuah analisa data dalam skala besar atau dalam jumlah besar
yang bertujuan untuk menemukan pola-pola yang mempunyai arti dalam pendukung keputusan. Dalam
Menemukan pola-pola tersebut bisa menggunakan Algoritma Apriori dan FP-Growth kedua Algoritma
ini sangat populer dalam mencari frequent itemset juga menentukan atau menemukan rule dari basis
data yang besar. Dalam penelitian ini, menggunakan kedua Algortima tersebut yaitu Algoritma Apriori
dan FP-Growth yang bisa digunakan dalam mencari itemset dan menemukan aturan asosiasi atau rule
dari hasil penjualan Laptop di Indocomputer Payakumbuh, dalam menentukasssn merk Laptop apa yang
dominan diminti oleh konsumen, sehingga dapat digunaan sebagai pertimbangan dalam meningkatkan
strategi dalam penjualan Laptop yang efektif dan efisien.
Kata kunci : Knowledge Discovery Database, Data Mining, Apriori, FP-growth, Frequent itemset,
Rule
Nilai Support K01 = (jumlah data Tabel 8 Tabulasi Pola Kombinasi 2 itemset
mengandung K01/ Total data) x 100%
= 9/12 x 100% = 75
Nilai Support K02 = (jumlah data
mengandung K02/ Total data) x 100%
= 6/12 x 100% = 50 Pada tabel 8. di atas akan dipisahkan
…dan seterusnya. kandidat yang tidak termasuk ke dalam nilai
minimum support. Itemset yang memenuhi
Tabel 6. Nilai Support Untuk 1 Item Set minimum support dan perhitungan nilai
confidence dapat dilihat pada tabel 8.
Contoh perhitungan Confidence :
- Confidence (K01,K09)= s ({K01,K09})
/ s ({K01})
= 75/75 = 100 %
- Confidence (K01,K12) = s
({K01,K012}) / s ({K01})
=75/75 = 100 % …dan seterusnya.
Kombinasi 2 Itemset
Langkah berikutnya adalah membuat
kombinasi 2 itemsets pada setiap frekuensi
masing-masing kombinasi dihitung sesuai Dari penghitungan di atas, maka
dengan data tabular pada tabel 6 di atas. itemset yang memenuhi minimum support
Pola kombinasi yang didapatkan dapat dapat dilihat pada tabel 11. berikut :
dilihat pada tabel 8. berikut :
Null Null
K12=3
K12=8
K14=3 K14=1
K14=8
K09=3
K09=6
K01=3 K09=1
K01=6
K01=4 K09=1
K01=7
Gambar 9. Hasil Pembentukan FP –Tree Setelah Gambar 14. Hasil Pembentukan FP –Tree
Pembacaan B04 (K12,K14,K09,K01) Setelah Pembacaan B10, B10 (K12,K14,K09,K01)
Null
Null
K12=11
K12=5
K14=1
K14=5 K14=1 K14=11
K09=10
K09=4
K09=1
K09=1
K01=9
K01=4 K09=1
K01=1
Gambar 10. Hasil Pembentukan FP –Tree Gambar 15. Hasil Pembentukan FP –Tree
Setelah Pembacaan B06, B04 (K14,K09) Setelah Pembacaan B12, B12 (K12,K09,K01)
Null
K14=7 K14=1
sampai dengan 19 berikut :
K09=5
K09=1
K01=5
Null
Dari pembangkitan FP-tree yang
K12=11
telah dilakukan maka didapatkan hasil
K14=1
K14=11 Conditional Pattern Base Seperti
K09=10
ditampilkan dalam tabel 16.
K09=1
K01=9 Tabel 16. Tabel Hasil Conditional Pattern Base
K09=1
K01=1
Null
K12=11
K14=11 K14=1
lebih besar sama dengan minimum association rule adalah K01 K12, yang
confidence yang akan diambil atau strong artinya jika membeli Laptop dari item K01,
association rule nya saja. Berdasarkan maka membeli Laptop dari item K12 juga.
frequent itemset di atas maka confident Berikut hasil lengkap pola-pola atau rules
yang dihasilkan adalah : yang dihasilkan:
1. Confidence({K01}{K12}) = 9/11 = 1. Rule 1: {K01 12}
82 % c = s ({K01,K12}) / s ({K09}) = 9/9 =
2. Confidence({K12}{K01}) = 9/11 = 100%
82 % 2. Rule 2: {K12 01}
3. Confidence({K01}{K09}) = c = s ({K12,K01}) / s ({K12}) = 9/9 =
9/10 = 90 % 100%
4. Confidence({K09}{ K01}) = 9/10 = 3. Rule 3: {K01 09}
90 % c = s ({K01,K09}) / s ({K09}) = 9/9=
5. Confidence({K14}{ K12}) = 11/11 100%
= 100 % 4. Rule 4: {K09 01}
6. Confidence({K12}{ K14}) = 11/11 c = s ({K09,K01}) / s ({K09}) = 9/10=
= 100 % 90%
7. Confidence({K09}{ K14}) = 10/11 5. Rule 5: {K14 12}
= 90 % c = s ({K14,K12}) / s ({K14}) = 10/11
8. Confidence({K14}{ K09}) = 10/11 = 91%
= 90 % 6. Rule 6: {K12 14}
9. Confidence({K09}{ K12}) = 10/11 c = s ({K12,K14}) / s ({K14}) = 10/11
= 90 % = 91%
10. Confidence({K12}{ K09}) = 10/11 7. Rule 7: {K09 14}
= 90 % c = s ({K09,K14}) / s ({K09}) = 9/10 =
11. Confidence({K01}{ K09,K14}) 90 %
= 9/9 = 100 % 8. Rule 8: {K14 09}
12. Confidence({K09}{K12,K01}) c = s ({K14,K09}) / s ({K14}) = 9/11 =
= 9/9 = 100 % 82 %
13. Confidence({K12}{(K09,K01}) 9. Rule 9: {K09 12}
= 9/11= 82 % c = s ({K09,K12}) / s ({K09}) = 9/10 =
14. Confidence({K12,K09}{ K01}) 90%
= 9/9 = 100 % 10. Rule 10: {K12 09}
15. Confidence({K12,K01}{K09}) c = s ({K12,K09}) / s ({K12}) = 9/11=
= 9/9 = 100% 82%
16. Confidence({K09,K01}{(K12}) 11. Rule 11: {K01 K12,K09}
= 9/11= 82 % c = s ({K01,K12,K09}) / s ({K09}) =
Jika dimisalkan minimum confidence 9/9= 100%
adalah 70 %, minimum confidence ini 12. Rule 12: {K09 K12,K01}
diambil di atas > 70% agar tingkat c = s ({K19,K12,K01}) / s ({K09}) =
akurasinya tinggi, maka yang termasuk 10/9=90%
13. Rule 13: {K12 K09,K01} 4. Sistem yang dibangun dapat membantu
c = s ({K12,K09,K01}) / s ({K12}) = dalam menghasilkan rule yang
11/9=82% umumnya masih dilakukan secara
14. Rule 14: {K12,K09} K01} manual. Algoritma Apriori dan
c = s ({K12,K09,K01}) / s Algorithma FP-Growth dapat
({K12,K09}) = 9/9= 100% memberikan informasi eksekutif dan
15. Rule 12: {K12,K01 K09} sistem digunakan untuk
c = s ({K12,K01,K09}) / s menggambarkan proses yang terkait
({K12,K01}) = 9/9=100% dengan menentukan merk Laptop yang
16. Rule 13: {K09,K01 K12} laris di pasaran.
c = s ({K09,K01,K12}) / s 5. Sistem asosiasi rule penjualan Laptop
({K09,K01}) = 9/9=100% berdasarkan merk menggunakan
Terhadap data penjualan Laptop di Algoritma Apriori dan Algoritma FP-
Indocomputer dapat diperoleh informasi Growth dapat digunakan dalam
merk Laptop yang paling banyak diminati pengambilan keputusan untuk mencari
oleh masyarakat yaitu : K01(Lenovo AMD alternatif merk laptop apa saja yang
A8), K09(Toshiba C840-I3), K12(HP banyak dinikmati konsumen.
AMD A8) dan K14(NB Asus x200 MA).
Hasil ini didapatkan berdasarkan DAFTAR PUSTAKA
kemunculan itemset dari data penjualan Tacbir Hendro Pudjiantoro et al, 2011,
Laptop. Konferensi Nasional Sistem dan
Informatika 2011, November 2011,
hlm. 12 “Penerapan Data Mining
SIMPULAN
Untuk Menganalisa Kemungkinan
Dari uraian yang sudah dibahas Pengunduran Diri Calon
sebelumnya dapat ditarik kesimpulan : Mahasiswa Baru”.
1. Dengan menggunakan Algoritma Han & Kamber dalam Eko Nur Wahyudi et
Apriori Dan FP-Growth dengan al, 2011. Jurnal Teknologi Informasi
bantuan software WEKA 3.7.4 DINAMIK Volume 16, No.1, Januari
didapatkan hasil berupa aturan (rules) 2011, hl, 29 – 43 “Analisa Profil
Data Mahasiswa Baru terhadap
yang merupakan kumpulan frequent
Program Studi yang dipilih di
itemset dengan nilai confidence yang perguruan tinggi swasta jawa
tinggi. Tengah dengan menggunakan
2. Dengan didapatkannya rules ini maka Teknik Data Mining”.
pimpinan dapat menggunakan aturan Tahta Alfina et al, 2012. JURNAL
(rules) dalam membuat suatu strategi TEKNIK ITS Vol. 1, Sept, 2012,
yang dapat meningkatkan jumlah Analisa Profil Data Mahasiswa
Baru terhadap Program Studi yang
penjualan Laptop setiap harinya.
dipilih di perguruan tinggi swasta
3. Penentuan Variabel yang akan jawa Tengah dengan menggunakan
digunakan dalam memprediksi juga Teknik Data Mining”.
sangat mempengaruhi rule atau Despande and Thakare, 2010. International
knowledge yang dihasilkan. Journal of Distributed and Parallel
systems (IJDPS) Vol.1, No.1,