Kelas TA 1
Rudiyanto
1107130061
Rudiyanto
1107130061
1.3 Tujuan
a. Menganalisis dan mengimplementasikan metode SMOTE pada churn
prediction.
b. Menganalisis dan mengimplementasikan metode back propagation yang
termodifikasi conjugate gradient powell beale pada churn prediction.
c. Menganalisis performansi metode back propagation yang termodifikasi
conjugate gradient powell beale dan SMOTE berdasarkan akurasi yang
dinyatakan dalam bentuk confusion matrix dengan menggunakan metode
evaluasi F1-measure.
2 Analisis dan
Pencarian Data
3 Analisis dan
Perancangan
Sistem
4 Implementasi
Sistem
5 Analisis Hasil
Implementasi
6 Penyusunan
Proposal
BAB II
TINJAUAN PUSTAKA
Data numerik di ukur jarak kedekatanya dengan jarak Euclidean sedangkan data
kategorik lebih sederhana yaitu dengan nilai modus [8]. Perhitungan jarak antara contoh
kelas minor yang peubahnya berskala kategorik dilakukan dengan rumus Value
Difference Metric(VDM) yaitu [9,8] :
∆(𝑋, 𝑌) = 𝑤𝑥 𝑤𝑦 ∑𝑁
𝑖=1 𝛿(𝑥𝑖, 𝑦𝑖)
𝑟
(2.1)
Dengan :
∆(𝑋, 𝑌) : jarak antara amatan X dengan Y.
𝑤𝑥, 𝑤𝑦 : bobot amatan(dapat diabaikan).
𝑁 : banyaknya peubah penjelas.
𝑅 : bernilai 1 (jarak Manhattan) atau 2 (jarak Euclidean).
𝛿(𝑥𝑖, 𝑦𝑖)𝑟 : jarak antara kategori, dengan rumus :
𝐶 𝐶2𝑖
𝛿(𝑉1 , 𝑉2 ) = ∑𝑁 1𝑖
𝑖=1 | 𝐶 − | (2.2)
1 𝐶2
Dengan :
𝛿(𝑉1 , 𝑉2 ) : jarak antara nilai V1 dan V2.
𝐶1𝑖 : banyaknya V1 yang termasuk kelas i.
𝐶2𝑖 : banyaknya V2 yang termasuk kelas i.
𝐼 : banyaknya kelas ; i = 1,2,....m.
𝐶1 : banyaknya nilai 1 terjadi.
𝐶2 ∶ banyaknya nilai 2 terjadi.
𝑁 : banyaknya kategori.
𝐾 : konstanta (biasanya 1).
2.4 Neural Network
Neural Network telah menjadi banyak minat selama beberapah tahun terakhir dan
sudah berhasil diterapkan diberbagai masalah seperti keuangan, kedokteran, teknik
geologi dan fisika. Semua berawal pada tahun 1943 ketika McCullock dan pitts
membuktikan bahwa neuron mempunyai kemampuan komputasi yang lebih baik [3].
2.4.1 Arsitektur
Pada gambar 2.2, merupakan arsitektur dari NN yang sederhana. Hal ini terdiri
dari input, output dan satu lapisan tersembunyi. Setiap node dari lapisan input
terhubung ke node dari lapisan tersembunyi dan setiap simpul dari lapisan tersembunyi
terhubung ke simpul dari lapisan output. Input layer merupakan informasi mentah yang
dimasukan kedalam jaringan. Setiap input di jaringan diduplikasi dan diturunkan ke
simpul di lapisan tersembunyi. Lapisan tersembunyi menerima data dari lapisan input
menggunakan nilai input dan memodifikasi menggunakan nilai bobot, nilai baru yang
dihasilkan mengirim ke lapisan output, tetapi juga diubah oleh beberapa bobot dari
hubungan antara lapisan tersembunyi dan lapisan output. Proses informasi dari lapisan
output yang diterima dari lapisan tersembunyi akan menghasilkan output yang diproses
oleh fungsi aktivasi [3].
Menurut [10] selama proses pelatihan, input data berulang kali dimasukan kedalam
jaringan syaraf. Performa dari setiap keluaran prediksi jaringan syaraf dibandingkan
dengan output yang di inginkan. Secara matematis dapat dituliskan persamaanya
sebagai berikut :
𝜀𝑖 = 𝑦𝑖 − 𝑦̂𝑖 (2.3)
Dengan :
𝑦𝑖 : actual output.
𝑦̂𝑖 ∶ 𝑛𝑒𝑢𝑟𝑎𝑙 𝑛𝑒𝑡𝑤𝑜𝑟𝑘 𝑜𝑢𝑡𝑝𝑢𝑡.
Prinsip dari jaringan syaraf adalah bahwa ketika data dari input di sajikan pada
input layer, node jaringan (neurons) melakukan perhitungan pada lapisan berikutnya
sampai nilai output dihitung pada masing-masing node output. Output dari hidden node
dapat dituliskan persamaanya sebagai berikut :
ℎ𝑖 = ∑𝑁
𝑖=1 𝑤𝑖 𝑥𝑖 (2.4)
Dengan :
𝑤𝑖 : bobot koneksi antara hidden dan input layers.
𝑥𝑖 : node input.
𝑦𝑖 = 𝐹(∑𝑁
𝑖=1 𝑤𝑖 𝑥𝑖 + 𝑏𝑗 ) (2.5)
Dengan :
𝑏𝑗 ∶ tresholds di lapisan tersembunyi.
1
𝑧𝑗 = 𝑓 (𝑧_ 𝑖𝑛 ) = −𝑧_𝑖𝑛 (2.7)
𝑗 1+𝑒 𝑗
Selanjutnya tiap-tiap unit output (𝑦𝑘 , 𝑘 = 1,2,3, … , 𝑚) menjumlahkan
sinyal-sinyal input terbobot :
1
𝑦𝑘 = 𝑓 (𝑦_ 𝑖𝑛 ) = −𝑦_𝑖𝑛 (2.9)
𝑘 1+𝑒 𝑘
b. Perhitungan Mundur
Tiap-tiap unit output menerima target yang kemudian dihitung informasi
errornya :
𝛿_𝑖𝑛𝑗 = ∑𝑚
𝑘=1 𝛿𝑘 𝑤𝑗𝑘 (2.11)
𝛿𝑗 = 𝛿_𝑖𝑛 𝑓 ′ (𝑧_𝑖𝑛𝑗 ) = 𝛿_𝑖𝑛 (1 − 𝑧𝑗 ) (2.12)
𝑗 𝑗
𝑔𝑘+1 𝑇 (𝑔𝑘+1 − 𝑔𝑘 )
𝛽𝑘+1 = (2.16)
𝑑𝑘 𝑇 (𝑔𝑘+1 − 𝑔𝑘 )
Dengan :
𝛽𝑘+1 = nilai parameter saat ini.
𝑔𝑘+1 = gradient pada iterasi saat ini.
𝑔𝑘 = gradient pada iterasi sebelumnya.
𝑑𝑘 = direction pada iterasi sebelumnya.
Dengan :
𝑑𝑘+1 = direction iterasi saat ini.
𝑔𝑘+1 = gradient pada iterasi saat ini.
𝛽𝑘 = nilai parameter dari iterasi sebelumnya.
𝑑𝑘 = direction pada iterasi sebelumnya
𝑑1 = −𝑔1 (2.18)
Selanjutnya hitung parameter 𝛼 untuk semua neuron pada hidden layer
dan output layer menggunakan teknik line search.
Dengan :
𝑤𝑡+1 = bobot baru
𝑤𝑡 = bobot lama.
𝛼𝑡+1 = nilai alfa saat ini.
𝑑𝑡 = direction pada saat ini.
B. Preprocessing
Pada tahap ini, akan dilakukan proses preprocessing dataset pelanggan speedy
perusahaan telekomunikasi. Data diproses untuk dilakukan normalisasi data dan
penanganan sifat khusus dari churn yaitu imbalance class dimana adanya ketimpangan
antara kelas mayoritas (not churn) dan minoritas (churn) sehingga menyebabkan
akurasi dari kelas mayoritas cenderung naik sedangkan kelas minoritas cenderung
memburuk. Untuk menangani masalah tersebut dilakukan tahap preprocessing over-
sampling menggunakan metode SMOTE yaitu dengan menambahkan data pada kelas
minoritas sehingga distribusi data menjadi seimbang. Data hasil preprocessing nantinya
akan digunakan pada tahap training classifier menggunakan dataset training hasil
preprocessing dan testing classifier menggunakan dataset testing hasil preprocessing.
C. Training Classifier
Training Classifier adalah proses learning yang akan dilakukan oleh metode
backpropagation yang termodifikasi conjugate gradient powell beale guna
memperoleh model yang optimal untuk mengklasifikasikan data antara churn dan not
churn kedalam kelasnya masing-masing. Data yang digunakan dalam proses ini adalah
data training hasil preprocessing. Keluaran learning yang dihasilkan oleh metode
backpropagation yang termodifikasi conjugate gradient powell beale berupa bobot dan
bias yang nantinya digunakan dalam proses testing classifier.
D. Testing Classifier
Proses testing dilakukan ketika model klasifikasi didapatkan. Model yang
didapatkan diaplikasikan kedalam data testing hasil preprocessing guna menganalisa
tingkat akurasi prediksi model dalam memprediksi kelas churn dan not churn.
E. Analisis Performansi
Pada tahap ini akan dihitung tingkat akurasi hasil prediksi dari proses testing yang
dinyatakan dalam bentuk confusion matrix dengan metode F1-measure. Menurut [2]
performansi untuk machine learning biasanya dinyatakan dalam bentuk confusion
matrix seperti digambarkan dalam tabel 3.2 (untuk masalah 2 kelas). Kolom
menyatakan kelas prediksi dan baris menyatakan kelas aktual.
Tabel 3.2 Confusion Matrix
Predicted Negative Predicted Negative
Actual Negative TN FP
Actual Positive FN TP
Dalam confusion matrix, TN adalah jumlah contoh negatif jika hasil klasifikasinya
benar (True Negative), FP adalah sejumlah contoh negatif jika hasil klasifikasi tidak
benar (False Positive), FN adalah jumlah contoh positif jika hasil klasifikasi tidak benar
yaitu negatif (False Negative) dan TP merupakan jumlah sample positif dan hasil
klasifikasi positif (True Positive). F1-measure adalah metode evaluasi untuk mengukur
kinerja algoritma yang merupakan kombinasi dari precision dan recall yang masing-
masing rumusnya ditunjukan pada persamaan berikut :
TP
Recall = TP+FN (3.1)
𝑇𝑃
Precision = 𝑇𝑃+𝐹𝑃 (3.2)
(TP+TN)
F1-measure = (TP+FP+TN+FN) (3.3)
DAFTAR PUSTAKA
[1] Shaaban.E, Helmy.Y, Khedr.A, & Nasrt.M.,2012, A Proposed Churn Prediction
Model, vol.2,pp.693-697.
[2] Chawla.N.V, Bowyer.k.w, Hall.L.O, & Kegelmayer.W.P.,2002, Synthetic Minority
Over-sampling Technique, pp.321-357.
[3] Cilimkovic.M.,2015, Neural Network and Back Propagation Algorithm, Ireland.
[4] Xie.Y, Li.X, Ngai.L.W.T, &Ying.W., 2009, Customer Churn Prediction Using
Improved Balanced Random Forest, China, pp.5445-5449.
[5] Lazarov.V, & Capota.M., Churn Prediction.
[6] Suyanto., 2008. Soft Computing. Bandung : Informatika Bandung.
[7] Sastrawan.A.S, Baizal.A, & Bijaksana.M.A.,2010, Analisis Pengaruh Metode
Combine Sampling Dalam Churn Prediction Untuk Perusahaan Telekomunikasi,
pp.1979-2328.
[8] Barro.A.R, Sulviant.L.D, & Afendi.F.M.,2013, Penerapan Synthetic Minority
Oversampling Technique (Smote) Terhadap Data Tidak Seimbang Pada Model
Komposisi Jamu, vol. 1(1) : eg(1-6).
[9] S.Cost & S.Salzberg.,2012, A Weighted Nearest Neighbor Algorithm For Learning
With Symbolic Features, Boston.
[10] Ismail.M.R, Awang.M.K, Rahman.M.N.A, & Makhtar.M., 2015, A Multi Layer
Perceptron Approach For Customer Churn Prediction, vol.10, No.7, pp.213-222.
[11] Dewi.S.,2004. Jaringan Syaraf Tiruan. Yogyakarta : Graha Ilmu.
[12] A. T. Kearney, “European Mobile Industry Observatory 2011. In GSMA (Ed.)”,
Rising to the Challenge of Intense Competition, (2011).
[13] Sharma.A, & Panigrani.P.K.,2011, A Neural Network Based Approach For Prediction
churn in cellular Network Services.