FORMULA
YANG BIKIN DATAMU BUNYI
Berbagai pengalaman peserta Kemenkeu Data Hackathon+ 2021
untuk membuat data menjadi informasi yang berharga
Pengulas: Dody Dharma Hutabarat, Donny Maha Putra, Canrakerta, Lazuardi Zul�ikar
Wicaksana, Lysa Novita Sirait, Sindhu Wardhana, Khomsun Ari�in, Arief Tirtana, Dimas
Rahadian
Desainer gra�is dan perancang sampul : Aditio Wahyudi dan Wida Ha�izah
Yan Inderayana
Daftar Formula
Analisis Ekspor
01 AI Cash Forecasting 02 Komoditas Sumber
hal. 1 Daya Alam Indonesia
(Penerapan Visualisasi Dashboard dan Machine Learning)
hal. 10
Mengawal PelatihanLOKA,
14 Kepercayaan Publik dan 15 Marketplace Pelayanan
Audit yang Berkualitas Pelatihan Pemerintah
melalui Optimalisasi Pusat
Data Profesi hal. 104
hal. 98
Perancangan Benchmark
16 Behavioral Model Wajib Pajak
Sektor Pertambangan SIAS -
Batubara 17 SLDK’S INTEGRATED
hal. 111 ANALYSIS SYSTEM
hal. 117
Use Case Realisasi Anggaran
18 versus RPD: Kreativitas
Engineering
hal. 125 Berapa Nilai Impor Barang?
19 Analisis Regresi Pada
Harmonized System
Debt Sustainability Analytics : hal. 132
20 Upaya Mencegah Krisis
Utang
hal. 139 Nakula Pro : Analisis
21 Keuangan dan Layanan
Publik Daerah yang “Pro”
hal. 149
Melakukan penyuntingan atas naskah luar biasa dari peneliti brillian, tentu menjadi
sebuah kebanggaan. Data yang disajikan oleh para penulis tentu bukan main-main. Butuh
ketelitian, ketekunan dan kegigihan dalam menemukan solusi yang diharapkan. Sehingga,
menjadi sebuah tantangan untuk para editor dalam mencoba menerjemahkan dan
mewarnai ilmu yang beragam agar dapat dilahap oleh semua kalangan. Editor harus
memberanikan diri untuk memperbaiki struktur kalimat agar terlihat singkat tetapi
mengena. Selain itu, meng-edit beberapa gambar-gambar analisa yang tentu saja penting,
agar pembaca dapat dengan mudah memahami gambar dan ilustrasi tersebut. Para penulis
Formula yang Bikin Datamu Bumi - vi
di dalam buku ini menggambarkan secara mudah dan ringkas bagaimana mengolah data
mentah yang tadinya berserakan dan seolah dianggap kurang berharga, terbengkalai
di dalam database, ternyata bisa diolah menjadi sesuatu yang lebih berarti, bisa
menjadi umpan bagi kebijakan organisasi, atau bahkan bisa memberi
makna untuk apa data-data itu selanjutnya dimanfaatkan.
Semoga dari genggaman pembaca buku ini, akan lahir pula ide dan penelitian baru
yang memberi dampak luas yang positif demi kemakmuran bangsa dan negara.
Tim Editor :
Muhammad Nur, Eva Maulina Aritonang, Muhamad Rahmat
AI Cash Forecasting - 03
02. Saldo Kas Pemerintah yang Tinggi
Sementara itu, kami juga menemukan fakta bahwa dari sisi ketersedian dana
pemerintah, dalam beberapa tahun terakhir dapat terlihat bahwa terdapat indikasi
tingginya saldo kas pemerintah yang cenderung meningkat. Beberapa penelitian
menyatakan bahwa pengelolaan kas negara yang efektif ditunjukkan melalui kesesuaian
antara kapan dana pemerintah tersebut dibutuhkan dengan kapan dana tersebut
disediakan untuk membiayai kegiatan pemerintah.
Merujuk pada hal tersebut, dapat kita simpulkan bahwa pengelolaan kas negara di
Indonesia belum efektif. Berkaca dari pengalaman Yunani tahun 2010, pengelolaan kas
negara yang tidak dilakukan dengan baik membawa krisis keuangan yang tidak hanya
berdampak pada perekonomian domestik, namun juga perekonomian regional dan global.
AI Cash Forecasting - 04
Peneliti Metode yang digunakan Hasil
Iskandar et al. (2017) Statistik dan Machine Learning Akurasi Metode ML lebih baik
(ML)
Sumando et al. (2018) Beragam Metode Statistik untuk Tidak dapat disimpulkan
setiap jenis belanja K/L metode terbaik
Iskandar et al. (2018) Statistik, Machine Learning, dan Meski tidak dapat disimpulkan
Hybrid untuk setiap jenis metode terbaik, data aggregate
belanja dan data aggregate terbukti lebih akurat
Iskandar (2019) Statistik, Machine Learning, dan Akurasi Metode ML (Deep
Hybrid untuk aggregate jenis Learning) lebih baik
belanja K/L
Sautomo dan Pardede (2021) Statistik, Machine Learning Akurasi Metode ML (Deep
(Deep Learning) Learning) lebih baik
Logical Framework
Kedua fakta di atas kemudian mendasari kami selaku Insan Kementerian Keuangan
untuk urun rembug dalam upaya pengelolaan keuangan negara yang lebih baik. Kami
berpendapat bahwa pengelolaan kas negara akan lebih efektif jika pemerintah dapat
mengelaborasi data yang dimiliki oleh Kementerian Keuangan untuk membangun sebuah
model perencanaan kas berbasis arti�icial intelligent (AI). Dengan perencanaan kas yang
memiliki tingkat akurasi yang diterima oleh pengelola kas negara, maka pemerintah dapat
memastikan dana yang dibutuhkan untuk membiayai kegiatan pemerintah tersedia pada
waktu yang tepat sehingga cost of fund yang ada dapat ditekan seminimal mungkin.
Model Development
Model Perencanaan Kas dalam project yang kami buat dibangun dengan tahapan
berikut. Mengikuti penelitian sebelumnya yang menunjukkan bahwa penggunaan data
aggregate terbukti menghasilkan model perencanaan kas yang lebih akurat jika
dibandingkan dengan membangun model perencanaan kas untuk masing-masing jenis
belanja, maka dalam project ini kami menggunakan data harian realisasi belanja K/L yang
merupakan hasil aggregasi dari Belanja Pegawai, Belanja Barang dan Jasa, Belanja Modal,
dan Belanja Bantuan Sosial.
AI Cash Forecasting - 05
Sebelum digunakan untuk membangun model, terhadap data yang sudah kami
lakukan cleansing akan dipilah terlebih dahulu untuk mengetahui signi�ikansi
masing-masing variabel dalam dataset yang dimiliki sebagai predictor melalui tahapan
attribute selection. Meskipun secara teori menyebutkan bahwa menggunakan predictor
yang dipilih melalui proses attribute selection akan menghasilkan model yang lebih akurat,
pada project ini kami membangun dua model untuk masing-masing metode. Model
pertama menggunakan seluruh variabel dalam dataset yang ada. Sedangkan model kedua
menggunakan variabel terpilih hasil proses attribute selection. Hal ini dilakukan untuk
mengkon�irmasi teori yang ada.
Selanjutnya pada tahapan forecasting, kami menggunakan Metode Statistik, dalam
hal ini ARIMA Model dan metode Machine Learning, dalam hal ini Arti�icial Neuaral
Network. Arti�icial Neuaral Network memiliki beragam arcithecture yang secara umum
dapat dikategorikan menjadi dua, yaitu shallow learning dan deep learning. Meski penelitian
sebelumnya menyebutkan bahwa penggunaan deep learning menghasilkan akurasi yang
lebih baik, namun kami menggunakan keduanya sekaligus untuk memastikan tingkat
akurasi model yang dihasilkan. Untuk memastikan model yang kami pilih merupakan
model yang terbaik yang menghasilkan prediksi dengan tingkat akurasi yang paling akurat,
kami menggunakan metode penilaian kinerja model Mean Absolute Error (MAE), Root,
Mean Squared Error (RMSE), dan Symmetric Mean Absolute Percentage Error (SMAPE).
Berdasarkan teori yang ada, masing-masing metode penilaian kinerja memiliki keunggulan
dan kelemahan. Dengan menggunakan berbagai metode penilaian kinerja, kami berharap
dapat meyakinkan kami bahwa model yang terpilih merupakan model yang terbaik.
AI Cash Forecasting - 06
Berdasarkan model yang terpilih tersebut, kami lalu membuat sebuah dashboard
yang bisa digunakan oleh Pengelola Kas Negara. Kebutuhan Kas Harian merupakan
gabungan antara Belanja K/L yang diprakirakan oleh model dan Belanja BUN yang telah
diputuskan oleh ALCo dan CPIN. Dashboard yang kami buat ini masih sangat minimalis dan
pastinya perlu pengembangan dan penambahan �itur-�itur tertentu yang dapat membantu
Pengelolaan Kas Negara secara lebih baik lagi ke depannya.
Selanjutnya, pada informasi yang diberi highlight kuning kami harapkan dapat
terkoneksi dengan database yang ada (misalnya SPAN) sehingga lebih memudahkan
Pengelola Kas Negara untuk mengambil keputusan. Jika dashboard ini terkoneksi dengan
SPAN, maka kinerja model dapat terpantu secara real-time. Sementara interkoneksi dengan
data Bank Indonesia akan memudahkan pengelola kas negara untuk mengetahui posisi kas
saat ini dan mengambil keputusan berkenaan hal tersebut.
AI Cash Forecasting - 07
Simpli�ikasi, Optimalisasi, dan Minimalisasi Cost of Funds
Jika diimplementasikan, project kami diharapkan dapat memberikan dampak secara
nasional dimana lebih dari 23 ribu satuan kerja dan 178 KPPN di seluruh Indonesia akan
merasakan langsung simpli�ikasi proses bisnis. Lebih dari 100 ribu laporan pertahunnya
akan dieliminir dengan penerapan Cash Forecasting Model 4.0 yang kami usulkan. Dampak
tersebut juga akan dirasakan oleh Direktorat Pengelolaan Kas Negara, DJPb yang selama ini
melakukan konsolidasi atas lebih dari 100 ribu laporan tersebut. Lalu dengan perencanaan
kas yang dihasilkan oleh Model yang kami bangun, pemerintah diperkirakan akan memiliki
dana sebesar Rp.150 Triliun per hari yang dapat optimalisasikan. Lebih jauh lagi, dengan
model yang kami bangun, diharapkan pemerintah dapat memilimalisir cost of fund dana
pemerintah sejak dini. Sehingga idle cash pemerintah dapat diminimalisir.
Implementation Strategy
Kami juga telah menyusun strategi implementasi dari project kami, dimana pada
tahapan awal laporan RPD dari Satker K/L masih tetap dipertahankan dengan tetap
dilakukan penyesuaian (�ine-tuning) pada Model Perencanaan Kas yang kami bangun
terhadap data real-time. Ke depannya jika pengelola kas negara telah puas dengan kinerja
model, maka pelaporan RPD dari satuan kerja dapat dihentikan.
AI Cash Forecasting - 08
AI Cash Forecasting
Metode Machine Learning memiliki variasi yang sangat beragam. Usaha untuk
menemukan metode yang dapat memberikan tingkat akurasi model yang terbaik harus
terus diupayakan. Berdasarkan pengalaman kami, penggunaan data yang berbeda akan
menghasilkan tingkat akurasi yang berbeda pula. Pemilihan data yang tepat akan
menghasilkan tingkat akurasi yang lebih baik. Namun demikian, data tersebut terkadang
sulit diperoleh. Data terkait transaksi keluar masuk dana pemerintah pada Rekening Kas
Umum Negara dapat menjadi alternatif.
Membangun Model Prakiraan Kas berbasis AI terbukti feasible. Kerangka ber�ikir
yang digunakan dalam project ini dapat dijadikan acuan dalam membangun Model
Prakiraan Kas berbasis AI. Project kami juga menunjukkan bahwa menyusun Perencanaan
Kas dengan menggunakan Model berbasis AI dapat memberikan berdampak secara
nasional. Menggunakan pendekatan AI dalam pengelolaan kas negara merupakan hal yang
baru dan dapat menjadi alternatif bagi pendekatan konvensional seperti metode statistik
dan pembobotan sederhana secara manual. Dengan strategi yang telah kami sampaikan
sebelumnya, kami yakin bahwa project yang kami rancang dapat diimplementasikan tanpa
syarat. Dari perspektif regulasi, kami tidak melihat ada peraturan yang harus disesuaikan
agar project kami dapat diimplementasikan.
Posisi saldo kas negara yang tinggi dan cenderung meningkat menunjukkan bahwa
pengelolaan kas negara di Indonesia belum efektif. Kami berharap data analytic project
yang kami ajukan dapat memberi sumbangsih pada pengelolaan kas negara yang lebih baik
di masa depan. Lebih lanjut kami melihat bahwa kebijakan penarikan pembiayaan yang
dilakukan oleh Debt Manager kurang mempertimbangkan saldo kas pemerintah. Hal ini
disebabkan belum tersedianya prakiraan kebutuhan kas yang memenuhi harapan dari
pengelola kas negara, dalam hal ini Debt Manager. Kami berharap model perencanaan kas
yang kami susun, dapat memberikan keyakinan yang memadai dan menjadi bahan
pengambilan keputusan terkait kebijakan penarikan pembiayaan. Dengan demikian maka
cost of fund pemerintah dapat diminimalisir.
AI Cash Forecasting - 09
02
Analisis Ekspor
Komoditas Sumber
Daya Alam Indonesia
(Penerapan Visualisasi Dashboard dan
Machine Learning)
ndonesia terkenal sebagai negara dengan kekayaan sumber daya alam yang
melimpah. Pemanfaatan sumber daya alamnya menghasilkan bahan pangan, bahan
baku industri, sumber energi, dan produk jadi yang bernilai tinggi. Melimpahnya
kuantitas dan baiknya kualitas komoditas sumber daya alam yang dihasilkan Indonesia,
berpotensi ekspor ke negara lain. Wajar, jika Indonesia menjadi negara pengekspor
terbesar untuk beberapa komoditas sumber daya alam seperti minyak sawit, kopi, kakao,
vanili, karet, dan sebagainya.
Namun, terdapat beberapa isu terkait ekspor komoditas sumber daya alam.
Pertama, adanya isu untuk membatasi ekspor sumber daya alam ke luar negeri. Ekspor
bahan mentah perlu dialihkan kepada ekspor produk jadi yang mempunyai nilai lebih.
Kedua, dibutuhkan pengenaan bea keluar terhadap komoditas tertentu. Sehingga,
Kementerian Keuangan melalui DJBC, perlu melakukan pengawasan (pemeriksaan �isik)
terhadap ekspor komoditas tersebut. Ketiga, diperlukan sebuah usaha untuk menggali
potensi negara tujuan ekspor. Sehingga akan membuka pasar baru untuk dimasuki oleh
produk-produk asal Indonesia.
Berdasarkan ide-ide tersebut, dibutuhkan data analytic untuk menemukan insight
baru sebagai masukan kebijakan. DJBC membutuhkan pemetaan terhadap komoditas dan
negara tujuan potensial, bagi ekspor komoditas sumber daya alam, dan penerapan machine
learning untuk mendeteksi pelanggaran di bidang kepabeanan khususnya ekspor
komoditas sumber daya alam.
Untuk mencapai analisa komperehensif terhadap ekspor komoditas sumber daya
alam, kami masih menemukan kendala. Proyek ini masih membutuhkan helicopter view,
terhadap proses bisnis ekspor komoditas sumber daya alam yang beririsan di berbagai
instansi pemerintah. Sehingga dapat menghasilkan keandalan hasil analisa. Oleh sebab itu
kami mencoba untuk membuat sebuah prototype dengan menggunakan data DJBC, SLDK
Kementerian Keuangan, dan instansi lain.
3. Apabila kedua dampak tersebut berjalan efektif, maka akan berpotensi untuk dapat
meningkatkan penerimaan negara.
Kebutuhan Data
Kebutuhan data Proyek ini diperoleh dari:
1. Sumber Internal
Data kegiatan ekspor komoditas sumber daya alam, dengan HS Code yang terlampir
dalam KMK Nomor 1523 Tahun 2019. Data yang digunakan adalah data BC 3.0, Surat
Penetapan Perhitungan Bea Keluar (SPPBK) periode 2017-Agustus 2021 dan data SLDK
Kementerian Keuangan.
2. Sumber Eksternal
a. Data importasi sumber daya alam pada negara-negara di dunia dengan rentang waktu
2017-2021 yang bersumber dari UN-Comtrade.
b. Data produksi dalam negeri atas komoditas sumber daya alam.
c. Data konsumsi dalam negeri atas komoditas sumber daya alam.
Modelling
Setelah semua data telah berhasil dikumpulkan dan disiapkan, dilakukan
pemilihan model yang paling tepat untuk memenuhi tujuan proyek ini. Pada analisa ini
digunakan beberapa metode antara lain:
1. Visualization, digunakan untuk menampilkan atau mempresentasikan data terstruktur
maupun tidak terstruktur. Metode ini, juga digunakan untuk menampilkan informasi
yang tersembunyi. Sedangkan untuk visualisasi data dan dashboard, menggunakan
aplikasi Power BI. Dashboard digunakan untuk menampilkan secara sekilas tentang
indikator kinerja atas suatu proses bisnis tertentu.
2. Logistic Regression untuk mengukur hubungan antara satu variabel dengan variabel
yang lain. Model ini digunakan untuk memprediksi nilai yang menjadi target
berdasarkan variabel-variabel yang menjadi input.
Kami mengangkat 3 sampel komoditas potensial yaitu batubara, gas bumi dan
minyak mentah. Deskripsi berdasarkan kode HS terdapat pada slicer kiri atas. Kemudian,
saya membuat diagram batang negara tujuan ekspor terbesar komoditas tertentu,
batubara. Diagram tersebut dibuat dengan data yang diperoleh dari Direktorat Jenderal Bea
dan Cukai. India menjadi negara tujuan ekspor batubara tertinggi dari Indonesia diikuti
oleh 4 negara lainnya. Pada bagian kiri gambar, selain deskripsi terdapat slicer negara
tujuan dan tanggal eksportasi. Pada diagram batang bawah, ditampilkan 10 negara tertinggi
yang mengimpor komoditas yang sama, batu bara. Diagram tersebut dibuat menggunakan
data dari UN Comtrade. Negara Jepang dan Korea tidak termasuk dalam 5 negara tujuan
ekspor untuk batubara, hal ini mengimplikasikan bahwa ekspor batubara dapat
dimaksimalkan ke 2 negara tersebut yaitu Jepang dan Korea. Analisa yang sama dapat
diterapkan di komoditas-komoditas lainnya.
https://bit.ly/BudayaData
Adapun tujuan dari sistem ini adalah untuk memberikan analisis terkait:
Data yang digunakan dalam model adalah data historis penarikan pinjaman luar
negeri yang digunakan untuk membiayai kegiatan pemerintah yang ditandatangani sejak
tahun 2011 dan masa penarikannya berakhir pada tahun 2020. Penggunaan periode
tersebut mempertimbangkan awal berlakunya rezim pengaturan pinjaman luar negeri
yang sesuai dengan Peraturan Pemerintah Nomor 10 tahun 2011 mengenai Tata Cara
Pengadaan Pinjaman Luar Negeri dan Penerimaan Hibah.
Selain itu, data pinjaman yang digunakan adalah pinjaman yang mekanisme
penarikannya menggunakan skema pembayaran langsung dan Letter of Credit (L/C). Hal ini
untuk memastikan bahwa penarikan pinjaman mere�leksikan kinerja pelaksanaan kegiatan
yang dibiayai.
3. Pembelian barang
Kegiatan yang hanya memiliki satu kontrak dengan satu penyedia barang dan jasa.
Terdapat 129 perjanjian pinjaman untuk jenis kegiatan ini.
Berdasarkan pendekatan tersebut, metode seleksi model yang dilakukan adalah sebagai
berikut:
1. Untuk penentuan penggunaan Fixed Effect dan Random Effect pada data, dilakukan
pengujian Hausman Test dengan null hypothesis untuk tidak terdapat perbedaan atas
penggunaan Fixed Effect.
2. Dalam hal Fixed Effect yang digunakan, maka dilakukan uji parameter dengan Hausman
Test.
3. Dalam hal tes pada butir (1) mengarah pada Random Effect atau tes pada butir (2)
menunjukkan kegagalan pada uji parameter, maka dilakukan uji Breusch-Pagan
Lagrangian Multiplier untuk memilih antara Random Effect atau Common Effect.
Analisis Historis dan Prediktif Penarikan Pinjaman Luar Negeri - 23
Berdasarkan metode seleksi tersebut, maka pada ketiga kategori pinjaman
tersebut, digunakan Common Effect menggunakan model ekonometrika Squared Least
Dummy Variable (SLDV) dengan data time series untuk mengestimasi trajectory penarikan
PLN hingga berakhirnya availability period pinjaman berdasarkan tingkat penarikan dan
waktu yang telah terlewati (elapsed time) serta karakteristik kegiatan.
Pada model tersebut kemudian dilakukan uji antara lain Jarque-Bera Test untuk uji
normalitas error Breusch-Pagan untuk uji heteroskedastisitas error, Durbin Watson Test
untuk uji autokorelasi pada error, dan uji Variance In�lation Factor (VIF) untuk uji
multikolinearitas. Hal ini dilakukan untuk memastikan bahwa tidak terdapat
permasalahan pada analisis yang dilakukan. Adapun dari seluruh pengujian yang
dilakukan, terdapat permasalahan pada normalitas error. Hal ini akan dicoba untuk diatasi
pada masa mendatang jika data yang tersedia sudah lebih memadai.
Key Takeaways
Dalam penyusunan solusi dari project analytic ini, kami mengedepankan
simplisitas baik dari sisi data yang diperlukan dan analisis yang dilakukan. Hal ini
mengingat parameter yang digunakan dalam model adalah data yang sehari-hari bisa
diakses oleh para stakeholder pada aplikasi internal. Hal ini sangat penting karena
bertujuan untuk mempermudah para pemangku kepentingan dalam melakukan replikasi
dan memahami hasil analisis, sehingga akan memberikan keyakinan untuk
mengimplementasikan project ini.
Selain itu, telah dibangun desain visualisasi dan akses terhadap analisis dan solusi
preskriptif yang diberikan. visualisasi tersebut dapat diakses melalui website dan aplikasi
pesan singkat WhatsApp dengan hak akses terbatas. Adapun tampilannya adalah
sebagaimana gambar berikut:
Di masa mendatang, dalam hal data yang tersedia sudah lebih memadai, dapat
dilakukan pengukuran untuk pinjaman kegiatan yang memiliki karakteristik berbeda
seperti: (1) skema penarikan rekening khusus, (2) modalitas Program for Result, dan
lain-lain. Hal ini mengingat banyaknya modalitas baru dalam karakteristik pinjaman yang
dilaksanakan pemerintah.
Pengalaman yang
kami terima dalam mengikuti
lomba ini adalah
berkesempatan untuk
melakukan aktualisasi
terhadap ilmu yang dimiliki. Kami
pun dapat mengukur hasil analisis dan desain
aplikasi yang dibangun kepada pihak luar unit kami
bekerja. Hal tersebut dengan harapan untuk mendapatkan
masukan dari perspektif yang berbeda.
Rasio Pajak
Tingkat keberhasilan DJP dalam menggali potensi-potensi pajak, dalam
meningkatkan penerimaan sektor pajak dapat dilihat melalui rasio pajak (tax ratio)
Indonesia. Rasio pajak merupakan perbandingan antara jumlah penerimaan pajak dengan
Produk Domestik Bruto (PDB). Semakin besar rasio pajak, semakin besar penerimaan
pajak yang dihimpun oleh DJP. Semakin kecil rasio pajak, semakin kecil penerimaan pajak
yang dihimpun oleh DJP.
1 Data target Penerimaan per Kantor Data Internal Sistem Layanan Data Kementerian
Pelayanan Pajak Keuangan
2 Data realisasi penerimaan per Kantor Data Internal Sistem Layanan Data Kementerian
Pelayanan Pajak Keuangan
3 Data jumlah pegawai per per Kantor Data Internal Sistem Layanan Data Kementerian
Pelayanan Pajak Keuangan
4 Data piutang pajak per Kantor Data Internal Sistem Layanan Data Kementerian
Pelayanan Pajak Keuangan
5 Data Daftar Isian Penggunaan Data Internal Sistem Layanan Data Kementerian
Anggaran (DIPA) per Kantor Keuangan
Pelayanan Pajak
def lstToStringName(a):
data = a
name = ""
try:
for idx, x in enumerate(data):
if len(data) > 1 and idx != len(data):
name += x[0] + " | "
else:
name += x[0]
except:
pass
return name
def lstToStringAddress(a):
data = a
address = ""
try:
for idx, x in enumerate(data):
if len(data) > 1 and idx != len(data):
address += x[1] + " | "
else:
address += x[1]
except:
pass
return address
df['from_name'] = df['from'].apply(lstToStringName)
df['from_address'] = df['from'].apply(lstToStringAddress)
df['to_name'] = df['to'].apply(lstToStringName)
df['to_address'] = df['to'].apply(lstToStringAddress)
df.drop(columns=['from', 'to','html_body'], inplace=True)
In [464] : df.shape
In [466] : df[df[’to_address’].str.contains(’info@insw.go.id’)].shape
5. Word Cloud
def cleanText(a):
text = a
text = text.lower()
text = re.sub(r"\d+", "", text)
text = text.translate(str.maketrans("","",string.punctua�on))
Terlihat dari gambar jumlah klaster 4 dan 5 kurang begitu optimal, karena terdapat
klaster yang memiliki silhouette score di bawah rata-rata. Kemudian, ukuran plot antar
klaster tidak seragam. Sedangkan untuk jumlah klaster 2 dan 3, semua skor klaster di atas
skor rata-rata dan ukuran plot relatif seragam. Sehingga, dengan pertimbangan hasil
klastering yang lebih bervariatif, diputuskan untuk menggunakan jumlah klaster 3.
Pada ketiga klaster tersebut, terdapat pattern permasalahan yang muncul, yaitu :
Cluster 1 : Permasalahan Request Registrasi User / Akun INSW
Cluster 2 : Permasalahan menyangkut User (Lupa Password, Gagal Login, dll)
Cluster 3 : Permasalahan terkait transaksi (COO, SSm QC, PIB, dll)
Kesimpulan/Key Takeaways
Metode representasi TF-IDF yang digunakan untuk data text dan clustering model
K-Means, membentuk suatu model untuk mengklasi�ikasikan data email menjadi tiga
kategori. Email terkait request registrasi user, permasalahan akun dan permasalahan
transaksional. Pada penelitian berikutnya diharapkan dapat dikembangkan model lain,
yang dapat mengklasi�ikasikan email secara lebih mendalam. Penggunaan neural network
atau supervised learning dengan labeling manual terlebih dahulu, mungkin dapat
memperkaya penelitian ini.
Apa yang terlintas dalam benak kita, bisa menjadi awal dari sesuatu yang luar biasa.
Komunikasikan ide dengan atasan, rekan, dan senior yang berpengalaman. Diskusikan
objek permasalahan dan goals yang ingin didapat. Menggunakan data analytics adalah hal
wajib yang harus dilakukan. Mengangkat semuanya dalam satu kompetisi, akan
menentukan sekuat apa ide tersebut dapat bermanfaat.
Never stop Learning. Dunia data science sangat luas dan nggak pernah habis untuk
dieksplorasi, akan terus ada yang baru. Jadi, teruslah belajar.
AI Cash Forecasting - 09
“Emerging markets cannot “afford” a repeat of the 2013 “taper tantrum” market
disruption that occurred when the US Federal Reserve signalled a sooner-than-ex-
pected withdrawal of stimulus, sparking a surge in global borrowing costs.”
1Dornbusch et al. (2000) mende�inisikan �inancial contagion sebagai penyebaran gangguan pasar dari satu negara
ke negara lain, yang diamati melalui pergerakan bersama dalam nilai tukar, harga saham, spread obligasi, dan arus
modal.
Seperti halnya saat taper tantrum 2013, isu normalisasi kebijakan moneter AS
mencuat di 2021 didorong oleh pemulihan ekonomi AS yang terus menguat pasca krisis
(pandemi Covid-19). Ekonomi telah tumbuh positif sejak Q1 2021, in�lasi naik ke >5% sejak
Mei (target 2%), dan tingkat pengangguran terus menurun.
Tren positif ini di satu sisi adalah hal baik, namun juga membuka potensi penarikan
stimulus yang sebelumnya digelontorkan secara masif (a.l. menurunkan suku bunga ke
0,25% dan melakukan QE USD120 miliar/bulan sejak Juni 2020). Hingga Oktober 2021,
estimasi waktu tapering off dan kenaikan suku bunga masih terus berubah, artinya
ketidakpastian memang masih tinggi. Namun, pengalaman taper tantrum 2013 seharusnya
membuat kita belajar untuk mewaspadai risiko spillover ke Indonesia.
Dari perspektif macro-account, adanya syok pada sektor keuangan global, dalam hal
ini tapering off, dapat berdampak pada: 1) sektor eksternal melalui aliran modal keluar
akan mempengaruhi komponen investasi portofolio dalam Neraca Pembayaran; 2) moneter
melalui pelemahan nilai tukar; 3) Pemerintah melalui kecenderungan kenaikan imbal hasil
SBN di seluruh tenor; hingga 4) sektor riil. Kenaikan imbal hasil SBN akan menekan belanja
negara karena biaya bunga utang yang lebih tinggi. Padahal, saat ini Indonesia masih butuh
sumber pembiayaan dalam jumlah besar untuk memperkuat pemulihan ekonomi. Pada
akhirnya, efek syok akan merambat ke sektor riil yang berpotensi menghambat laju
pertumbuhan ekonomi.
2Quantitative easing (QE) merupakan kebijakan moneter non-konvensional berupa pembelian aset keuangan (a.l. obligasi
Pemerintah) dalam jumlah besar yang bertujuan untuk menambah likuiditas, mengurangi suku bunga dan mendorong arus
kredit ke bisnis/konsumen
Simulasi diharapkan dapat menjadi alat bantu bagi pengambil kebijakan untuk
mengestimasikan dampak kenaikan VIX Index (menangkap faktor volatilitas) maupun
US Treasury 10 Tahun (menangkap kondisi likuiditas global) terhadap empat indikator
keuangan Indonesia, yaitu arus modal pasar Surat Berharga Negara (SBN), yield SBN,
nilai tukar, serta Indeks Harga Saham Gabungan (IHSG).
Simulasi menghasilkan interpretasi bahwa adanya syok keuangan global melalui
proxy kebijakan moneter AS (US Treasury 10 Tahun) dan volatilitas global (VIX)
berpengaruh pada keluarnya arus modal dari pasar obligasi, penurunan indeks saham,
depresiasi nilai tukar, dan peningkatan yield obligasi Indonesia dengan tingkat
signi�ikansi α=1%.
Variable dependen: imbal Time frame: data harian Regresi dengan e-Views 10.
hasil SBN 10 tahun, nilai Jan 2024 - 24 Sep 2021. Metode GARCH dengan prinsip parsimonious.
tukar rupiah, indeks harga
Data Bloomberg Tingkat Signi�ikansi atau
saham Indonesia.
dianggap sudah bersih
Variable independen: dan sesuai dengan
Imbal hasil obligasi AS 10 standar market.
tahun & indeks volatilitas.
Sumber: Bloomberg, CEIC,
SLDK
Keterangan variabel: ID10Y = yield obligasi Indonesia 10 Tahun, IDR = nilai tukar rupiah,
IDEQ = IHSG, NFBOBLIGASI = arus modal dari pasar obligasi Indonesia, US10Y = yield
obligasi AS, VIX = indeks volatilitas saham global
Sesuai dengan nama tim kami “Parsimonious”, dalam penyusunan dasbor pantauan
ini digunakan prinsip parsimonious theory: menggunakan sumber daya dan penjelasan
sesederhana mungkin, namun dapat menggambarkan dan memberikan dampak yang
sangat besar untuk menjelaskan sebuah fenomena.
1. Volatilitas Global
Simulasi Dampak Syok Ekonomi Alat bantu bagi pengambil kebijakan, untuk
Global menghitung dampak syok ekonomi global
terhadap indikator-indikator pasar keuangan
Indonesia.
2. Moneter Global
Penyiapan Data
Tahapan berikutnya adalah mengolah data mentah menjadi bahan yang siap untuk
disajikan (visualization). Tahapan yang dilakukan:
1. Unduh data dari sumbernya dalam format excel dihubungkan langsung ke server
Bloomberg dan CEIC update secara otomatis dan real-time;
2. Data cleansing missing data dan data-data yang tidak digunakan; dan
3. Data formatting penyesuaian dengan bentuk tableau database untuk memudahkan
dalam melakukan visualisasi. Selain itu, data-data tersebut juga disiapkan sebagai data
input dalam perhitungan model simulasi dampak.
Visualisasi Data
Visualisasi dasbor menggunakan aplikasi Tableau karena mudah untuk dipelajari,
mempunyai tampilan menarik, dan mudah dipahami. Dalam dasbor ini, kami ingin
menampilkan indikator-indikator terpenting untuk memantau risiko pasar keuangan
global.
-Tim Parsimonious-
Analisis
Analisis Ekspor Komoditas Sumber Pemantauan
Daya Risiko-- 46
Alam Indonesia 16
Analisis Prediktif
untuk Memprediksi
Harga Objek Lelang
Disusun oleh: Nikodemus Sigit Rahardjo,
Hanif Noer Rofiq, Yogy Arif Pratama
Tujuan dari proyek ini adalah untuk mengidenti�ikasi
potensi besaran hasil lelang. Hasil proyeksi tersebut dapat
digunakan untuk memproyeksikan penerimaan negara
khususnya PNBP Lelang (MAP 425782) yang berasal dari
penjualan BMN. Proses identi�ikasi tersebut dilakukan
dengan membuat visualisasi data terkait Lelang BMN.
Data Gathering
Proses pengumpulan data dilakukan dengan membuat permintaan secara resmi
melalui nota dinas permintaan data sekaligus permohonan izin untuk menggunakan data
terkait Lelang dan BMN pada direktorat teknis terkait selaku pemilik data. Namun, kami
hanya memperoleh data lelang saja, sehingga visualisasi data maupun data preprocessing
yang dilakukan hanya menggunakan data lelang.
Data Cleansing
Feature data yang telah kami seleksi untuk digunakan dalam analisis ini adalah
‘KPKNL’, 'URAIAN BARANG', 'JENIS LELANG', ‘JENIS PENAWARAN’, ‘SIFAT BARANG’, ‘NILAI
LIMIT’, ’JAMINAN PENAWARAN LELANG’, ‘BEA LELANG PEMBELI’, ‘KATEGORI PEMOHON
LELANG/PENJUAL’, ‘TAHUN LAPORAN’, ‘STATUS LELANG’ dan ‘POKOK LELANG’. Terhadap
data tersebut kemudian dilakukan proses cleansing data untuk mendeteksi dan
memperbaiki (atau menghapus) data/format data yang corrupted dan tidak akurat.
Misalnya, pada URAIAN BARANG, informasi seharusnya yang diinput adalah untuk
satu barang yang dilelang tiap baris data. Namun, pada data yang tersedia, data yang diinput
adalah beberapa barang yang dilelang dalam satu baris data. Akibatnya, nilai-nilai yang
tercantum pada kolom lainnya tidak menggambarkan untuk satu barang saja, namun untuk
beberapa barang. Sehingga hal ini dapat mempengaruhi hasil evaluasi dan prediksi yang
dilakukan.
Data cleansing menghasilkan feature data yang baru yaitu ‘MEDIA LELANG’ dan
‘TIPE LELANG’ yang berasal dari feature ‘JENIS PENAWARAN’. Untuk feature data yang
bersifat numerik memerlukan dua tahap proses normalisasi/tranformasi data untuk
menghasilkan nilai skew yang lebih baik. Hasilnya sebagai berikut :
Hasil data cleansing tersebut yang akan digunakan untuk proses data modelling.
Data Modelling
Proses selanjutnya adalah melihat seberapa besar tingkat korelasi antara
independent feature dengan dependent feature/target. Hasilnya adalah sebagai berikut :
Gra�ik Korelasi
Analisis korelasi menggunakan matriks korelasi untuk menjelaskan hubungan antar
dua variabel sehingga dapat diambil kesimpulan variabel mana yang akan digunakan dalam
pemodelan untuk memprediksi hasil lelang.
Dari hasil tingkat korelasi di atas, kami hanya menggunakan feature data yang
memiliki nilai 0,005 dan ke atas (nilai ini kami tentukan sesuai dengan tingkat kualitas data
saat ini). Feature data dimaksud adalah sebagai berikut:
1. 'TAP' [0]
2. 'WANPRESTASI' [1]
3. 'BATAL' [2]
4. 'MEDIA_LELANG_LENC' [3]
5. 'TIPE_LELANG_closed' [4]
6. 'BEA LELANG PEMBELI' [5]
7. 'SELAIN_RODA_2' [6]
8. 'BONGKARAN' [7]
9. 'PERALATAN_MESIN' [8]
10. 'JENIS_LELANG_LENC' [9]
11. 'NILAI LIMIT ENC' [10]
12. 'TAHUN LAPORAN' [11]
13. 'PEMOHON_k_l' [12]
14. 'PEMOHON_pemda' [13]
15. 'PEMOHON_polisi_jaksa_pengadilan' [14]
Skor MAE dan RMSE adalah skor yang berorientasi negatif, yang berarti nilai yang
lebih rendah (semakin mendekati 0) lebih baik. Namun, RMSE memberikan bobot yang
relatif tinggi untuk kesalahan/error yang besar. RMSE lebih diprioritaskan ketika
kesalahan/error yang besar sangat tidak diinginkan. Untuk kegiatan prediktif nilai lelang
ini, kami memilih teknik/metode pemodelan data LGBMRegressor yang memberikan nilai
error moderate dibandingkan dengan teknik/metode yang lain. Selanjutnya kami
melakukan identi�ikasi feature data yang dapat digunakan untuk proses prediksi dengan
metode LGBMRegressor tersebut. Berikut hasilnya:
Dari gra�ik di atas kemungkinan dapat digunakan tiga atau empat feature ([10], [5],
[11], [4]) dari lima belas feature sebagai feature yang penting untuk proses prediksi data.
Tentunya hal ini berdasarkan kondisi/kualitas data saat ini.
Simpulan
08 Analisis
Analisis Potensiuntuk
Prediktif Tercapainya TargetHarga
Memprediksi Penerimaan Pajak -- 24
Objek Lelang 46
anyaknya aset yang dimiliki negara saat ini, tentu bukan hal yang mudah bagi setiap
instansi dalam melakukan pengelolaan. Salah satunya terkait pemeliharaan.
Bahkan dapat dikatakan proses pemeliharaan belum mendapat perhatian khusus.
Sebagaimana kondisi di lapangan yang sering kali menganggarkan biaya pemeliharaan
dengan hanya melihat data tahun sebelumnya.
Berbekal pengalaman sebagai operator BMN, saya menyaksikan tren penggunaan
barang persediaan/ATK yang berganti dengan kerusakan mouse/keyboard dan PC yang
semakin perlu perawatan, dll. Permasalahan semacam itu memang terlihat kecil, tetapi
berdampak pada frekuensi revisi anggaran. Meskipun tidak ada yang salah dengan revisi
anggaran. Namun, secara tidak langsung menunjukkan ketidakmampuan instansi untuk
merencanakan.
Fakta ini, memicu batas keilmuan saya terkait data analytic yang masih awam. Saya
yang baru mengenal Python beberapa bulan belakangan, bahkan belum familiar dengan
sintaksnya, memberanikan diri untuk maju dengan segala keterbatasan. Berusaha
menampilkan sesuatu yang tampak kecil, namun memiliki dampak yang cukup besar dalam
mendukung optimalisasi anggaran.
Meskipun di luar ekspektasi, saya berhasil menjadi 10 besar dan mendapatkan
dukungan penuh rekan kerja dan apresiasi dari Kepala Kantor Wilayah Jawa Timur II. Bagi
saya, ini adalah bonus.
Operator dan pengambil keputusan terbiasa melihat nilai buku atau kondisi �isik
barang real, tanpa mengetahui seberapa besar biaya pemeliharaan yang telah dibebankan
pada periode sebelumnya. Padahal jika merujuk pada kebijakan akuntansi pemerintah, nilai
buku atas suatu aset dihitung menggunakan metode penyusutan garis lurus. Dimana
metode tersebut belum dapat menggambarkan kondisi aset secara real time.
Permasalahan lain yang timbul, terkait perencanaan anggaran. Mengingat
pentingnya pemeliharaan aset dalam kegiatan operasional, perencanaan anggaran
pemeliharaan seharusnya dilakukan dengan berbagai pertimbangan. Tidak cukup hanya
dengan melihat anggaran tahun sebelumnya. Namun membutuhkan pertimbangan kondisi
aset itu sendiri. Selain itu, belum ada sarana untuk melakukan monitoring dan evaluasi atas
biaya pemeliharaan yang telah dibebankan.
Berangkat dari permasalahan tersebut, perlu dikembangkan aplikasi yang dapat
mengidenti�ikasi kondisi aset, dengan memanfaatkan data transaksi pemeliharaan.
Bidikan Proyek
Proyek ini bertujuan antara lain: (1) untuk mengidenti�ikasi apakah suatu aset masih
layak digunakan dalam kegiatan operasional secara ekonomis, jika dibandingkan dengan
biaya pemeliharaan yang dikeluarkan; (2) sebagai salah satu langkah dalam upaya
optimalisasi penggunaan anggaran; serta (3) agar dapat menjadi bahan pertimbangan
dalam perencanaan kebutuhan aset maupun perencanaan anggaran biaya pemeliharaan.
Pra-pemrosesan
Pada tahap pra-pemrosesan data, saya menggabungkan metode join antara
dataframe aset dan realisasi pemeliharaan. Cara ini digunakan untuk mendapatkan detail
barang pada seluruh transaksi pemeliharaan. Dataframe gabungan ini, nantinya akan
digunakan pada proses-proses selanjutnya.
Eksplorasi Data
Eksplorasi data dimulai dengan melakukan visualisasi data secara keseluruhan
untuk mendapatkan gambaran atas: (1) Total biaya pemeliharaan per tahun; (2) Biaya
pemeliharaan masing-masing barang per tahun; dan (3) Frekuensi pemeliharaan
masing-masing barang per tahun.
Pada tahap ini saya menggunakan dua jenis �itur untuk mencari anomali pada
distribusi data, yaitu frekuensi dan biaya pemeliharaan. Dimana pada kedua �itur tersebut
dilakukan normalisasi terlebih dahulu, agar mendapatkan rentang nilai yang sama dalam
plotting pada sumbu x dan y dalam bentuk scatter plot. Tahap selanjutnya adalah
menentukan titik tengah, saya menggunakan metode K-Means dengan nilai cluster sama
dengan satu, kemudian fungsi Euclidean untuk menentukan jarak antara data dengan titik
tengah.
Salah satu poin penting dalam pencarian outliers yaitu menentukan threshold atau
batas yang dianggap sebagai jarak terjauh. Dengan metode tersebut, diharapkan operator
bisa menentukan sendiri nilai yang dianggap sebagai batas normal. Meski demikian, saya
memberikan nilai default sebesar 99% sebagai batas terjauh. Sebagai contoh pada gambar
8.4, terdapat dua barang dengan lingkaran merah yang menjadi outliers.
Proses ini menghasilkan daftar barang yang merupakan outliers untuk selanjutnya
dapat dilakukan penelitian lebih lanjut atas transaksi pemeliharaan dari barang-barang
tersebut. Selain itu, outliers juga dapat dihapus agar tidak mengganggu data lain pada saat
dibuat model untuk peramalan anggaran.
Analisis Lanjutan
Tambahan lainnya, saya menampilkan tautan pencarian barang sejenis pada situs
e-katalog. Sehingga, operator maupun pengambil keputusan dapat dengan mudah
membandingkan antara harga perolehan, biaya pemeliharaan, dan harga baru atas barang
yang sama.
Meski demikian, masih ada kelemahan dalam proyek ini baik dari sisi teknis maupun
non teknis. Masih banyak faktor yang perlu dijadikan pertimbangan untuk menentukan
keputusan atas aset, seperti rata-rata waktu penggunaan dalam sehari, jumlah pegawai,
kondisi ruangan tempat aset digunakan, dan lain-lain. Saya berharap proyek ini menjadi
salah satu gagasan untuk membantu mewujudkan pengelolaan anggaran yang optimal
dengan memanfaatkan data yang ada.
09
Disusun oleh:
Hermawan Effendi
1Daniel Paschek, Larisa Ivascua, Anca Draghicia. Knowledge Management – The Foundation for a Successful Business Process
Management. Procedia - Social and Behavioral Sciences 238 (2018) 182 – 191
XGBoost merupakan salah satu algoritma pada machine learning yang dapat
digunakan untuk melakukan prediksi dan klasi�ikasi dengan akurasi dan kecepatan yang
[4]
bagus karena algoritma tersebut menerapkan multithreading. XGBoost atau eXtreme
Gradient Boosting adalah algoritma berbasis pohon yang efektif jika digunakan untuk
[5]
sebaran kategori data yang tidak seimbang sehingga dapat lebih efektif dalam pengambilan
[4]
keputusan. Hasil klasi�ikasi permasalahan jika disandingkan dengan data pendukung
seperti hasil evaluasi pelaksanaan pelatihan dapat menjadi bahan analisis untuk kebutuhan
diklat sebagai upaya peningkatan kapasitas SDM dalam rangka pengelolaan keuangan
negara.
Mengapa XGBoost?
XGBoost merupakan salah satu algoritma pada machine learning yang dapat
digunakan untuk melakukan prediksi dan klasi�ikasi dengan akurasi dan kecepatan yang
[4]
bagus karena algoritma tersebut menerapkan multithreading. XGBoost adalah algoritma
berbasis pohon yang efektif jika digunakan untuk sebaran kategori data yang tidak
[4]
seimbang sehingga dapat lebih efektif dalam pengambilan keputusan. Dengan
menggunakan tools ini, analisis terhadap prioritas kebutuhan pelatihan satuan kerja dapat
dibuat berdasarkan klasi�ikasi permasalahan yang sering disampaikan melalui tiket HAI
DJPb.
Dalam praktiknya, XGBoost dapat digunakan untuk memetakan kebutuhan di atas
melalui pemrosesan teks data permasalahan pada HAI DJPb dengan menggunakan aplikasi
KNIME sebagai tools-nya. Proses yang dilakukan dapat dilihat pada gambar berikut.
Gambar di atas merupakan work�low yang digunakan dalam aplikasi KNIME sebagai
alat bantu dalam melakukan pemrosesan teks data permasalahan pada HAI DJPb Tahun
2020 sebanyak 15.735 tiket permasalahan aplikasi.
a. Labelling
dengan kategori yang telah ditetapkan sebelumnya. Pada studi kasus ini, penulis membuat
pelabelan berdasarkan kata kunci yang menjadi karakteristik dari masing-masing kategori,
yaitu (1) Aplikasi SPAN, (2) Aplikasi SAKTI, (3) Aplikasi SAS/SILABI/PIN PPSPM, (4)
Aplikasi E-Rekon/SAIBA, (5) Aplikasi SIMAK/ PERSEDIAAN, (6) Aplikasi SIKP, (7) Aplikasi
GPP/DPP/BPP/GAJI TERPUSAT, (8) OM SPAN, (9) Infrastruktur – Perangkat Lunak, (10)
Infrastruktur – Jaringan, dan (11) Infrastruktur - Perangkat Keras.
b. Pre-processing
Tahapan selanjutnya adalah melakukan tahap pre-processing data tiket
permasalahan sehingga dapat digunakan dalam proses prediksi klasi�ikasi menggunakan
algoritma XGBoost. Tantangan dalam pengolahan data teks komplain pengguna yang
didapatkan dari aplikasi HAI DJPb yaitu teks masih terdapat atribut HTML dan berdasarkan
pengamatan terdapat beberapa kesalahan penulisan (typographical error). Untuk
mengatasi hal tersebut, penggunaan node Markup Tag diperlukan untuk menghapus semua
tag markup language pada kolom yang akan dilakukan text processing. Proses stemming
dilakukan menggunakan node String Manipulation sehingga proses penghapusan awalan
dan akhiran kata dapat dikontrol. Selain itu, pengunaan node Dictionary Replacer
diperlukan untuk mengatasi isu kesalahan penulisan. Dalam melakukan prediksi klasi�ikasi
permasalahan pada tiket HAI DJPb menggunakan XGBoost Tree Ensemble Learner, inputan
permasalahan merupakan penjelasan yang rinci dari satuan kerja atau stakeholder. Pada
setiap baris permasalahan yang akan diprediksi, dapat berupa kalimat, paragraf, atau
[8]
gabungan dari beberapa paragraf.
7 Vladimer B. Kobayashi et al, “Text Mining in Organizational Research”. Organizational Research Methods 2018, Vol. 21(3) 733-765
8 Molovtsev, M. D., & Sineva, I. S. "Classification Algorithms Analysis in the Forest Fire Detection Problem” IT&QM&IS.
(pp. 548-553). IEEE. 2019
Pengaturan yang berbeda dengan default KNIME adalah kon�igurasi eta dari 0.5
menjadi 0.3 dan alpha dari 1 menjadi 0. Penyusutan nilai ini bertujuan untuk mencegah
over�itting sehingga membuat proses learning menjadi lebih konservatif. Setelah melalui
proses learning dan prediction dengan menggunakan pengaturan tersebut, akurasi model
klasi�ikasi yang telah dibuat sebesar 94,7%.
Pada tahun 2020, permasalahan terkait Sistem Aplikasi Keuangan Tingkat Instansi
(SAKTI) sebesar 65% dari keseluruhan tiket. SAKTI adalah aplikasi yang digunakan sebagai
sarana bagi satuan kerja dalam mendukung implementasi SPAN untuk melakukan
pengelolaan keuangan yang meliputi tahapan perencanaan hingga pertanggungjawaban
anggaran. SAKTI mengintegrasikan seluruh aplikasi satuan kerja yang ada. Mempunyai
fungsi utama dari mulai Perencanaan, Pelaksanaan hingga Pertanggungjawaban Anggaran.
Selain itu, SAKTI menerapkan konsep single database. Aplikasi SAKTI digunakan oleh
[10]
Statistik Hasil Posttest Pelatihan Aplikasi SAKTI Tahun 2020
Berdasarkan hasil analisis di atas, ditemukan bahwa modul SAKTI Pelaksanaan dan
SAKTI Pelaporan adalah area fokus yang perlu diperhatikan pada saat melakukan pelatihan
kepada satuan kerja. Kedua modul ini merupakan fokus utama dalam pencapaian tujuan
organisasi yaitu terlaksananya pengelola keuangan negara yang baik pada seluruh satuan
kerja. Kebutuhan pelatihan bagi satuan kerja terkait aplikasi SAKTI khususnya modul
pelaksanaan dan pelaporan sangat diperlukan dari sisi kualitas dan kuantitasnya. Hal ini
dapat dilihat berdasarkan rata-rata pencapaian hasil posttest pelatihan aplikasi SAKTI (<
750). Selain itu, deviasi perolehan posttest pada modul SAKTI Pelaporan yang terlalu tinggi
(157,53) dapat mengindikasikan bahwa tingkat pemahaman materi oleh satuan kerja
diduga tidak merata. Selain itu, hal ini juga dimungkinkan karena kendala dalam
penyampaian materi sehingga perlu menjadi perhatian pada proses knowledge transfer
kepada satuan kerja.
9 Shivaraju PT, Manu G, Vinaya M, Savkar MK. Evaluating the effectiveness of pre- and post-test model of learning in a medical
school. Natl J Physiol Pharm Pharmacol 2017;7(9):947-951
10Direktorat Sistem Informasi dan Teknologi Perbendaharaan, 2020
Dalam menentukan prioritas kebutuhan diklat bagi satuan kerja, kita dapat
menggunakan analisis pada tiket permasalahan HAI DJPb dengan bantuan salah satu tools
algoritma machine learning berupa XGBoost melalui aplikasi KNIME. Fokus dari masalah
yang dihasilkan dapat menjadi informasi awal yang akan dianalisis dengan menyandingkan
data feedback atau data hasil posttest, sehingga pembuat kebijakan dapat menggunakan
informasi analisis tersebut untuk menentukan kebutuhan pelatihan guna pengelolaan
keuangan negara yang lebih baik. Pemetaan kebutuhan pelatihan yang diperoleh
berdasarkan analisis klasi�ikasi permasalahan dan hasil pelatihan dapat membantu proses
perencanaan diklat yang dibutuhkan dalam pengelolaan keuangan negara. Selain itu,
dengan efektivitas dan e�isiensi pelaksanaan diklat, maka dapat juga diperoleh
penghematan biaya pelaksanaan kegiatan serta perolehan output dan outcome pelatihan
yang lebih maksimal. Selanjutnya dampak lain yang diharapkan dari pemodelan ini
adalah terjadinya peningkatan pemahaman satuan kerja atau stakeholder
terhadap pengelolaan keuangan negara sehingga dapat menciptakan good
governance dari sisi �inansial.
Hingga saat ini masih sangat umum opini bahwa untuk dapat melakukan analisis
data maka kita harus memahami bahasa pemograman atau coding seperti python, R, atau
bahasa pemograman lainnya. Menurut kami, hal itu tidaklah relevan. Dengan perangkat
sederhana seperti Microsoft Excel sekalipun, sebenarnya kita tetap dapat melakukan
analisis data secara sederhana. Beragam rumus di Microsoft Excel dapat kita gunakan untuk
melakukan analisis data. Maka dengan menggunakan perangkat yang lebih advance seperti
Microsoft Power BI Desktop, kita dapat melakukan analisis data secara lebih baik dan lebih
lengkap. Melalui project ini kami berharap bahwa setiap pegawai DJP dapat melakukan
analisis data faktur pajak dan pemberitahuan ekspor barang. Gambaran arsitektur
Microsoft Power BI Desktop untuk analisis data tersebut, yang kami beri nama “Aplikasi
Analitika Data Perpajakan e-Faktur Keluaran” adalah sebagai berikut:
BI Architecture project
Diadopsi dari : https://t2client.com/bi/
Langkah awal yang kami lakukan adalah melakukan pengumpulan data dengan
mengunduh data yang tersedia dari intranet DJP yaitu Apportal . Data yang tersedia untuk
kami gunakan dalam analisis ini kami peroleh pada tahun 2019, ketika kami masih menjadi
pegawai DJP. Dari situs tersebut, kami mengunduh data series faktur pajak dalam kurun
waktu 2017-2019. Jumlah data series yang kami peroleh adalah 355.227 baris data faktur
pajak, untuk selanjutnya kami olah pada tahap berikutnya.
Data Transformation
Tahap selanjutnya yang kami lakukan adalah mengubah atau mentransformasikan
data series mentah yang kami peroleh menjadi 36 dataset. Dengan menggunakan Microsoft
Power BI Desktop, proses transformasi data dapat dilakukan sekaligus melalui menu Get
Data from Folder. Menu ini tidak ada di dalam Microsoft Excel. Proses transformasi data yang
kami lakukan antara lain Extract, Transform (beberapa langkah), dan Load ke Data Model
selaku storage penampung data di dalam aplikasi. Setiap langkah data transformation
tersimpan dalam bentuk query sehingga dapat digunakan secara terus-menerus untuk data
series yang berbeda. Proses query ini tentu akan mempermudah bagi user lain yang akan
melakukan proses transformasi data pada data series faktur pajak lainnya. Berikut adalah
bentuk dari query yang kami lakukan.
Pada tahap ini, kami memvisualisasikan dataset ke dalam bentuk Summary dan
Detail. Summary memuat ringkasan seperti Dasar Pengenaan Pajak (DPP), jumlah faktur,
jumlah pembeli selama kurun waktu, perbandingan DPP dan jumlah faktur per tahun, serta
perbandingan pembeli yang memiliki NPWP atau tidak. Berikut adalah tampilan dari data
visualization yang kami lakukan.
Sementara itu, pada bagian Detail kami visualisasikan daftar nama barang yang
dijual dan nama pembeli pada kurun waktu, serta sebaran pembeli dalam format peta Indo-
nesia, sebagaimana berikut.
Visualisasi Summary
Visualisasi Summary
Visualisasi Detail
Temuan menarik selanjutnya adalah perihal nama pembeli “CASH” yang digunakan
oleh Wajib Pajak untuk mengidenti�ikasi pembeli yang tidak memiliki NPWP. Hal ini tentu
sangat menarik, mengingat nama tersebut menjadi top buyer (14,18% dari total penjualan
selama kurun waktu 2017-2019).
Kemudian melalui Visualisasi Map pada bagian Detail, kami menemukan data seba-
ran pembeli hingga ke Pulau Sulawesi (Makassar), sementara penjual/Wajib Pajak
berdomisili di Pulau Sumatera.
Sebenarnya hal ini sangatlah wajar di era e-commerse saat ini. Namun demikian,
informasi ini tentu dapat digunakan oleh DJP untuk melengkapi pro�il Wajib Pajak
mengenai sebaran wilayah dari klien Wajib Pajak itu sendiri, termasuk kebenaran data dari
sebaran tersebut.
Beberapa analisis di atas adalah contoh bagaimana model analisis sederhana dari
Data Storytelling Project kami pada faktur pajak keluaran. Beberapa temuan menarik dapat
menjadi insight bagi kebijakan perpajakan di Indonesia yang bisa diinisiasi oleh DJP. Dengan
demikian berdasarkan dari apa yang kami lakukan pada project ini, kami yakin bahwa
project ini dapat diaplikasikan di DJP terutama berkaitan dengan analisis untuk menggali
potensi penerimaan negara dari sektor perpajakan melalui tools yang lebih advance namun
relatif mudah untuk dioperasionalkan oleh semua pegawai DJP.
Gambar Alur Kerja Topic Modelling Data My Task dan Identi�ikasi Kompetensi Pegawai
1 Reuber, R. (1997). Management experience and management expertise. Decision Support Systems, 21(2), 51–60. https://
doi.org/10.1016/S0167-9236(97)00017-1
2 Ericsson, K., Hoffman, R., Kozbelt, A., & Williams, A. (2018). Expertise as Reliably Superior (Expert) Performance on Representa
tive Tasks. In The Cambridge Handbook of Expertise and Expert Performance (2nd ed.).
3 Vayansky, I., & Kumar, S. A. P. (2020). A review of topic modeling methods. Information Systems, 94, 101582. https://
doi.org/10.1016/j.is.2020.101582
Gambar tersebut menunjukkan deskripsi task “Rapat Koordinasi Tim TIK dan
Pusintek tentang Development Aplikasi Find-Pro�keu (Cari Data Profesi Keuangan)”
diprediksi oleh DMI LDA Model sebagai topik kompetensi yang berkesesuaian dengan
kompetensi Pengembangan Aplikasi.
Selanjutnya, data kompetensi yang telah diprediksi oleh DMI LDA Model tersebut
dapat disajikan pada sebuah Business Intelligence, atau di Kementerian Keuangan disebut
sebagai HRIS (Human Resource Information System). HRIS tersebut dapat dikases oleh
pegawai sebagai individu maupun pengelola kepegawaian di lingkungan Kementerian
Keuangan.
Bagi pegawai, hasil identi�ikasi kompetensi dapat disajikan pada sebuah dashboard
sebagaimana disajikan pada Gambar Dasboard Kompetensi bagi Pegawai. Berdasarkan
gambar tersebut, setiap pegawai akan dapat mengunjungi sebuah laman dalam aplikasi
HRIS yang menampilkan kompetensi-kompetensi yang terkait dengan tugas-tugas yang
telah dilakukannya. Lebih lanjut, berdasarkan kompetensi yang teridenti�ikasi tersebut,
seorang pegawai juga akan mendapatkan rekomendasi pelatihan-pelatihan yang relevan
untuk diikuti.
Identifikasi Kompetensi Pegawai Berbasis Data Analytics - 82
Gambar Dasboard Kompetensi bagi Pegawai
Sementara, bagi pengelola kepegawaian tingkat satuan kerja (satker) maupun Biro
SDM, potensi manfaat yang diperoleh adalah sebagaimana ditunjukkan pada Gambar
Dashboard bagi Unit Pengelola Kepegawaian. Berdasarkan gambar tersebut, unit pengelola
kepegawaian akan memilki informasi mengenai struktur kompetensi yang terdapat dalam
satuan kerja yang dikelolanya. Bagi Biro SDM, informasi yang tersedia adalah struktur
kompetensi yang ada pada setiap Eselon I di lingkungan Kementerian Keuangan.
Dari serangkaian proses yang kami lalui selama mengikuti kompetisi Hackathon
ASN Kemenkeu 2021, kami ingin berbagi pengalaman kepada rekan-rekan pegawai
Kementerian Keuangan. Pertama, jangan takut untuk menyuarakan ide, jangan menunda,
dan jangan takut penolakan. Tak jarang, hal tersebut akan berbuah manis seperti yang kami
alami. Kedua, dalam berproses, kita tidak perlu ragu belajar hal baru. Kita harus senantiasa
optimis meskipun dalam kondisi penuh keterbatasan. Terakhir, selalu curahkan best effort
dan terus berdoa karena sebagai manusia kita hanya berusaha, Tuhanlah yang menentukan.
Analisis Potensi
Identifikasi Tercapainya
Kompetensi PegawaiTarget Penerimaan
Berbasis Pajak - 84
Data Analytics 24
Jabatanku
di Masa Depan:
Explorative Project
Analysis Histori
Pelatihan Pegawai
Kementerian Keuangan
Disusun oleh: Ari Sandi Robert dan Eko Supriyono
1https://www.mckinsey.com/business-functions/people-and-organizational-performance/our-insights/
building-workforce-skills-at-scale-to-thrive-during-and-after-the-covid-19-crisis
2https://www.mckinsey.com/featured-insights/future-of-work/the-future-of-work-after-covid-19
Jabatanku diAset
Analisis Realisasi Pemeliharaan Masa Depan-
Tetap - 5486
Mengapa Gap Kompetensi Pegawai?
Organisasi perlu memetakan kompetensi para pegawai, lalu melihat dimana gap-nya
untuk kemudian mencari alternatif pengembangan kompetensi bagi para pegawai
bersangkutan. Explorative project analysis ini diharapkan dapat menjadi masukan berharga
bagi pola pengembangan kompetensi pegawai dalam suatu organisasi, terutama dalam
melihat serta menganalisis data yang dimiliki sebagai sebuah potensi tidak hanya dalam
memetakan kompetensi para pegawainya tetapi juga membuat model prediktif yang tepat
dalam hal pengembangan kompetensi pegawai di masa depan.
Pemahaman bisnis
Dalam tahap perencanaan sebelum melakukan analisis, penting untuk para analis
dalam memahami proses bisnis dari suatu organisasi. Dengan cara ini, maka kita dapat
memperoleh gambaran dari arus data untuk selanjutnya memilih dan memilah data apa
saja yang kita butuhkan pada tahap analisis dan modelling. Konteks dari analisis ini adalah
data histori pelatihan pegawai Kementerian Keuangan yang ada dalam database Kemenkeu
Learning Center (KLC). Dari tahap ini, penulis memahami bahwa setiap pelatihan juga
menghasilkan database yang mungkin saja hanya menumpuk di data center tanpa diketahui
untuk apa data tersebut nantinya dimanfaatkan. Proyek ini berusaha memanfaatkan data
ini dengan menghubungkan proses pemenuhan pelatihan dengan kemungkinan jenjang
karir pegawai di lingkungan unit organisasi, yaitu Kementerian Keuangan.
Pemahaman Data
Untuk menganalisis jenjang karir pegawai, kami menggunakan data histori
pelatihan masing-masing individu sebagai dasar penghitungan kesesuaian antara pelatihan
dengan prediksi jenjang karir jabatan pegawai di masa depan. Model prediktif yang dibuat
akan lebih ideal jika didukung oleh data kebutuhan kompetensi jabatan. Akan tetapi
dikarenakan kami belum menemukan nomenklatur yang valid terkait isu ini, maka kami
menggunakan data alternatif berupa Laporan Analisis Kebutuhan Pembelajaran (AKP)
jabatan untuk mewakili data pelatihan atau kompetensi yang dibutuhkan dalam suatu
jabatan tertentu. Laporan AKP ini memuat data jenis jabatan, nomenklatur jabatan,
kompetensi teknis, dan kompetensi manajerial yang dibutuhkan dari sebuah jabatan.
Selanjutnya, kami juga menggunakan data alternatif berupa database KLC untuk
melengkapi data time series dari suatu pelatihan yang telah dijalani seorang pegawai.
Dalam explorative analysis project ini, kami menggunakan phyton dengan library
pandas dan numpy sebagai alat utama pengolahan data awal. Laporan AKP yang digunakan
tidak dapat langsung diolah karena adanya format tabel yang berbeda (telah disesuaikan
untuk kebutuhan pelaporan). Maka, kami menggunakan pengolahan data awal di Microsoft
Excel untuk melihat pro�il data yang ada serta menghilangkan header dan footer untuk
menghasilkan data yang lebih ringkas sehingga dapat diproses lebih lanjut dengan pandas.
Query yang dilakukan adalah sebagai berikut.
Secara garis besar, proses diatas dilakukan untuk memasukkan data awal yang
berupa sheet excel bernama ‘akp’ ke dalam pandas dataframe. Kemudian, dari data tersebut
akan dipilih hanya data jabatan unik saja sehingga duplikasi data yang lain akan dihapus
dengan drop_duplicates.
Proses kedua yang dilakukan adalah menggabungkan seluruh baris pelatihan untuk
jabatan yang sama. Data yang dihasilkan dari proses ini akan menjadi referensi untuk
kebutuhan kompetensi jabatan. Dalam membuat referensi tersebut, kami menginisiasi
dengan membuat sebuah object list dalam phyton (grup_diklat). Objek ini juga akan
memuat object list yang berelasi dengan urutan jabatan. Setiap elemen di dalam object list
(grup_diklat) berelasi dengan sebuah jabatan tertentu. Data ini selanjutnya akan disimpan
ke dalam dataframe yang nantinya akan digunakan untuk melihat similaritas kompetensi
individu dengan kompetensi jabatan yang dibutuhkan.
## Memisahkan kembali data referensi dan data pegawai (ada 133 jabatan)
data_referensi = proc_data[:133].reset_index(drop=True)
data_pegawai = proc_data[133:].reset_index(drop=True)
# Proses kalkulasi
calc_comp_all = {}
for i in range(len(data_pegawai)): # untuk semua nomenklatur jabatan
v_pegawai = data_pegawai.loc[i, 'vectors']
nama_pegawai = data_pegawai.loc[i, 'nama']
calc_comp = []
for j in range(len(data_referensi)):
v_referensi = data_referensi.loc[j, 'vectors']
calc = cosine_sim_vectors(v_pegawai, v_referensi)
calc_comp.append(calc)
calc_comp_all[nama_pegawai] = calc_comp
Kami menggunakan mock-up aplikasi dengan tools berupa library streamlit dari
phyton. Proses pengolahan data dan pembuatan mock-up adalah dua proses yang berbeda.
Maka, kami lalu melakukan ekspor data hasil perhitungan kedalam sebuah format yang bisa
dibaca oleh aplikasi mock-up. Kami menggunakan format pickle karena format ini lebih
“ringan” dan lebih e�isien dibandingkan dengan format csv.
Sementara itu untuk source code aplikasi mock-up, kami mengakses laman
https://github.com/esup0001/streamlit/. Terdapat dua �itur pada aplikasi ini, yaitu
kesesuaian kompetensi berdasarkan jabatan yang ada (gambar �itur kesesuaian
kompetensi) dan �itur untuk melihat jabatan yang paling sesuai bagi seorang indvidu
(gambar �itur pelatihan individu).
Explorative project analysis ini merupakan salah satu alternatif untuk memetakan
dan menganalisis kebutuhan kompetensi pegawai serta kaitannya dengan jabatan target
atau jabatan yang tersedia bagi setiap pegawai di masa depan. Metode yang digunakan oleh
penulis dalam project ini mungkin bukanlah satu-satunya metode yang ideal. Namun
demikian berdasarkan pengalaman selama menyelesaikan project ini, kami mendapatkan
gambaran bahwa data pelatihan pegawai adalah sebuah hal yang potensial untuk
digunakan sebagai alat/dasar analisis, misalnya mengenai kebutuhan kompetensi jabatan
bagi pegawai di masa depan.
Selanjutnya, kami juga dapat menyampaikan beberapa gagasan dari hasil explorative
project analysis ini. Pertama, Laporan AKP tidak dapat digunakan secara langsung sebagai
dasar analisa kesesuaian kompetensi jabatan. Maka, ke depannya pihak-pihak pemilik
otoritas atau pimpinan tinggi di Kementerian Keuangan perlu menyelaraskan antara
kompetensi pegawai, kompetensi dari sebuah pelatihan, serta Kamus Kompetensi
Kementerian Keuangan. Kedua, berbagai macam pelatihan yang akan diselenggarakan
perlu diselaraskan dengan kebutuhan kompetensi suatu jabatan. Hal ini mengingat bahwa
jenjang karir seorang pegawai untuk dapat menduduki jabatan tertentu juga memerlukan
serangkaian kompetensi tertentu pula. Maka, dengan cara ini akan dapat membantu
pegawai untuk merancang/menentukan jalur karir-nya sejak awal.
Dalam melakukan analisis ini, kami juga menghadapi beberapa tantangan. Pertama,
proses pemunculan ide dan pengolahan data awal yang memakan cukup banyak waktu.
Kedua, pengaturan environment lokal untuk database dan proses pengumpulan data juga
lebih kompleks jika dibandingkan dengan mengunduh data dengan format csv data dari
platform seperti kaggle. Hal ini memberikan banyak pengalaman tentang bagaimana proses
kerja dalam proyek data analitik sebenarnya. Ketiga, tidak terdapat metadata yang
memadai untuk mendukung analisis. Data yang dikelola juga tersimpan di berbagai sumber
yang menyulitkan analisis. Menurut kami, hal ini wajar karena peruntukan awal
penyimpanan data tidak termasuk untuk proses analisis lebih lanjut. Maka dalam rangka
memenuhi kebutuhan organisasi, dapat dipertimbangkan untuk melakukan proses
integrasi data dalam memenuhi kebutuhan analisis data di masa yang akan datang.
Dalam hackathon ini, Tim Kai diberi kepercayaan sebagai pemenang dalam
kompetisi Use Case 2, yakni Prediksi Penerimaan Negara Bukan Pajak (PNBP) dengan time
series. Pengalaman ini menjadi momen yang membahagiakan dan memicu semangat untuk
terus mengembangkan pengetahuan dalam data analytics di lingkungan lebih luas.
Prediksi PNBP dilakukan dalam beberapa langkah agar bisa mendapatkan hasil
prediksi yang cukup memuaskan. Langkah-langkah yang diimplementasikan selama
melaksanakan Use Case 2 ini didasarkan pada Hyndmand dan Athanasopoulus (2018) dan
diimplementasikan dengan menggunakan software R.
Pemahaman Masalah
Memahami masalah sebelum melakukan prediksi merupakan hal yang penting dan
perlu dilakukan secara hati-hati. Meskipun dalam kompetisi ini masalah telah diidenti�ikasi
oleh penyelenggara, tetapi sebagai ASN di luar Kemenkeu hal ini menjadi langkah penting
untuk memahaminya secara lebih dalam melalui artikel-artikel di internet ataupun
mengikuti forum tanya jawab pada grup Hackathon Kemenkeu.
Use Case 2 merupakan kompetisi untuk melakukan prediksi PNBP berdasarkan data
history empat tahun sebelumnya. Prediksi dilakukan pada PNBP minyak bumi dan PNBP
layanan Surat Izin Mengemudi (SIM). Proyeksi terhadap besaran PNBP menjadi suatu
kebutuhan untuk mendukung pengambilan keputusan dalam strategi perencanaan. Atas
dasar latar belakang tersebut, prediksi PNBP dilakukan dengan bertujuan untuk
membangun model yang mampu memprediksi PNBP minyak bumi dan layanan SIM yang
paling mendekati nilai aktual.
Dalam perlombaan ini, data PNBP beserta deskripsinya telah disediakan. Hal ini
memberikan kemudahan dalam pengumpulan informasi sebelum melakukan prediksi. Data
disediakan setiap hari, yakni hari kerja dan hari libur. Ada beberapa hal yang cukup menarik
dari data yang ada, di antaranya ada pemasukan PNBP di luar hari kerja dan ada data yang
bernilai negatif. Hal ini menimbulkan tanda tanya apakah hal tersebut memang mungkin
terjadi atau itu termasuk kesalahan input data.
Langkah mengumpulkan informasi tidak berhenti hanya menggunakan data yang
tersedia. Ada upaya untuk melakukan identi�ikasi data tambahan yang memiliki pengaruh
terhadap nilai PNBP. Hal ini dilakukan sebagai upaya meningkatkan akurasi prediksi.
Berdasarkan analisis awal dan ketersediaan data, prediksi terhadap PNBP di masa datang
dilaksanakan dengan menggunakan data PNBP.
Analisis awal menjadi langkah penting untuk membangun sense terhadap data yang
dimiliki dan hasil prediksinya. Mengidenti�ikasi data outlier, anomali, dan distribusinya
melalui deskriptif data dan histogram serta visualisasi data dalam gra�ik sangat membantu
memahami fenomena yang ada dalam data.
Dekomposisi data menjadi beberapa komponen, yakni trend, seasonality, dan
remainder juga diimplementasikan. Ditambah dengan membangun gra�ik masing masing
tahun dalam jangka waktu prediksi juga dilakukan untuk mendapat sense terhadap hasil
prediksi, dalam hal ini membangun gra�ik dari 1 Januari s.d. 13 Februari di tiap tahunnya.
b. Modelling :
Ada beberapa model yang dibangun untuk diimplementasikan pada beberapa
dataset yang telah disiapkan. Selama kompetisi, ada beberapa model yang dicoba
diantaranya Multiple Seasonal and Trend Decomposition Based on Loess (MSTL), Neural
Network Autoregression (NNAR), Autoregresiive Integrated Moving Average (ARIMA), dan
TBATS.
Dari hasil run program awal, metode MSTL dan NNAR yang menghasilkan hasil yang
lebih optimal, sehingga dalam membangun model secara mendalam hanya fokus terhadap
MSTL dan NNAR. Eksplorasi model MSTL dan NNAR lebih dalam dilakukan dengan
melakukan setting terhadap parameter yang terlibat.
c. Evaluasi awal :
Evaluasi awal dari dataset dan model yang diimplementasikan dilakukan dengan
membandingkan gra�ik hasil prediksi dengan gra�ik historical data. Hasil prediksi yang
memiliki pattern dan nilai yang mirip dengan historical data dipilih untuk melakukan
prediksi dan menghasilkan output untuk di lakukan submit ke Kaggle . Tidak semua output
dari berbagai model dan dataset di-submit ke Kaggle.
Simpulan
Banyak mencoba merupakan hal penting dalam meningkatkan
pengetahuan dalam data analytics. Selain itu, mengikuti langkah demi langkah
dalam melakukan prediksi sangat membantu dalam keseluruhan proses.
Mengidenti�ikasi masalah dan mengumpulkan informasi membantu
mendalami bisnis proses yang akan dilakukan prediksi, sehingga tidak
terjadi kesalahan analisis dan interpretasi.
Analisis awal juga penting untuk membangun sense dari data yang
tersedia dan memahami fenomena dari data tersebut. Langkah ini juga
penting untuk menentukan pre-procesing atau metode yang akan
diimplementasikan. Implementasi model dan evaluasi perlu dilakukan
secara bertahap dan dengan sistem eliminasi. Hal ini untuk
menyederhanakan dari banyaknya kemungkinan
kemungkinan membangun model dan dapat
menghemat waktu dan tenaga.
14
dan Taufik Sukmawan
Garuda Indonesia, Jiwasraya, Asabri, Hanson International, Tiga Pilar Sejahtera, dan
SNP Finance, merupakan sederet perusahaan domestik yang namanya sempat viral. Kasus
terkait laporan keuangannya, mencuri perhatian publik. Kasus tersebut juga kerap terjadi
dikancah internasional. Kasus gagal bayar obligasi Evergrande perusahaan kontruksi
terbesar kedua di China, belakangan mencuat dan berdampak negatif pada perekonomian
global.
Laporan keuangan entitas, memegang peranan yang sangat penting dalam
perekonomian. Informasi laporan keuangan yang telah diaudit, umumnya menjadi dasar
bagi para pengguna seperti investor, kreditur, pemerintah, atau pengguna lainnya dalam
pengambilan keputusan ekonomi. Mengingat penting dan luasnya penggunaan laporan
keuangan tersebut, maka audit yang berkualitas menjadi sangat penting. Infomasi yang
digunakan dalam laporan tersebut, dapat lebih diandalkan oleh penggunanya.
Kasus-kasus terkait laporan keuangan tersebut secara tidak langsung berkaitan
dengan profesi Akuntan Publik (AP). Profesi yang melakukan audit umum atas laporan
keuangan suatu entitas. Skandal atau adanya rekayasa atas laporan keuangan, memberi
sinyal negatif tehadap kualitas audit. Sehingga, harus dimitigasi agar tidak menimbulkan
kerugian bagi publik. Lalu, bagaimana kepentingan publik terlindungi, jika kasus-kasus
tersebut terjadi? Pada akhirnya, hal ini akan berujung pada pertanyaan besar, “Apakah
laporan keuangan perusahaan tersebut tepercaya?” dan “Apakah kualitas auditornya
bagus?”.
Praktik-praktik pemberian jasa yang tidak sesuai dengan regulasi dan standar yang
berlaku, tentu akan membawa dampak buruk bagi perekonomian dan menyebabkan
berkurangnya kepercayaan publik terhadap profesi tersebut. Profesi AP membutuhkan
integritas tinggi, etika memadai, serta kompetensi yang mumpuni, agar dapat menghasilkan
jasa yang berkualitas. Oleh karena itu dibutuhkan pengawasan otoritas berwenang yang
memadai, untuk mengawal kualitas jasa AP yang terpercaya. Terlebih pada era pandemi
Covid-19. Era yang mempengaruhi perekonomian global. Investor maupun stakeholder,
akan sangat membutuhkan audit yang berkualitas dan informasi keuangan yang lebih,
dibandingkan dengan era sebelumnya dan pada akhirnya akan meningkatkan ekspektasi
yang tinggi dari profesi AP sebagai auditor ekternal (Gould & Arnold, 2020).
Salah satu alternatif solusi yang ditawarkan adalah DATA PAPI (Dashboard Terpadu
Profesi Akuntan Publik Indonesia). Proyek yang mengusung konsep data analytics data
profesi, dengan menggunakan aplikasi Orange untuk membuat clustering dan potensi
risiko pro�il AP dan KAP berdasarkan anomali data. Kemudian keseluruhan analisis data
ditampilkan dalam bentuk dashboard interaktif dengan menggunakan aplikasi dashboard
open-source, Apache Superset.
Selain infogra�is umum terkait data profesi AP dan KAP, DATA PAPI menawarkan
suatu Early Warning System yang berfungsi untuk mendeteksi, memetakan dan
menganalisis pro�il risiko AP/KAP secara realtime dan online. DATA PAPI juga menyajikan
analisis potensi penerimaan negara dari pajak atas jasa yang diberikan oleh profesi.
Melalui DATA PAPI, proses penentuan sampel AP dan KAP yang akan diperiksa dapat
dilakukan lebih tepat. Sehingga tujuan dari fungsi pengawasan PPPK, optimal. Selain itu
kebutuhan data dan informasi tertentu (terkait profesi AP dan KAP), dapat menjadi
pendorong dalam menciptakan formulasi kebijakan strategi pembinaan dan pengawasan
yang lebih efektif dan e�isien sehingga dapat mewujudkan kualitas audit.
Tampilan pada Gambar berikut, merupakan visualisasi dari data analytic yang
dilakukan terkait deteksi anomali risiko AP pada dimensi fee jasa auditnya. Salah satu
dimensi yang digunakan dalam penentuan pro�il risiko tersebut, sejalan dengan hasil riset
yang juga membuktikan adanya pengaruh dari fee jasa audit terhadap kualitas audit1 dan
juga risiko klien2.
Kondisi ini dapat menjadi suatu early warning awal bagi regulator profesi, untuk
menentukan langkah selanjutnya. Apakah perlu dilakukan analisis secara kualitatif
mendalam, dijadikan objek pemeriksaan mendatang, atau tindak lanjut konkrit lainnya.
Modelling
Selanjutnya pada data yang sama, juga dapat dilakukan permodelan DBSCAN pada
aplikasi Orange. Ini dilakukan untuk memilah-milah dan mengelompokkan AP, yang terde-
Disusun
teksi oleh:
berisiko. Data Febrian,
yang masukAldi
dalamPratama, Beta dengan
kelompok anomali, Andri dimensi-dimensi
Anggiano pro�il
Uliansyah
risiko yang telah ditentukan. Kedua permodelan tersebut merupakan salah satu alat bantu
untuk memformulasikan risk pro�iling AP dan KAP.
1Audit fee has positive and signi�icant in�luence on audit quality (Sukrisno Agoes, 2014)
2External audit fee are signi�icantly associated with client’s risk (Gonthier-Besacier & Schatt, 2007)
Apache Superset memiliki opsi visualisasi yang beragam. Sehingga DATA PAPI dapat
menampilkan model pro�il risiko, dalam gra�is yang menarik dan informatif. Bahkan, dapat
menampilkan visualisasi relasi antara AP dan klien-kliennya dengan network graph. Hal ini,
dapat mendukung kebutuhan pengguna data yang ingin mengetahui informasi AP atau
klien tertentu secara time series.
Kemudian, dilakukan penyaringan data salah satu KAP yang memiliki beberapa AP.
Data tersebut divisualisasikan dalam bentuk radar chart, sehingga terlihat pro�il risiko
masing-masing AP.
DATA PAPI juga mencakup analisis potensi penerimaan negara dari pajak atas jasa,
yang diberikan oleh profesi AP. Data terkait pemberian jasa profesi meliputi besaran
imbalan jasa yang diberikan atas jasa tersebut. Analisis atas data tersebut dapat dijadikan
analisis historis. Hasilnya berupa veri�ikasi akurasi nilai penerimaan negara. Kemudian
analisis prediktif atas potensi penerimaan negara dari pajak jasa profesi, baik dari
pemberian jasa oleh AP itu sendiri, maupun dari sisi klien/Wajib Pajak Badan yang laporan
keuangannya diaudit dan disampaikan informasinya ke PPPK.
Tidak cukup sampai disitu saja. Ketersediaan informasi publik statistik yang
interaktif, dapat dijadikan bahan penelitian, diskusi, knowledge sharing, literatur
pengetahuan dan studi kasus penelitian untuk Stakeholder lain (kementerian/LPND,
akademisi, mahasiswa). Statistik dan informasi mengenai profesi dibutuhkan, pada
beberapa tahapan pekerjaan di pemerintahan/institusi. Contohnya, dalam pelaksanaan
lelang yang mensyaratkan laporan keuangan yang diaudit. Kerja sama antar institusi
pengawasan di bidang keuangan yang berhubungan dengan profesi ini, juga dapat menjadi
suatu early warning dan antisipasi potensi terjadinya krisis sistem keuangan. Publikasi dan
penyebaran data tersebut, tentunya tetap menganut ketentuan yang berlaku tentang
keterbukaan informasi publik.
15
ama tim kami, noWayBack, terinspirasi dari keputusan keikutsertaan kami
dalam Data Hackathon Kemenkeu 2021. Proposal Hackathon SLDK kami susun
hanya dalam tiga hari. Awalnya kami merasa kurang percaya diri karena di antara
kami tidak ada yang memiliki latar belakang IT. Kami hanya bertekad untuk
memanfaatkan data PNBP yang selama ini belum optimal. Kami berharap bisa
mengenalkan PNBP kepada komunitas yang lebih luas. Karena itu tidak ada alasan untuk
mundur, seperti nama tim kami, noWayBack. Upaya ini sejatinya sejalan dengan program
Direktorat PNBP K/L untuk lebih memanfaatkan data PNBP dalam mengawasi, mengelola,
serta mengoptimalkan PNBP untuk pendapatan negara.
Peran PNBP sebagai sumber pendapatan negara acap kali disampaikan dalam Nota
Keuangan APBN. Namun rasanya hingga saat ini belum banyak masyarakat yang mengenal
tentang PNBP. Hal ini berbeda dengan penerimaan pajak atau pendapatan negara dalam
APBN yang sangat familiar di telinga masyarakat. Misalnya saja kasus selebgram yang
memiliki nomor plat kendaraan bermotor mirip plat nomor pejabat negara hanya saja
dengan tiga digit angka. Hanya sedikit yang tahu kalau untuk mendapatkan nomor cantik
seperti itu sudah ada tarifnya dan itu termasuk PNBP?
PNBP terdiri dari beberapa klaster, salah satunya berasal dari penyediaan pelayanan
oleh Kementerian/Lembaga (K/L) kepada masyarakat. Pelayanan tersebut beraneka
ragam, seperti pelayanan di bidang transportasi, penegakan hukum, perlindungan sosial,
kesehatan, hingga pelatihan pengembangan kompetensi Sumber Daya Manusia (SDM).
Tarif pelayanannya pun sudah diatur melalui Peraturan Pemerintah (PP) atau
Peraturan Menteri Keuangan (PMK). Tujuannya adalah agar PNBP yang dibebankan kepada
masyarakat memiliki dasar pungutan yang sah dan menghindari pungutan liar melalui
penetapan tarif yang lebih tinggi dari seharusnya.
Sampai dengan saat ini, tercatat sekitar 470 jenis pelatihan yang diselenggarakan
oleh 28 K/L. Pelaksanaan pelatihan tersebut sangat bervariasi, ada yang diperuntukkan
hanya khusus bagi Aparatur Sipil Negara (ASN) dan ada pula yang diperuntukkan bagi
masyarakat umum sesuai dengan minat dan bidang keahliannya, seperti tenaga kesehatan,
keamanan, akuntansi, penanggulangan bencana, dan sebagainya. Setiap tahun, PNBP dari
pelayanan pelatihan mencapai sekitar Rp222,52 miliar.
Realisasi PNBP pelayanan pelatihan yang tersebar pada K/L cukup bervariasi.
Namun, apabila diperhatikan lebih lanjut terjadi gap realisasi PNBP pelayanan pelatihan
yang cukup besar pada beberapa K/L. Pada tahun 2019 misalnya, terdapat 8 K/L dengan
realisasi PNBP pelayanan pelatihan yang kurang signi�ikan, yaitu di bawah Rp1 miliar per
tahun. Hal ini tentu menimbulkan pertanyaan, mengapa PNBP dari pelayanan tersebut
belum memiliki kinerja yang baik?
Ide PelatihanLOKA
Pada April 2020, pemerintah meluncurkan program Kartu Prakerja. Kartu Prakerja
diperuntukkan bagi para pencari kerja (korban PHK maupun lulusan SMK) atau pekerja
produktif (buruh, karyawan). Pencari kerja maupun pekerja produktif dapat mengikuti
pelatihan berserti�ikasi, baik yang disediakan pemerintah maupun lembaga pelatihan
swasta.
Kartu Prakerja bertujuan untuk mengurangi jumlah pengangguran melalui
penyediaan SDM dengan kemampuan yang sesuai kebutuhan dunia usaha. Lebih dari itu,
SDM yang memiliki kemampuan terserti�ikasi, juga mempunyai pilihan untuk berdikari.
Bahkan, bisa mereka n membuka lapangan usaha baru dalam skala mikro yang pada
akhirnya dapat mendorong pertumbuhan ekonomi nasional.
Dalam program Kartu Prakerja tersebut, masyarakat diberikan fasilitas untuk
memilih berbagai ragam pelatihan yang sesuai dengan minat dan kebutuhannya. Pelatihan
dilaksanakan secara luring maupun daring. Cara mengikuti program ini juga sangat mudah,
masyarakat tinggal mengunjungi platform digital yang telah bekerjasama dengan
pemerintah, lalu memilih jenis pelatihan yang dibutuhkan, atau mencari pelatihan yang
diinginkan melalui kolom pencarian (search). Hasilnya, akan muncul berbagai jenis
pelatihan yang berkorelasi dengan kata kunci yang dimasukkan, lengkap dengan informasi
biaya, kurikulum dan pengajar atau institusi penyelenggaranya.
Pelatihan LOKA, Marketplace Pelayanan Pelatihan Pemerintah Pusat - 106
Dari program tersebut, kemudian terbayangkan bahwa hingga saat ini belum ada
portal informasi terpadu mengenai pelatihan yang diselenggarakan oleh K/L secara
lengkap, komprehensif, dan dapat diakses oleh masyarakat. Terpadu, karena seluruh
informasi terkait penyelenggaraan pelatihan dapat diakses pada satu portal yang sama,
seperti: jenis pelatihan, tarif pelatihan, periode pelatihan, sasaran pengguna layanan,
maupun informasi terkait lainnya. Bayangkan saja seperti marketplace, masyarakat tinggal
mencari barang yang dibutuhkan, dan keluarlah berbagai pilihan produk dari beragam
penjual, lengkap dengan harga dan lokasinya.
Ide untuk mengumpulkan seluruh pelatihan yang diselenggarakan oleh K/L dalam
satu portal informasi, kemudian dimunculkan dengan istilah PelatihanLOKA. Pemilihan
kata “Loka” sebagaimana dalam Kamus Besar Bahasa Indonesia (KBBI), berarti dunia atau
tempat. Dengan demikian, portal PelatihanLOKA diharapkan dapat menjadi tempat tujuan
bagi masyarakat untuk mencari pelatihan yang diinginkan, lengkap dengan seluruh
informasi yang berkaitan dengan penyelenggaraan pelatihan tersebut. Kalau ide
PelatihanLOKA ini dapat diaplikasikan, maka setidaknya akan ada tiga manfaat yang
diperoleh.
Pertama, bagi masyarakat sebagai pengguna layanan, PelatihanLOKA dapat
meningkatkan aksesibilitas pelayanan pelatihan yang diselenggarakan oleh K/L. Dengan
terbukanya informasi dan akses atas pelayanan pelatihan tersebut, semakin banyak
masyarakat yang dapat mengikuti pelatihan sesuai dengan minat dan kebutuhan dalam
rangka pengembangan kompetensi dan keahliannya. Hal ini selanjutnya dapat mendukung
visi pemerintah dalam rangka pembangunan SDM.
Kedua, peningkatan jumlah peserta atau masyarakat yang mengikuti
pelatihan-pelatihan tersebut akan mengoptimalkan PNBP layanan pelatihan yang
selanjutnya berkontribusi terhadap pendapatan Negara pada APBN.
Ketiga, portal informasi ini menjadi salah satu media bagi pemerintah untuk
melakukan pengawasan pengelolaan PNBP pada K/L. Salah satunya dengan mengetahui
pelatihan apa yang banyak diminati oleh masyarakat, sehingga menjadi potensi PNBP yang
dapat dioptimalkan. Atau pelatihan yang kurang diminati sehingga dapat disusun strategi
untuk menarik minat peserta pelatihan. Dengan demikian, masing-masing K/L dapat
menyusun kebijakan dalam memperluas dan meningkatkan kualitas maupun kuantitas
layanan pelatihan kepada masyarakat.
Pertama, mengenai data. Untuk membangun portal informasi yang lengkap dan
terpadu, terdapat beberapa data yang diperlukan seperti:
Dari daftar kebutuhan data tersebut, dapat tergambarkan dengan institusi mana
saja integrasi data akan dibangun. Agar proses integrasi data dapat terjalin dengan baik,
dapat dibuat kontrak kerja sama antar institusi. Kontrak tersebut dilengkapi dengan
kebutuhan data yang akan dipertukarkan, akses monitoring dari masing-masing institusi,
kewenangan pengelolaan sistem, serta aspek lainnya yang perlu diatur.
Kedua, desain sistem dari PelatihanLOKA. Mengingat keterbatasan sumber daya dan
pembangunan portal informasi PelatihanLOKA yang masih dalam tahap awal, maka
metodologi/pendekatan yang digunakan adalah visualisasi atas pelayanan pelatihan yang
diselenggarakan oleh K/L. Upaya tersebut dapat dilakukan melalui beberapa langkah yaitu:
pengumpulan data-data terkait pelayanan pelatihan K/L, koordinasi dengan instansi
terkait, pengolahan data, dan dilanjutkan dengan pembuatan desain visualisasi data.
Secara sederhana, visualisasi desain dari PelatihanLOKA ditunjukkan dalam gambar
berikut:
Portal ini dapat berperan sebagai one stop service information mengenai ragam
pelatihan yang disediakan oleh K/L. Selain itu, proyek ini merupakan upaya untuk
mewujudkan data-driven decision-making. Pada akhirnya, pimpinan akan memiliki
landasan yang kuat dalam proses pengambilan keputusan.
Perancangan Benchmark Behavioral Model Wajib Pajak Sektor Pertambangan Batubara- 112
Pembuatan Benchmark Behavioral Model KLU Pertambangan Produksi Batubara
memiliki tahapan sebagai berikut:
Pengujian validitas usaha dilakukan dengan menarik data NPWP dan nama
perusahaan dari Kementerian ESDM. Data tersebut berupa Izin Usaha Pertambangan (IUP)
produksi batubara yang kemudian disandingkan dengan NPWP yang terdaftar di KPP
Madya Banjarmasin. Data yang cocok kemudian dikon�irmasi kepada Account
Representative atas usaha Wajib Pajak tersebut.
Tabel SE-02/PJ/2016
Daftar Wajib Pajak yang sudah dikon�irmasi kepada Account Representative terkait
kemudian ditarik data SPT Tahunan PPh Badan dan laporan keuangannya menggunakan
aplikasi Lollipop. Data SPT tersebut kemudian diinput ke tabel SE-02IPJ/2016 yang sudah
disesuaikan dengan kebutuhan benchmark yang akan dibuat.
Data yang terdapat pada tabel dibandingkan dengan laporan keuangan yang telah
diupload terakhir. Wajib Pajak yang tidak melampirkan laporan keuangan dikeluarkan dari
daftar karena tidak dapat divalidasi. Khusus untuk Corporate Tax to Turn Over Ratio
(CTTOR), karena pembayaran pajak tidak dapat dipisahkan sehingga tidak perlu
dikeluarkan apabila tidak tersedia laporan keuangan. Apabila terdapat perbedaan antara
laporan keuangan dengan tabel, maka dilakukan koreksi dengan menggunakan data
laporan keuangan. Tabel yang sudah divalidasi dengan laporan keuangan kemudian
dilakukan pembuatan nilai. Apabila terdapat nilai yang kosong atau error, nilai tersebut
dikeluarkan dari nilai yang akan diambil.
Perancangan Benchmark Behavioral Model Wajib Pajak Sektor Pertambangan Batubara- 113
4. Pembuatan Kurva Distribusi Normal
Nilai dari label kemudian dihitung dengan menggunakan rumus excel =NORM.DIST.
hasil perhitungan dari rumus tersebut kemudian dibuat gra�ik. Nilai yang persebarannya
diluar gra�ik kemudian dihilangkan agar sesuai dengan gra�ik distribusi normal
Gambar Kuartil
Menurut lskandar dalam buku "Statistika Bisnis", ukuran posisi berfungsi untuk
menggambarkan posisi sebuah nilai data spesi�ik relatif terhadap nilai data lain di dalam
sebuah kelompok data. Kuartil yaitu bilangan yang dipakai untuk membagi sebuah data
menjadi 4 bagian yang besarnya sama banyak. Dengan kata lain apabila benchmark
menggunakan kuartil maka akan diketahui posisi rasio tersebut terhadap nilai
keseluruhan.
Dari nilai yang sudah terdistribusi normal kemudian dibuat kuartil dengan
menggunakan rumus =QUARTILE. Berdasarkan pengamatan tim BBM, nilai rasio Q3 lebih
sesuai sebagai benchmark karena lebih menggambarkan keadaan yang terjadi di lapangan.
Analisis
Perancangan Benchmark Behavioral Potensi
Model WajibTercapainya Target
Pajak Sektor Penerimaan
Pertambangan Pajak - 114
Batubara- 24
Harapan pengembangan selanjutnya adalah Benchmark Behavioral Model bisa
dibuat untuk seluruh KLU sehingga anomali pelaporan Wajib Pajak semakin terlihat. Untuk
pengembangan KLU pertambangan batubara secara sistem bisa dilakukan sebagai berikut:
Rasio
Rasio WP Benchmark Status
Keuangan
CTTOR 3% 2% Wajar
Kesimpulan Wajar
Penutup
Nilai Benchmark yang telah diperoleh hanya sebagai deteksi dini dan tidak bisa
digunakan sebagai dasar koreksi terhadap Wajib Pajak yang memiliki nilai tidak wajar. Atas
hal tersebut sebaiknya user melakukan penggalian potensi lebih lanjut dengan data-data
konkret yang telah didapat.
Perancangan Benchmark Behavioral Model Wajib Pajak Sektor Pertambangan Batubara- 116
SIAS -
SLDK’S INTEGRATED
ANALYSIS SYSTEM
Disusun oleh:
M. Abdul Rochim dan Siti Arifaatus Saadah
17
Kementerian keuangan telah mengimplementasikan inisiatif strategis RBTK untuk
mendukung visi dan misi organisasi sebagai penggerak utama pertumbuhan ekonomi yang
produktif, kompetitif, inklusif, dan berkeadilan di Abad ke-21. Inisiatif strategis ini terdiri
atas IS RBTK Tema sentral, IS RBTK tema penerimaan, IS RBTK tema perbedaharaan, dan IS
RBTK tema penganggaran.
Sejak pelaksanaan joint analysis pada tahun 2018, terdapat beberapa fakta dan
tantangan yang harus dihadapi. Volume data objek analisis sangat besar. Ilustrasinya pada
area kepabeanan, jumlah dokumen BC 2.0 mencapai lebih dari 179 ribu per hari, lebih dari
49 ribu entitas aktif, lebih dari 37 juta seri barang impor. Ilustrasi tersebut baru dari sisi
kepabeanan untuk satu jenis dokumen. Sehingga dapat dibayangkan besarnya data-data
yang harus dianalisis dari sisi kepabeanan, perpajakan, dan PNBP. Hal yang kontradiktif
dari kondisi tersebut adalah jumlah sumber daya sangat terbatas, baik dari sisi sumber
daya manusia, waktu, anggaran, dan sebagainya.
Tujuan proyek
Tujuan dari proyek ini adalah untuk mendukung pelaksanaan joint analysis yang
lebih komprehensif, efektif, dan e�isien. Di mana proses analisis akan dilakukan oleh sistem,
sedangkan analis berfokus pada proses data-driven decision making dan proses pembuktian
sesuai dengan fakta lapangan. Proses analisis yang dilakukan akan lebih komprehensif, real
time, dan kontinuitas tema analisis akan terdokumentasi dengan baik.
Langkah-langkah yang diambil dalam pembangunan proyek:
01. Pemahaman proses bisnis dan identi�ikasi risiko;
02. Pengumpulan dan penyiapan data;
03. Konstruksi parameter risiko;
04. Visualisasi.
Pemodelan
Proses ini memanfaatkan machine learning Phyton, dengan menggunakan model
prediksi Random Forest dan Gradient Boosted Tree. Untuk mendapatkan model yang
memberikan hasil prediksi terbaik, diaplikasikan �itur randomized search dan model
prediksi dengan nilai mean absolute error (MAE) terkecil.
Visualisasi
Visualisasi dalam SLDK’S Integrated Analysis System (SIAS) dibagi menjadi dua
bagian besar, yaitu Executive summary dan Analisis detil per entitas.
Pada bagian ini, SIAS akan menyajikan informasi executive summary atas monitoring
pelaksanaan Joint Analysis, risiko-risiko yang diidenti�ikasi, serta menu targeting objek joint
analysis berdasarkan �iltering pada besaran risiko.
SIAS menyajikan informasi per entitas terkait dengan resume risiko custax (alert),
infogra�is persandingan data kepabeanan, perpajakan atas transaksi impor dan ekspor, dan
hasil analisis risiko custax dengan parameter ekonometrik. Hasil analisis pada bagian ini,
akan menjadi input pada �itur executive summary sebagaimana telah dijelaskan pada bagian
sebelumnya.
Fitur-�itur dalam SIAS bersifat �leksibel dan dapat terus dikembangkan, seiring
dengan perkembangan identi�ikasi risiko pelanggaran pada Joint Analysis. Pada
penerapannya, SIAS dapat menggunakan data real time sehingga diharapkan mampu
memberikan informasi yang lebih relevan dan mutakhir.
Dalam use case tersebut, kami melakukan beberapa langkah dan strategi
untuk bisa menyelesaikan tantangan yang diberikan. Dengan mengkontemplasikan
pengalaman sebagai ASN dalam melakukan perencanaan dan pengelolaan
anggaran di unit kerja, kami mencoba memahami setiap dataset yang diberikan
sebagai studi kasus dan kemudian berusaha membuat modelling sebagai bagian
akhir dari analisis yang kami lakukan. Selain itu yang tidak kalah penting sebelum
kami melakukan pengolahan data, kami juga berusaha memahami proses bisnis,
memahami data itu sendiri, melakukan pre-processing, dan kemudian membuat
modelling dari data yang telah kami pelajari dan olah lebih lanjut.
Berdasarkan dari apa yang kami pelajari sebelumnya, realisasi anggaran periode
tertentu seharusnya merupakan bentuk nyata dari rencana penarikan dana (RPD) yang
telah disusun satuan kerja baik pada awal tahun anggaran, maupun pada periode tahun
anggaran berjalan ketika terjadi revisi anggaran. Dalam pengertian sederhana, realisasi
haruslah sama dengan RPD. Pemahaman inilah yang kami gunakan dalam menganalisis
data yang diberikan pada use case.
Pemahaman Data
Setelah kami memahami proses bisnis dari realisasi anggaran dan RPD, selanjutnya
kami juga harus memahami setiap dataset yang diberikan dalam use case. Pada tahap
pengerjaannya, kami diberikan dua dataset, yaitu untuk train dan test. Data train terdiri
dari 66.470 observasi sedangkan data test terdiri atas 16.618 observasi. Selanjutnya dari
kedua jenis dataset tersebut, terdapat sembilan variabel, yaitu:
Sebenarnya, model memperlihatkan bahwa akurasi lebih baik ketika feature ini
diterapkan. Akan tetapi kami tidak menggunakan feature ini karena menurut logika kami,
feature ini seharusnya tidak berpengaruh terhadap target penyerapan. Fenomena ini
diduga terjadi karena adanya pengelompokan satuan kerja ketika membuat data, dimana
satuan kerja yang memiliki pagu yang besar diurutkan dari ID yang besar. Hal ini
menyebabkan antara feature RPHPAGU dan ANGGARANID akan memiliki korelasi yang
kuat. Dari fenomena ini, kami menyimpulkan bahwa ada banyak hal yang dapat direkayasa
dari feature RPHPAGU, sehingga kami memutuskan untuk menggunakannya dalam rangka
mendapatkan feature OPTIMIS dan N_OPTIMIS sebagai andalan untuk meningkatkan
public score.
Dari pengamatan kami atas dataset yang diberikan, kami merasa bahwa data yang
diberikan sudah relatif rapi sehingga tidak memerlukan terlalu banyak proses cleansing
data. Akan tetapi kami menghadapi permasalahan ketika kami menggunakan Power Query
pada tahap cleansing data. Data yang kami simpan dalam format .csv agar dapat dibaca
phyton justru memunculkan baris acak. Namun demikian, permasalahan tersebut dapat
kami selesaikan dengan cara memberikan indeks pada data tersebut.
Use Case Realisasi Anggaran versus RPD: Kreativitas Engineering -128
Sebelum menentukan model terbaik untuk menganalisis Use Case 1 ini, kami
melakukan proses brainstorming untuk mendiskusikan feature yang mungkin dapat
dimodi�ikasi atau ditambahkan ke dalam dataset. Kami berusaha mengolah data untuk
melihat adanya pola-pola tertentu pada data yang dapat mempengaruhi hubungan antar
variabel dalam proses estimasi/forecasting yang kami susun. Dari hasil brainstorming
tersebut, kami memodi�ikasi atau menambahkan beberapa feature berikut:
1. Feature COVID dan PSBB. Feature ini kami tambahkan untuk menggambarkan
situasi sebelum dan pada masa pandemi covid-19, dan masa ketika dilaksanakan
PSBB dan tidak ada PSBB.
2. Feature D-RPD. Feature ini adalah dummy yang membedakan antara satuan kerja
yang menyusun RPD dan yang tidak menyusun RPD. Kami berasumsi bahwa RPD
yang disusun oleh satuan kerja (meskipun kecil) tetaplah merupakan faktor penting
dalam menentukan penyerapan anggaran pada satuan kerja dimaksud.
3. Feature BULAN, yang diberi angka sesuai urutannya (1-12). Feature ini ditambahkan
karena kami berasumsi bahwa selain feature PERIODE yang merupakan kategorikal,
kami mengamati data yang menunjukkan adanya tren kenaikan penyerapan
menjelang akhir tahun (Desember). Hal ini juga mengindikasikan bahwa data
tersebut bersifat ordinal. Maka, dengan penambahan feature BULAN, kami dapat
mengidenti�ikasi lebih detil pada periode mana tren kenaikan tersebut terjadi.
5. Ketika menganalisis feature NMSATKER, kami menemukan hal menarik. Feature ini
menurut kami mengandung banyak informasi penting, seperti tipikal satuan kerja
dan juga nama lokasi dan tipe satuan kerja (�isik/non-�isik) yang seharusnya ada
dalam feature ini. Sementara itu, dikarenakan nama tersebut disamarkan di dalam
dataset, maka kami melakukan pengumpulan kata-kata yang sering muncul dalam
feature tersebut lalu menjadikannya data dummy. Dari proses ini, kami berhasil
membuat 29 feature tambahan.
6. Feature OPTIMIS dan N_OPTIMIS. Feature ini kami tambahkan untuk melihat
optimisme satuan kerja dalam melakukan penyerapan anggaran. Feature OPTIMIS
kami peroleh dari hasil perbandingan antara pagu dengan RPD, sementara feature
N_OPTIMIS diperoleh dari hasil pengurangan pagu dan RPD.
Sementara itu untuk meningkatkan akurasi model, kami melakukan iterasi hyper
parameter dengan library OPTUNA. Selain itu, kami juga meniru contoh code dari Kaggle
untuk melakukan prediksi klasi�ikasi dengan cara menghilangkan data test. Dengan cara
tersebut, kami kemudian membuat seluruh data menjadi data train lalu membuat
beberapa model dengan iterasi pohon keputusan (5.000 hingga 10.000 pohon). Selanjutnya
kami mengevaluasi kinerja kami dengan mengunggahnya ke Kaggle untuk melihat hasil
dari public score. Dari hasil unggahan tersebut, kami membandingkan akurasi dari data test
dan akurasi dari public score untuk menentukan model terbaik yang akan dipilih.
CATboost Tanpa Data Tes dengan 8000 trees* 0,9657139 0,91786 0,92267
CATboost Tanpa Data Tes dengan 10000 trees 0,9654280 0,91866 0,92086
CATboost Tanpa Data Tes dengan 8000 trees 0,9640138 0,91916 0,92101
Banyak Features dengan optimasi
CATboost Optuna 0,9552239 0,91204 0,91530
CATboost Tanpa Data Tes dengan 3000 trees 0,9501580 0,91736 0,91710
Namun demikian berdasarkan pengalaman kami dalam menyelesaikan use case ini,
kami merasa bahwa salah satu hal yang perlu diperbaiki adalah features turunan yang
didapatkan dari feature NMSATKER. Pengelompokan yang dibuat seharusnya dapat
disusun dengan lebih sederhana. Feature yang dipilih mungkin bukanlah kata per kata,
tetapi gabungan kata yang lebih logis. Hal ini perlu dilakukan untuk mengekstraksi
informasi satuan kerja unik yang mungkin saja sama dengan satuan kerja lainnya.
Data Understanding
Setelah kami mencoba memahami lebih baik proses bisnis dalam analisa nilai impor
barang, kami mencoba memilah terlebih dahulu data yang diberikan kepada tim kami. Pada
use case yang diberikan, kami memperoleh dua jenis data, yaitu data train dan data test.
Pada data train, kami memperoleh 797.269 records, yang terdiri dari 10 columns, 9
Independent Variable, dan 1 Dependent Variable (Harga_Barang_IDR). Sementara pada data
test, kami mendapatkan 99.318 records, 9 columns, dan 9 Independent Variable.
Harmonized System
Harmonized System atau biasa disebut HS adalah suatu daftar penggolongan barang
yang dibuat secara sistematis dengan tujuan mempermudah penarifan, transaksi
perdagangan, pengangkutan dan statistik yang telah diperbaiki dari sistem klasi�ikasi
sebelumnya. Terdapat 9 HS (atau "KODE_BARANG") pada dataset yang tersedia, baik pada
Data train maupun data test. Berikut ini sebaran data untuk setiap "KODE_BARANG":
Berapa Nilai Impor Barang? Analisis Regresi Pada Harmonized System - 133
Data Overview
Berapa Nilai Impor Barang? Analisis Regresi Pada Harmonized System - 134
Pre-processing
Tahapan yang kami lakukan sebelum membangun model prediksi adalah melakukan
pre-processing berupa data cleansing dan feature engineering. Secara prinsip, kami
melakukan cleansing pada kolom "DESKRIPSI_BARANG" adalah dengan menghapus 2 hal,
yaitu kata-kata 'BARU', 'BARANG BARU', 'BAIK & BARU', 'BAIK DAN BARU', 'BAIK/BARU',
'KEADAAN BARU', 'BAIK', serta Tanda Baca. Kemudian hasil cleansing disimpan di kolom
"TEXT_CLEANED".
Selanjutnya pada proses feature engineering, kami membuat kolom baru yang
berisikan jumlah kata untuk setiap baris di kolom "TEXT_CLEANED". Harapannya, kolom ini
dapat membantu model untuk mengenali membedakan satu barang dengan barang lainnya.
Kolom tersebut kami beri nama "TOKEN". Terdapat 8 kolom yang akan digunakan untuk
membangun model. Kedelapan kolom tersebut dilakukan pre-processing sesuai dengan tipe
data nya masing-masing, yang dibagi menjadi tiga tipe data, yaitu tipe Categorical, tipe Text,
dan tipe Numerical. Tahapan detail sebagaimana gambar berikut.
Berapa Nilai Impor Barang? Analisis Regresi Pada Harmonized System - 135
Modelling and Evaluation
Dalam membuat Pemodelan, kami menggunakan teknik Cluster-then-Predict Model.
Setelah dataset dipisahkan sesuai dengan cluster-nya, kemudian dilakukan model training
menggunakan algoritma LightGBM. Pemilihan algoritma tersebut merujuk pada
kesuksesan dalam mengolah data bertipe categorical, numerical dan text untuk melakukan
prediksi harga sebuah produk (Akshay, 2019) . Sementara pada model evaluation, kami
menggunakan Cross Validation dengan n_splits = 5 agar komposisi data train menjadi
80%-20%, bersamaan dengan hyperparameter tuning pada jumlah tree yang digunakan
(n_estimators). Kami juga melakukan perhitungan evaluasi menggunakan Root Mean
Square sehingga diperoleh gra�ik evaluasi dibawah ini.
1 Akhsay Raddy Chada, 2019. Strategic Pricing of Used Products for e-Commerce Sites. IOWA State University Thesis
Berapa Nilai Impor Barang? Analisis Regresi Pada Harmonized System - 136
Untuk menentukan n_estimators yang digunakan, dilakukan agregasi terhadap nilai
RMSE untuk setiap cluster dan n_estimators. Agregasi dilakukan menggunakan formula
berikut ini:
Berapa Nilai Impor Barang? Analisis Regresi Pada Harmonized System - 137
Berdasarkan gra�ik di atas, nilai RMSE mulai statis pada n_estimators 1500.
Berdasarkana hal tersebut dan dengan mempertimbangkan performa waktu training
model, dipilih tree sebanyak 1500 sebagai parameter n_estimators pada algoritma
LightGBM. Kemudian kami melakukan train model dengan seluruh data train untuk
melakukan prediksi pada data test yang disediakan. Berikut adalah hasil RMSE yang kami
submit pada platform Kaggle.
Key Result
Berdasarkan project yang kami buat di atas, kami meyakini bahwa model regresi
dapat digunakan untuk menganalisa nilai impor barang. Direktorat Jenderal Bea dan Cukai
dapat menggunakan model ini agar dapat mengetahui nilai sebenarnya dari barang-barang
yang diimpor ke Indonesia secara lebih baik sehingga besaran pajak pun dapat dihitung
dengan lebih akurat. Walaupun demikian, berdasarkan eksperimen diluar resume ini, kami
juga meyakini bahwa cluster-then-predict techniques dapat memperbaiki nilai RMSE. Selain
itu, data cleansing pada data variabel text memiliki peran penting pada hasil nilai RMSE.
Berdasarkan hal tersebut, kami berasumsi bahwa untuk pengembangan selanjutnya kita
dapat mencoba menerapkan model yang berbeda untuk setiap cluster. Hal lain yang dapat
dilakukan adalah dengan membuat hyperparameter tuning pada parameter lainnya.
Analisis
Berapa Nilai Impor Barang?Potensi Tercapainya
Analisis Target
Regresi Pada Penerimaan
Harmonized Pajak-- 138
System 24
Debt Sustainability
Analytics : Upaya
Mencegah Krisis
Utang
Disusun oleh:
Fairuz Sufi Aziz, Dwi Purnomo, dan Reza Darmawan
aat ini dapat dikatakan bahwa hampir semua negara memiliki utang. Tidak sedikit
pula negara-negara yang kemudian memiliki utang yang besar dan bahkan
“terjebak” oleh utang (terutama utang luar negeri). Fenomena ini tentu saja
semakin mengkhawatirkan dengan adanya ujian lain berupa pandemi Covid-19 yang
berlangsung hingga saat ini. Setiap negara tentu harus menyiapkan berbagai strategi untuk
mengatasi krisis di negaranya, termasuk krisis utang ini. Demikian halnya dengan negara
kita, Indonesia. Sudah kita ketahui bersama bahwa APBN kita menggunakan paradigma
de�isit, dimana salah satu instrumen pembiayaan untuk menutup celah de�isit tersebut
adalah dengan utang. Maka untuk menjaga agar utang tersebut tidak sampai menjadi
sebuah krisis, diperlukan alat analisis berupa Debt Sustainaibility Analysis (DSA).
DSA merupakan alat penting yang dapat digunakan oleh pemerintah untuk menilai
kerentanan utang negara serta dapat memberikan peringatan kepada instansi terkait
tentang risiko-risiko yang perlu diantisipasi dan kebijakan �iskal yang perlu disiapkan.
Bahkan, organisasi internasional menyatakan bahwa DSA merupakan praktik terbaik atas
pengelolaan utang pemerintah. IMF mengembangkan kerangka kerja formal dengan
menyusun DSA sebagai alat untuk mendeteksi, mencegah, dan menyelesaikan potensi krisis
dengan lebih baik. World Bank dan IMF (2019) dalam dokumen berjudul Developing A
Medium-Term Debt Management Strategy Framework (MTDS) – Updated Guidance Note For
Country Authorities (2019), menyebutkan bahwa DSA digunakan untuk menilai apakah
kebijakan �iskal memiliki kesinambungan/keberlanjutan dalam jangka panjang. Sementara
itu, Parlemen Uni Eropa dalam artikelnya yang berjudul Debt Sustainability Assessments: The
state of the Art tahun 2018 menyatakan bahwa Uni Eropa telah mengembangkan kerangka
kesinambungan utang dengan menerbitkan Debt Sustainability Monitoring (DSM) secara
tahunan sebagai bagian dari siklus tiga tahunan Fiscal Sustainability Report (FSR).
Dalam praktiknya, tanggung jawab untuk menyusun DSA terletak pada otoritas �iskal
pemerintah, yakni Kementerian Keuangan. Namun demikian, BPK RI dalam salah satu hasil
pemeriksaan kinerja pernah menyorot hal ini pada tahun 2019, di mana pada saat itu
Pemerintah belum secara khusus menyusun dan melaporkan DSA. Berdasarkan hal
tersebut, kami memiliki ide untuk mengembangkan tools DSA untuk membantu Pemerintah
dalam memantau perkembangan dan kondisi utang di Indonesia, termasuk memprediksi
kondisi utang di masa yang akan datang. Selain itu, dalam meningkatkan tata kelola atas
utang Pemerintah, tools ini dapat dimanfaatkan untuk menyiapkan analisis/asesmen atas
kesinambungan utang dan menyiapkan langkah-langkah antisipatif dalam rangka
pengelolaan utang. Kami berharap pengelolaan keuangan negara menjadi lebih akuntabel
sehingga kepercayaan dari masyarakat kepada Pemerintah semakin tumbuh.
Benchmark
DSA merupakan metodologi analisis yang dapat dimanfaatkan untuk mengukur
bagaimana tingkat sovereign debt suatu negara berpengaruh pada kemampuan negara
tersebut memenuhi kewajiban utangnya. Maka diperlukan sebuah kerangka kerja
(framework) yang sesuai untuk dapat menghasilkan analisis yang kredibel.
Dalam framework debt sustainability analysis IMF, komponen analisis yang dilakukan
terdiri atas:
01. Basic Debt Sustanability Analysis, yang menggambarkan kondisi dan komposisi
utang dilihat dari sisi yang luas. Basic DSA melihat kondisi utang menggunakan
baseline scenario dan alternative scenario.
02. Realism of Baseline Assumptions, yang secara historis menilai track record proyeksi
variabel makro ekonomi kunci (meliputi pertumbuhan GDP riil, keseimbangan primer,
dan in�lasi) suatu negara secara relatif terhadap track record dari negara-negara lain.
03. Stress Tests, yang merupakan inti dari analisis kesinambungan utang, yaitu
memproyeksikan gross nominal public debt dan gross �inancing needs dalam berbagai
skenario terjadinya shock dalam kondisi makroekonomi.
04. Public DSA Risk Assessment, yang menyajikan heat map atas risiko-risiko
kesinambungan utang sebuah negara, debt fan chart, serta kerentanan pro�il utang
negara tersebut.
Project ini bagi kami adalah sebuah project yang besar, terutama ditinjau dari data
yang dibutuhkan. Namun sebagai kementerian yang memegang peranan sebagai Bendahara
Umum Negara, Kementerian Keuangan telah memiliki sebagian besar dari data yang
diperlukan Namun demikian tantangan yang kami hadapi adalah menyebarnya data
tersebut di sejumlah unit Eselon I Kementerian Keuangan. Akan tetapi, dukungan dari
unit-unit terkait telah membantu kami dalam mewujudkan project ini.
Kami beruntung karena unit-unit eselon I pemilik data yang kami perlukan telah
mengalirkan data yang dimiliki ke Sistem Layanan Data Kementerian Keuangan (SLDK)
yang dikelola oleh Pusintek. Bagi kami SLDK adalah salah satu bentuk praktik terbaik (best
practice) yang dapat menjadi purwarupa (prototype) bagaimana antar instansi pemerintah
dapat saling bertukar data satu sama lain.
Berikut gambaran data yang kami pergunakan untuk pengembangan project Debt
Sustainability Analytics:
- Data kewajiban kontinjensi - Data aset perbankan - Data Pertumbuhan GDP Real
- Data Hasil Privatisasi Indonesia maupun potensial (dalam
- Histori Posisi Utang Pemerintah - Tingkat suku bunga riil current prices maupun
Pusat - Data tingkat kredit constant prices)
- Outlook pembiayaan utang sektor privat - Data Benchmark untuk
- Tabel Realisasi Belanja - Rasio Pinjaman emerging market atas tingkat
- Data transaksi penarikan Pinjaman, terhadap Deposit perubahan kredit sektor
Hibah dan SBN (Transaksi Perbankan privat (dalam satuan persen
Penerusan Pinjaman) terhadap GDP)
- Penerimaan negara dan hibah yang - Data Track Record Forecast
diterima pemerintah pusat Pertumbuhan GDP, In�lasi,
- Histori pembayaran pokok utang dan Keseimbangan Primer
(principal) dan debt service - Change in domestic arrears
- Aset lancar pemerintah and external arrears
- Debt relief
Basic DSA menggambarkan kondisi dan komposisi utang dilihat dari sisi yang luas.
Basic DSA melihat kondisi utang menggunakan baseline scenario dan alternative scenario.
Basic DSA ini merupakan output dasar yang terdapat pada DSA dan terdapat pada negara
dengan tingkat pengawasan utang yang tinggi maupun pada negara dengan tingkat
pengawasan utang yang rendah. Analisis ini terdiri atas dua komponen, pertama adalah
analisis atas faktor-faktor yang berkontribusi terhadap perubahan nilai utang publik, dan
kedua adalah komposisi dari utang publik itu sendiri.
Berikut ini tampilan dari menu visualisasi data atas faktor yang berkontribusi
terhadap utang publik. Ada beberapa faktor yang dianalisis yakni de�isit primer,
pertumbuhan GDP riil, tingkat suku bunga riil, depresiasi nilai tukar, faktor lain, dan faktor
residual. Faktor residual perlu diminimalkan dari kontribusi atas penambahan tingkat
utang publik.
Dari gra�ik di atas dapat dilihat bahwa sebagian besar utang pemerintah didominasi
oleh utang jangka panjang, dan diproyeksikan untuk beberapa tahun ke depan,
komposisinya masih didominasi oleh utang jangka panjang. Tidak terlihat adanya risiko
peningkatan utang jangka pendek dalam waktu dekat.
Dari sisi denominasi utang pemerintah, sebagian besar utang pemerintah
merupakan utang dalam denominasi mata uang asing. Dan diproyeksikan untuk beberapa
tahun ke depan, komposisinya masih didominasi oleh utang dengan denominasi mata uang
asing tersebut. Hal ini akan berkaitan dengan analisis mengenai kerentanan pro�il utang
pemerintah RI.
Selain itu, dilakukan analisis untuk menilai proyeksi pertumbuhan di negara yang
diperkirakan telah memasuki boom-bust cycle. Trigger boom-bust cycle ditandai oleh salah
satu dari dua indikator, yakni credit benchmark breach dan output gap positif.
Selanjutnya adalah menu debt fan chart. Menu ini menyajikan informasi mengenai
kemungkinan perubahan rasio utang terhadap GDP (distribusi frekuensi) dalam jangka
menengah. Pada submenu ini disajikan fan chart yang dikonstruksikan dengan melihat
dampak (berdasarkan pada perhitungan atas rata-rata, varian, dan covarian) dari sejumlah
besar shock terhadap variabel-variabel makroekonomi yang relevan. Submenu ini didesain
secara interaktif sehingga pengguna bisa menyesuaikan shock individual mana saja yang
akan diterapkan dalam menghasilkan fan chart. Pengguna dapat menghilangkan pengaruh
shock tertentu untuk mengidenti�ikasi sumber dari uncertainty. Pengguna juga dapat
memilih untuk menghasilkan asymmetric fan chart dengan cara memberikan spesi�ikasi
berupa restriction terhadap besaran dari shock tertentu.
Dapat dilihat bahwa Indonesia berada pada posisi melampaui upper early warning
untuk external �inancing needs yang menurut benchmark IMF dibatasi pada 15%. Terdapat
juga 3 indikator yang menunjukkan posisi Indonesia melampaui lower early warning yaitu
bond spread, annual change in short-term public debt, serta public debt held by non-residents.
Penutup
Proyek ini mengacu pada Debt Sustainability Framework for Market Access Countries
yang diterbitkan oleh IMF pada tahun 2013. Namun pada Januari 2021, IMF menerbitkan
Policy Paper yang berisikan reviu atas Debt Sustainability Framework tersebut. Di dalamnya,
IMF mengusulkan framework DSA yang baru sebagai pengganti dari framework tahun 2013.
Berbeda dengan framework tahun 2013 yang berfokus pada proyeksi 5 tahun, di framework
terbaru yang diusulkan oleh IMF DSA atas Market-Access Country (MAC) berlandaskan pada
penilaian risiko di tiga horizon, yaitu jangka pendek, jangka menengah, dan jangka panjang.
Famework DSA terbaru tersebut akan berlaku secara efektif per tahun 2022.
Sehingga, pengacuan terhadap framework DSA 2013 menjadi batasan utama dalam proyek
ini. Pertimbangan penggunaan framework 2013 tersebut dilandasi bahwa framework DSA
terbaru masih bersifat usulan dalam policy paper IMF, dan belum terdapat petunjuk teknis
serta template pelaksanaan atas framework DSA tersebut.
Tantangan Kami
Berdasarkan pengalaman kami dalam membuat pemodelan ini, setidaknya terdapat
3 (tiga) tantangan utama, pertama pengembangan pemodelan persamaan simultan
ekonometrika yang BLUE (Best Linier Unbiased Estimator) yang dihimpun dari beberapa
persamaan ekonometrika yang saling terkait satu sama lain dalam suatu hubungan
causal-effect dengan karakteristik data daerah berupa data panel. Kami mengandalkan
kemampuan anggota tim yang berlatar belakang analis keuangan pusat dan daerah untuk
mengidenti�ikasi beberapa model yang relevan dari studi sebelumnya. Utilisasi machine
learning untuk melakukan training pemilihan variabel dependen dan independen, kami
percayakan pada anggota tim yang cukup berpengalaman memanfaatkan software R yaitu
library caret.
Nakula Pro -150
Kedua, pemodelan yang dilakukan harus dapat disajikan dalam bentuk visualisasi
agar memudahkan pimpinan dalam pengambilan kebijakan. Untuk mengatasi hal tersebut,
kami mempercayakan pada salah satu anggota tim yang memiliki latar belakang
pemorgraman basis data sekaligus desainer visualisasi dan UI. Pemanfaatan library
javascript echarts untuk gra�ik merupakan salah satu andalan untuk memberikan
experience atas aplikasi secara interaktif bagi pengguna. Tantangan terakhir adalah
framework/software statistik berbasis web yang lengkap, mudah, dan cepat untuk
menampilkan serta mensimulasikan analisis tersebut secara menarik dan interaktif.
Mengenai software R ini, salah seorang anggota tim kami memiliki cerita lama untuk
kembali melakukan ritual "napak tilas" pemanfaatan R sejak tahun 2010 yang waktu itu
masih versi 2. Paket software statistik free open source R ini dirasakan sangat lengkap dalam
membantu penyelesaian case ekonometrik seperti halnya software komersial seperti
STATA, EViews, dan SAS. Hampir bisa dikatakan bahwa R versi 4 terbaru bersifat fully
substituted atas software berbayar yang eksisting, karena perkembangannya didukung oleh
akademisi, komunitas developer, dan industri besar (Microsoft) sehingga lengkap dan andal
dalam hal pustaka-pustaka ekonometrika, visualisasi, dan platform dashboard berbasis web.
Tim kami tertarik untuk melakukan analisis pada tema ini karena modalitas
penjaminan tersebut lahir di kala pandemi dan membutuhkan reviu dalam menentukan
apakah modalitas tersebut akan dilanjutkan atau menjawab pertanyaan mengenai dampak
penjaminan PEN terhadap UMKM dan pertumbuhan ekonomi. Inspirasinya adalah bahwa
kontribusi UMKM untuk PDB adalah porsi tertinggi, sehingga dukungan untuk UMKM
melalui penjaminan PEN diharapkan memberikan dampak langsung kepada
perekonomian. Selanjutnya karena penjaminan PEN merupakan modalitas baru pada
tahun 2020, maka diperlukan analisa yang memadai untuk memberikan masukan apakah
modalitas/dukungan kepada UMKM melalui penjaminan PEN dapat dilanjutkan, serta
bagaimana keterkaitan dengan dukungan UMKM lain yang sudah lebih dulu (contohnya
SIKP).
Berdasarkan proses bisnis yang telah digambarkan, terdapat beberapa risiko yang
harus dijaga oleh Pemerintah. Salah satu risiko tersebut adalah terkait kualitas dari
pinjaman yang diajukan serta risiko atas besarnya dana cadangan kewajiban yang harus
disiapkan Pemerintah pada APBN. Hal ini sangat penting untuk mengantisipasi
meningkatnya risiko klaim dari penjaminan pemerintah kepada pelaku UMKM. Untuk
menjaga risiko tersebut dapat ditangani dengan baik, maka perlu dikembangkan analisis
penjaminan tersebut berdasarkan data-data yang ada.
Pemanfaatan data dalam menjamin potensi risiko atas pembiayaan yang dilakukan
Pemerintah untuk mendukung UMKM memiliki beberapa tujuan. Secara umum,
Pemerintah membutuhkan sebuah early warning untuk melihat risiko peningkatan jumlah
klaim dari penjaminan pelaku UMKM yang mengalami gagal bayar. Di sisi lain, Pemerintah
juga berupaya untuk melihat proyeksi yang dibutuhkan terkait perencanaan keuangan
Pemerintah untuk menjaminkan UMKM.
Analisis Prediktif Kualitas Penjaminan Pelaku UMKM - 155
Gambar Dashboard Analisis Secara General
Untuk dapat merealisasikan proyek tersebut, dibutuhkan beberapa data dari sistem
informasi yang sudah ada, yaitu data penjaminan UMKM dan data SIKP. Kedua data tersebut
akan diintegrasikan untuk membentuk variabel-variabel yang dibutuhkan dalam
penyusunan analisis. Hasil analisis nantinya akan berupa dashboard yang tergambar pada
Gambar dashboard di atas. Selanjutnya hasil analisis yang telah dilakukan juga seharusnya
mampu diakses dengan cara yang lebih cepat, yaitu melalui mekanisme chat bot Whatsapp.
01. Peningkatan kualitas pengelolaan risiko penjaminan UMKM secara lebih optimal;
02. Peningkatan kualitas penganggaran loss limit untuk penjaminan UMKM; serta
03. Peningkatan kualitas data analisis untuk penyusunan kebijakan strategis Pemerintah
tentang dukungan akses pembiayaan dan insentif �iskal lainnya bagi UMKM.
Namun demikian selama mengerjakan proyek ini kami juga mengalami beberapa
kendala dan tantangan. Salah satu yang paling menarik adalah bagaimana untuk tetap
optimis di tengah ketersediaan data yang minim dan menjalin sinergi dengan unit penjamin
UMKM (Askrindo) untuk mendapatkan data penjaminan pra-pandemi. Selain itu
faktor-faktor relaksasi OJK mengenai restrukturisasi pinjaman juga menjadi salah satu
minimnya default pada penjaminan PEN. Dalam menjalankan dan mengembangkan proyek
ini ke depannya, kami melihat bahwa integrasi kebijakan untuk mendukung UMKM perlu
dilakukan, sehingga unit-unit yang mengelola dukungan perlu melakukan evaluasi
bersama. Salah satu yang kami inisiasi adalah evaluasi dengan data SIKP, sehingga
perumusan kebijakan selanjutnya dapat dilakukan dengan lebih efektif.
Data Analytics adalah salah satu tools untuk penyelesaian masalah yang kompleks,
karena dapat mendapatkan pola-pola baru dari sekumpulan data. Namun hal terpenting
adalah bagaimana rumusan dan implementasi kebijakan setelah pola-pola ditemukan, serta
mendesain ukuran dalam menilai implementasi kebijakan. Jadi, Data Analytics perlu
diintegrasikan dengan pengetahuan proses bisnis. Selain itu, Data Analytics dapat menjadi
salah satu trigger untuk proses digitalisasi, karena kecukupan data menjadi salah satu
faktor model yang akurasinya tinggi dan efektif. Maka, Data Analytics dapat menjadi
forward looking (kebijakan yang akan dibuat) dan backward looking (kebutuhan data pada
proses digitalisasi), tergantung konteks yang akan dibangun dalam project Data Analytics.
IG CTO: @transformasi_kemenkeu
Email CTO: transformasi@kemenkeu.go.id