Anda di halaman 1dari 8

1.

Database atau dataset yang berkualitas

Sebuah database atau dataset yang berkualitas adalah salah satu yang memiliki informasi yang
akurat dan lengkap serta mudah dipahami oleh orang yang menggunakannya. Hal ini penting
agar orang yang menggunakan database Sebuah database atau dataset yang berkualitas adalah
salah satu yang memiliki informasi yang akurat dan lengkap serta mudah dipahami oleh orang
yang menggunakannya. Hal ini penting agar orang yang menggunakan database atau dataset
tersebut dapat memperoleh informasi yang berguna dan bermanfaat bagi mereka.atau dataset
tersebut dapat memperoleh informasi yang berguna dan bermanfaat bagi mereka.
Untuk menghasilkan hasil yang akurat, AI atau machine learning perlu mempelajari data yang
berkualitas. Database atau dataset yang berkualitas adalah database atau dataset yang memenuhi
kriteria sebagai berikut:
1. Data yang lengkap: database atau dataset yang berkualitas harus memiliki data yang
lengkap, tidak ada data yang hilang atau tidak valid.
2. Data yang benar: database atau dataset yang berkualitas harus memiliki data yang benar
dan valid, tidak ada data yang salah atau tidak sesuai dengan kenyataan.
3. Data yang sesuai: database atau dataset yang berkualitas harus memiliki data yang sesuai
dengan tujuan atau kebutuhan AI atau machine learning.
4. Data yang terbaru: database atau dataset yang berkualitas harus memiliki data yang
terbaru dan up-to-date, tidak ada data yang sudah kadaluarsa atau tidak lagi relevan.
Dengan database atau dataset yang berkualitas, AI atau machine learning dapat mempelajari
data dengan lebih baik dan menghasilkan hasil yang lebih akurat dan berkualitas.

2. Lakukan pra-processing pada dataset dengan berbagai metode agar dataset bisa diproses
dengan teknologi AI atau machine learning

Preprocessing dataset merupakan langkah penting dalam menyiapkan dataset agar dapat diproses
oleh teknologi AI atau machine learning. Beberapa metode yang dapat digunakan dalam
preprocessing dataset adalah sebagai berikut:
1. Data cleaning: proses menghilangkan data yang tidak berguna atau tidak valid dari
dataset.
2. Data transformation: proses mengubah bentuk atau format data agar lebih mudah
diproses oleh AI atau machine learning.
3. Data normalization: proses mengubah skala data agar memiliki nilai yang sama atau
serupa.
4. Data augmentation: proses menambahkan data baru ke dalam dataset agar memiliki lebih
banyak data yang dapat diproses oleh AI atau machine learning.
5. Data feature selection: proses memilih fitur yang relevan dari dataset untuk diproses oleh
AI atau machine learning.
Preprocessing dataset memungkinkan AI atau machine learning untuk menghasilkan hasil yang
lebih akurat dan berkualitas. Oleh karena itu, penting untuk melakukan preprocessing dataset
dengan metode yang tepat agar hasilnya optimal.

3. Imbalance dataset dan jelaskan metode untuk menanganinya dengan metode


SMOT

Imbalance dataset adalah suatu kondisi dimana jumlah data dalam dataset tidak seimbang atau
tidak merata. Ini dapat terjadi ketika jumlah data dari satu kelas lebih banyak daripada kelas
lainnya. Imbalance dataset dapat menyulitkan AI atau machine learning dalam mempelajari data,
sehingga hasilnya tidak optimal.
Untuk menangani imbalance dataset, salah satu metode yang dapat digunakan adalah SMOT
(Synthetic Minority Over-sampling Technique). Metode ini berfokus pada kelas minoritas dalam
dataset dan menambahkan data sintetis agar kelas tersebut memiliki jumlah yang sama dengan
kelas mayoritas. Dengan cara ini, imbalance dataset dapat diatasi dan AI atau machine learning
dapat mempelajari data dengan lebih baik.
Sebagai contoh, jika dalam dataset terdapat 100 data untuk kelas A dan 50 data untuk kelas B,
maka metode SMOT akan menambahkan data sintetis untuk kelas B sehingga jumlah data untuk
kelas B menjadi 100, sehingga jumlah data untuk kedua kelas menjadi sama. Dengan demikian,
AI atau machine learning dapat mempelajari data dengan lebih baik dan menghasilkan hasil yang
lebih akurat.

4. Jelaskan bias dan varians dari datasest serta berika contoh dan perhitungannya

Bias dan varians adalah dua ukuran yang digunakan untuk mengukur ketidaksempurnaan dari
sebuah model prediksi. Bias mengacu pada seberapa dekat rata-rata dari hasil prediksi model
tersebut dengan nilai yang sebenarnya dari data. Sedangkan varians mengacu pada seberapa
seragam hasil prediksi model tersebut.
Contoh, jika kita memiliki sebuah model prediksi cuaca yang mengklasifikasikan hari sebagai
cerah, berawan, atau hujan. Jika model tersebut selalu memprediksi hari sebagai cerah, maka
model tersebut memiliki bias yang tinggi karena selalu salah dalam memprediksi cuaca. Jika
model tersebut sering memprediksi hari sebagai cerah atau hujan, tapi tidak pernah berawan,
maka model tersebut memiliki varians yang tinggi karena tidak seragam dalam memprediksi
cuaca.
Untuk menghitung bias dan varians dari sebuah dataset, kita dapat menggunakan rumus-rumus
sebagai berikut:
Bias:$Bias = \frac{1}{n} \sum_{i=1}^n (\hat{y_i} - y_i
5. Jelaskan 10Fold cross validation dan lakukan perhitungan pada dataset yang
dijadikan contoh

Cross-validation (CV) adalah metode statistik yang dapat digunakan untuk mengevaluasi kinerja
model atau algoritma dimana data dipisahkan menjadi dua subset yaitu data proses pembelajaran
dan data validasi / evaluasi. Model atau algoritma dilatih oleh subset pembelajaran dan divalidasi
oleh subset validasi. Selanjutnya pemilihan jenis CV dapat didasarkan pada ukuran dataset.
Biasanya CV K-fold digunakan karena dapat mengurangi waktu komputasi dengan tetap
menjaga keakuratan estimasi.

10 fold CV adalah salah satu K fold CV yang direkomendasikan untuk pemilihan model terbaik karena
cenderung memberikan estimasi akurasi yang kurang bias dibandingkan dengan CV biasa, leave-one-out
CV dan bootstrap. Dalam 10 fold CV, data dibagi menjadi 10 fold berukuran kira-kira sama, sehingga
kita memiliki 10 subset data untuk mengevaluasi kinerja model atau algoritma. Untuk masing-masing dari
10 subset data tersebut, CV akan menggunakan 9 fold untuk pelatihan dan 1 fold untuk pengujian seperti
diilustrasikan pada Gambar 1.
6. Jelaskan optimasi hyperparameter dengan metode grid search dan random search,
berikan algoritma flow cahrt dari kedua metode tersebut dan berian contohnya

Pencarian acak adalah teknik di mana kombinasi acak dari hiperparameter digunakan untuk menemukan
solusi terbaik untuk model yang dibangun. Ini mirip dengan pencarian grid, namun telah terbukti
memberikan hasil yang lebih baik secara komparatif.

Grid Search Cross Validation adalah metode pemilihan kombinasi model dan hyperparameter dengan
cara menguji coba satu persatu kombinasi dan melakukan validasi untuk setiap kombinasi. Tujuannya
adalah menentukan kombinasi yang menghasilkan performa model terbaik yang dapat dipilih untuk
dijadikan model untuk prediksi.
Berikut adalah informasi tekstual mengenai data yang hilang dan tipe data dari masing-masing
kolom pada dataset ini.
# Column Non-Null Count Dtype
#> --- ------ -------------- -----
#> 0 name 8128 non-null object
#> 1 year 8128 non-null int64
#> 2 selling_price 8128 non-null int64
#> 3 km_driven 8128 non-null int64
#> 4 fuel 8128 non-null object
#> 5 seller_type 8128 non-null object
#> 6 transmission 8128 non-null object
#> 7 owner 8128 non-null object
#> 8 mileage 7907 non-null object
#> 9 engine 7907 non-null object
#> 10 max_power 7913 non-null object
#> 11 torque 7906 non-null object
#> 12 seats 7907 non-null float64

7. Jelaskan Confusion Matrix dan lakukan perhitungan pada dataset

Confusion matrix adalah salah satu tools analitik prediktif yang menampilkan dan
membandingkan nilai aktual atau nilai sebenarnya dengan nilai hasil prediksi model yang dapat
digunakan untuk menghasilkan metrik evaluasi seperti Accuracy (akurasi), Precision, Recall, dan
F1-Score atau F-Measure.
Ada empat nilai yang dihasilkan di dalam tabel confusion matrix, di antaranya True Positive
(TP), False Positive (FP), False Negative (FN), dan True Negative (TN). Ilustrasi tabel confusion
matrix dapat dilihat pada gambar berikut.

tabel confusion matrix


True Positive (TP) : Jumlah data yang bernilai Positif dan diprediksi benar sebagai Positif.
False Positive (FP) : Jumlah data yang bernilai Negatif tetapi diprediksi sebagai Positif.
False Negative (FN) : Jumlah data yang bernilai Positif tetapi diprediksi sebagai Negatif.
True Negative (TN) : Jumlah data yang bernilai Negatif dan diprediksi benar sebagai Negatif.
Interpretasi Confusion Matrix
Misalnya pada saat menonton sepak bola tim favorit Anda, Anda telah memprediksi tim sepak
bola favorit Anda menang, dan memang ternyata menang. Itu adalah True Positive (TP).

Jika Anda telah memprediksi tim sepak bola favorit Anda menang, namun kenyataannya kalah,
itu adalah False Positive (FP).
8. Jelaskan AUC dan ROC, berikan contoh dan lakukan perhitungan pada dataset

Dalam membuat model AI (artificial intelligence), salah satu tools yang sering digunakan oleh
seorang Python Data Scientist untuk memvisualisasikan performa model yang dibuat adalah
dengan membuat kurva ROC (Receiver Operating Characteristic). Kurva ROC adalah kurva
yang menyajikan ilustrasi performansi dari binary classifier system dalam menghasilkan sebuah
prediksi. Kurva ROC didapatkan dengan membuat plotting dari true positive rate (TPR) terhadap
false positive rate (FPR).

{Receiver Operating Characteristic / ROC}


Kurva ROC dibuat berdasarkan nilai telah didapatkan pada perhitungan dengan confusion
matrix, yaitu antara False Positive Rate dengan True Positive Rate. Dimana:
False Positive Rate (FPR) = False Positive / (False Positive + True Negative)
True Positive Rate (TPR) = True Positive / (True Positive + False Negative)
Dan berikut adalah contoh kurva ROC.
Untuk membaca kurva ini sangat mudah, kinerja algoritma klasifikasi adalah:

 JELEK, jika kurva yang dihasilkan mendekati garis baseline atau garis yang melintang dari titik 0,0.
 BAGUS, jika kurva mendekati titik 0,1.

Anda mungkin juga menyukai