Anda di halaman 1dari 22

I.

Partitioniong
II. Hierarchical
III.Density-based

METODE CLUSTERING PARTITIONING


n objek  k partisi data, dimana setiap partisi menyatakan cluster dan
Metode clustering yang mengklasifikasikan data kedalam k kelompok, dengan
ketentuan:
1) Setiap kelompok harus terdiri setidaknya 1 objek
2) Setiap objek harus menjadi anggota tepat 1 kelompok
 Metode fuzzy partitioning

3) Cluster yang dibentuk dapat mengoptimalkan similarity function

PROSEDUR CLUSTERING PARTITIONING


1. terdapat n objek
2. ditentukan jumlah kelompoknya yaitu k partisi
3. menginisialiasi k partisi
4. secara iterativ memperbaiki partisi dengan cara memindahkan objek-objek
dari suatu kelompok ke kelompok yang lain

CONTOH ALGORITMA CLUSTERING PARTITIONING


1. Algoritma k-means
Setiap cluster dinyatakan sebagai nilai rata-rata (mean) objek-objek dalam cluser.

2. Algoritma k-medoid
Setiap cluster dinyatakan oleh suatu objek yang berada dekat dengan pusat cluster.

K-MEANS
Input:

data dengan n objek dan k (banyaknya cluster) serta imax (iterasi maksimal  optional)

Output: himpunan k cluster yang optimal


Metode:
1)

pilih k objek sebagai pusat cluster awal

2)

menilai kesamaan setiap objek dengan setiap cluster menggunakan fungsi kesamaan (misal euclidean
distance)

3)

menenetukan keanggotaan setiap objek berdasarkan kemiripan (hasil no 2)

4)

mengupdate pusat cluster dengan menghitung rata-rata (mean) setiap cluster

5)

ulangi langkah 2 s.d 4 sampai tidak ditemukan perubahan pusat cluster dan anggotanya, atau sampai
iterasinya mencapai iterasi maksimal

CONTOH K-MEANS
Distribusi Data
16
14
12
10
8
6
4
2
0
0

10

15
data

20

25

Objek
1
2
3
4
5
6
7
8
9
10
11
12

x
10
9
5
6
14
20
18
17
8
15
6
8

y
6
4
5
2
10
10
15
8
8
15
8
2

CONTOH K-MEANS (lanj1.)


Input:

data dengan 12 objek dan k = 2

Metode:
1) pilih k objek sebagai pusat cluster
awal 
Pusat cluster 1 awal: objek ke-1: (10,6)
Pusat cluster 2 awal: objek ke-4: (6,2)

2) menilai kesamaan setiap objek dengan


masing-masing pusat cluster

Objek x
1
2
3
4
5
6
7
8
9
10
11
12

y
10
9
5
6
14
20
18
17
8
15
6
8

d(i,c1)
6
4
5
2
10
10
15
8
8
15
8
2

d(i,c2)
0
5,66
2,24
3,61
5,10
3,16
5,66
0
5,66
11,31
10,77
16,12
12,04
17,69
7,28
12,53
2,83
6,32
10,30
15,81
4,47
6
4,47
2

CONTOH K-MEANS (lanj1.)


Input:

data dengan 12 objek dan k = 2

Metode:
3)

menenetukan keanggotaan setiap objek


berdasarkan jarak (kemiripan)

4)

mengupdate pusat cluster dengan


menghitung rata-rata (mean) setiap
cluster 
Pusat cluster 1 : (13 , 9.33)
Pusat cluster 2 : (6.33 , 3 )

Objek x
1
2
3
4
5
6
7
8
9
10
11
12

y
10
9
5
6
14
20
18
17
8
15
6
8

Cluster
6
4
5
2
10
10
15
8
8
15
8
2

1
1
2
2
1
1
1
1
1
1
1
2

CONTOH K-MEANS (lanj1.)


Distribusi data dan cluster (iterasi I)
16
14
12
10
8
6
4
2
0
0

5
cluster1

10
cluster2

15
pusat cluster1

20
pusat cluster2

25

CONTOH K-MEANS (lanj2.)


Input:

data dengan 12 objek dan k = 2

Metode:
2) menilai kesamaan setiap objek dengan
masing-masing pusat cluster (Pusat
cluster 1 : (13 , 9.33) dan Pusat cluster 2 :
(6.33 , 3 ))

Objek x
1
2
3
4
5
6
7
8
9
10
11
12

y
10
9
5
6
14
20
18
17
8
15
6
8

d(i,c1)
d(i,c2)
6
6,27
3,67
4
8,40
2,21
5
10,93
1,97
2
11,92
2,34
10
6,96
3,98
10
8,87
3,88
15
10,58
2,51
8
0,64
9,25
8
5,44
14,42
15
5,83
15,56
8
3,34
10,88
2
4,73
13,56

CONTOH K-MEANS (lanj2.)


Input:

data dengan 12 objek dan k = 2

Metode:
3)

menenetukan keanggotaan setiap objek


berdasarkan jarak (kemiripan)

4)

mengupdate pusat cluster dengan


menghitung rata-rata (mean) setiap
cluster 
Pusat cluster 1 : (14.57 , 10.29)
Pusat cluster 2 : (6.8 , 4.2 )

Objek x
1
2
3
4
5
6
7
8
9
10
11
12

y
10
9
5
6
14
20
18
17
8
15
6
8

Cluster
6
4
5
2
10
10
15
8
8
15
8
2

1
2
2
2
1
2
2
1
1
1
1
1

CONTOH K-MEANS (lanj2.)


Distribusi data dan cluster (iterasi II)
16
14
12
10
8
6
4
2
0
0

5
cluster1

10
cluster2

15
pusat cluster1

20
pusat cluster2

25

CONTOH K-MEANS (lanj3.)


Input:

data dengan 12 objek dan k = 2

Metode:
2) menilai kesamaan setiap objek dengan
masing-masing pusat cluster (Pusat
cluster 1 : (14.57 , 10.29) dan Pusat
cluster 2 : (6.8 , 4.2 ))

Objek x
1
2
3
4
5
6
7
8
9
10
11
12

y
10
9
5
6
14
20
18
17
8
15
6
8

d(i,c1)
d(i,c2)
6
6,27
3,67
4
8,40
2,21
5
10,93
1,97
2
11,92
2,34
10
6,96
3,98
10
8,87
3,88
15
10,58
2,51
8
0,64
9,25
8
5,44
14,42
15
5,83
15,56
8
3,34
10,88
2
4,73
13,56

CONTOH K-MEANS (lanj3.)


Input:

data dengan 12 objek dan k = 2

Metode:
3)

menenetukan keanggotaan setiap objek


berdasarkan jarak (kemiripan)

4)

mengupdate pusat cluster dengan


menghitung rata-rata (mean) setiap
cluster 
Pusat cluster 1 : (16.8 , 11.6)
Pusat cluster 2 : (7.43 , 5 )

Objek x
1
2
3
4
5
6
7
8
9
10
11
12

y
10
9
5
6
14
20
18
17
8
15
6
8

Cluster
6
4
5
2
10
10
15
8
8
15
8
2

2
2
2
2
2
2
2
1
1
1
1
1

CONTOH K-MEANS (lanj3.)


Distribusi data dan cluster (iterasi III)
16
14
12
10
8
6
4
2
0
0

5
cluster1

10
cluster2

15
pusat cluster1

20
pusat cluster2

25

CONTOH K-MEANS (lanj4.)


Input:

data dengan 12 objek dan k = 2

Metode:
2) menilai kesamaan setiap objek
dengan masing-masing pusat cluster
(Pusat cluster 1 : (16.8 , 11.6) dan Pusat
cluster 2 : (7.43 , 5 ))

Objek x
1
2
3
4
5
6
7
8
9
10
11
12

y
10
9
5
6
14
20
18
17
8
15
6
8

d(i,c1)
d(i,c2)
6
8,81
2,76
4
10,89
1,86
5
13,52
2,43
2
14,45
3,32
10
9,51
3,05
10
11,38
3,32
15
13,02
3,05
8
3,22
8,26
8
3,58
13,53
15
3,61
14,55
8
3,61
10,03
2
3,85
12,54

CONTOH K-MEANS (lanj4.)


Input:

data dengan 12 objek dan k = 2

Metode:
3)

menenetukan keanggotaan setiap objek


berdasarkan jarak (kemiripan)

4)

mengupdate pusat cluster dengan


menghitung rata-rata (mean) setiap
cluster 
Pusat cluster 1 : (16.8 , 11.6)
Pusat cluster 2 : (7.43 , 5 )

Objek x
1
2
3
4
5
6
7
8
9
10
11
12

y
10
9
5
6
14
20
18
17
8
15
6
8

Cluster
6
4
5
2
10
10
15
8
8
15
8
2

2
2
2
2
2
2
2
1
1
1
1
1

CONTOH K-MEANS (lanj4.)


Distribusi data dan cluster (iterasi IV)
16
14
12
10
8
6
4
2
0
0

5
cluster1

10
cluster2

15
pusat cluster1

20
pusat cluster2

25

METODE CLUSTERING HIERARCHICAL


Mendekomposisikan sekumpulan objek secara bertingkat(hierarchical)
n objek  split menjadi k partisi data
m partisi awal data  merge menjadi k partisi data

CONTOH ALGORITMA CLUSTERING HIERARCHICAL


1. Pendekatan agglomerative (pendekatan bottom-up)
i.

Setiap objek dianggap sebagai cluster yang berbeda

ii.

Cluster-cluster (objek-objek) yang dekat akan di-merge

iii. Lakukan langkah (ii) sampai termination condition

2. Pendekatan divisive (pendekatan top-down)


i.

Semua objek dianggap sama dan membentuk 1 cluster

ii.

Anggota cluster dipecah-pecah (cluster di-split) sesuai dengan kedekatan

iii. Lakukan langkah (ii) sampai termination condition

Determining number of
clusters
Random factor

Partitioning

Grouping
Descriptive
Analysis

Hard
Clustering

Nonhierarchical

Clustering

Data
Mining

Classification

k-means

Densitybased

Determining number of clusters


automatically by cluster density

Soft
Clustering

Hierarchical

Prediction
Estimation

22Scale Analysis

Fuzzy
C-means

Anda mungkin juga menyukai