• Sonuç bulunamadı

Veri Madenciliği. Bölüm 7. Kümeleme 1. Doç. Dr. Suat Özdemir.

N/A
N/A
Protected

Academic year: 2022

Share "Veri Madenciliği. Bölüm 7. Kümeleme 1. Doç. Dr. Suat Özdemir."

Copied!
51
0
0

Yükleniyor.... (view fulltext now)

Tam metin

(1)

Veri Madenciliği

Bölüm 7. Kümeleme 1

(2)

Veri Madenciliği

Demetleme

§  Demetleme işlemleri

–  Tanımı

–  Uygulamalar

§  Demetleme yöntemleri

–  Bölünmeli –  Hiyeraşik

–  Yoğunluk tabanlı –  Model tabanlı

2/49

(3)

Gözetimli & Gözetimsiz Öğrenme

§  Predictive Data Mining vs. Descriptive Data Mining

§  Gözetimli (Supervised) öğrenme= sınıflandırma (clasification)

–  Öğrenme kümesindeki sınıfların sayısı ve hangi nesnenin hangi sınıfta olduğu biliniyor.

§  Gözetimsiz (Unsupervised) öğrenme = demetleme (clustering)

–  Öğrenme kümesinde hangi nesnenin hangi sınıfta olduğu bilinmiyor. Genelde sınıf sayısı da bilinmiyor.

(4)

Veri Madenciliği

Demetleme nedir?

§  Nesneleri demetlere (gruplara) ayırma

–  Karakteristiklerden yararlanarak veri içindeki

benzerlikleri bulma ve benzer verileri demetler içinde gruplama

Demet/Küme: birbirine benzeyen nesnelerden oluşan grup

Aynı demetteki nesneler

birbirine daha çok benzer

Farklı demetlerdeki nesneler birbirine daha az benzer

Demetler arası uzaklıklar maksimize edilir Demet içi

uzaklıklar minimize edilir

4/49

(5)

Demet/Küme nedir?

Bu veride kaç demet var?

4 demet 2 demet

6 demet

(6)

Veri Madenciliği

Demetleme uygulama alanları

§  Genel uygulama alanları:

–  verinin dağılımını anlama

–  başka veri madenciliği uygulamaları için ön hazırlık- Veri azaltma – demet içindeki nesnelerin temsil edilmesi için demet merkezlerinin kullanılması

§  Uygulamalar

–  Örüntü tanıma –  Görüntü işleme

–  Ekonomi - Help marketers discover distinct groups in their customer bases, and then use this knowledge to develop targeted marketing programs

–  Aykırılıkları belirleme –  WWW

•  Doküman demetleme

•  Kullanıcı davranışlarını demetleme

•  Kullanıcıları demetleme

6/49

(7)

Veri Madenciliğinde Demetlemenin Gereklilikleri

§  Ölçeklenebilirlik

§  Farklı tipteki ve niteliklerden oluşan nesneleri demetleme

§  Farklı şekillerdeki demetleri oluşturabilme

§  En az sayıda giriş parametresi gereksinimi

§  Hatalı veriler ve aykırılıklardan en az etkilenme

§  Çok boyutlu veriler üzerinde çalışma

§  Sonucun yorumlanabilir ve anlaşılabilir olması

(8)

Veri Madenciliği

Kalite: İyi demetleme nedir?

§  İyi bir demetleme yöntemiyle elde edilen demetlerin özellikleri

–  aynı demet içindeki nesneler arası benzerlik fazla

–  farklı demetlerde bulunan nesneler arası benzerlik az

§  Oluşan demetlerin kalitesi seçilen benzerlik ölçütüne ve bu ölçütün gerçeklenmesine bağlı

8/49

(9)

Kalite: İyi demetleme nedir?

§  Uzaklık / Benzerlik nesnelerin nitelik tipine göre değişir

–  Nesneler arası benzerlik: s(i,j)

–  Nesneler arası uzaklık: d(i,j) = 1 – s(i,j)

§  İyi bir demetleme yöntemi veri içinde gizlenmiş örüntüleri bulabilmeli

§  Veriyi gruplama için uygun demetleme kriteri bulunmalı

–  demetleme = aynı demetteki nesneler arası benzerliği en büyüten, farklı demetlerdeki nesneler arası benzerliği en küçülten fonksiyon

(10)

Veri Madenciliği

Veri Yapıları

§  Veri matrisi

n veri sayısı p nitelik sayısı

§  Farklılık matrisi

İki veri arasındaki Uzaklık (d(i,j))

⎥⎥

⎥⎥

⎥⎥

⎥

⎦

⎤

⎢⎢

⎢⎢

⎢⎢

⎢

⎣

⎡

xnp nf ...

x n1 ...

x

...

...

...

...

...

xip if ...

x i1 ...

x

...

...

...

...

...

x1p 1f ...

x 11 ...

x

⎥⎥

⎥⎥

⎥⎥

⎦

⎤

⎢⎢

⎢⎢

⎢⎢

⎣

⎡

0 ...

) 2 , ( )

1 , (

: :

:

) 2 , 3 ( )

...

n d n

d

0 d

d(3,1

0 d(2,1)

0

10/49

(11)

Veriler arası benzerlik ve farklılık ölçme

§  En çok kullanılanlar arasında: Minkowski uzaklığı:

i = (xi1, xi2, …, xip) and j = (xj1, xj2, …, xjp) p-boyutlu iki veri. q pozitif bir tamsayı

§  Eğer q = 1 ise d’ye Manhattan uzaklığı denir

q q

p p

q q

x j x i

x j x i

x j x i

j i

d ( , ) (| | | | ... | | )

2 2

1

1

− + − + + −

=

|

| ...

|

|

|

| ) ,

( i j ix x j ix x j ix x j

d = − + − + + −

(12)

Veri Madenciliği

Veriler arası benzerlik ve farklılık ölçme (devam)

§  Eğer q = 2, d’ye Öklid ( Euclidean) uzaklığı denir

–  Öklid uzaklığı

•  d(i,j) ≥ 0

•  d(i,i) = 0

•  d(i,j) = d(j,i)

•  d(i,j)d(i,k) + d(k,j)

)

|

| ...

|

|

| (|

) ,

(

2 2

2 2

2 1

1 p

x j

p

x i x j

x i x j

x i j

i

d = − + − + + −

12/49

(13)

Demetler arası uzaklık ölçme

§  Tek (Single) link: farklı demetlerdeki herhangi iki eleman arasındaki en küçük uzaklık, i.e., dis(Ki, Kj) = min(tip, tjq)

§  Tam (Complete) link: farklı demetlerdeki herhangi iki eleman arasındaki en büyük uzaklık, i.e., dis(Ki, Kj) = max(tip, tjq)

§  Ortalama (Average): farklı demetlerdeki elemanlar arasındaki ortalama uzaklık, i.e., dis(Ki, Kj) = avg(tip, tjq)

§  Centroid: iki demetin centroid’lerinin arasındaki uzaklık, i.e., dis(Ki, Kj) = dis(Ci, Cj)

§  Medoid: iki demetin medoid’lerinin arasındaki uzaklık, i.e., dis(Ki, Kj) = dis(Mi, Mj)

•  Medoid: one chosen, centrally located object in the cluster

(14)

Veri Madenciliği

Centroid, Radius and Diameter

§  Centroid: kümenin merkezi

§  Radius/yarıçap: square root of average squared

distance from any point of the cluster to its centroid

§  Diameter/çap: square root of average mean squared distance between all pairs of points in the cluster

N N t

i ip

C m Σ

=1( )

=

) 1 (

)2 1(

1

=

= Σ Σ

= N N

t jp tip

N j N

m i D

N

cm tip

N m i

R

)2 1( −

Σ =

=

(15)

Temel Demetleme Yaklaşımları

§  Bölünmeli yöntemler: Veriyi bölerek, her grubu belirlenmiş bir kritere göre değerlendirir

§  Hiyerar ş ik yöntemler: Veri kümelerini (ya da nesneleri) önceden belirlenmiş bir kritere göre hiyerarşik olarak ayırır

§  Yoğunluk tabanlı yöntemler: Nesnelerin yoğunluğuna göre demetleri oluşturur

§  Model tabanlı yöntemler: Her demetin bir

modele uyduğu varsayılır. Amaç bu modellere uyan

verileri gruplamak

(16)

Veri Madenciliği

Bölünmeli yöntemler

§  Amaç: n nesneden oluşan bir veri kümesini (D) k (k≤n) demete ayırmak

–  her demette en az bir nesne bulunmalı –  her nesne sadece bir demette bulunmalı

§  Yöntem: Demetleme kriterini en çok büyütecek şekilde D veri kümesi k gruba ayırma

–  Global çözüm: Mümkün olan tüm gruplamaları yaparak en iyisini seçmek (NP karmaşık)

–  Sezgisel çözüm: k-means ve k-medoids

•  k-means (MacQueen’67): Her demet kendi merkezi ile temsil edilir

•  k-medoids veya PAM (Partition around medoids) (Kaufman &

Rousseeuw’87): Her demet, demette bulunan bir nesne ile temsil edilir

16/49

(17)

K-means Demetleme

§  Bilinen bir k değeri için k-means demetleme algoritmasının 4 aşaması vardır:

–  Veri kümesi k altkümeye ayrılır (her demet bir altküme)

–  Her demetin ortalaması hesaplanır: merkez nokta (demetteki nesnelerin niteliklerinin ortalaması)

–  Her nesne en yakın merkez noktanın olduğu demete dahil edilir –  Nesnelerin demetlenmesinde değişiklik olmayana kadar adım

2’ye geri dönülür.

(18)

Veri Madenciliği

K-means Demetleme

§  Örnek:

0 1 2 3 4 5 6 7 8 9 10

0 1 2 3 4 5 6 7 8 9 10

0

1

2

3

4

5

6

7

8

9

10

0 1 2 3 4 5 6 7 8 9 10

0 1 2 3 4 5 6 7 8 9 10

0 1 2 3 4 5 6 7 8 9 10

0 1 2 3 4 5 6 7 8 9 10

0 1 2 3 4 5 6 7 8 9 10

0

1

2

3

4

5

6

7

8

9

10

0 1 2 3 4 5 6 7 8 9 10

k=2

k noktayı demetlerin merkezi olarak

rasgele seç

Her nesneyi en yakın merkezi olan demete dahil et

demet

merkezlerini yeniden hesapla

demet

merkezlerini yeniden hesapla

yeniden demetle yeniden

demetle

18/49

(19)

K-means Demetleme

§  Demet sayısının belirlenmesi gerekir

§  Başlangıçta demet merkezleri rasgele belirlenir bu nedenle her uygulamada farklı demetler oluşabilir

§  Benzerlik Öklid uzaklığı gibi yöntemlerle ölçülebilir

§  Az sayıda tekrarda demetler oluşur

–  Yakınsama koşulu çoğunlukla az sayıda nesnenin demet değiştirmesi şekline dönüştürülür

§  Karmaşıklığı:

–  Yer karmaşıklığı - O((n+k) d) –  Zaman karmaşıklığı - O(ktnd)

–  k: demet sayısı, t: tekrar sayısı, n: nesne sayısı, d: nitelik sayısı

(20)

Veri Madenciliği

Başlangıç centroid seçiminin önemi

-2 -1.5 -1 -0.5 0 0.5 1 1.5 2

0 0.5 1 1.5 2 2.5 3

x

y

-2 -1.5 -1 -0.5 0 0.5 1 1.5 2

0 0.5 1 1.5 2 2.5 3

x

y

Sub-optimal Demetleme

-2 -1.5 -1 -0.5 0 0.5 1 1.5 2

0 0.5 1 1.5 2 2.5 3

x

y

Optimal Demetleme

Orijinal Veri

(21)

Başlangıç centroid seçiminin önemi

-2 -1.5 -1 -0.5 0 0.5 1 1.5 2

0 0.5 1 1.5 2 2.5 3

x

y

Iteration 1

-2 -1.5 -1 -0.5 0 0.5 1 1.5 2

0 0.5 1 1.5 2 2.5 3

x

y

Iteration 2

-2 -1.5 -1 -0.5 0 0.5 1 1.5 2

0 0.5 1 1.5 2 2.5 3

x

y

Iteration 3

0.5 1 1.5 2 2.5 3

y

Iteration 4

0.5 1 1.5 2 2.5 3

y

Iteration 5

0.5 1 1.5 2 2.5 3

y

Iteration 6

(22)

Veri Madenciliği

Başlangıç centroid seçiminin önemi

-2 -1.5 -1 -0.5 0 0.5 1 1.5 2

0 0.5 1 1.5 2 2.5 3

x

y

Iteration 1

-2 -1.5 -1 -0.5 0 0.5 1 1.5 2

0 0.5 1 1.5 2 2.5 3

x

y

Iteration 2

-2 -1.5 -1 -0.5 0 0.5 1 1.5 2

0 0.5 1 1.5 2 2.5 3

x

y

Iteration 3

-2 -1.5 -1 -0.5 0 0.5 1 1.5 2

0 0.5 1 1.5 2 2.5 3

x

y

Iteration 4

-2 -1.5 -1 -0.5 0 0.5 1 1.5 2

0 0.5 1 1.5 2 2.5 3

x

y

Iteration 5

(23)

K-means Demetleme Değerlendirme

§  Birden çok sonuç oluşur.

§  Yaygın olarak kullanılan yöntem hataların karelerinin toplamı (Sum of Squared Error SSE)

§  Nesnelerin bulundukları demetin merkez noktalarına olan uzaklıklarının karelerinin toplamı

§  Hataların karelerinin toplamını azaltmak için k demet sayısı artırılabilir

§  Başlangıç için farklı merkez noktaları seçerek farklı demetlemeler oluşturulur

§  En az SSE değerini sahip olan demetleme seçilir

2 1 t Km

(

m mi

)

k

m

C t

mi

Σ

Σ

=

(24)

Veri Madenciliği

Avantaj - Dezavantaj

§  Gerçeklemesi kolay

§  Karmaşıklığı diğer demetleme yöntemlerine göre az

§  K-Means algoritması bazı durumlarda iyi sonuç vermeyebilir

–  Veri grupları farklı boyutlarda ise

–  Veri gruplarının yoğunlukları farklı ise –  Veri gruplarının şekli küresel değilse

–  Veri içinde aykırılıklar (outliers) varsa

24/49

(25)

Outlier sorunu

§  k-means algoritması sapan verilerden (outlier) etkileniyor!

–  Çok büyük ya da çok küçük bir veri dağılımını etkileyebilir

§  Çözüm

–  K-Medoids: Veri ortalamasını kullanmak yerine medoid kullanılabilir.

–  Medoid demet içerisinde en merkezi pozisyondaki veridir.

(26)

Veri Madenciliği

Örnek

demeti orta nokta olan

nesne seçilir.

–  1, 3, 5, 7, 9 ortalama: 5

–  1, 3, 5, 7, 1009 ortalama: 205 –  1, 3, 5, 7, 1009

orta nokta: 5

.

–  1, 3, 5, 7, 9 ortalama: 5

–  1, 3, 5, 7, 1009 ortalama: 205 –  1, 3, 5, 7, 1009 orta nokta: 5

0

1

2

3

4

5

6

7

8

9

10

0 1 2 3 4 5 6 7 8 9 10 100123456789

0 1 2 3 4 5 6 7 8 9 10

26/49

(27)

Medoids Demetleme

Medoids, 1987)

1.  Başlangıçta k adet nesne demetleri temsil etmek üzere rasgele seçilir xik

2.  Kalan nesneler en yakın merkez nesnenin bulunduğu dahil edilir

3.  Merkez

olmayan rasgele bir nesne seçilir xrk 4. xrk

merkez nesne olursa toplam karesel hatanın ne kadar değiştiğini

bulunur

5.  Eğer değişim negatifse yani hata da azalmaya sebep oluyorsa, x

rk merkez nesnemerkez olarak atanır.

6.  Demetlerde

değişiklik oluşmayana kadar 3. adıma geri gidilir.

gidilir.

(28)

Veri Madenciliği

Medoids Algorithm (PAM)

0 1 2 3 4 5 6 7 8 9 10

0 1 2 3 4 5 6 7 8 9 10

Total Cost = 20

0

1

2

3

4

5

6

7

8

9

10

0 1 2 3 4 5 6 7 8 9 10 K=2

Arbitrary choose k object as initial medoids

0 1 2 3 4 5 6 7 8 9 10

0 1 2 3 4 5 6 7 8 9 10

Assign each remainin g object to

nearest medoids

Randomly select a

nonmedoid object,Oramdom

Compute total cost of swapping

0

1

2

3

4

5

6

7

8

9

10

0 1 2 3 4 5 6 7 8 9 10

Total Cost = 26

Swapping O and Oramdom If quality is improved.

Do loop Until no change

0

1

2

3

4

5

6

7

8

9

10

0 1 2 3 4 5 6 7 8 9 10

28/49

(29)

PAM’daki sorunlar

§  Pam k-means ile karşılaştırıldığında daha güvenilir bir algoritma

–  Medoid sapan verilerden (outliers) ortalamaya göre daha az etkilenir

§  Küçük veri kümeleri için iyi sonuç verebilir, ancak büyük veri kümeleri için uygun değil

–  Her iterasyon için karmaşıklık : O(k(n-k)2 )

§  CLARA(Clustering LARge Applications)

§  CLARANS (Ng & Han, 1994)

(30)

Veri Madenciliği

Temel Demetleme Yaklaşımları

§  Bölünmeli yöntemler: Veriyi bölerek, her grubu belirlenmiş bir kritere göre değerlendirir

§  Hiyerar ş ik yöntemler: Veri kümelerini (ya da nesneleri) önceden belirlenmi ş bir kritere göre hiyerar ş ik olarak ayırır

§  Yoğunluk tabanlı yöntemler: Nesnelerin yoğunluğuna göre demetleri oluşturur

§  Model tabanlı yöntemler: Her demetin bir

modele uyduğu varsayılır. Amaç bu modellere uyan verileri gruplamak

30/49

(31)

Hiyerarşik Demetleme

§  İki genel metod

–  Agglomerative:

•  Her veriyi ayrı olarak düşün

•  Her aşamada yakın verileri birleştir

–  Divisive:

•  Tüm verileri bir olarak düşün

•  Her aşamada uzak olanları ayır

§  Benzerlik ya da uzaklık matrisi kullanılır

–  Merge or split one cluster at a time

§  Demet sayısının belirlenmesine gerek yok

–  Sonlanma kriteri belirlenmesi gerekiyor

(32)

Veri Madenciliği

Hiyerarşik Demetleme

Step 0 Step 1 Step 2 Step 3 Step 4

b

d c

e

a a b

d e

c d e

a b c d e

Step 4 Step 3 Step 2 Step 1 Step 0

agglomerative (AGNES)

Aşağıdan yukarıya

divisive (DIANA)

yukarıdan aşağıya

32/49

(33)

Hiyerarşik Demetleme

§  Dendogram: Demetler hiyerarşik olarak ağaç yapısı şeklinde görüntülenebilir

§  Ara düğümler çocuk düğümlerdeki demetlerin birleşmesiyle elde edilir

–  Kök: bütün nesnelerden oluşan tek demet –  Yapraklar: bir nesneden oluşan demetler

§  Dendogram istenen seviyede kesilerek demetler elde edilir

(34)

Veri Madenciliği

Hiyerarşik Demetleme

p4 p1

p3 p2

p4 p1

p3 p2

p4 p1 p2 p3

p4 p1 p2 p3 Traditional Hierarchical

Clustering

Non-traditional Hierarchical Clustering

Non-traditional Dendrogram Traditional Dendrogram

34/49

(35)

Agglomerative Demetleme Algoritması

§  En çok kullanılan hiyeraşik demetleme algoritması

–  Oldukça basit

§  En önemli işlem iki demet arasındaki yakınlığın bulunması

(36)

Veri Madenciliği

İ lk aşama

§  Her veri bir demet

p1

p3

p5 p4 p2

p1 p2 p3 p4 p5 . . .

. .

. Yakınlık Matrisi

...

p1 p2 p3 p4 p9 p10 p11 p12

36/49

(37)

Ara işlemler

§  Bir kaç işlemden sonra demetler oluşur.

C1

C4

C2 C5

C3

C2 C1

C1

C3

C5 C4 C2

C3 C4 C5

Yakınlık Matrisi

(38)

Veri Madenciliği

Ara işlemler

§  En yakın demetler C2 ve C5 birleştirlecek

C1

C4

C2 C5

C3

C2 C1

C1

C3

C5 C4 C2

C3 C4 C5

Yakınlık Matrisi

...

p1 p2 p3 p4 p9 p10 p11 p12

38/49

(39)

Birleşmeden sonra

§  Yakınlık matrisi nasıl güncellenecek

C1

C4

C2 U C5

C3 ? ? ? ?

?

?

? C1 C1

C3 C4 C2 U C5

C3 C4

Yakınlık matrisi

C2 U C5

(40)

Veri Madenciliği

Demetler arası benzerlik (yakınlık)

p1

p3

p5 p4 p2

p1 p2 p3 p4 p5 . . .

. . . Benzerlik?

●  MIN

●  MAX

●  Grup Ortalaması

●  Centroidler arası uzaklık Yakınlık Matrisi

40/49

(41)

Demetler arası benzerlik (yakınlık)

p1

p3

p5 p4 p2

p1 p2 p3 p4 p5 . . .

. . .

●  MIN

●  MAX

●  Grup Ortalaması

●  Centroidler arası uzaklık

(42)

Veri Madenciliği

Demetler arası benzerlik (yakınlık)

p1

p3

p5 p4 p2

p1 p2 p3 p4 p5 . . .

. . .

●  MIN

●  MAX

●  Grup Ortalaması

●  Centroidler arası uzaklık

42/49

(43)

Demetler arası benzerlik (yakınlık)

p1

p3

p5 p4 p2

p1 p2 p3 p4 p5 . . .

. . .

●  MIN

●  MAX

●  Grup Ortalaması

●  Centroidler arası uzaklık

(44)

Veri Madenciliği

Demetler arası benzerlik (yakınlık)

p1

p3

p5 p4 p2

p1 p2 p3 p4 p5 . . .

. . .

●  MIN

●  MAX

●  Grup Ortalaması

●  Centroidler arası uzaklık

× ×

44/49

(45)

Örnek

    p1   p2   p3   p4   p5   p6   p1   0   0,24   0,22   0,37   0,34   0,23   p2   0,24   0   0,15   0,2   0,14   0,25   p3   0,22   0,15   0   0,15   0,28   0,11   p4   0,37   0,2   0,15   0   0,29   0,22   p5   0,34   0,14   0,28   0,29   0   0,39   p6   0,23   0,25   0,11   0,22   0,39   0  

Uzaklık matrisi (Öklid)

(46)

Veri Madenciliği

Hierarchical Clustering: MIN

Nested Clusters Dendrogram

1

2

3 4

5

6 1

2

3

4

5

3 6 2 5 4 1

0 0.05 0.1 0.15 0.2

dist({3,6},{2,5})=min(dist(3,2);dist(6,2);dist(3,5);dist(6,5))=min(0,15;0,25;0,28;0,39)=0,15

46/49

(47)

Hierarchical Clustering: MAX

Nested Clusters Dendrogram

3 6 4 1 2 5

0 0.05 0.1 0.15 0.2 0.25 0.3 0.35

1 0.4

2

3 4

5

6 1

2 5

3 4

dist({3,6},{4})=max(dist(3,4),dist(6,4))=max(0,15 0,22)=0,22

(48)

Veri Madenciliği

Hierarchical Clustering: Group Average

Nested Clusters Dendrogram

3 6 4 1 2 5

0 0.05 0.1 0.15 0.2 0.25

1

2

3

4 5

6 1

2 5

3 4

48/49

(49)

Hierarchical Clustering: Group Average

§  Compromise between Single (min) and Complete (max) Link

§  Strengths

–  Less susceptible to noise and outliers

§  Limitations

–  Biased towards globular clusters

(50)

Veri Madenciliği

Quız J

§  Bir IDS sisteminde

§  Toplam incelenen paket sayısı 1000

§  Ağa yapılan saldırı sayısı 250

§  IDS sisteminin tespit ettiği saldırı sayısı 360

§  IDS sisteminin tespit ettiği gerçek saldırı sayısı 125

§  False positive rate nedir?

§  False negative rate nedir?

50/49

(51)

125 125

235 625

FP rate: 235/1000 FN rate: 125/1000

Referanslar

Benzer Belgeler

Örnek: Yukarıda tanımlanmış olan basit Toplayıcı Hiyerarşik Kümeleme Algoritması için girdi X veri kümesinin matrisi ve grafik gösterimi Şekil 5.3’teki gibi olsun..

Bu işleme veri madenciliği yerine önceleri veri taraması (data dredging), veri yakalanması (data fishing) gibi isimler verilmiştir.?. Veri Madenciliğinin Tarihçesi

5 Peynir, Makarna, Şeker,Bira.. Destek ve güven ölçütleri için eşik değerleri belirlenir.  b) Beş müşterinin alışveriş yaptığı ürünlerin kümesi {şeker, çay,

 Bilginin Dünya üzerinde dağıtık ve çok büyük boyutlarda bulunmasından dolayı bilgiyi bulmak ve erişmek daha önemli hale gelmeye başladı..  Çok büyük bir alanda

 Aynı veri madenciliği sonuçları elde edilecek şekilde veri miktarını azaltma.. Veriyi

 Büyük veri kümesini daha küçük bir alt küme ile temsil etme.  Alt küme

 Modelin doğruluğu, doğru sınıflandırılmış sınama kümesi örneklerinin toplam sınama kümesi örneklerine oranı olarak belirlenir.  Sınama kümesi

Balıkesir Üniversitesi MMF Endüstri Mühendisliği Bölümü Veri Madenciliği Dersi... Karar Ağaçlarında