04.03.2015 Views

Agrupamiento Ejemplos de entrada - GIAA

Agrupamiento Ejemplos de entrada - GIAA

Agrupamiento Ejemplos de entrada - GIAA

SHOW MORE
SHOW LESS

Create successful ePaper yourself

Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.

<strong>Agrupamiento</strong><br />

<strong>Agrupamiento</strong><br />

• Aprendizaje no supervisado. Objetivo: dados ejemplos sin<br />

etiquetar (con clase), <strong>de</strong>terminar un conjunto <strong>de</strong> grupos (clusters)<br />

en los que se pue<strong>de</strong>n dividir<br />

• No hay variable a pre<strong>de</strong>cir, sino se preten<strong>de</strong> <strong>de</strong>scubrir una<br />

estructura en los datos. Ejemplo<br />

– grupos <strong>de</strong> clientes con gustos similares en libros, música, etc., para<br />

análisis <strong>de</strong> mercado<br />

• Suele servir <strong>de</strong> punto <strong>de</strong> partida para <strong>de</strong>spués hacer un análisis <strong>de</strong><br />

clasificación sobre los clusters<br />

• Tipos <strong>de</strong> técnicas:<br />

– Aglomerativas y divisoras<br />

– Numéricas: k -medias, EM<br />

– Conceptuales: cluster/2 y cobweb<br />

<strong>Ejemplos</strong> <strong>de</strong> <strong>entrada</strong><br />

1.9<br />

1.85<br />

1.8<br />

Sitio <strong>de</strong><br />

acceso: A 1<br />

1ª cantidad<br />

gastada: A 2<br />

Vivienda:<br />

A 3<br />

Última<br />

compra: A 4<br />

1 0 2 Libro<br />

1 0 1 Disco<br />

1 2 0 Libro<br />

0 2 1 Libro<br />

1 1 1 Libro<br />

2 2 1 Libro<br />

Conceptual<br />

altura (m)<br />

1.75<br />

1.7<br />

1.65<br />

1.6<br />

1.55<br />

1.5<br />

45 50 55 60 65 70 75 80 85 90<br />

peso (Kg)<br />

Numérico<br />

<strong>Agrupamiento</strong>


Ejemplo <strong>de</strong> salidas<br />

• Conjunto <strong>de</strong> clases<br />

– Clase1: ejemplo4, ejemplo6<br />

– Clase2: ejemplo2, ejemplo3, ejemplo5<br />

– Clase3: ejemplo1<br />

• Jerarquía <strong>de</strong> clases<br />

Clase 1<br />

Clase 2<br />

Clase 3 Clase 4<br />

Clase 5 Clase 6<br />

<strong>Agrupamiento</strong><br />

Ej. Problema a resolver, k=3<br />

5<br />

4<br />

A2?<br />

3<br />

2<br />

1<br />

1 2 3<br />

<strong>Agrupamiento</strong><br />

4<br />

A1?


Solución 1<br />

5<br />

4<br />

A2?<br />

3<br />

2<br />

1<br />

1 2 3<br />

<strong>Agrupamiento</strong><br />

4<br />

A1?<br />

Solución 2<br />

5<br />

4<br />

A2?<br />

3<br />

2<br />

1<br />

1 2 3<br />

<strong>Agrupamiento</strong><br />

4<br />

A1?


<strong>Agrupamiento</strong> con k-medias<br />

Problema a resolver: distribuir los ejemplos en k conjuntos,<br />

minimizando las distancias entre elementos <strong>de</strong>ntro <strong>de</strong> cada grupo<br />

Algoritmo<br />

– Si se tienen que formar k clases, se eligen k ejemplos que<br />

actúan como semillas<br />

– Cada ejemplo se aña<strong>de</strong> a la clase mas similar<br />

– Cuando se termina, se calcula el centroi<strong>de</strong> <strong>de</strong> cada clase,<br />

que pasan a ser las nuevas semillas<br />

– Se repite hasta que se llega a un criterio <strong>de</strong> convergencia<br />

(p.e. Dos iteraciones no cambian las clasificaciones <strong>de</strong> los<br />

ejemplos)<br />

• Es un método <strong>de</strong> optimización local. Depen<strong>de</strong> <strong>de</strong> la elección <strong>de</strong> la<br />

semilla inicial<br />

– Pue<strong>de</strong> iterarse con varias semillas y seleccionar el mejor<br />

– Variantes para agrupamiento jerárquico<br />

<strong>Agrupamiento</strong><br />

Ejemplo <strong>de</strong> k-medias. Inicio<br />

A2?<br />

5<br />

4<br />

3<br />

Semilla 3<br />

2<br />

1<br />

Semilla 1<br />

Semilla 2<br />

<strong>Agrupamiento</strong><br />

1 2 3<br />

4<br />

A1?


Ejemplo <strong>de</strong> k-medias. Iteración 1<br />

5<br />

Centroi<strong>de</strong> 3<br />

4<br />

A2?<br />

3<br />

2<br />

1<br />

Centroi<strong>de</strong> 1<br />

1 2 3<br />

<strong>Agrupamiento</strong><br />

Centroi<strong>de</strong> 2<br />

4<br />

A1?<br />

Ejemplo <strong>de</strong> k-medias. Iteración 2<br />

5<br />

Centroi<strong>de</strong> 3<br />

4<br />

A2?<br />

3<br />

2<br />

1<br />

Centroi<strong>de</strong> 1<br />

1 2 3<br />

<strong>Agrupamiento</strong><br />

Centroi<strong>de</strong> 2<br />

4<br />

A1?


Ejemplo <strong>de</strong> k-medias. Iteración 3<br />

5<br />

Centroi<strong>de</strong> 3<br />

4<br />

A2?<br />

3<br />

2<br />

1<br />

Centroi<strong>de</strong> 1<br />

1 2 3<br />

<strong>Agrupamiento</strong><br />

Centroi<strong>de</strong> 2<br />

4<br />

A1?<br />

Ej2. Problema a resolver, k=2<br />

5<br />

4<br />

A2?<br />

3<br />

2<br />

1<br />

1 2 3<br />

<strong>Agrupamiento</strong><br />

4<br />

A1?


Ej2. Inicio<br />

A2?<br />

5<br />

4<br />

3<br />

Semilla 1 Semilla 2<br />

2<br />

1<br />

1 2 3<br />

<strong>Agrupamiento</strong><br />

4<br />

A1?<br />

Ej2. Situación estable<br />

5<br />

4<br />

A2?<br />

3<br />

2<br />

1<br />

1 2 3<br />

<strong>Agrupamiento</strong><br />

4<br />

A1?


Ej2. Inicio<br />

A2?<br />

5<br />

4<br />

3<br />

Semilla 1<br />

2<br />

Semilla 2<br />

1<br />

<strong>Agrupamiento</strong><br />

1 2 3<br />

4<br />

A1?<br />

Ej2. Situación estable<br />

5<br />

4<br />

A2?<br />

3<br />

2<br />

1<br />

1 2 3<br />

<strong>Agrupamiento</strong><br />

4<br />

A1?


Ej2. Inicio<br />

5<br />

4<br />

Semilla 2<br />

A2?<br />

3<br />

2<br />

1<br />

Semilla 1<br />

<strong>Agrupamiento</strong><br />

1 2 3<br />

4<br />

A1?<br />

Ej2. Situación estable<br />

5<br />

4<br />

A2?<br />

3<br />

2<br />

1<br />

1 2 3<br />

<strong>Agrupamiento</strong><br />

4<br />

A1?


Cálculo <strong>de</strong> la distancia<br />

• Dados dos ejemplos X i , X j , con atributos x il , x jl , l=1,…, F<br />

• La similitud pue<strong>de</strong> estimarse con el inverso <strong>de</strong> la distancia<br />

• Problemas:<br />

– atributos con diferentes rangos o importancias:<br />

• normalizar valores<br />

– atributos nominales:<br />

<strong>Agrupamiento</strong><br />

F<br />

d(X =<br />

2<br />

i , X j)<br />

∑ (xil−x<br />

jl)<br />

l=<br />

1<br />

• distancia estadística (Mahalanobis):<br />

F<br />

2<br />

ρ ρ (xil−x<br />

jl)<br />

d(Xi,<br />

X j)<br />

= ∑ ,<br />

2<br />

l=<br />

1 σ<br />

l<br />

⎪⎧<br />

1,<br />

d(xil,<br />

x jl)<br />

= ⎨<br />

⎪⎩<br />

0,<br />

si xil<br />

≠ x jl<br />

si xil<br />

= x jl<br />

d(Xi,<br />

X j)<br />

=<br />

ρ ρ t<br />

( )<br />

1 ρ ρ<br />

X − X S<br />

−<br />

( X − X )<br />

i<br />

j<br />

i<br />

j<br />

<strong>Agrupamiento</strong> conceptual<br />

• Problema <strong>de</strong> los enfoques numéricos: distancia cuando atributos son no<br />

numéricos<br />

• En el agrupamiento conceptual una partición <strong>de</strong> los datos es buena si<br />

cada clase tiene una buena interpretación conceptual (mo<strong>de</strong>lo cognitivo<br />

<strong>de</strong> jerarquías)<br />

• Hay dos tareas (Fisher y Langley, 85 y 86):<br />

– agrupamiento: <strong>de</strong>terminación <strong>de</strong> subconjuntos útiles <strong>de</strong> un<br />

conjunto <strong>de</strong> datos (métodos numéricos)<br />

– caracterización: <strong>de</strong>terminación <strong>de</strong> un concepto por cada<br />

subconjunto <strong>de</strong>scrito extensionalmente (métodos conceptuales)<br />

• COBWEB es un algoritmo incremental <strong>de</strong> agrupamiento que forma un<br />

árbol añadiendo ejemplos uno por uno<br />

– La actualización con un nuevo ejemplo pue<strong>de</strong> suponer ubicarlo en<br />

su hoja más a<strong>de</strong>cuada, o bien una re-estructuración con la nueva<br />

información<br />

<strong>Agrupamiento</strong>


Ejemplo<br />

e 4 ?<br />

Clase 1<br />

• Varias alternativas <strong>de</strong> particiones:<br />

– P 1 =[{e 1 , e 2 },{e 3 , e 4 }]<br />

– P 2 =[{e 1 , e 2 , e 3 ,}, {e 4 }]<br />

• Calidad <strong>de</strong> cada partición?<br />

• Creación <strong>de</strong> una nueva clase?: [{e 1 , e 2 },{e 3 }, {e 4 }]<br />

<strong>Agrupamiento</strong><br />

Clase 2 Clase 3<br />

e 1 , e 2 e 3<br />

Creación <strong>de</strong>l árbol<br />

• COBWEB crea incrementalmente un árbol cuyos nodos son<br />

conceptos probabilísticos<br />

• La clasificación consiste en <strong>de</strong>scen<strong>de</strong>r por las ramas cuyos nodos<br />

se equiparen mejor, basándose en los valores <strong>de</strong> varios atributos<br />

al mismo tiempo<br />

• Realiza búsqueda en escalada en el espacio <strong>de</strong> árboles<br />

probabilísticos <strong>de</strong> clasificación<br />

• Operadores:<br />

– Clasificar una instancia en una clase (nodo)<br />

– Crear una nueva clase<br />

– Combinar dos clases en una<br />

– Separar una clase en varias<br />

– Promocionar un nodo<br />

• En cada nodo se guarda:<br />

– Número <strong>de</strong> instancias por <strong>de</strong>bajo<br />

– En cada atributo Aj, valor l, número <strong>de</strong> ejemplos con A j<br />

= V jl<br />

<strong>Agrupamiento</strong>


<strong>Agrupamiento</strong><br />

Operadores <strong>de</strong> agrupamiento<br />

• Clasificar una instancia:<br />

– Se introduce la instancia en cada una <strong>de</strong> las clases<br />

sucesoras <strong>de</strong> la actual y se evalúan las distintas categorías<br />

– Si el mejor es un nodo hoja, se introduce en el. Si no, se<br />

llama recursivamente al algoritmo con él<br />

• Crear una clase:<br />

– Se comparan las calida<strong>de</strong>s <strong>de</strong>:<br />

• la partición creada por añadir la instancia a la mejor clase<br />

• la partición resultante <strong>de</strong> crear una nueva clase para esa<br />

instancia sola<br />

– En caso <strong>de</strong> ser mejor que este s ola, se crea un nuevo<br />

sucesor <strong>de</strong> la clase actual<br />

Operadores <strong>de</strong> agrupamiento<br />

• Los dos operadores anteriores <strong>de</strong>pen<strong>de</strong>n mucho <strong>de</strong>l or<strong>de</strong>n <strong>de</strong> los<br />

ejemplos.<br />

– Un análisis completo <strong>de</strong> reestructuración no es viable<br />

– Se incorporan dos operadores básicos para compensar:<br />

• Combinar dos nodos: Cuando se intenta clasificar una instancia<br />

en un nivel, se intentan mezclar las dos mejores clases y se<br />

evalúan las categorías <strong>de</strong> si están mejor solas o juntas en una<br />

misma categoría<br />

e?<br />

A<br />

B<br />

<strong>Agrupamiento</strong><br />

A<br />

B


Operadores <strong>de</strong> agrupamiento<br />

• Separar dos nodos: Cuando se intenta introducir una instancia<br />

en una clase que tenga sucesores, se estudia si se pue<strong>de</strong>n subir<br />

los sucesores al mismo nivel que la clase<br />

e?<br />

e?<br />

A<br />

B<br />

• Promocionar un nodo: El mismo operador anterior, pero<br />

individualizado para un solo nodo<br />

A<br />

B<br />

e?<br />

e?<br />

A<br />

<strong>Agrupamiento</strong><br />

B<br />

A<br />

B<br />

<strong>Agrupamiento</strong><br />

Heurística <strong>de</strong> búsqueda<br />

• Define el nivel básico (aspecto cognitivo)<br />

• Ayuda a consi<strong>de</strong>rar al mismo tiempo la similitud intra-clase y la disimilitud<br />

inter-clases<br />

– Intra-clase (p( A i<br />

= V ij<br />

lC k<br />

)): cuanto mas gran<strong>de</strong>, más ejemplos en la<br />

clase comparten el mismo valor (clases homogéneas)<br />

– Inter-clases (p( C k<br />

|A i<br />

=V ij<br />

)): cuanto mas gran<strong>de</strong>, menos ejemplos <strong>de</strong><br />

distintas clases comparten el mismo valor (separación entre clases)<br />

• Calidad <strong>de</strong> una partición {C 1<br />

, C 2<br />

,...,C M<br />

}, C k<br />

mutuamente excluyentes, es<br />

un compromiso entre las dos:<br />

M<br />

∑∑∑ p(Ai = Vij)p(Ck<br />

| Ai<br />

= Vij)p(Ai<br />

= Vij<br />

| Ck<br />

)<br />

k=<br />

1 i j<br />

don<strong>de</strong> p(A i<br />

=V ij<br />

) prefiere valores más frecuentes


<strong>Agrupamiento</strong><br />

Utilidad <strong>de</strong> una categoría<br />

• Como, según Bayes,<br />

p (A i =V ij )p(C k |A i =V ij ) = p(C k )p(A i =V ij |C k )<br />

sustituyendo: M<br />

2<br />

∑ p(Ck ) ∑∑ p(Ai<br />

= Vij<br />

| Ck<br />

)<br />

k=<br />

1 i j<br />

2<br />

don<strong>de</strong> ∑∑ i jp(Ai = Vij<br />

| Ck<br />

) es el numero esperado <strong>de</strong><br />

valores <strong>de</strong> atributos que se pue<strong>de</strong>n pre<strong>de</strong>cir correctamente para<br />

un miembro cualquiera <strong>de</strong> C k<br />

• La utilidad <strong>de</strong> una categoría C k es la mejora con respecto a no<br />

tener información <strong>de</strong> la partición:<br />

⎡<br />

2<br />

p(C k ) ⎢∑∑ p(A i = Vij<br />

| C k ) − ∑∑ p(A i = Vij<br />

)<br />

⎣ i j<br />

i j<br />

2<br />

⎤<br />

⎥<br />

⎦<br />

<strong>Agrupamiento</strong><br />

Utilidad <strong>de</strong> una partición<br />

• La utilidad <strong>de</strong> una partición P={C 1 , C 2 , ..., C M } es:<br />

CU(P) =<br />

1<br />

M<br />

M<br />

∑<br />

⎡<br />

2<br />

p(Ck ) ⎢∑∑ p(Ai<br />

= Vij<br />

| Ck<br />

) − ∑∑ p(Ai<br />

= Vij)<br />

⎣ i j<br />

k=<br />

1<br />

i j<br />

• Para evitar sobrea<strong>de</strong>cuamiento (un grupo por ejemplo)<br />

– Factor 1/M:<br />

– Factor <strong>de</strong> poda (cut-off): mejora en utilidad por una subdivisión<br />

• Si el valor V ij <strong>de</strong> un atributo A i es in<strong>de</strong>pendiente <strong>de</strong> la pertenencia<br />

a la clase C k :<br />

p(A i =V ij |C k ) = p(A i =V ij )<br />

para ese valor la utilidad <strong>de</strong> la partición es nula<br />

• Si lo anterior es cierto para todos los valores l, el atributo A j es<br />

irrelevante<br />

2<br />

⎥<br />

⎦<br />


<strong>Agrupamiento</strong><br />

Atributos numéricos<br />

• Los atributos numéricos se mo<strong>de</strong>lan con una distribución normal<br />

f (a ) =<br />

i<br />

1 ⎡ 1 (a − µ<br />

⎢−<br />

i )<br />

exp<br />

2πσ<br />

2<br />

⎣ 2 σ<br />

• Equivalente a suma cuadrática <strong>de</strong> probabilida<strong>de</strong>s:<br />

+∞<br />

2 2<br />

1<br />

∑ jp(Ai<br />

= Vij<br />

| Ck<br />

) ↔ ∫ f (ai)dai<br />

=<br />

−∞<br />

2 πσi<br />

1 M 1 ⎛ 1 1 ⎞<br />

CU (C 1 , C 2 ,..., C M ) = ∑ p (C k ) ∑ ⎜ − ⎟<br />

M k = 1 2 π i ⎝ σ ik σ i ⎠<br />

⎤<br />

⎥<br />

⎦<br />

• Un grupo con un ejemplo tendría utilidad infinita:<br />

– Agu<strong>de</strong>za (acurity): mínima varianza en un grupo<br />

2<br />

Algoritmo <strong>de</strong> agrupamiento<br />

Nodo COBWEB (Instancia,Nodo) {<br />

Actualizar los contadores <strong>de</strong> Nodo;<br />

Si Nodo es hoja<br />

Entonces IncluirInstancia (Instancia,Nodo);<br />

Devolver Nodo<br />

Si no MejorNodo= MejorClase (Instancia,Nodo);<br />

Si es apropiado crear una nueva clase<br />

Entonces Nuevo-nodo:= CrearNodo (Instancia,Nodo);<br />

Devolver Nuevo-nodo<br />

Si es apropiado combinar dos nodos<br />

Entonces Nuevo-nodo:= CombinarNodos (Instancia,Nodo);<br />

Devolver COBWEB (Instancia,Nuevo-nodo)<br />

Si es apropiado separar dos nodos<br />

Entonces Nuevo-nodo:= SepararNodos (Instancia,Nodo);<br />

Devolver COBWEB (Instancia,Nodo)<br />

Si es apropiado promocionar un nodo<br />

Entonces Nuevo-nodo:= PromocionarNodo (Instancia,Nodo);<br />

Devolver COBWEB (Instancia,Nodo)<br />

Si no, Devolver COBWEB (Instancia,MejorNodo) }<br />

<strong>Agrupamiento</strong>


<strong>Agrupamiento</strong> probabilístico (EM)<br />

• El agrupamiento con categorías presenta algunos problemas<br />

– Depen<strong>de</strong>ncia <strong>de</strong>l or<strong>de</strong>n<br />

– Ten<strong>de</strong>ncia al sobreajuste<br />

• Esta aproximación evita las divisiones prematuras, asignando<br />

parámetros a un mo<strong>de</strong>lo <strong>de</strong> mezcla <strong>de</strong> distribuciones<br />

• Mezcla <strong>de</strong> k distribuciones <strong>de</strong> probabilidad, representando los k<br />

0.06<br />

clusters.<br />

0.05<br />

µ1=18; µ2=40;<br />

0.04<br />

σ1=8; σ2=6;<br />

0.03<br />

p1=0.6<br />

0.02<br />

p2=0.4<br />

p(a)<br />

0.01<br />

0<br />

0 10 20 30 40 50 60<br />

a<br />

• Se <strong>de</strong>termina la probabilidad <strong>de</strong> que cada instancia proceda <strong>de</strong><br />

cada grupo<br />

<strong>Agrupamiento</strong><br />

Algoritmo EM<br />

• Se <strong>de</strong>termina el número <strong>de</strong> grupos a ajustar: k<br />

• En cada grupo, parámetros <strong>de</strong> las distribuciones <strong>de</strong> cada atributo<br />

p i<br />

, µ i<br />

, σ i<br />

i=1...k<br />

Ej.: 2 grupos (A, B) y un atributo: 5 parámetros<br />

• En cada iteración hay dos etapas:<br />

• “Expectation”: se calculan las probabilida<strong>de</strong>s <strong>de</strong> cada ejemplo en<br />

cada uno <strong>de</strong> los grupos<br />

⎡<br />

2<br />

f (x | A)p<br />

− µ ⎤<br />

= A 1 1 (x<br />

= ⎢−<br />

A )<br />

Pr(A | x)<br />

; f (x | A) exp<br />

⎥<br />

f (x)<br />

2πσ<br />

2<br />

A ⎣ 2 σA<br />

⎦<br />

• “Maximization”: se calculan los parámetros <strong>de</strong> las distribuciones<br />

que maximicen la verosimilitud <strong>de</strong> las distribuciones<br />

wi<br />

= Pr(A | xi);<br />

w1x1<br />

+ ...w x<br />

µ<br />

n n<br />

A =<br />

;<br />

w1<br />

+ ...w n<br />

<strong>Agrupamiento</strong><br />

2<br />

2 w1(x1<br />

− µ A ) + ...w n (xn<br />

− µ A )<br />

σA<br />

=<br />

;<br />

w1<br />

+ ...w n


Algoritmo EM<br />

• Condición <strong>de</strong> parada:<br />

– se estima la verosimilitud sobre todo el conjunto <strong>de</strong> instancias:<br />

n<br />

∏ [ f (xi<br />

| A)pA<br />

+ f (xi<br />

| B) pB]<br />

i=<br />

1<br />

– se para cuando la mejora en sucesivas iteraciones está <strong>de</strong>bajo <strong>de</strong> ε<br />

• Extensión:<br />

– <strong>Ejemplos</strong> con varios atributos y clases<br />

• Pue<strong>de</strong> asumirse in<strong>de</strong>pen<strong>de</strong>ncia (Naive Bayes) o estimar<br />

covarianzas (problema <strong>de</strong> sobreajuste)<br />

– Atributos nominales:<br />

• Se <strong>de</strong>terminan las probabilida<strong>de</strong>s condicionales para cada<br />

valor<br />

– No asegura mínimo global: varias iteraciones<br />

– Se pue<strong>de</strong>n estimar el número <strong>de</strong> grupos automáticamente,<br />

mediante validación cruzada<br />

<strong>Agrupamiento</strong><br />

Ejemplo<br />

• 300 datos proce<strong>de</strong>ntes <strong>de</strong> dos distribuciones (no conocidas)<br />

– pA=0.8; µA=18; σA=8; pB=0.2; µB=50; σB=6;<br />

• Inicialización:<br />

– pA=pB=0.5; σA=σΒ=10.0;µA,µB en dos ejemplos al azar<br />

0.045<br />

0.04<br />

0.035<br />

0.03<br />

0.025<br />

0.02<br />

0.015<br />

0.01<br />

0.005<br />

0<br />

-20 -10 0 10 20 30 40 50 60 70<br />

<strong>Agrupamiento</strong>


Ejemplo<br />

0.045<br />

0.04<br />

0.035<br />

0.03<br />

0.025<br />

0.02<br />

Iteración 2<br />

pA = 0.57; mA =30.68;<br />

sA =15.0299<br />

pB = 0.42; mB =14.61<br />

sB = 7.23<br />

0.045<br />

0.04<br />

0.035<br />

0.03<br />

0.025<br />

0.02<br />

Iteración 5<br />

pA = 0.45; mA =33.42;<br />

sA =16.38<br />

pB = 0.55; mB =16.05<br />

sB = 6.1<br />

0.015<br />

0.015<br />

0.01<br />

0.01<br />

0.005<br />

0.005<br />

0<br />

-20 -10 0 10 20 30 40 50 60 70<br />

0<br />

-20 -10 0 10 20 30 40 50 60 70<br />

0.045<br />

0.045<br />

0.04<br />

0.035<br />

0.03<br />

0.025<br />

0.02<br />

0.015<br />

Iteración 15<br />

pA = 0.33; mA =39.0;<br />

sA =14.7<br />

pB = 0.67; mB =16.37<br />

sB = 6.75<br />

0.04<br />

0.035<br />

0.03<br />

0.025<br />

0.02<br />

0.015<br />

Iteración 30<br />

pA = 0.2; mA =49.2;<br />

sA =7.1<br />

pB = 0.8; mB =17.54<br />

sB = 7.54<br />

0.01<br />

0.01<br />

0.005<br />

0.005<br />

0<br />

-20 -10 0 10 20 30 40 50 60 70<br />

0<br />

-20 -10 0 10 20 30 40 50 60 70<br />

<strong>Agrupamiento</strong>

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!