El enfoque de suficiencia en la reducción de dimensiones

Transcripción

El enfoque de suficiencia en la reducción de dimensiones
El enfoque de suciencia en la reducción de dimensiones
para el reconocimiento de patrones
Diego Tomassi
Trabajo conjunto con Liliana Forzani y Diego Milone
sinc(i )
C O N I CE T
11 de junio de 2010
Introducción
Antecedentes
Reducciones sucientes
Simulaciones
Comentarios nales
Organización
1
Introducción
2
Antecedentes
3
El enfoque de reducción suciente de dimensiones
4
Simulaciones
5
Comentarios nales
Diego Tomassi (sinc(i)-IMAL)
Enfoque de suciencia en discrimimación
11 de junio de 2010
2 / 24
Introducción
Antecedentes
Reducciones sucientes
Simulaciones
Comentarios nales
Organización
1
Introducción
2
Antecedentes
3
El enfoque de reducción suciente de dimensiones
4
Simulaciones
5
Comentarios nales
Diego Tomassi (sinc(i)-IMAL)
Enfoque de suciencia en discrimimación
11 de junio de 2010
3 / 24
Introducción
Antecedentes
Reducciones sucientes
Simulaciones
Comentarios nales
El problema de clasicación
Ejemplos
Detección de patologías para asistencia de diagnóstico médico.
Reconocimiento de rostros y aplicaciones biométricas en general.
Reconocimiento de escritura manuscrita (tablet PC).
Reconocimiento del habla.
Filtros anti-spam.
Diego Tomassi (sinc(i)-IMAL)
Enfoque de suciencia en discrimimación
11 de junio de 2010
4 / 24
Introducción
Antecedentes
Reducciones sucientes
Simulaciones
Comentarios nales
El problema de clasicación
Sean Y = 1, 2, . . . , h las clases y X ∈ Rp las características.
Un clasicador es una función f : Rp → {1, 2, . . . , h} tal que la predicción
Yb = f (X) tiene una mínima probabilidad de error.
Diego Tomassi (sinc(i)-IMAL)
Enfoque de suciencia en discrimimación
11 de junio de 2010
5 / 24
Introducción
Antecedentes
Reducciones sucientes
Simulaciones
Comentarios nales
El problema de clasicación
Sean Y = 1, 2, . . . , h las clases y X ∈ Rp las características.
Un clasicador es una función f : Rp → {1, 2, . . . , h} tal que la predicción
Yb = f (X) tiene una mínima probabilidad de error.
Si conocemos p(Y, X) la regla óptima es
f (X) = arg max p(Y = y|X)
y
Diego Tomassi (sinc(i)-IMAL)
Enfoque de suciencia en discrimimación
11 de junio de 2010
5 / 24
Introducción
Antecedentes
Reducciones sucientes
Simulaciones
Comentarios nales
El problema de clasicación
Suponemos modelos paramétricos para p(X|Y = y).
Usamos un conjunto de ejemplos {(Yi , Xi )} para estimar.
Diego Tomassi (sinc(i)-IMAL)
Enfoque de suciencia en discrimimación
11 de junio de 2010
6 / 24
Introducción
Antecedentes
Reducciones sucientes
Simulaciones
Comentarios nales
El problema de clasicación
Suponemos modelos paramétricos para p(X|Y = y).
Usamos un conjunto de ejemplos {(Yi , Xi )} para estimar.
Denidos los modelos, el diseño del clasicador se reduce a un problema
de estimación de parámetros.
Diego Tomassi (sinc(i)-IMAL)
Enfoque de suciencia en discrimimación
11 de junio de 2010
6 / 24
Introducción
Antecedentes
Reducciones sucientes
Simulaciones
Comentarios nales
El problema de clasicación
Suponemos modelos paramétricos para p(X|Y = y).
Usamos un conjunto de ejemplos {(Yi , Xi )} para estimar.
Denidos los modelos, el diseño del clasicador se reduce a un problema
de estimación de parámetros.
¾Qué modelos se usan?
Gaussianas
Mezclas de Gaussianas
Modelos ocultos de Markov
...
Diego Tomassi (sinc(i)-IMAL)
Enfoque de suciencia en discrimimación
11 de junio de 2010
6 / 24
Introducción
Antecedentes
Reducciones sucientes
Simulaciones
Comentarios nales
El problema de clasicación
Suponemos modelos paramétricos para p(X|Y = y).
Usamos un conjunto de ejemplos {(Yi , Xi )} para estimar.
Denidos los modelos, el diseño del clasicador se reduce a un problema
de estimación de parámetros.
¾Qué modelos se usan?
Gaussianas
X|Y = y ∼ N (X|µy , ∆y )
Diego Tomassi (sinc(i)-IMAL)
Enfoque de suciencia en discrimimación
11 de junio de 2010
6 / 24
Introducción
Antecedentes
Reducciones sucientes
Simulaciones
Comentarios nales
Reducción de dimensiones
¾Para qué?
Disminuir varianza de estimadores.
Diego Tomassi (sinc(i)-IMAL)
Enfoque de suciencia en discrimimación
11 de junio de 2010
7 / 24
Introducción
Antecedentes
Reducciones sucientes
Simulaciones
Comentarios nales
Reducción de dimensiones
¾Para qué?
Disminuir varianza de estimadores.
Facilitar la decisión del clasicador.
Diego Tomassi (sinc(i)-IMAL)
Enfoque de suciencia en discrimimación
11 de junio de 2010
7 / 24
Introducción
Antecedentes
Reducciones sucientes
Simulaciones
Comentarios nales
Reducción de dimensiones
2500
2000
1500
1000
500
1
2
0.3
0.2
0.1
1
0
−1
−2
−2.5
−3
−3.5
−4
−4.5
5001000
1500
2000
2500
Diego Tomassi (sinc(i)-IMAL)
0.1 0.2 0.3 −2
−1
0
1 −4.5 −4 −3.5 −3 −2.5
Enfoque de suciencia en discrimimación
11 de junio de 2010
7 / 24
Introducción
Antecedentes
Reducciones sucientes
Simulaciones
Comentarios nales
Reducción de dimensiones
SDR−2
Analysis using SDR model
SDR−1
Diego Tomassi (sinc(i)-IMAL)
Enfoque de suciencia en discrimimación
11 de junio de 2010
7 / 24
Introducción
Antecedentes
Reducciones sucientes
Simulaciones
Comentarios nales
Reducción de dimensiones
¾Para qué?
Facilitar la decisión del clasicador.
Disminuir varianza de estimadores.
Reducir costo computacional.
Diego Tomassi (sinc(i)-IMAL)
Enfoque de suciencia en discrimimación
11 de junio de 2010
7 / 24
Introducción
Antecedentes
Reducciones sucientes
Simulaciones
Comentarios nales
Reducción de dimensiones
¾Para qué?
Facilitar la decisión del clasicador.
Disminuir varianza de estimadores.
Reducir costo computacional.
¾Qué buscamos?
Una reducción R : Rp → Rd , d ≤ p tal que para cada X
p(Y = y|R(X)) = p(Y = y|X)
Diego Tomassi (sinc(i)-IMAL)
Enfoque de suciencia en discrimimación
11 de junio de 2010
7 / 24
Introducción
Antecedentes
Reducciones sucientes
Simulaciones
Comentarios nales
Organización
1
Introducción
2
Antecedentes
3
El enfoque de reducción suciente de dimensiones
4
Simulaciones
5
Comentarios nales
Diego Tomassi (sinc(i)-IMAL)
Enfoque de suciencia en discrimimación
11 de junio de 2010
8 / 24
Introducción
Antecedentes
Reducciones sucientes
Simulaciones
Comentarios nales
Métodos usados comúnmente
Consideremos:
Reducciones lineales R(X) = θT X, con θ ∈ Rp×d .
Estimación de máxima verosimilitud.
Diego Tomassi (sinc(i)-IMAL)
Enfoque de suciencia en discrimimación
11 de junio de 2010
9 / 24
Introducción
Antecedentes
Reducciones sucientes
Simulaciones
Comentarios nales
Métodos usados comúnmente
Análisis discriminante lineal (LDA)
Diego Tomassi (sinc(i)-IMAL)
Enfoque de suciencia en discrimimación
11 de junio de 2010
9 / 24
Introducción
Antecedentes
Reducciones sucientes
Simulaciones
Comentarios nales
Métodos usados comúnmente
Análisis discriminante lineal (LDA)
Análisis discriminante lineal para modelos heteroscedásticos (HLDA).
Sea Θ = (θ θ0 ) ∈ Rp×p , θ ∈ Rp×d , θT θ = Id , θT θ0 = 0.
Supongamos ΘT X ∼ N (µ∗y , ∆∗y ), con
µ∗y
T θ µy
=
θ T0 µ
Diego Tomassi (sinc(i)-IMAL)
∆∗y
Enfoque de suciencia en discrimimación
Ωy 0
=
0 Ω0
11 de junio de 2010
9 / 24
Introducción
Antecedentes
Reducciones sucientes
Simulaciones
Comentarios nales
Métodos usados comúnmente
Análisis discriminante lineal (LDA)
Análisis discriminante lineal para modelos heteroscedásticos (HLDA).
Sea Θ = (θ θ0 ) ∈ Rp×p , θ ∈ Rp×d , θT θ = Id , θT θ0 = 0.
Supongamos ΘT X ∼ N (µ∗y , ∆∗y ), con
µ∗y
T θ µy
=
θ T0 µ
∆∗y
Ωy 0
=
0 Ω0
HLDA busca Θ que maximiza
h
n
1X
˜ y θ|.
ny log |θ T ∆
LHLDA (θ) = − log |θ T Σ̃−1 θ| −
2
2
y=1
Diego Tomassi (sinc(i)-IMAL)
Enfoque de suciencia en discrimimación
11 de junio de 2010
9 / 24
Introducción
Antecedentes
Reducciones sucientes
Simulaciones
Comentarios nales
Nos preguntamos...
¾Se satisface p(Y = y|θTHLDA X) = p(Y = y|X) para todo X?
¾Es span(θHLDA ) el menor subespacio que conserva la información?
Diego Tomassi (sinc(i)-IMAL)
Enfoque de suciencia en discrimimación
11 de junio de 2010
10 / 24
Introducción
Antecedentes
Reducciones sucientes
Simulaciones
Comentarios nales
Organización
1
Introducción
2
Antecedentes
3
El enfoque de reducción suciente de dimensiones
4
Simulaciones
5
Comentarios nales
Diego Tomassi (sinc(i)-IMAL)
Enfoque de suciencia en discrimimación
11 de junio de 2010
11 / 24
Introducción
Antecedentes
Reducciones sucientes
Simulaciones
Comentarios nales
Resultados conocidos
Cook y Yin, 2001: para X|Y = y ∼ N (µy , ∆y ):
f (θ T X) = f (X) ⇔ X|(Y, θ T X) ∼ X|θ T X
Diego Tomassi (sinc(i)-IMAL)
Enfoque de suciencia en discrimimación
11 de junio de 2010
12 / 24
Introducción
Antecedentes
Reducciones sucientes
Simulaciones
Comentarios nales
Resultados conocidos
Cook y Yin, 2001: para X|Y = y ∼ N (µy , ∆y ):
f (θ T X) = f (X) ⇔ X|(Y, θ T X) ∼ X|θ T X
Diego Tomassi (sinc(i)-IMAL)
Enfoque de suciencia en discrimimación
11 de junio de 2010
12 / 24
Introducción
Antecedentes
Reducciones sucientes
Simulaciones
Comentarios nales
Resultados conocidos
Cook y Yin, 2001: para X|Y = y ∼ N (µy , ∆y ):
f (θ T X) = f (X) ⇔ X|(Y, θ T X) ∼ X|θ T X
Cook y Forzani, 2008:
Supongamos que X|Y = y ∼ N (µy , ∆y ), y = 1, 2, . . . , h. Sea ∆ = E(∆y ),
θ ∈ Rp×d una matriz semiortogonal y sea (θ θ 0 ) ∈ Rp×p una matriz
ortogonal. θT X es una reducción lineal suciente si y sólo si
1
2
span(µy − µ) ⊆ ∆span(θ).
θ T0 ∆y−1 es constante.
Diego Tomassi (sinc(i)-IMAL)
Enfoque de suciencia en discrimimación
11 de junio de 2010
12 / 24
Introducción
Antecedentes
Reducciones sucientes
Simulaciones
Comentarios nales
Resultados conocidos
Cook y Yin, 2001: para X|Y = y ∼ N (µy , ∆y ):
f (θ T X) = f (X) ⇔ X|(Y, θ T X) ∼ X|θ T X
Cook y Forzani, 2008:
Supongamos que X|Y = y ∼ N (µy , ∆y ), y = 1, 2, . . . , h. Sea ∆ = E(∆y ),
θ una matriz semiortogonal y sea (θ θ 0 ) ∈ Rp×p una matriz ortogonal.
θ T X es una reducción lineal suciente si y sólo si
µy = µ + ∆θνy ,
∆y = ∆ + ∆θTy θ T ∆ .
con E(νy ) = 0 y E(Ty ) = 0.
Diego Tomassi (sinc(i)-IMAL)
Enfoque de suciencia en discrimimación
11 de junio de 2010
12 / 24
Introducción
Antecedentes
Reducciones sucientes
Simulaciones
Comentarios nales
Estimador MLE para θ
El estimador de máxima verosimilitud θLAD que maximiza la función
LLAD (θ) = const +
n
1X
˜ y θ|,
log |θ T Σ̃θ| −
ny log |θ T ∆
2
2 y
provee una reducción lineal suciente mínima θTLAD X.
Diego Tomassi (sinc(i)-IMAL)
Enfoque de suciencia en discrimimación
11 de junio de 2010
13 / 24
Introducción
Antecedentes
Reducciones sucientes
Simulaciones
Comentarios nales
HLDA bajo el enfoque de suciencia
Recordemos que en HLDA ΘT X ∼ N (µ∗y , ∆∗y )
µ∗y =
T θ µy
θ T0 µ
∆∗y =
Ωy 0
0 Ω0
X|Y = y ∼ N (µ + θγy , θΩy θ T + θ 0 Ω0 θ T0 ).
Si Ω = E(Ωy ), ∆ = θΩθT + θ0 Ω0 θT0 . Entonces ∆θ = θA y
µy = µ + θγy = µ + θAνy = µ + ∆θνy .
∆y − ∆ = θ(Ωy − Ω)θ T = θATy AT θ T = ∆θTy θ T ∆.
Luego, θ = θHLDA es una reducción suciente bajo este modelo para
X|Y = y .
Diego Tomassi (sinc(i)-IMAL)
Enfoque de suciencia en discrimimación
11 de junio de 2010
14 / 24
Introducción
Antecedentes
Reducciones sucientes
Simulaciones
Comentarios nales
HLDA bajo el enfoque de suciencia
Recordemos que en HLDA ΘT X ∼ N (µ∗y , ∆∗y )
µ∗y =
T θ µy
θ T0 µ
∆∗y =
Ωy 0
0 Ω0
X|Y = y ∼ N (µ + θγy , θΩy θ T + θ 0 Ω0 θ T0 ).
Si Ω = E(Ωy ), ∆ = θΩθT + θ0 Ω0 θT0 . Entonces ∆θ = θA y
µy = µ + θγy = µ + θAνy = µ + ∆θνy .
∆y − ∆ = θ(Ωy − Ω)θ T = θATy AT θ T = ∆θTy θ T ∆.
Luego, θ = θHLDA es una reducción suciente bajo este modelo para
X|Y = y .
Diego Tomassi (sinc(i)-IMAL)
Enfoque de suciencia en discrimimación
11 de junio de 2010
14 / 24
Introducción
Antecedentes
Reducciones sucientes
Simulaciones
Comentarios nales
HLDA bajo el enfoque de suciencia
Recordemos que en HLDA ΘT X ∼ N (µ∗y , ∆∗y )
µ∗y =
T θ µy
θ T0 µ
∆∗y =
Ωy 0
0 Ω0
X|Y = y ∼ N (µ + θγy , θΩy θ T + θ 0 Ω0 θ T0 ).
Si Ω = E(Ωy ), ∆ = θΩθT + θ0 Ω0 θT0 . Entonces ∆θ = θA y
µy = µ + θγy = µ + θAνy = µ + ∆θνy .
∆y − ∆ = θ(Ωy − Ω)θ T = θATy AT θ T = ∆θTy θ T ∆.
Luego, θ = θHLDA es una reducción suciente bajo este modelo para
X|Y = y .
Diego Tomassi (sinc(i)-IMAL)
Enfoque de suciencia en discrimimación
11 de junio de 2010
14 / 24
Introducción
Antecedentes
Reducciones sucientes
Simulaciones
Comentarios nales
HLDA bajo el enfoque de suciencia
Recordemos que en HLDA ΘT X ∼ N (µ∗y , ∆∗y )
µ∗y =
T θ µy
θ T0 µ
∆∗y =
Ωy 0
0 Ω0
X|Y = y ∼ N (µ + θγy , θΩy θ T + θ 0 Ω0 θ T0 ).
Si Ω = E(Ωy ), ∆ = θΩθT + θ0 Ω0 θT0 . Entonces ∆θ = θA y
µy = µ + θγy = µ + θAνy = µ + ∆θνy .
∆y − ∆ = θ(Ωy − Ω)θ T = θATy AT θ T = ∆θTy θ T ∆.
Luego, θ = θHLDA es una reducción suciente bajo este modelo para
X|Y = y .
Diego Tomassi (sinc(i)-IMAL)
Enfoque de suciencia en discrimimación
11 de junio de 2010
14 / 24
Introducción
Antecedentes
Reducciones sucientes
Simulaciones
Comentarios nales
HLDA bajo el enfoque de suciencia
Recordemos que en HLDA ΘT X ∼ N (µ∗y , ∆∗y )
µ∗y =
T θ µy
θ T0 µ
∆∗y =
Ωy 0
0 Ω0
X|Y = y ∼ N (µ + θγy , θΩy θ T + θ 0 Ω0 θ T0 ).
Si Ω = E(Ωy ), ∆ = θΩθT + θ0 Ω0 θT0 . Entonces ∆θ = θA y
µy = µ + θγy = µ + θAνy = µ + ∆θνy .
∆y − ∆ = θ(Ωy − Ω)θ T = θATy AT θ T = ∆θTy θ T ∆.
Luego, θ = θHLDA es una reducción suciente bajo este modelo para
X|Y = y .
Diego Tomassi (sinc(i)-IMAL)
Enfoque de suciencia en discrimimación
11 de junio de 2010
14 / 24
Introducción
Antecedentes
Reducciones sucientes
Simulaciones
Comentarios nales
HLDA y minimalidad
Cuando ∆y satisface el modelo de HLDA, el subespacio de reducción
estimado, ¾es el menor posible? No necesariamente.
Sea α ∈ Ru una base para ese subespacio de reducción mínimo.
span(θ) ⊇ span(α) también es un subespacio de reducción suciente.
En HLDA, θ es una base para el subespacio que contiene a span(α) tal
que ∆y = θΩy θT + θ0 Ω0 θT0 .
Existe A ∈ Rd×u : α = θA y α maximiza
n
n
log |θ T Σ̃−1 θ| − log |θ T Σ̃θ| −
2
2
n
1X
T T
˜ y θA|.
− log |A θ Σ̃θA| −
ny log |AT θ T ∆
2
2 y
L(θ, A) = const −
Diego Tomassi (sinc(i)-IMAL)
Enfoque de suciencia en discrimimación
11 de junio de 2010
15 / 24
Introducción
Antecedentes
Reducciones sucientes
Simulaciones
Comentarios nales
HLDA y minimalidad
Cuando ∆y satisface el modelo de HLDA, el subespacio de reducción
estimado, ¾es el menor posible? No necesariamente.
Sea α ∈ Ru una base para ese subespacio de reducción mínimo.
span(θ) ⊇ span(α) también es un subespacio de reducción suciente.
En HLDA, θ es una base para el subespacio que contiene a span(α) tal
que ∆y = θΩy θT + θ0 Ω0 θT0 .
Existe A ∈ Rd×u : α = θA y α maximiza
n
n
log |θ T Σ̃−1 θ| − log |θ T Σ̃θ| −
2
2
n
1X
T T
˜ y θA|.
− log |A θ Σ̃θA| −
ny log |AT θ T ∆
2
2 y
L(θ, A) = const −
Diego Tomassi (sinc(i)-IMAL)
Enfoque de suciencia en discrimimación
11 de junio de 2010
15 / 24
Introducción
Antecedentes
Reducciones sucientes
Simulaciones
Comentarios nales
HLDA y minimalidad
Cuando ∆y satisface el modelo de HLDA, el subespacio de reducción
estimado, ¾es el menor posible? No necesariamente.
Sea α ∈ Ru una base para ese subespacio de reducción mínimo.
span(θ) ⊇ span(α) también es un subespacio de reducción suciente.
En HLDA, θ es una base para el subespacio que contiene a span(α) tal
que ∆y = θΩy θT + θ0 Ω0 θT0 .
Existe A ∈ Rd×u : α = θA y α maximiza
n
n
log |θ T Σ̃−1 θ| − log |θ T Σ̃θ| −
2
2
n
1X
T T
˜ y θA|.
− log |A θ Σ̃θA| −
ny log |AT θ T ∆
2
2 y
L(θ, A) = const −
Diego Tomassi (sinc(i)-IMAL)
Enfoque de suciencia en discrimimación
11 de junio de 2010
15 / 24
Introducción
Antecedentes
Reducciones sucientes
Simulaciones
Comentarios nales
HLDA y minimalidad
Cuando ∆y satisface el modelo de HLDA, el subespacio de reducción
estimado, ¾es el menor posible? No necesariamente.
Sea α ∈ Ru una base para ese subespacio de reducción mínimo.
span(θ) ⊇ span(α) también es un subespacio de reducción suciente.
En HLDA, θ es una base para el subespacio que contiene a span(α) tal
que ∆y = θΩy θT + θ0 Ω0 θT0 .
Existe A ∈ Rd×u : α = θA y α maximiza
n
n
log |θ T Σ̃−1 θ| − log |θ T Σ̃θ| −
2
2
n
1X
T T
˜ y θA|.
− log |A θ Σ̃θA| −
ny log |AT θ T ∆
2
2 y
L(θ, A) = const −
Diego Tomassi (sinc(i)-IMAL)
Enfoque de suciencia en discrimimación
11 de junio de 2010
15 / 24
Introducción
Antecedentes
Reducciones sucientes
Simulaciones
Comentarios nales
HLDA y minimalidad
Cuando ∆y satisface el modelo de HLDA, el subespacio de reducción
estimado, ¾es el menor posible? No necesariamente.
Sea α ∈ Ru una base para ese subespacio de reducción mínimo.
span(θ) ⊇ span(α) también es un subespacio de reducción suciente.
En HLDA, θ es una base para el subespacio que contiene a span(α) tal
que ∆y = θΩy θT + θ0 Ω0 θT0 .
Existe A ∈ Rd×u : α = θA y α maximiza
n
n
log |θ T Σ̃−1 θ| − log |θ T Σ̃θ| −
2
2
n
1X
T T
˜ y θA|.
− log |A θ Σ̃θA| −
ny log |AT θ T ∆
2
2 y
L(θ, A) = const −
Diego Tomassi (sinc(i)-IMAL)
Enfoque de suciencia en discrimimación
11 de junio de 2010
15 / 24
Introducción
Antecedentes
Reducciones sucientes
Simulaciones
Comentarios nales
Consideraciones
Qué puede heredar HLDA del enfoque de suciencia?
Herramientas mejor justicadas para inferir d.
Eciencia de cómputo.
Limitaciones
jado d, HLDA estima un subespacio de reducción suciente sólo para
una estructura particular de ∆y .
SHLDA no es invariante ni equivariante ante una transformación de las
características X.
Propaganda: ½½deberíamos usar θLAD !!
Diego Tomassi (sinc(i)-IMAL)
Enfoque de suciencia en discrimimación
11 de junio de 2010
16 / 24
Introducción
Antecedentes
Reducciones sucientes
Simulaciones
Comentarios nales
Consideraciones
Qué puede heredar HLDA del enfoque de suciencia?
Herramientas mejor justicadas para inferir d.
Eciencia de cómputo.
Limitaciones
jado d, HLDA estima un subespacio de reducción suciente sólo para
una estructura particular de ∆y .
SHLDA no es invariante ni equivariante ante una transformación de las
características X.
Propaganda: ½½deberíamos usar θLAD !!
Diego Tomassi (sinc(i)-IMAL)
Enfoque de suciencia en discrimimación
11 de junio de 2010
16 / 24
Introducción
Antecedentes
Reducciones sucientes
Simulaciones
Comentarios nales
Consideraciones
Qué puede heredar HLDA del enfoque de suciencia?
Herramientas mejor justicadas para inferir d.
Eciencia de cómputo.
Limitaciones
jado d, HLDA estima un subespacio de reducción suciente sólo para
una estructura particular de ∆y .
SHLDA no es invariante ni equivariante ante una transformación de las
características X.
Propaganda: ½½deberíamos usar θLAD !!
Diego Tomassi (sinc(i)-IMAL)
Enfoque de suciencia en discrimimación
11 de junio de 2010
16 / 24
Introducción
Antecedentes
Reducciones sucientes
Simulaciones
Comentarios nales
Consideraciones
Qué puede heredar HLDA del enfoque de suciencia?
Herramientas mejor justicadas para inferir d.
Eciencia de cómputo.
Limitaciones
jado d, HLDA estima un subespacio de reducción suciente sólo para
una estructura particular de ∆y .
SHLDA no es invariante ni equivariante ante una transformación de las
características X.
Propaganda: ½½deberíamos usar θLAD !!
Diego Tomassi (sinc(i)-IMAL)
Enfoque de suciencia en discrimimación
11 de junio de 2010
16 / 24
Introducción
Antecedentes
Reducciones sucientes
Simulaciones
Comentarios nales
Consideraciones
Qué puede heredar HLDA del enfoque de suciencia?
Herramientas mejor justicadas para inferir d.
Eciencia de cómputo.
Limitaciones
jado d, HLDA estima un subespacio de reducción suciente sólo para
una estructura particular de ∆y .
SHLDA no es invariante ni equivariante ante una transformación de las
características X.
Propaganda: ½½deberíamos usar θLAD !!
Diego Tomassi (sinc(i)-IMAL)
Enfoque de suciencia en discrimimación
11 de junio de 2010
16 / 24
Introducción
Antecedentes
Reducciones sucientes
Simulaciones
Comentarios nales
Consideraciones
Qué puede heredar HLDA del enfoque de suciencia?
Herramientas mejor justicadas para inferir d.
Eciencia de cómputo.
Limitaciones
jado d, HLDA estima un subespacio de reducción suciente sólo para
una estructura particular de ∆y .
SHLDA no es invariante ni equivariante ante una transformación de las
características X.
Propaganda: ½½deberíamos usar θLAD !!
Diego Tomassi (sinc(i)-IMAL)
Enfoque de suciencia en discrimimación
11 de junio de 2010
16 / 24
Introducción
Antecedentes
Reducciones sucientes
Simulaciones
Comentarios nales
Consideraciones
Qué puede heredar HLDA del enfoque de suciencia?
Herramientas mejor justicadas para inferir d.
Eciencia de cómputo.
Limitaciones
jado d, HLDA estima un subespacio de reducción suciente sólo para
una estructura particular de ∆y .
SHLDA no es invariante ni equivariante ante una transformación de las
características X.
Propaganda: ½½deberíamos usar θLAD !!
Diego Tomassi (sinc(i)-IMAL)
Enfoque de suciencia en discrimimación
11 de junio de 2010
16 / 24
Introducción
Antecedentes
Reducciones sucientes
Simulaciones
Comentarios nales
¾Cómo extendemos esto a modelos ocultos de Markov?
Diego Tomassi (sinc(i)-IMAL)
Enfoque de suciencia en discrimimación
11 de junio de 2010
17 / 24
Introducción
Antecedentes
Reducciones sucientes
Simulaciones
Comentarios nales
Datos secuenciales y modelos ocultos de Markov (HMM)
w1
Diego Tomassi (sinc(i)-IMAL)
w2
w3
Enfoque de suciencia en discrimimación
11 de junio de 2010
18 / 24
Introducción
Antecedentes
Reducciones sucientes
Simulaciones
Comentarios nales
Datos secuenciales y modelos ocultos de Markov (HMM)
Las características observadas no son independientes, sino que forman
una secuencia X = w1 , w2 , . . . , wN .
Modelamos esas secuencias mediante modelos ocultos de Markov.
Diego Tomassi (sinc(i)-IMAL)
Enfoque de suciencia en discrimimación
11 de junio de 2010
18 / 24
Introducción
Antecedentes
Reducciones sucientes
Simulaciones
Comentarios nales
Reducción suciente de dimensiones para HMM
¾Cómo son los modelos de las clases ahora?
p(X|Y = ϑ) =
T
XY
bqt (xt )aqt−1 qt ,
q t=1
Diego Tomassi (sinc(i)-IMAL)
Enfoque de suciencia en discrimimación
11 de junio de 2010
19 / 24
Introducción
Antecedentes
Reducciones sucientes
Simulaciones
Comentarios nales
Reducción suciente de dimensiones para HMM
¾Cómo son los modelos de las clases ahora?
p(X|Y = ϑ) =
T
XY
bqt (xt )aqt−1 qt ,
q t=1
¾Cómo estimamos parámetros?
Q(ϑ, ϑold )
=
X
p(q|X, ϑold ) log p(q, X|ϑ)
q
(
=
X
q
=
Diego Tomassi (sinc(i)-IMAL)
p(q|X, ϑ
old
)×
)
X
log aqt−1 qt +
t
X
log bqt (xt )
t
Qa (ϑ, ϑold ) + Qb (ϑ, ϑold )
Enfoque de suciencia en discrimimación
11 de junio de 2010
19 / 24
Introducción
Antecedentes
Reducciones sucientes
Simulaciones
Comentarios nales
Reducción de dimensiones en HMM
Si by (wt ) = N (wt |µy , ∆y )
Qb (ϑ, ϑold ) =
Nq T
X
X
p(qt = y|X, ϑold ) log N (wt |µy , ∆y )
y=1 t=1
=
Nq T
X
X
γt (y) log N (wt |µy , ∆y ),
y=1 t=1
Diego Tomassi (sinc(i)-IMAL)
Enfoque de suciencia en discrimimación
11 de junio de 2010
20 / 24
Introducción
Antecedentes
Reducciones sucientes
Simulaciones
Comentarios nales
Organización
1
Introducción
2
Antecedentes
3
El enfoque de reducción suciente de dimensiones
4
Simulaciones
5
Comentarios nales
Diego Tomassi (sinc(i)-IMAL)
Enfoque de suciencia en discrimimación
11 de junio de 2010
21 / 24
Introducción
Antecedentes
Reducciones sucientes
Simulaciones
Comentarios nales
Simulaciones
Tasa de reconocimiento vs tamaño de muestra
Tasa de reconocimiento vs tamaño de muestra
0.7
0.7
LDA
LDA
HLDA
0.65
HLDA
0.65
LAD
LAD
0.55
0.55
RR
0.6
RR
0.6
0.5
0.5
0.45
0.45
0.4
0.4
0.35
0
20
40
60
n
80
100
0.35
120
Figura: Tasas de reconocimiento para
d
0
20
40
60
n
80
100
120
conocida. Izq.: datos generados con el
modelo de HLDA. Der.: datos generados con el modelo de HLDA y luego
multiplicados con una matriz
Diego Tomassi (sinc(i)-IMAL)
A.
Enfoque de suciencia en discrimimación
11 de junio de 2010
22 / 24
Introducción
Antecedentes
Reducciones sucientes
Simulaciones
Comentarios nales
Simulaciones
HLDA
LAD
1
1
0.8
0.8
0.6
0.6
0.4
0.4
AIC
BIC
AIC
0.2
LRT
0.2
BIC
LRT
0
50
100
150
200
Figura: Inferencia sobre
Diego Tomassi (sinc(i)-IMAL)
250
d
300
350
0
100
150
200
250
300
350
cuando los datos corresponden al modelo de HLDA.
Enfoque de suciencia en discrimimación
11 de junio de 2010
22 / 24
Introducción
Antecedentes
Reducciones sucientes
Simulaciones
Comentarios nales
Simulaciones
HLDA
LAD
0.14
AIC
BIC
LRT
0.12
1
0.8
0.1
0.08
0.6
0.06
0.4
0.04
0.2
AIC
0.02
BIC
LRT
0
50
100
150
200
Figura: Inferencia sobre
matriz
250
d
300
350
0
50
100
150
200
250
300
350
para los mismo datos, después de multiplicarlos por una
A.
Diego Tomassi (sinc(i)-IMAL)
Enfoque de suciencia en discrimimación
11 de junio de 2010
22 / 24
Introducción
Antecedentes
Reducciones sucientes
Simulaciones
Comentarios nales
Organización
1
Introducción
2
Antecedentes
3
El enfoque de reducción suciente de dimensiones
4
Simulaciones
5
Comentarios nales
Diego Tomassi (sinc(i)-IMAL)
Enfoque de suciencia en discrimimación
11 de junio de 2010
23 / 24
Introducción
Antecedentes
Reducciones sucientes
Simulaciones
Comentarios nales
muchas gracias
Diego Tomassi (sinc(i)-IMAL)
Enfoque de suciencia en discrimimación
11 de junio de 2010
24 / 24

Documentos relacionados