Algortimo TM aplicado a modelos gr´aficos probabilısticos

Transcripción

Algortimo TM aplicado a modelos gr´aficos probabilısticos
Algortimo TM aplicado a modelos gráficos
probabilı́sticos
Grupo de Sistemas Inteligentes
Departamento de Ciencias de la Computación e Inteligencia Artificial
Universidad del Paı́s Vasco
http://www.sc.ehu.es/isg/
Reunión ELVIRA. Mayo 2003
Algortimo TM aplicado a modelos gráficos probabilı́sticos– p.1/18
Indice
•
Introducción
•
Introducción al algoritmo TM
•
El algoritmo TM en familias exponenciales
•
Aplicación del algoritmo TM en modelos
gráficos probabilísticos: un ejemplo
Algortimo TM aplicado a modelos gráficos probabilı́sticos– p.2/18
Introducción
Medidas para aprender un clasificador basado
en MGPs:
•
Basadas en verosimilitud conjunta p(c, x)
•
Basadas en verosimilitud condicionada p(c|x)
•
Basadas en la teoría de la información
•
Basadas en estimaciones del % de bien
clasificados
Distinción: generativos versus discriminativos
Algortimo TM aplicado a modelos gráficos probabilı́sticos– p.3/18
Introducción al algoritmo TM
•
Introducido por Edwards y Lauritzen (2001)
(Biometrika)
•
Objetivo: optimizar una verosimilitud
condicional cuando la conjunta es más fácil
de optimizar
•
Resultados sobre convergencia: Sundberg
(2002) (Biometrika)
•
Similitud con el algoritmo EM, se aumentan
los parámetros en lugar de los datos
•
Consta de dos pasos: el paso T y el paso M
Algortimo TM aplicado a modelos gráficos probabilı́sticos– p.4/18
Introducción al algoritmo TM
l(θ) = log p(x, c|θ)
•
•
lx (θ) = log p(x|θ)
l x (θ) = log p(c|x, θ)
En el paso T se construye la función q(θ):
q(θ) = q(θ|θr ) = l(θ) − θ T l˙x (θr )
h
i
˙ r )|x
= l(θ) − θ T Eθr l(θ
La función anterior es una aproximación a la
verosimilitud condicional (l x = l − lx )
Algortimo TM aplicado a modelos gráficos probabilı́sticos– p.5/18
Introducción al algoritmo TM
•
•
El paso M consiste en la maximización en θ
de la función q(θ|θr ) :
h
i
˙ r )|x = l(θ)
˙
Eθr l(θ
El algoritmo se puede escribir como:
θ0 = arg máx l(θ)
θ
θr+1 = arg máx q(θ|θr )
θ
Algortimo TM aplicado a modelos gráficos probabilı́sticos– p.6/18
TM en la familia exponencial
•
La verosimilitud conjunta se puede escribir
como (θ = (α, β)):
l(θ) = αT u(c, x) + β T v(x) − ψ(α, β)
con
ψ(α, β) = log
Z
T
T
exp α u(c, x) + β v(x) µ(dc|x)µdx
Algortimo TM aplicado a modelos gráficos probabilı́sticos– p.7/18
TM en la familia exponencial
•
Definimos dos nuevas funciones de variables
aleatorias: U = u(C, X) y V = v(X)
•
Las estimaciones máximo verosímiles θ̂ de
los parámetros θ se obtienen al resolver las
ecuaciones:
Eθ [U] = u(c, x)
Eθ [V] = v(x)
Algortimo TM aplicado a modelos gráficos probabilı́sticos– p.8/18
TM en la familia exponencial
•
El algoritmo queda como sigue:
ur+1 = ur + u − Eθr [U|x] con u0 = u(c, x)
θr+1 = θ̂(ur+1 , v)
•
Como primer conjunto de parámetros θ0 se
toman los estimadores máximo verosímiles
Algortimo TM aplicado a modelos gráficos probabilı́sticos– p.9/18
Algoritmo TM en MGPs
•
Veamos un ejemplo con el Naive-Bayes con
variables binarias
•
Modelo condicional:
Qn
p(c, x) p(c) i=1 p(xi |c)
p(c|x) =
=
p(x)
p(x)
Qn
p(c) i=1 p(xi |c)
Qn
Qn
=
p(c) i=1 p(xi |c) + p(c) i=1 p(xi |c)
Algortimo TM aplicado a modelos gráficos probabilı́sticos– p.10/18
Algoritmo TM en MGPs
•
Introducimos el modelo condicional en un
modelo conjunto:
1
p(c, x) =
(p(c))n−1
n
Y
p(xi , c)
i=1
Algortimo TM aplicado a modelos gráficos probabilı́sticos– p.11/18
Algoritmo TM en MGPs
•
Finalmente puede expresarse en función de
los parámetros conjuntos:
p(c, x) = (p(C = 0)(1−c) (1 − p(C = 0))c )−(n−1)
n
Y
p(C = 0, Xi = 0)(1−c)(1−xi ) p(C = 0, Xi = 1)(1−c)xi
i=1
c(1−xi )
cxi
p(C = 1, Xi = 0)
p(C = 1, Xi = 1)
= exp log (p(C = 0)(1−c) (1 − p(C = 0))c )−(n−1)
n
Y
p(C = 0, Xi = 0)(1−c)(1−xi ) p(C = 0, Xi = 1)(1−c)xi
i=1
p(C = 1, Xi = 0)
c(1−xi )
p(C = 1, Xi = 1)
cxi
Algortimo TM aplicado a modelos gráficos probabilı́sticos– p.12/18
Algoritmo TM en MGPs
•
Expresamos la log-verosimilitud conjunta
como en la familia exponencial: l(θ)
=
N
X
c(k) ((n − 1)(log(p(C = 0)) − log(1 − p(C = 0))))
k=1
+
N X
n
X
(k)
c(k) xi
(log(p(C = 0, Xi = 0)) log(p(C = 1, Xi = 1))
k=1 i=1
−
log(p(C = 0, Xi = 1)) − log(p(C = 1, Xi = 0)))
+
n
N X
X
+
(k)
xi
(log(p(C = 0, Xi = 1)) − log(p(C = 0, Xi = 0)))
k=1 i=1
n
X
N(
log(p(C = 0, Xi = 0)) − (n − 1) log(p(C = 0)))
i=1
Algortimo TM aplicado a modelos gráficos probabilı́sticos– p.13/18
Algoritmo TM en MGPs
•
Identificando términos obtengo los siguientes
valores:
U = u(C, X) =
N
X
C (k) ,
k=1
V = v(X) =
N
X
k=1
N
X
(k)
C (k) X1 , . . . ,
k=1
(k)
X1 , . . . ,
N
X
k=1
N
X
k=1
Xn(k)
!
C (k) Xn(k)
!
Algortimo TM aplicado a modelos gráficos probabilı́sticos– p.14/18
Algoritmo TM en MGPs
•
Los estadísticos suficientes a considerar son:
U = (N0 , N01 , . . . , N0i , . . . , N0n )
V = (N1 , . . . , Ni , . . . , Nn )
Algortimo TM aplicado a modelos gráficos probabilı́sticos– p.15/18
Algoritmo TM en MGPs
•
Para completar el algoritmo debemos calcular
Eθr [U|x]:
Eθr [N0 |x] =
N
X
Eθr [C (k) |x] =
k=1
Eθr [N0i |x] =
N
X
N
X
pθr (C = 1|X = x(k) )
k=1
(k)
Eθr [C (k) Xi |x]
k=1
=
N
X
(k)
pθr (C = 1|X = x(k) )xi
i = 1, . . . , n
k=1
Algortimo TM aplicado a modelos gráficos probabilı́sticos– p.16/18
Algoritmo TM en MGPs
•
En el cáculo anterior se utilizaron
probabilidades condicionadas estas se
calculan como:
=
N0,(r)
N
pr (Xi = 1|C = 1) =
N0i,(r)
N0,(r)
pr (Xi = 1|C = 0) =
Ni − N0i,(r)
N − N0,(r)
pr (C = 1)
Algortimo TM aplicado a modelos gráficos probabilı́sticos– p.17/18
Algoritmo TM en MGPs
i)
A partir de N0,(r) y N0i,(r) calcular las
probabilidades: p(r) (C = 1) y
p(r) (Xi = 1|C = c)
ii)
Utilizando las probabilidades anteriores
calcular las esperanzas de los estadísticos
suficientes condicionadas a la muestra:
Eθr [N0 |x] y Eθr [N0i |x]
iii)
Calcular los nuevos estadísticos suficientes
mediante la fórmula: ur+1 = ur + u − Eθr [U|x]
siendo ur = (N0,(r) , N01,(r) , . . . , N0n,(r) )
Algortimo TM aplicado a modelos gráficos probabilı́sticos– p.18/18

Documentos relacionados