Sesión 8: Campos de Markov - inaoe
Sesión 8: Campos de Markov - inaoe
Sesión 8: Campos de Markov - inaoe
Create successful ePaper yourself
Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.
Mo<strong>de</strong>los Gráficos ProbabilistasL. Enrique SucarINAOE<strong>Sesión</strong> 8:<strong>Campos</strong> <strong>de</strong> <strong>Markov</strong>“…la verda<strong>de</strong>ra lógica <strong>de</strong> este mundo es el cálculo <strong>de</strong>probabilida<strong>de</strong>s, que toma en cuanta la magnitud <strong>de</strong> lasprobabilida<strong>de</strong>s, las cuales <strong>de</strong>ben estar en la mente <strong>de</strong> todohombre razonable”James C. Maxwell, 1850
Mo<strong>de</strong>lo <strong>de</strong> Ising• Surgen <strong>de</strong>l problema <strong>de</strong> mo<strong>de</strong>lar materialesferromagnéticos en lo que se conoce comoel Mo<strong>de</strong>lo Ising.• Se tiene una serie <strong>de</strong> dipolos en una líneaque pue<strong>de</strong>n estar orientados hacia “arriba”(+) o hacia “abajo” (-).• El estado <strong>de</strong> cada dipolo se ve influenciadopor los dipolos cercanos - probabilidad paracada estado <strong>de</strong>pen<strong>de</strong> <strong>de</strong> los estado <strong>de</strong> lospuntos vecinos.© L.E. Sucar: PGM - CAM 4
Mo<strong>de</strong>lo <strong>de</strong> Isingq1 q2 q3 q4Posibles configuraciones:+ + + ++ + + -+ + - +....© L.E. Sucar: PGM - CAM 5
Mo<strong>de</strong>lo <strong>de</strong> Ising• Un campo <strong>de</strong> <strong>Markov</strong> asigna probabilidad acada configuración en el espacio <strong>de</strong> posiblesconfiguraciones.• Se consi<strong>de</strong>ra que la probabilidad <strong>de</strong>l estado <strong>de</strong>una variable es in<strong>de</strong>pendiente <strong>de</strong> los <strong>de</strong>másdados sus 2 vecinos (para una ca<strong>de</strong>na), es<strong>de</strong>cir que tiene la propiedad <strong>Markov</strong>iana( S q | S = q , S = q ) = P( S = q | S = q S q )P =n= i 1 j 2 k .... n i n ! 1 j, n + 1k© L.E. Sucar: PGM - CAM 6
Configuración más probable• Dadas las probabilida<strong>de</strong>s locales, el problemacentral en es encontrar la probabilidad <strong>de</strong> cada unalas posibles configuraciones, y en particular cual esla configuración más probable.– + + + +– + + + -– + + - +– …– - - + +– …– - - - -© L.E. Sucar: PGM - CAM 7
Probabilida<strong>de</strong>s• Po<strong>de</strong>mos distinguir dos factores que<strong>de</strong>terminan la probabilidad <strong>de</strong> unaconfiguración:• la P a priori <strong>de</strong> cada estado,• la P conjunta con sus vecinos.• En el mo<strong>de</strong>lo <strong>de</strong> Ising, estos correspon<strong>de</strong>n ala influencia <strong>de</strong> un campo magnético externo,y a las interacciones entre los dipolos vecinos.© L.E. Sucar: PGM - CAM 8
<strong>Campos</strong> en 2-D• Esto lo po<strong>de</strong>mos exten<strong>de</strong>r <strong>de</strong> una dimensióna dos dimensiones. En este caso tenemosuna malla <strong>de</strong> puntos, don<strong>de</strong> el estado <strong>de</strong>cada punto <strong>de</strong>pen<strong>de</strong> <strong>de</strong>l estado <strong>de</strong> susvecinos (4, 8, etc).© L.E. Sucar: PGM - CAM 9
Ejemploq1q2q3q4q3q2 q5q6q7q3 q8q9© L.E. Sucar: PGM - CAM 10
Representación• Un campo aleatorio es una colección <strong>de</strong>variables aleatorias in<strong>de</strong>xadas por sitios.• Se consi<strong>de</strong>ra un conjunto <strong>de</strong> variablesaleatorias F = {F 1 ,….., F M }, asociadas a cadasitio <strong>de</strong>l sistema <strong>de</strong> sitios S. Cada variabletoma un valor f i <strong>de</strong> un un conjunto <strong>de</strong>posibles valores L. Entonces F es un campoaleatorio.• Un campo aleatorio <strong>de</strong> <strong>Markov</strong> (CAM) es uncampo aleatorio con la propiedad <strong>de</strong>“localidad”.© L.E. Sucar: PGM - CAM 11
Propieda<strong>de</strong>sUn CAM <strong>de</strong>be satisfacer las siguientes propieda<strong>de</strong>s:• P• P( f )( f | f ) = P( f | vec( f)i>0s!i!positivoiiDon<strong>de</strong> vec( f i ) son los vecinos <strong>de</strong> f i© L.E. Sucar: PGM - CAM 12
VecindadUn sistema <strong>de</strong> vecindad para S se <strong>de</strong>fine como:V{ V S}= |" !i i• Cumple con las siguientes dos propieda<strong>de</strong>s:1. Un sitio no es vecino <strong>de</strong> si mismo.2. La relación <strong>de</strong> vecindad es mutua.• Se pue<strong>de</strong>n tener diferentes “vecinda<strong>de</strong>s” (primeror<strong>de</strong>n, segundo or<strong>de</strong>n, etc.).© L.E. Sucar: PGM - CAM 13
VecindadPara una malla regular, la vecindad <strong>de</strong> or<strong>de</strong>n i conradio r se <strong>de</strong>fine como:V{ vr}( ( )( i) " S | dist i v ii= , !Don<strong>de</strong> dist(x,y) es la distancia euclidiana entre x y y.En un sistema <strong>de</strong> vecindad <strong>de</strong> primer or<strong>de</strong>n,cada sitio (interior) tiene 4 vecinos; en uno <strong>de</strong>segundo or<strong>de</strong>n, 8 vecinos: en uno <strong>de</strong> terceror<strong>de</strong>n, 12 vecinos, etc.© L.E. Sucar: PGM - CAM 14
Ejemplo – 1er or<strong>de</strong>nq1q2q3q4q3q2 q5q6q7q3 q8q9© L.E. Sucar: PGM - CAM 15
Ejemplo – 2do or<strong>de</strong>nq1q2q3q4q3q2 q5q6q7q3 q8q9© L.E. Sucar: PGM - CAM 16
Conjuntos CompletosEl conjunto <strong>de</strong> sitios junto con las vecinda<strong>de</strong>s nos<strong>de</strong>finen un grafo no-dirigido: G=(S, V).Un conjunto completo (C) se <strong>de</strong>fine como unsubconjunto <strong>de</strong> sitios <strong>de</strong> forma que están todosconectado contra todosUn conjunto completo pue<strong>de</strong> ser un solo sitio, C 1 , unpar <strong>de</strong> sitios vecinos, C 2 , una tripleta <strong>de</strong> vecinos, C 3 , yasí sucesivamente. De forma que la colección <strong>de</strong> Cpara un grafo esta dada por:C= C C C! ! !1 2 3...© L.E. Sucar: PGM - CAM 17
Re<strong>de</strong>s <strong>de</strong> <strong>Markov</strong>• Po<strong>de</strong>mos consi<strong>de</strong>rar los CAM como un casoespecial <strong>de</strong> un mo<strong>de</strong>lo más general – que son lasRe<strong>de</strong>s <strong>de</strong> <strong>Markov</strong>• Las re<strong>de</strong>s <strong>de</strong> <strong>Markov</strong> (RM) son mo<strong>de</strong>los gráficosprobabilísticos no-dirigidos, que representa las<strong>de</strong>pen<strong>de</strong>ncias e in<strong>de</strong>pen<strong>de</strong>ncias <strong>de</strong> un conjunto <strong>de</strong>variables• Un subconjunto A <strong>de</strong> variables es in<strong>de</strong>pendiente<strong>de</strong> otro subconjunto C dado un tercer subconjuntoB, si los nodos en B separan en el grafo A <strong>de</strong> B© L.E. Sucar: PGM - CAM 18
Re<strong>de</strong>s <strong>de</strong> <strong>Markov</strong>• Ejemplo:ABCq1q2q3q4q3q2 q5© L.E. Sucar: PGM - CAM 19
Re<strong>de</strong>s <strong>de</strong> <strong>Markov</strong>Parametrización:• Po<strong>de</strong>mos en general representar la probabilidadconjunta <strong>de</strong> una RM como el producto <strong>de</strong> lasprobabilida<strong>de</strong>s locales (potenciales) <strong>de</strong> conjuntoscompletos con un factor <strong>de</strong> normalización:P(X 1 , X 2 , …, X n ) = 1/z P(C 1 ) P(C 2 ) … P(C m )• Es suficiente consi<strong>de</strong>rar sólo los cliques, perotambién se pue<strong>de</strong>n consi<strong>de</strong>rar otro conjuntos (estose hace porque es conveniente en la práctica)© L.E. Sucar: PGM - CAM 20
• Parámetros:Re<strong>de</strong>s <strong>de</strong> <strong>Markov</strong>P(C3)q1q2q3P(C1)q4q3q2 q5P(C2)© L.E. Sucar: PGM - CAM 21
Configuración más probableUna aplicación típica <strong>de</strong> CAMs es para obtener laconfiguración más probable dadas ciertasrestricciones representadas por las probabilida<strong>de</strong>slocales (potenciales)Po<strong>de</strong>mos expresar la probabilidad conjunta, comoel producto <strong>de</strong> las probabilida<strong>de</strong>s <strong>de</strong> lasvecinda<strong>de</strong>s:P f = k ! PF / G( )c c© L.E. Sucar: PGM - CAM 22
Configuración más probableDichas probabilida<strong>de</strong>s <strong>de</strong> las vecinda<strong>de</strong>s(potenciales) se pue<strong>de</strong>n ver como “restricciones”que van a favorecer o <strong>de</strong>sfavorecer ciertasconfiguraciones.De esta forma, la configuración más probable sepue<strong>de</strong> ver como aquella que tiene una mayorcompatibilidad con las probabilida<strong>de</strong>s locales.© L.E. Sucar: PGM - CAM 23
Configuración más probablePo<strong>de</strong>mos expresar los potenciales en forma <strong>de</strong>exponenciales (<strong>de</strong> esta forma pue<strong>de</strong>n ser cualquiernúmero real):Pot(x c ) = exp{-U c (x c )}Así que el producto se vuelve una suma:Up(f) = Σ U c (x c )Por lo que la probabilidad conjunta se pue<strong>de</strong> expresar como:P1Z[ ]( ) ( ) f = exp U ( f )F / G!p© L.E. Sucar: PGM - CAM 24
Campo <strong>de</strong> GibbsLo anterior también se pue<strong>de</strong> obtener mediante unaanalogía entre los CAM y los Campo Aleatorio <strong>de</strong>Gíbbs (CAG).Una distribución <strong>de</strong> Gibbs tiene la siguiente forma (Zes una constante <strong>de</strong> normalización):PZ( ) ( ) f = 1 exp&'U( f )Don<strong>de</strong> := (z$%exp&'U$%( f )f ) FT© L.E. Sucar: PGM - CAM 25#!"T#!"
Campo <strong>de</strong> GibbsU(f) se conoce como la función <strong>de</strong> energía y seobtiene como la suma <strong>de</strong> los potenciales <strong>de</strong> todoslos C:U ( f ) = Σc Vc ( f )La configuración más probable correspon<strong>de</strong> a la <strong>de</strong>energía mínima.La función <strong>de</strong> energía se pue<strong>de</strong> expresar entérminos <strong>de</strong> los C <strong>de</strong> cada tamaño:U( f ) ( ) ( ) ( ) .....= !c1 V1fi+ !c2V2fi, fj+ !c3V3fi,fj, fk+© L.E. Sucar: PGM - CAM 26
Campo <strong>de</strong> GibbsSe pue<strong>de</strong> <strong>de</strong>mostrar que un CAM y elcorrespondiente CAG son equivalentes.Esto permite que se pueda expresar laprobabilidad conjunta especificando lospotenciales <strong>de</strong> los C. En la práctica seseleccionan los potenciales <strong>de</strong> acuerdo alcomportamiento <strong>de</strong>seado – con los potencialesse codifica el conocimiento a priori <strong>de</strong>l problema.© L.E. Sucar: PGM - CAM 27
Configuración más probable• Entonces, para especificar un CAM serequiere:– Definir el esquema <strong>de</strong> vecindad– Especificar las probabilida<strong>de</strong>s(potenciales) para cada uno <strong>de</strong> losconjuntos completos <strong>de</strong> nodosPara el caso <strong>de</strong> vecindad <strong>de</strong> primer or<strong>de</strong>n:U( f ) = ! V ( f ) + " V ( f )p c c!OO© L.E. Sucar: PGM - CAM 28
Configuración más probable• V c correspon<strong>de</strong> a P F o la información <strong>de</strong>ldominio dada por los vecinos y V Ocorrespon<strong>de</strong> a P G/F o la información <strong>de</strong> lasobservaciones; λ es una constante que da elpeso relativo entre ambas.• Bajo este enfoque, la solución a un problemaparticular correspon<strong>de</strong> en encontrar laconfiguración <strong>de</strong>l CAM <strong>de</strong> mayorprobabilidad o <strong>de</strong> “energía” (U P ) mínima. Lafunción que se logre <strong>de</strong>pen<strong>de</strong> <strong>de</strong> la forma <strong>de</strong>las funciones para V C y V 0 .© L.E. Sucar: PGM - CAM 29
Ejemplo• Por ejemplo, po<strong>de</strong>mos querer “suavizar”una imagen; es <strong>de</strong>cir, minimizar la“distancia” <strong>de</strong> cada pixel a sus vecinos,pero también mantenerlo cercano a suvalor en la imagen (observación):0( f ) = ( f ! u)V cV !2( f ) = ( f g) 2© L.E. Sucar: PGM - CAM 30
Ejemploq1q2q3Fimagen “suavizada”q4q3q2 q5q6q7q3 q8q9Gimagen “original”© L.E. Sucar: PGM - CAM 31
Analogía Física© L.E. Sucar: PGM - CAM 32
Analogía Física- más peso a las observaciones -© L.E. Sucar: PGM - CAM 33
Analogía Física- más peso a los vecinos -© L.E. Sucar: PGM - CAM 34
Algoritmos• El obtener la configuración <strong>de</strong> mayorprobabilidad (mínima energía) en formadirecta (exhaustiva) prácticamenteimposible (excepto para problemas muypequeños), por lo que se plantea como unproblema <strong>de</strong> búsqueda. Se busca laconfiguración <strong>de</strong> mayor probabilidad, sintener que calcular directamente lasprobabilida<strong>de</strong>s <strong>de</strong> cada configuración.© L.E. Sucar: PGM - CAM 35
AlgoritmosEl problema incluye 3 aspectos:1. Representación: CAM con un esquema <strong>de</strong>vecindad y los potenciales asociados2. Función objetivo: Función <strong>de</strong> energía aminimizar.3. Algoritmo <strong>de</strong> optimización: simulaciónestocástica (Metropolis)© L.E. Sucar: PGM - CAM 36
Algoritmo básico• Inicializar con un valor aleatorio cadavariable.• Repetir para cada variable en el campo:- Calcular el valor <strong>de</strong> energía (potencial) <strong>de</strong>cada variable en base a la función<strong>de</strong>seada y los valores <strong>de</strong> los vecinos.- Si el valor <strong>de</strong> energía es menor al anteriorcambiar <strong>de</strong> valor.- Si no, con cierta probabilidad también cambiar <strong>de</strong>valor.• Hasta que se cumplan N iteraciones o yano haya cambios (convergencia)• Obtener configuración “óptima”© L.E. Sucar: PGM - CAM 37
VariantesCálculo <strong>de</strong>l óptimo:• MAP: se toma el valor para cada variable alfinal <strong>de</strong> las iteraciones.• MPM: se toma el valor <strong>de</strong> mayor frecuencia<strong>de</strong> acuerdo a su ocurrencia durante lasimulación.© L.E. Sucar: PGM - CAM 38
VariantesForma <strong>de</strong> optimización:• Metrópolis: con probabilidad fija se pue<strong>de</strong>pasar a estados <strong>de</strong> mayor energía.• Recocido simulado: se va disminuyendo laprobabilidad <strong>de</strong> pasar a estados <strong>de</strong> mayorenergía (temperatura).• ICM: tomar siempre el estado <strong>de</strong> menorenergía.© L.E. Sucar: PGM - CAM 39
Probabilida<strong>de</strong>s <strong>de</strong> transición• Probabilidad <strong>de</strong> transición a estado <strong>de</strong>mayor energía:P=e"! V/ T• Don<strong>de</strong> δV es la diferencia <strong>de</strong> energía yT es la temperatura© L.E. Sucar: PGM - CAM 40
Ejemplo• Dada la siguienteimagen:• Consi<strong>de</strong>ramos:– Configuración inicial<strong>de</strong> ceros– Vecindad <strong>de</strong> primeror<strong>de</strong>n– Potenciales <strong>de</strong>suavizamiento con λ=40 0 0 00 1 1 10 1 0 10 1 1 1© L.E. Sucar: PGM - CAM 41
Ejemplo1era iteración:• 1er sitio:• …• …V1 (0) = 0V1(1) = 2 + 4 (1) = 60 0 0 00 0 0 00 0 0 00 0 0 0© L.E. Sucar: PGM - CAM 42
Ejemplo• …• …• 11vo sitio:• …V11(0) = 2V11(1) = 60 0 0 00 1 1 10 1 0 00 0 0 0© L.E. Sucar: PGM - CAM 43
Ejemplo2da iteración• …• 11ovo sitio:• …V11(0) = 4V11(1) = 40 0 0 00 1 1 10 1 1 10 1 1 1© L.E. Sucar: PGM - CAM 44
Aplicaciones• Procesamiento <strong>de</strong> imágenes– Eliminación <strong>de</strong> ruido– Filtrado <strong>de</strong> una imagen– Segmentación <strong>de</strong> texturas– Visión estereoscópica– Recuperación <strong>de</strong> forma (3-D)– Reconocimiento <strong>de</strong> objetos– Etiquetado <strong>de</strong> imágenes© L.E. Sucar: PGM - CAM 45
Ejemplo – eliminación <strong>de</strong> ruido© L.E. Sucar: PGM - CAM 46
Ejemplo – eliminación <strong>de</strong> ruido© L.E. Sucar: PGM - CAM 47
Ejemplo – eliminación <strong>de</strong> ruido© L.E. Sucar: PGM - CAM 48
Otro ejemplo: anotación <strong>de</strong> imágenesGrass 0.6Tree 0.2rock 0.1building 0.1People 0.4Tree 0.3Mountain 0.2Jet 0.1Consi<strong>de</strong>rarrelacionesespacialesentre regionesChurch 0.3Grass 0.3Sky 0.2Elephant 0.2Tree 0.5Grass 0.3Sky 0.1Jet 0.1Grass, Tree, Sky,ElephantUsar CAMs paraobtener mejor“configuración”R 1R 2R 3R 4c 1grass people tree churchc 2grass tree tree churchc.. …. …. …. ……c igrass tree tree elephantc.. …. …. …. ……c jtree people tree churchc 256building Jet jet© L.E. Sucar: PGM - CAMelephant49
<strong>Campos</strong> <strong>de</strong> <strong>Markov</strong>• Combinar probabilidad previa (clasificador) con la probabilidad<strong>de</strong> la etiqueta dados sus vecinos (relaciones espaciales)Grass 0.6Tree 0.2rock 0.1building 0.1People 0.4Tree 0.3Mountain 0.2Jet 0.1Church 0.3Grass 0.3Sky 0.2Elephant 0.2Tree 0.5Grass 0.3Sky 0.1Jet 0.1Churcha 1a 2a 4a 3GrassTreeJet© L.E. Sucar: PGM - CAM 50
Función <strong>de</strong> energía• Consi<strong>de</strong>ra el potencial inicial <strong>de</strong> acuerdo a lascaracterísticas <strong>de</strong> la región (V O ) y lospotenciales dados por sus vecinos para 3 tipos<strong>de</strong> relaciones espaciales:– Topológicas (V T )– Horizontales (V H )– Verticales (V V )© L.E. Sucar: PGM - CAM 51
Potenciales• Los potenciales son inversamenteproporcionales a las probabilida<strong>de</strong>s <strong>de</strong> cadarelación:© L.E. Sucar: PGM - CAM 52
Resultados© L.E. Sucar: PGM - CAM 53
Referencias• Li, “<strong>Markov</strong> Random Fields Mo<strong>de</strong>ls in ComputerVision”, Springer-Verlag• Chellapa, Jain, “<strong>Markov</strong> Random Fields: Theoryand Mo<strong>de</strong>ls”, Aca<strong>de</strong>mic Press.• C. Hernán<strong>de</strong>z, L.E. Sucar, “"<strong>Markov</strong> RandomFields and Spatial Information to ImproveAutomatic Image Annotation", Advances inImage and Vi<strong>de</strong>o Technology, Lecture Notes inComputer Science 4872, Springer-Verlag , pp.879--892, 2007.• [Koller & Friedman]: Capítulo 4© L.E. Sucar: PGM - CAM 54
Activida<strong>de</strong>s• Hacer ejercicio <strong>de</strong> <strong>Campos</strong> <strong>de</strong> <strong>Markov</strong>© L.E. Sucar: PGM - CAM 55