13.07.2015 Views

Sesión 8: Campos de Markov - inaoe

Sesión 8: Campos de Markov - inaoe

Sesión 8: Campos de Markov - inaoe

SHOW MORE
SHOW LESS

Create successful ePaper yourself

Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.

Mo<strong>de</strong>los Gráficos ProbabilistasL. Enrique SucarINAOE<strong>Sesión</strong> 8:<strong>Campos</strong> <strong>de</strong> <strong>Markov</strong>“…la verda<strong>de</strong>ra lógica <strong>de</strong> este mundo es el cálculo <strong>de</strong>probabilida<strong>de</strong>s, que toma en cuanta la magnitud <strong>de</strong> lasprobabilida<strong>de</strong>s, las cuales <strong>de</strong>ben estar en la mente <strong>de</strong> todohombre razonable”James C. Maxwell, 1850


Mo<strong>de</strong>lo <strong>de</strong> Ising• Surgen <strong>de</strong>l problema <strong>de</strong> mo<strong>de</strong>lar materialesferromagnéticos en lo que se conoce comoel Mo<strong>de</strong>lo Ising.• Se tiene una serie <strong>de</strong> dipolos en una líneaque pue<strong>de</strong>n estar orientados hacia “arriba”(+) o hacia “abajo” (-).• El estado <strong>de</strong> cada dipolo se ve influenciadopor los dipolos cercanos - probabilidad paracada estado <strong>de</strong>pen<strong>de</strong> <strong>de</strong> los estado <strong>de</strong> lospuntos vecinos.© L.E. Sucar: PGM - CAM 4


Mo<strong>de</strong>lo <strong>de</strong> Isingq1 q2 q3 q4Posibles configuraciones:+ + + ++ + + -+ + - +....© L.E. Sucar: PGM - CAM 5


Mo<strong>de</strong>lo <strong>de</strong> Ising• Un campo <strong>de</strong> <strong>Markov</strong> asigna probabilidad acada configuración en el espacio <strong>de</strong> posiblesconfiguraciones.• Se consi<strong>de</strong>ra que la probabilidad <strong>de</strong>l estado <strong>de</strong>una variable es in<strong>de</strong>pendiente <strong>de</strong> los <strong>de</strong>másdados sus 2 vecinos (para una ca<strong>de</strong>na), es<strong>de</strong>cir que tiene la propiedad <strong>Markov</strong>iana( S q | S = q , S = q ) = P( S = q | S = q S q )P =n= i 1 j 2 k .... n i n ! 1 j, n + 1k© L.E. Sucar: PGM - CAM 6


Configuración más probable• Dadas las probabilida<strong>de</strong>s locales, el problemacentral en es encontrar la probabilidad <strong>de</strong> cada unalas posibles configuraciones, y en particular cual esla configuración más probable.– + + + +– + + + -– + + - +– …– - - + +– …– - - - -© L.E. Sucar: PGM - CAM 7


Probabilida<strong>de</strong>s• Po<strong>de</strong>mos distinguir dos factores que<strong>de</strong>terminan la probabilidad <strong>de</strong> unaconfiguración:• la P a priori <strong>de</strong> cada estado,• la P conjunta con sus vecinos.• En el mo<strong>de</strong>lo <strong>de</strong> Ising, estos correspon<strong>de</strong>n ala influencia <strong>de</strong> un campo magnético externo,y a las interacciones entre los dipolos vecinos.© L.E. Sucar: PGM - CAM 8


<strong>Campos</strong> en 2-D• Esto lo po<strong>de</strong>mos exten<strong>de</strong>r <strong>de</strong> una dimensióna dos dimensiones. En este caso tenemosuna malla <strong>de</strong> puntos, don<strong>de</strong> el estado <strong>de</strong>cada punto <strong>de</strong>pen<strong>de</strong> <strong>de</strong>l estado <strong>de</strong> susvecinos (4, 8, etc).© L.E. Sucar: PGM - CAM 9


Ejemploq1q2q3q4q3q2 q5q6q7q3 q8q9© L.E. Sucar: PGM - CAM 10


Representación• Un campo aleatorio es una colección <strong>de</strong>variables aleatorias in<strong>de</strong>xadas por sitios.• Se consi<strong>de</strong>ra un conjunto <strong>de</strong> variablesaleatorias F = {F 1 ,….., F M }, asociadas a cadasitio <strong>de</strong>l sistema <strong>de</strong> sitios S. Cada variabletoma un valor f i <strong>de</strong> un un conjunto <strong>de</strong>posibles valores L. Entonces F es un campoaleatorio.• Un campo aleatorio <strong>de</strong> <strong>Markov</strong> (CAM) es uncampo aleatorio con la propiedad <strong>de</strong>“localidad”.© L.E. Sucar: PGM - CAM 11


Propieda<strong>de</strong>sUn CAM <strong>de</strong>be satisfacer las siguientes propieda<strong>de</strong>s:• P• P( f )( f | f ) = P( f | vec( f)i>0s!i!positivoiiDon<strong>de</strong> vec( f i ) son los vecinos <strong>de</strong> f i© L.E. Sucar: PGM - CAM 12


VecindadUn sistema <strong>de</strong> vecindad para S se <strong>de</strong>fine como:V{ V S}= |" !i i• Cumple con las siguientes dos propieda<strong>de</strong>s:1. Un sitio no es vecino <strong>de</strong> si mismo.2. La relación <strong>de</strong> vecindad es mutua.• Se pue<strong>de</strong>n tener diferentes “vecinda<strong>de</strong>s” (primeror<strong>de</strong>n, segundo or<strong>de</strong>n, etc.).© L.E. Sucar: PGM - CAM 13


VecindadPara una malla regular, la vecindad <strong>de</strong> or<strong>de</strong>n i conradio r se <strong>de</strong>fine como:V{ vr}( ( )( i) " S | dist i v ii= , !Don<strong>de</strong> dist(x,y) es la distancia euclidiana entre x y y.En un sistema <strong>de</strong> vecindad <strong>de</strong> primer or<strong>de</strong>n,cada sitio (interior) tiene 4 vecinos; en uno <strong>de</strong>segundo or<strong>de</strong>n, 8 vecinos: en uno <strong>de</strong> terceror<strong>de</strong>n, 12 vecinos, etc.© L.E. Sucar: PGM - CAM 14


Ejemplo – 1er or<strong>de</strong>nq1q2q3q4q3q2 q5q6q7q3 q8q9© L.E. Sucar: PGM - CAM 15


Ejemplo – 2do or<strong>de</strong>nq1q2q3q4q3q2 q5q6q7q3 q8q9© L.E. Sucar: PGM - CAM 16


Conjuntos CompletosEl conjunto <strong>de</strong> sitios junto con las vecinda<strong>de</strong>s nos<strong>de</strong>finen un grafo no-dirigido: G=(S, V).Un conjunto completo (C) se <strong>de</strong>fine como unsubconjunto <strong>de</strong> sitios <strong>de</strong> forma que están todosconectado contra todosUn conjunto completo pue<strong>de</strong> ser un solo sitio, C 1 , unpar <strong>de</strong> sitios vecinos, C 2 , una tripleta <strong>de</strong> vecinos, C 3 , yasí sucesivamente. De forma que la colección <strong>de</strong> Cpara un grafo esta dada por:C= C C C! ! !1 2 3...© L.E. Sucar: PGM - CAM 17


Re<strong>de</strong>s <strong>de</strong> <strong>Markov</strong>• Po<strong>de</strong>mos consi<strong>de</strong>rar los CAM como un casoespecial <strong>de</strong> un mo<strong>de</strong>lo más general – que son lasRe<strong>de</strong>s <strong>de</strong> <strong>Markov</strong>• Las re<strong>de</strong>s <strong>de</strong> <strong>Markov</strong> (RM) son mo<strong>de</strong>los gráficosprobabilísticos no-dirigidos, que representa las<strong>de</strong>pen<strong>de</strong>ncias e in<strong>de</strong>pen<strong>de</strong>ncias <strong>de</strong> un conjunto <strong>de</strong>variables• Un subconjunto A <strong>de</strong> variables es in<strong>de</strong>pendiente<strong>de</strong> otro subconjunto C dado un tercer subconjuntoB, si los nodos en B separan en el grafo A <strong>de</strong> B© L.E. Sucar: PGM - CAM 18


Re<strong>de</strong>s <strong>de</strong> <strong>Markov</strong>• Ejemplo:ABCq1q2q3q4q3q2 q5© L.E. Sucar: PGM - CAM 19


Re<strong>de</strong>s <strong>de</strong> <strong>Markov</strong>Parametrización:• Po<strong>de</strong>mos en general representar la probabilidadconjunta <strong>de</strong> una RM como el producto <strong>de</strong> lasprobabilida<strong>de</strong>s locales (potenciales) <strong>de</strong> conjuntoscompletos con un factor <strong>de</strong> normalización:P(X 1 , X 2 , …, X n ) = 1/z P(C 1 ) P(C 2 ) … P(C m )• Es suficiente consi<strong>de</strong>rar sólo los cliques, perotambién se pue<strong>de</strong>n consi<strong>de</strong>rar otro conjuntos (estose hace porque es conveniente en la práctica)© L.E. Sucar: PGM - CAM 20


• Parámetros:Re<strong>de</strong>s <strong>de</strong> <strong>Markov</strong>P(C3)q1q2q3P(C1)q4q3q2 q5P(C2)© L.E. Sucar: PGM - CAM 21


Configuración más probableUna aplicación típica <strong>de</strong> CAMs es para obtener laconfiguración más probable dadas ciertasrestricciones representadas por las probabilida<strong>de</strong>slocales (potenciales)Po<strong>de</strong>mos expresar la probabilidad conjunta, comoel producto <strong>de</strong> las probabilida<strong>de</strong>s <strong>de</strong> lasvecinda<strong>de</strong>s:P f = k ! PF / G( )c c© L.E. Sucar: PGM - CAM 22


Configuración más probableDichas probabilida<strong>de</strong>s <strong>de</strong> las vecinda<strong>de</strong>s(potenciales) se pue<strong>de</strong>n ver como “restricciones”que van a favorecer o <strong>de</strong>sfavorecer ciertasconfiguraciones.De esta forma, la configuración más probable sepue<strong>de</strong> ver como aquella que tiene una mayorcompatibilidad con las probabilida<strong>de</strong>s locales.© L.E. Sucar: PGM - CAM 23


Configuración más probablePo<strong>de</strong>mos expresar los potenciales en forma <strong>de</strong>exponenciales (<strong>de</strong> esta forma pue<strong>de</strong>n ser cualquiernúmero real):Pot(x c ) = exp{-U c (x c )}Así que el producto se vuelve una suma:Up(f) = Σ U c (x c )Por lo que la probabilidad conjunta se pue<strong>de</strong> expresar como:P1Z[ ]( ) ( ) f = exp U ( f )F / G!p© L.E. Sucar: PGM - CAM 24


Campo <strong>de</strong> GibbsLo anterior también se pue<strong>de</strong> obtener mediante unaanalogía entre los CAM y los Campo Aleatorio <strong>de</strong>Gíbbs (CAG).Una distribución <strong>de</strong> Gibbs tiene la siguiente forma (Zes una constante <strong>de</strong> normalización):PZ( ) ( ) f = 1 exp&'U( f )Don<strong>de</strong> := (z$%exp&'U$%( f )f ) FT© L.E. Sucar: PGM - CAM 25#!"T#!"


Campo <strong>de</strong> GibbsU(f) se conoce como la función <strong>de</strong> energía y seobtiene como la suma <strong>de</strong> los potenciales <strong>de</strong> todoslos C:U ( f ) = Σc Vc ( f )La configuración más probable correspon<strong>de</strong> a la <strong>de</strong>energía mínima.La función <strong>de</strong> energía se pue<strong>de</strong> expresar entérminos <strong>de</strong> los C <strong>de</strong> cada tamaño:U( f ) ( ) ( ) ( ) .....= !c1 V1fi+ !c2V2fi, fj+ !c3V3fi,fj, fk+© L.E. Sucar: PGM - CAM 26


Campo <strong>de</strong> GibbsSe pue<strong>de</strong> <strong>de</strong>mostrar que un CAM y elcorrespondiente CAG son equivalentes.Esto permite que se pueda expresar laprobabilidad conjunta especificando lospotenciales <strong>de</strong> los C. En la práctica seseleccionan los potenciales <strong>de</strong> acuerdo alcomportamiento <strong>de</strong>seado – con los potencialesse codifica el conocimiento a priori <strong>de</strong>l problema.© L.E. Sucar: PGM - CAM 27


Configuración más probable• Entonces, para especificar un CAM serequiere:– Definir el esquema <strong>de</strong> vecindad– Especificar las probabilida<strong>de</strong>s(potenciales) para cada uno <strong>de</strong> losconjuntos completos <strong>de</strong> nodosPara el caso <strong>de</strong> vecindad <strong>de</strong> primer or<strong>de</strong>n:U( f ) = ! V ( f ) + " V ( f )p c c!OO© L.E. Sucar: PGM - CAM 28


Configuración más probable• V c correspon<strong>de</strong> a P F o la información <strong>de</strong>ldominio dada por los vecinos y V Ocorrespon<strong>de</strong> a P G/F o la información <strong>de</strong> lasobservaciones; λ es una constante que da elpeso relativo entre ambas.• Bajo este enfoque, la solución a un problemaparticular correspon<strong>de</strong> en encontrar laconfiguración <strong>de</strong>l CAM <strong>de</strong> mayorprobabilidad o <strong>de</strong> “energía” (U P ) mínima. Lafunción que se logre <strong>de</strong>pen<strong>de</strong> <strong>de</strong> la forma <strong>de</strong>las funciones para V C y V 0 .© L.E. Sucar: PGM - CAM 29


Ejemplo• Por ejemplo, po<strong>de</strong>mos querer “suavizar”una imagen; es <strong>de</strong>cir, minimizar la“distancia” <strong>de</strong> cada pixel a sus vecinos,pero también mantenerlo cercano a suvalor en la imagen (observación):0( f ) = ( f ! u)V cV !2( f ) = ( f g) 2© L.E. Sucar: PGM - CAM 30


Ejemploq1q2q3Fimagen “suavizada”q4q3q2 q5q6q7q3 q8q9Gimagen “original”© L.E. Sucar: PGM - CAM 31


Analogía Física© L.E. Sucar: PGM - CAM 32


Analogía Física- más peso a las observaciones -© L.E. Sucar: PGM - CAM 33


Analogía Física- más peso a los vecinos -© L.E. Sucar: PGM - CAM 34


Algoritmos• El obtener la configuración <strong>de</strong> mayorprobabilidad (mínima energía) en formadirecta (exhaustiva) prácticamenteimposible (excepto para problemas muypequeños), por lo que se plantea como unproblema <strong>de</strong> búsqueda. Se busca laconfiguración <strong>de</strong> mayor probabilidad, sintener que calcular directamente lasprobabilida<strong>de</strong>s <strong>de</strong> cada configuración.© L.E. Sucar: PGM - CAM 35


AlgoritmosEl problema incluye 3 aspectos:1. Representación: CAM con un esquema <strong>de</strong>vecindad y los potenciales asociados2. Función objetivo: Función <strong>de</strong> energía aminimizar.3. Algoritmo <strong>de</strong> optimización: simulaciónestocástica (Metropolis)© L.E. Sucar: PGM - CAM 36


Algoritmo básico• Inicializar con un valor aleatorio cadavariable.• Repetir para cada variable en el campo:- Calcular el valor <strong>de</strong> energía (potencial) <strong>de</strong>cada variable en base a la función<strong>de</strong>seada y los valores <strong>de</strong> los vecinos.- Si el valor <strong>de</strong> energía es menor al anteriorcambiar <strong>de</strong> valor.- Si no, con cierta probabilidad también cambiar <strong>de</strong>valor.• Hasta que se cumplan N iteraciones o yano haya cambios (convergencia)• Obtener configuración “óptima”© L.E. Sucar: PGM - CAM 37


VariantesCálculo <strong>de</strong>l óptimo:• MAP: se toma el valor para cada variable alfinal <strong>de</strong> las iteraciones.• MPM: se toma el valor <strong>de</strong> mayor frecuencia<strong>de</strong> acuerdo a su ocurrencia durante lasimulación.© L.E. Sucar: PGM - CAM 38


VariantesForma <strong>de</strong> optimización:• Metrópolis: con probabilidad fija se pue<strong>de</strong>pasar a estados <strong>de</strong> mayor energía.• Recocido simulado: se va disminuyendo laprobabilidad <strong>de</strong> pasar a estados <strong>de</strong> mayorenergía (temperatura).• ICM: tomar siempre el estado <strong>de</strong> menorenergía.© L.E. Sucar: PGM - CAM 39


Probabilida<strong>de</strong>s <strong>de</strong> transición• Probabilidad <strong>de</strong> transición a estado <strong>de</strong>mayor energía:P=e"! V/ T• Don<strong>de</strong> δV es la diferencia <strong>de</strong> energía yT es la temperatura© L.E. Sucar: PGM - CAM 40


Ejemplo• Dada la siguienteimagen:• Consi<strong>de</strong>ramos:– Configuración inicial<strong>de</strong> ceros– Vecindad <strong>de</strong> primeror<strong>de</strong>n– Potenciales <strong>de</strong>suavizamiento con λ=40 0 0 00 1 1 10 1 0 10 1 1 1© L.E. Sucar: PGM - CAM 41


Ejemplo1era iteración:• 1er sitio:• …• …V1 (0) = 0V1(1) = 2 + 4 (1) = 60 0 0 00 0 0 00 0 0 00 0 0 0© L.E. Sucar: PGM - CAM 42


Ejemplo• …• …• 11vo sitio:• …V11(0) = 2V11(1) = 60 0 0 00 1 1 10 1 0 00 0 0 0© L.E. Sucar: PGM - CAM 43


Ejemplo2da iteración• …• 11ovo sitio:• …V11(0) = 4V11(1) = 40 0 0 00 1 1 10 1 1 10 1 1 1© L.E. Sucar: PGM - CAM 44


Aplicaciones• Procesamiento <strong>de</strong> imágenes– Eliminación <strong>de</strong> ruido– Filtrado <strong>de</strong> una imagen– Segmentación <strong>de</strong> texturas– Visión estereoscópica– Recuperación <strong>de</strong> forma (3-D)– Reconocimiento <strong>de</strong> objetos– Etiquetado <strong>de</strong> imágenes© L.E. Sucar: PGM - CAM 45


Ejemplo – eliminación <strong>de</strong> ruido© L.E. Sucar: PGM - CAM 46


Ejemplo – eliminación <strong>de</strong> ruido© L.E. Sucar: PGM - CAM 47


Ejemplo – eliminación <strong>de</strong> ruido© L.E. Sucar: PGM - CAM 48


Otro ejemplo: anotación <strong>de</strong> imágenesGrass 0.6Tree 0.2rock 0.1building 0.1People 0.4Tree 0.3Mountain 0.2Jet 0.1Consi<strong>de</strong>rarrelacionesespacialesentre regionesChurch 0.3Grass 0.3Sky 0.2Elephant 0.2Tree 0.5Grass 0.3Sky 0.1Jet 0.1Grass, Tree, Sky,ElephantUsar CAMs paraobtener mejor“configuración”R 1R 2R 3R 4c 1grass people tree churchc 2grass tree tree churchc.. …. …. …. ……c igrass tree tree elephantc.. …. …. …. ……c jtree people tree churchc 256building Jet jet© L.E. Sucar: PGM - CAMelephant49


<strong>Campos</strong> <strong>de</strong> <strong>Markov</strong>• Combinar probabilidad previa (clasificador) con la probabilidad<strong>de</strong> la etiqueta dados sus vecinos (relaciones espaciales)Grass 0.6Tree 0.2rock 0.1building 0.1People 0.4Tree 0.3Mountain 0.2Jet 0.1Church 0.3Grass 0.3Sky 0.2Elephant 0.2Tree 0.5Grass 0.3Sky 0.1Jet 0.1Churcha 1a 2a 4a 3GrassTreeJet© L.E. Sucar: PGM - CAM 50


Función <strong>de</strong> energía• Consi<strong>de</strong>ra el potencial inicial <strong>de</strong> acuerdo a lascaracterísticas <strong>de</strong> la región (V O ) y lospotenciales dados por sus vecinos para 3 tipos<strong>de</strong> relaciones espaciales:– Topológicas (V T )– Horizontales (V H )– Verticales (V V )© L.E. Sucar: PGM - CAM 51


Potenciales• Los potenciales son inversamenteproporcionales a las probabilida<strong>de</strong>s <strong>de</strong> cadarelación:© L.E. Sucar: PGM - CAM 52


Resultados© L.E. Sucar: PGM - CAM 53


Referencias• Li, “<strong>Markov</strong> Random Fields Mo<strong>de</strong>ls in ComputerVision”, Springer-Verlag• Chellapa, Jain, “<strong>Markov</strong> Random Fields: Theoryand Mo<strong>de</strong>ls”, Aca<strong>de</strong>mic Press.• C. Hernán<strong>de</strong>z, L.E. Sucar, “"<strong>Markov</strong> RandomFields and Spatial Information to ImproveAutomatic Image Annotation", Advances inImage and Vi<strong>de</strong>o Technology, Lecture Notes inComputer Science 4872, Springer-Verlag , pp.879--892, 2007.• [Koller & Friedman]: Capítulo 4© L.E. Sucar: PGM - CAM 54


Activida<strong>de</strong>s• Hacer ejercicio <strong>de</strong> <strong>Campos</strong> <strong>de</strong> <strong>Markov</strong>© L.E. Sucar: PGM - CAM 55

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!