17.04.2013 Views

Modelagem da dinâmica espacial como uma ... - mtc-m12:80 - Inpe

Modelagem da dinâmica espacial como uma ... - mtc-m12:80 - Inpe

Modelagem da dinâmica espacial como uma ... - mtc-m12:80 - Inpe

SHOW MORE
SHOW LESS

You also want an ePaper? Increase the reach of your titles

YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.

estatisticamente a partir de <strong>uma</strong> amostra de transições ocorri<strong>da</strong>s durante algum intervalo<br />

de tempo. Dado que aij indica transições entre pares de estados em algum intervalo de<br />

tempo, as probabili<strong>da</strong>des de transição Pij são estima<strong>da</strong>s por (JRC e ESA, 1994):<br />

P ij = a ij / ∑ a ij<br />

j<br />

165<br />

. (5.67)<br />

Dessa forma, a cadeia de Markov apenas requer o estabelecimento de um número finito<br />

de estados e que as probabili<strong>da</strong>des de transição sejam conheci<strong>da</strong>s. Apesar <strong>da</strong> sua relativa<br />

simplici<strong>da</strong>de, várias limitações e suposições estão associa<strong>da</strong>s com o emprego de<br />

modelos Markovianos para se simular mu<strong>da</strong>nças de uso do solo.<br />

Uma importante limitação <strong>da</strong> cadeia de Markov reside na suposição de que a<br />

probabili<strong>da</strong>de de um conjunto particular de saí<strong>da</strong>s depende unicamente <strong>da</strong> distribuição<br />

atual entre os estados e <strong>da</strong>s probabili<strong>da</strong>des de transição – i.e., a cadeia de Markov é um<br />

processo de primeira ordem. Entretanto, de acordo com JRC e ESA (1994), também é<br />

possível definirem-se cadeias cuja relação de dependência envolva mais de um estado<br />

precedente. Uma cadeia de dupla dependência, por exemplo, é dependente de dois<br />

estados precedentes. Se esses dois estados forem os dois imediatamente precedentes, a<br />

cadeia é de segun<strong>da</strong> ordem. No entanto, neste caso, a projeção de um comportamento<br />

futuro seria muito mais difícil (Bell e Hinojosa, 1977).<br />

Uma outra suposição, que nem sempre é adequa<strong>da</strong> do ponto de vista do conhecimento<br />

empírico de fenômenos de mu<strong>da</strong>nça de uso, é a estacionarie<strong>da</strong>de <strong>da</strong> matriz de transição<br />

ou homogenei<strong>da</strong>de temporal (JRC e ESA, 1994). Se isto se confirmar, então<br />

consecutivas iterações entre o vetor coluna de estados e a matriz de transição n vezes<br />

resultaria em um vetor representando os estados do sistema no tempo (t+n). Se este<br />

vetor convergir em direção a <strong>uma</strong> distribuição de probabili<strong>da</strong>des limite entre os<br />

possíveis estados do sistema independentemente <strong>da</strong> sua condição inicial, então a cadeia<br />

de Markov é dita estacionária ou ergódica (Facelli e Steward, 1990).<br />

Portanto, <strong>uma</strong> cadeia de Markov é ergódica se ela apresenta um número finito de<br />

estados, sua <strong>dinâmica</strong> é não-periódica e ela não possui estados absorventes (quando

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!