04.03.2015 Views

Algoritmo das Projeções Sucessivas Para Seleção de ... - PPGQ

Algoritmo das Projeções Sucessivas Para Seleção de ... - PPGQ

Algoritmo das Projeções Sucessivas Para Seleção de ... - PPGQ

SHOW MORE
SHOW LESS

You also want an ePaper? Increase the reach of your titles

YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.

Capítulo II. Fundamentação Teórica<br />

on<strong>de</strong> μ j (p × 1) e ∑ j (p × p) são, respectivamente, o vetor-média e a matriz <strong>de</strong><br />

covariância para a classe j [45] . Se os valores da média e covariância são<br />

<strong>de</strong>sconhecidos (o que usualmente acontece), estimativas m j e S j po<strong>de</strong>m ser<br />

emprega<strong>das</strong> no lugar <strong>de</strong> μ j e ∑ j , respectivamente. Tais estimativas po<strong>de</strong>m ser<br />

obti<strong>das</strong> a partir <strong>de</strong> um conjunto <strong>de</strong> treinamento com objetos <strong>de</strong> classificação<br />

conhecida [5] . É importante salientar que a LDA estima uma única matriz <strong>de</strong><br />

covariância conjunta S, em vez <strong>de</strong> utilizar uma estimativa separada para cada<br />

classe. Este procedimento simplifica o mo<strong>de</strong>lo <strong>de</strong> classificação e resulta em<br />

superfícies <strong>de</strong> <strong>de</strong>cisão lineares no<br />

p<br />

R [5, 27, 45, 82] . Com esta modificação, o quadrado<br />

da distância <strong>de</strong> Mahalanobis entre o objeto x e o centro da j-ésima classe é<br />

calculado a partir da Equação 2.14.<br />

2<br />

t −1<br />

r x,<br />

m ) = ( x − m ) . S .( x − m )<br />

(2.14)<br />

(<br />

j<br />

j<br />

j<br />

O objeto x é, então, atribuído à classe j para a qual r 2 (x,m j ) tiver o menor<br />

valor.<br />

Com intuito <strong>de</strong> se ter um problema bem condicionado, o número <strong>de</strong><br />

amostras <strong>de</strong>verá ser maior do que o número p <strong>de</strong> variáveis a serem incluí<strong>das</strong> no<br />

mo<strong>de</strong>lo LDA. Caso contrário, a matriz <strong>de</strong> covariância estimada S será singular, o que<br />

inviabiliza o cálculo da matriz inversa na Equação 2.14. Portanto, o uso da LDA em<br />

dados espectrométricos <strong>de</strong>pen<strong>de</strong>, quase que totalmente, <strong>de</strong> procedimentos <strong>de</strong><br />

seleção <strong>de</strong> variáveis.<br />

2.5. <strong>Seleção</strong> <strong>de</strong> variáveis<br />

Vários autores têm procurado <strong>de</strong>finir seleção <strong>de</strong> variáveis baseado em<br />

diferentes critérios [83] . Três <strong>de</strong>finições são apresenta<strong>das</strong> abaixo:<br />

1. Clássica: Seleciona um subconjunto <strong>de</strong> M variáveis provenientes <strong>de</strong> um conjunto <strong>de</strong><br />

N variáveis (M < N). Neste caso, uma função <strong>de</strong> custo é empregada para otimização.<br />

2. Desempenho preditivo: seleciona subconjuntos <strong>de</strong> variáveis para melhorar ou não<br />

diminuir significativamente a habilida<strong>de</strong> preditiva dos mo<strong>de</strong>los.<br />

3. Aproximação da distribuição <strong>das</strong> classes originais: seleciona um subconjunto<br />

pequeno <strong>de</strong> variáveis <strong>de</strong> modo que a distribuição da classe resultante seja a mais<br />

próxima possível da distribuição da classe original que emprega to<strong>das</strong> as variáveis.<br />

22

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!