05.08.2013 Views

ID3-RMF: UM ALGORITMO DE APRENDIZADO INDUTIVO ... - SBA

ID3-RMF: UM ALGORITMO DE APRENDIZADO INDUTIVO ... - SBA

ID3-RMF: UM ALGORITMO DE APRENDIZADO INDUTIVO ... - SBA

SHOW MORE
SHOW LESS

Create successful ePaper yourself

Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.

X <strong>SBA</strong>I – Simpósio Brasileiro de Automação Inteligente<br />

18 a 21 de setembro de 2011<br />

São João del-Rei - MG - Brasil<br />

2. região negativa de X em A, formada<br />

pelos conjuntos elementares de A que não<br />

estão contidos na aproximação superior de X:<br />

negA(X) = U − AA-sup(X)<br />

3. região duvidosa de X em A, formada pelos<br />

elementos que pertencem a aproximação<br />

superior mas não pertencem à aproximação<br />

inferior:<br />

duvA(X) = AA-sup(X) − AA-inf (X)<br />

Dado um espaço aproximado A = (U, R),<br />

um conjunto X ⊆ U e um elemento x ∈ U,<br />

pode-se definir uma função que representa o grau<br />

de pertinência do elemento x no conjunto X,<br />

levando em consideração somente as informações<br />

do espaço aproximado A, da seguinte maneira:<br />

µ A X(x) = |[x]R ∩ X|<br />

|[x]R|<br />

4 Trabalhos correlatos<br />

RS1: O RS1, proposto por Wong and Ziarko<br />

(1986), é um algoritmo de aprendizado indutivo<br />

de máquina baseado em um conceito da TCA chamado<br />

índice discriminante, uma medida relativa<br />

do tamanho da região duvidosa de um dado conjunto<br />

em um determinado espaço aproximado.<br />

O algoritmo RS1 percorre os elementos do espaço<br />

aproximado induzido pelo atributo de decisão<br />

e, para cada um desses conjuntos, executa os<br />

seguintes passos: começa calculando seus índices<br />

discriminantes nos espaços aproximados induzidos<br />

pelos atributos de condição; a partir daí, o algoritmo<br />

verifica qual o maior valor obtido, adiciona<br />

o atributo que o proporcionou em um conjunto e<br />

segue, iterativamente, recalculando os índices discriminantes<br />

com base nesse conjunto de atributos<br />

e atualizando esse conjunto.<br />

À medida que o conjunto de atributos vai<br />

sendo atualizado, o RS1 verifica se existe uma<br />

aproximação inferior do átomo de decisão em<br />

questão no espaço induzido pelos atributos do conjunto<br />

e, caso exista, uma regra é criada utilizando<br />

os valores dos atributos do conjunto no(s) exemplo(s)<br />

que compõe(m) a aproximação inferior. Depois<br />

disso desconsidera-se os elementos da região<br />

duvidosa do átomo de decisão e remove o(s) atributo(s)<br />

utilizado(s) daqueles possíveis de serem<br />

utilizados.<br />

Fuzzy-Rough Sets: Existem, na visão de Du<br />

et al. (2005), duas desvantagens em relação ao modelo<br />

matemático de conjuntos aproximados definido<br />

por Pawlak (1982): é relativamente difícil de<br />

se satisfazer a relação de equivalência R em situações<br />

reais e as aproximações inferior e superior<br />

têm um caráter muito exato, o que impossibilita<br />

o manuseio de informações ruidosas.<br />

Uma das alternativas para contornar essa<br />

situação, conforme apresentado em (Du et al.,<br />

2005), é a combinação da TCA com a Teoria<br />

dos Conjuntos F uzzy (TCF). Na TCF, diferentemente<br />

da teoria clássica de conjuntos, a pertinência<br />

de um dado elemento a um conjunto assume<br />

valores em [0, 1]. Desta forma, os conjuntos fuzzy<br />

descrevem o conhecimento de forma aproximada,<br />

através da função de pertinência, manipulando incertezas<br />

típicas nas linguagem naturais humanas.<br />

Os chamados Fuzzy-Rough Sets, propostos<br />

inicialmente por (Dubois and Prade, 1992), são<br />

baseados na função de pertinência fuzzy e não<br />

em uma relação de equivalência, o que evita as<br />

desvantagens apresentadas por eles.<br />

F<strong>ID3</strong>: O algoritmo F<strong>ID3</strong> foi proposto por Ding<br />

et al. (2009) como uma forma de solucionar alguns<br />

problemas que, segundo eles, são inerentes<br />

ao <strong>ID3</strong>. Para os autores, o ganho de informação<br />

como medida para selecionar atributos tem uma<br />

polarização (bias) interno que favorece os atributos<br />

que possuem o maior número de valores possíveis.<br />

A escolha dos atributos por ganho de informação<br />

portanto, não pode ser sempre o melhor.<br />

Um outro problema verificado é a instabilidade<br />

da construção da árvore de decisão a partir<br />

do ganho de informação. Os autores afirmam que<br />

a árvore de decisão irá gerar regras de classificação<br />

diferentes, uma vez que os conjuntos de teste são<br />

modificados, mesmo que numa escala pequena.<br />

Diante desses problemas, eles propõem uma<br />

medida baseada na dependência entre o atributo<br />

em questão e o atributo que representa as classes<br />

(atributo de decisão), dada por:<br />

ISSN: 2175-8905 - Vol. X 71<br />

<br />

Gainfix(A) = 2<br />

κ(A, δ) ∗ Gain<br />

m<br />

em que C é uma coleção de objetos, κ(A, δ) =<br />

card(pos(A, δ))/card(C) é o grau de dependência<br />

do atributo que representa a classe dos objetos δ<br />

do em relação a A, Gain é o ganho de informação<br />

clássico do <strong>ID3</strong> e m é o número de valores possíveis<br />

para o atributo A ∈ C. Aqui, card(X) representa<br />

a cardinalidade (número de elementos) de X.<br />

Construção de uma árvore de decisão baseada<br />

no VPRSM: Como apresentado anteriormente,<br />

um modelo baseado na TCA é incapaz<br />

de lidar com ruídos nos dados de entrada e, no<br />

caso de construção de uma árvore de decisão, esses<br />

ruídos irão gerar partições excessivas e uma<br />

quantidade desnecessária de nós na árvore.<br />

Para contornar tal situação, foi proposto por<br />

(Ziarko, 1993) o modelo de conjuntos aproximados<br />

com precisão variável (VPRSM), como uma<br />

extensão da noção de conjuntos aproximados<br />

original, permitindo a definição de um erro de<br />

classificação relativo de um conjunto X em um<br />

conjunto Y da seguinte maneira:<br />

e(X, Y ) = 1 − card(X ∩ Y )/card(X), se card(X) = 0<br />

= 0, se card(X) = 0<br />

Com esta definição do erro relativo de classificação<br />

entre dois conjuntos, as noções de

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!