ID3-RMF: UM ALGORITMO DE APRENDIZADO INDUTIVO ... - SBA
ID3-RMF: UM ALGORITMO DE APRENDIZADO INDUTIVO ... - SBA
ID3-RMF: UM ALGORITMO DE APRENDIZADO INDUTIVO ... - SBA
Create successful ePaper yourself
Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.
X <strong>SBA</strong>I – Simpósio Brasileiro de Automação Inteligente<br />
18 a 21 de setembro de 2011<br />
São João del-Rei - MG - Brasil<br />
2. região negativa de X em A, formada<br />
pelos conjuntos elementares de A que não<br />
estão contidos na aproximação superior de X:<br />
negA(X) = U − AA-sup(X)<br />
3. região duvidosa de X em A, formada pelos<br />
elementos que pertencem a aproximação<br />
superior mas não pertencem à aproximação<br />
inferior:<br />
duvA(X) = AA-sup(X) − AA-inf (X)<br />
Dado um espaço aproximado A = (U, R),<br />
um conjunto X ⊆ U e um elemento x ∈ U,<br />
pode-se definir uma função que representa o grau<br />
de pertinência do elemento x no conjunto X,<br />
levando em consideração somente as informações<br />
do espaço aproximado A, da seguinte maneira:<br />
µ A X(x) = |[x]R ∩ X|<br />
|[x]R|<br />
4 Trabalhos correlatos<br />
RS1: O RS1, proposto por Wong and Ziarko<br />
(1986), é um algoritmo de aprendizado indutivo<br />
de máquina baseado em um conceito da TCA chamado<br />
índice discriminante, uma medida relativa<br />
do tamanho da região duvidosa de um dado conjunto<br />
em um determinado espaço aproximado.<br />
O algoritmo RS1 percorre os elementos do espaço<br />
aproximado induzido pelo atributo de decisão<br />
e, para cada um desses conjuntos, executa os<br />
seguintes passos: começa calculando seus índices<br />
discriminantes nos espaços aproximados induzidos<br />
pelos atributos de condição; a partir daí, o algoritmo<br />
verifica qual o maior valor obtido, adiciona<br />
o atributo que o proporcionou em um conjunto e<br />
segue, iterativamente, recalculando os índices discriminantes<br />
com base nesse conjunto de atributos<br />
e atualizando esse conjunto.<br />
À medida que o conjunto de atributos vai<br />
sendo atualizado, o RS1 verifica se existe uma<br />
aproximação inferior do átomo de decisão em<br />
questão no espaço induzido pelos atributos do conjunto<br />
e, caso exista, uma regra é criada utilizando<br />
os valores dos atributos do conjunto no(s) exemplo(s)<br />
que compõe(m) a aproximação inferior. Depois<br />
disso desconsidera-se os elementos da região<br />
duvidosa do átomo de decisão e remove o(s) atributo(s)<br />
utilizado(s) daqueles possíveis de serem<br />
utilizados.<br />
Fuzzy-Rough Sets: Existem, na visão de Du<br />
et al. (2005), duas desvantagens em relação ao modelo<br />
matemático de conjuntos aproximados definido<br />
por Pawlak (1982): é relativamente difícil de<br />
se satisfazer a relação de equivalência R em situações<br />
reais e as aproximações inferior e superior<br />
têm um caráter muito exato, o que impossibilita<br />
o manuseio de informações ruidosas.<br />
Uma das alternativas para contornar essa<br />
situação, conforme apresentado em (Du et al.,<br />
2005), é a combinação da TCA com a Teoria<br />
dos Conjuntos F uzzy (TCF). Na TCF, diferentemente<br />
da teoria clássica de conjuntos, a pertinência<br />
de um dado elemento a um conjunto assume<br />
valores em [0, 1]. Desta forma, os conjuntos fuzzy<br />
descrevem o conhecimento de forma aproximada,<br />
através da função de pertinência, manipulando incertezas<br />
típicas nas linguagem naturais humanas.<br />
Os chamados Fuzzy-Rough Sets, propostos<br />
inicialmente por (Dubois and Prade, 1992), são<br />
baseados na função de pertinência fuzzy e não<br />
em uma relação de equivalência, o que evita as<br />
desvantagens apresentadas por eles.<br />
F<strong>ID3</strong>: O algoritmo F<strong>ID3</strong> foi proposto por Ding<br />
et al. (2009) como uma forma de solucionar alguns<br />
problemas que, segundo eles, são inerentes<br />
ao <strong>ID3</strong>. Para os autores, o ganho de informação<br />
como medida para selecionar atributos tem uma<br />
polarização (bias) interno que favorece os atributos<br />
que possuem o maior número de valores possíveis.<br />
A escolha dos atributos por ganho de informação<br />
portanto, não pode ser sempre o melhor.<br />
Um outro problema verificado é a instabilidade<br />
da construção da árvore de decisão a partir<br />
do ganho de informação. Os autores afirmam que<br />
a árvore de decisão irá gerar regras de classificação<br />
diferentes, uma vez que os conjuntos de teste são<br />
modificados, mesmo que numa escala pequena.<br />
Diante desses problemas, eles propõem uma<br />
medida baseada na dependência entre o atributo<br />
em questão e o atributo que representa as classes<br />
(atributo de decisão), dada por:<br />
ISSN: 2175-8905 - Vol. X 71<br />
<br />
Gainfix(A) = 2<br />
κ(A, δ) ∗ Gain<br />
m<br />
em que C é uma coleção de objetos, κ(A, δ) =<br />
card(pos(A, δ))/card(C) é o grau de dependência<br />
do atributo que representa a classe dos objetos δ<br />
do em relação a A, Gain é o ganho de informação<br />
clássico do <strong>ID3</strong> e m é o número de valores possíveis<br />
para o atributo A ∈ C. Aqui, card(X) representa<br />
a cardinalidade (número de elementos) de X.<br />
Construção de uma árvore de decisão baseada<br />
no VPRSM: Como apresentado anteriormente,<br />
um modelo baseado na TCA é incapaz<br />
de lidar com ruídos nos dados de entrada e, no<br />
caso de construção de uma árvore de decisão, esses<br />
ruídos irão gerar partições excessivas e uma<br />
quantidade desnecessária de nós na árvore.<br />
Para contornar tal situação, foi proposto por<br />
(Ziarko, 1993) o modelo de conjuntos aproximados<br />
com precisão variável (VPRSM), como uma<br />
extensão da noção de conjuntos aproximados<br />
original, permitindo a definição de um erro de<br />
classificação relativo de um conjunto X em um<br />
conjunto Y da seguinte maneira:<br />
e(X, Y ) = 1 − card(X ∩ Y )/card(X), se card(X) = 0<br />
= 0, se card(X) = 0<br />
Com esta definição do erro relativo de classificação<br />
entre dois conjuntos, as noções de