19.11.2014 Views

Tese de Mestrado.pdf

Tese de Mestrado.pdf

Tese de Mestrado.pdf

SHOW MORE
SHOW LESS

You also want an ePaper? Increase the reach of your titles

YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.

3.2. Análise <strong>de</strong> Mineração <strong>de</strong> Dados 25<br />

informações não disponíveis a partir dos dados disponíveis: As tarefas preditivas po<strong>de</strong>m<br />

ser divididas em classicação e regressão:<br />

ˆ Classicação Esta tarefa consiste em associar um item a uma ou várias classes<br />

que são pre<strong>de</strong>nidas ou discretas. Cada classe correspon<strong>de</strong> a um padrão único <strong>de</strong><br />

valores dos atributos. Esse padrão único po<strong>de</strong> ser consi<strong>de</strong>rado a <strong>de</strong>scrição da classe.<br />

O objetivo da classicação é <strong>de</strong>scobrir algum tipo <strong>de</strong> relação entre os atributos e<br />

as classes. O algoritmo <strong>de</strong> classicação apren<strong>de</strong>rá que testes e valores <strong>de</strong>vem ser<br />

aplicados aos atributos para <strong>de</strong>cidir por uma classe [Santos, 2011]. A construção do<br />

mo<strong>de</strong>lo pressupõe o conhecimento prévio das possíveis classes e a correta classicação<br />

dos exemplos usados na mo<strong>de</strong>lagem.<br />

ˆ Regressão - Consiste na procura por uma função que represente o comportamento<br />

apresentado pelo fenómeno em estudo. A forma mais conhecida <strong>de</strong> regressão é a<br />

linear, por exemplo, uma reta que minimiza o erro médio entre todos os valores<br />

consi<strong>de</strong>rados. Esta forma ajuda a calcular uma relação linear entre uma variável<br />

<strong>de</strong>pen<strong>de</strong>nte e uma in<strong>de</strong>pen<strong>de</strong>nte e, <strong>de</strong>pois usar aquela relação para previsão. Existe<br />

também a regressão não linear. Diferentemente do caso linear, os parâmetros entram<br />

na equação <strong>de</strong> forma não linear. Sendo assim, não se po<strong>de</strong> simplesmente aplicar<br />

fórmulas para estimar os parâmetros do mo<strong>de</strong>lo. Os parâmetros obtidos <strong>de</strong>stes<br />

mo<strong>de</strong>los são facilmente interpretáveis.<br />

A aprendizagem não-supervisionada aplica-se em situações on<strong>de</strong> não se conhecem as<br />

classes dos dados a serem analisados, tendo como objetivo agrupá-los com elementos que<br />

possuem alguma característica em comum, para então, dada a relevância <strong>de</strong>sta caraterística,<br />

rotular os dados com as classes encontradas. Analisando a similarida<strong>de</strong> entre<br />

<strong>de</strong>terminados atributos, po<strong>de</strong>m-se <strong>de</strong>terminar grupos e a qual <strong>de</strong>les um indivíduo pertence.<br />

As tarefas <strong>de</strong>scritivas po<strong>de</strong>m ser divididas em segmentação, associação e sumarização:<br />

ˆ Segmentação (ou agrupamento ou Clustering) - Po<strong>de</strong> ser comparada a uma tarefa<br />

<strong>de</strong> classicação sem classes pré-<strong>de</strong>nidas. O objetivo <strong>de</strong> uma tarefa <strong>de</strong> segmentação<br />

consiste em agrupar registos semelhantes e separar registos diferentes. Ao se trabalhar<br />

com gran<strong>de</strong>s bases <strong>de</strong> dados, é muito comum que padrões concorrentes se<br />

cancelem ao se observar tudo <strong>de</strong> uma só vez.<br />

ˆ Associação - Encontra correlações entre atributos diferentes em um conjunto <strong>de</strong> dados.<br />

Esta estratégia é geralmente usada em aplicações on<strong>de</strong> se procura i<strong>de</strong>nticar<br />

itens que possam ser colocados juntos em um mesmo tipo <strong>de</strong> negociação. A associação<br />

também po<strong>de</strong> ser usada para avaliar a existência <strong>de</strong> algum tipo <strong>de</strong> relação

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!