18.11.2014 Views

Anais - Engenharia de Redes de Comunicação - UnB

Anais - Engenharia de Redes de Comunicação - UnB

Anais - Engenharia de Redes de Comunicação - UnB

SHOW MORE
SHOW LESS

You also want an ePaper? Increase the reach of your titles

YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.

Figura 2. Mo<strong>de</strong>lo matemático <strong>de</strong> um neurônio artificial, com as entradas<br />

x 1 , x 2 , . . . , x n , pesos w 1 , w 2 , . . . , w n , saída y e corpo com a somatória <strong>de</strong> x i w i e<br />

função <strong>de</strong> ativação f(u). Fonte: próprio autor<br />

Neurônios individuais são computacionalmente limitados, mas conjuntos <strong>de</strong><br />

neurônios organizados em forma <strong>de</strong> re<strong>de</strong> po<strong>de</strong>m resolver problemas mais complexos<br />

[Braga et al. 2007]. Para isso, se organizam re<strong>de</strong>s <strong>de</strong> neurônios artificiais com<br />

quantia <strong>de</strong> camadas variadas e com conexão entre si unidirecionais (feedforward)<br />

ou recorrentes, com saídas da camada inferior alimentando entradas da camada<br />

superior [Braga et al. 2007].<br />

As RNAs são treinadas para apren<strong>de</strong>r e melhorar sua performance na resolução<br />

<strong>de</strong> um problema [Haykin 1999]. Esse treinamento consiste <strong>de</strong> um processo<br />

iterativo <strong>de</strong> ajuste dos pesos das conexões [Braga et al. 2007] em que as entradas da<br />

re<strong>de</strong> são alimentadas e, <strong>de</strong> acordo com o resultado, os pesos são ajustados. O ajuste<br />

dos pesos é dado por w(t + 1) = w(t) + ∆w(t), com w(t + 1) sendo o valor do peso<br />

no instante t + 1 e ∆w(t) o ajuste aplicado aos pesos.<br />

O treinamento ou aprendizado po<strong>de</strong> ser supervisionado ou não supervisionado.<br />

No treinamento supervisionado, há um supervisor estimulando as entradas e<br />

ajustando os pesos para aproximar sua saída da saída <strong>de</strong>sejada. No treinamento não<br />

supervisionado, padrões são apresentados continuamente à re<strong>de</strong> e as regularida<strong>de</strong>s<br />

nos dados apresentados torna o aprendizado possível [Braga et al. 2007].<br />

A regra <strong>de</strong> aprendizado <strong>de</strong> Hebb, uma das regras <strong>de</strong> aprendizado usadas na<br />

criptografia neural, que propõe que o peso <strong>de</strong>ve ser ajustado caso haja sincronismo<br />

entre ativida<strong>de</strong>s <strong>de</strong> entrada e saída, é classificada como não supervisionada [Braga<br />

et al. 2007].<br />

4. Criptografia Neural<br />

A sincronização <strong>de</strong> re<strong>de</strong>s neurais é um caso especial <strong>de</strong> aprendizado on<strong>de</strong> duas re<strong>de</strong>s<br />

neurais são iniciadas com pesos escolhidos aleatoriamente e, a cada passo do processo<br />

<strong>de</strong> sincronização, recebem um vetor <strong>de</strong> entradas gerado publicamente, calculam suas<br />

saídas e as comunicam uma para a outra. Caso o mapeamento entre a entrada atual<br />

e a saída <strong>de</strong> ambas as re<strong>de</strong>s não seja igual, os pesos da re<strong>de</strong> são atualizados <strong>de</strong> acordo<br />

com uma das regras aplicáveis [Ruttor 2007].<br />

Nas re<strong>de</strong>s neurais mais simples, como os perceptrons, não se observa diferença<br />

significativa entre o tempo para a re<strong>de</strong> ser treinada por exemplos do tempo necessário<br />

para sincronizar, porém re<strong>de</strong>s neurais com uma estrutura específica, as Tree Parity<br />

313

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!