18.11.2014 Views

Anais - Engenharia de Redes de Comunicação - UnB

Anais - Engenharia de Redes de Comunicação - UnB

Anais - Engenharia de Redes de Comunicação - UnB

SHOW MORE
SHOW LESS

Create successful ePaper yourself

Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.

entre −L e +L, a distância d i = |wi<br />

A − wi B | não será modificada, exceto caso o valor<br />

<strong>de</strong> um dos pesos ultrapasse L, caso em que é atribuido ao mesmo o valor limitante,<br />

o que faz com que a distância d i diminua, até que d i = 0 [Firmino Filho 2009].<br />

Um passo repulsivo ocorre quando y A = y B mas o A i ≠ o B i . Nessa situação<br />

apenas um dos pesos é atualizado, o que aumenta a distância d i = |wi A − wi B |.<br />

Para uma re<strong>de</strong> neural atacante, a probabilida<strong>de</strong> <strong>de</strong> passos repulsivos é sempre<br />

maior do que entre A e B [Ruttor 2007].<br />

O principal problema para um atacante E é que a representação interna<br />

(o 1 , o 2 , . . . , o i ) <strong>de</strong> A e B lhe é <strong>de</strong>sconhecida. Como as alterações nos pesos <strong>de</strong>pen<strong>de</strong><br />

dos valores <strong>de</strong> o i , é importante para um ataque bem sucedido que o estado das<br />

unida<strong>de</strong>s ocultas seja adivinhado corretamente.<br />

Ataques <strong>de</strong> força bruta são computacionalmente inviáveis contra o protocolo,<br />

pois para <strong>de</strong>terminada TPM há (2L + 1) KN diferentes configurações possíveis <strong>de</strong><br />

pesos.<br />

Há quatro principais formas <strong>de</strong> ataque; simples, geométrico, <strong>de</strong> maioria e o<br />

genético. No ataque simples, E treina uma terceira TPM com os vetores públicos x<br />

e com as saídas y A , que são transmitidas publicamente entre A e B.<br />

A TPM <strong>de</strong> E <strong>de</strong>ve ter a mesma estrutura <strong>de</strong> A e B e inicia com pesos<br />

aleatórios [Ruttor 2007]. A re<strong>de</strong> neural <strong>de</strong> E é treinada por uma das seguintes<br />

equações:<br />

• Regra <strong>de</strong> aprendizado <strong>de</strong> Hebb:<br />

• Regra <strong>de</strong> aprendizado anti-Hebb:<br />

w E i (t + 1) = w E i (t) + x i y E Θ(y A o E i )Θ(y A y B ) (10)<br />

w E i (t + 1) = w E i (t) − x i o i Θ(y A o E i )Θ(y A y B ) (11)<br />

• Regra <strong>de</strong> aprendizado Passeio Aleatório<br />

w E i (t + 1) = w E i (t) + x i Θ(y A o E i )Θ(y A y B ) (12)<br />

O ataque geométrico é similar ao ataque simples, porém a regra <strong>de</strong> aprendizado<br />

só é aplicada caso y E = y A = y B . Caso y E ≠ y A = y B , o atacante tentará<br />

corrigir sua representação interna para obter a mesma saída antes <strong>de</strong> atualizar seus<br />

pesos, trocando o valor <strong>de</strong> sua saída y E pelo valor da saída <strong>de</strong> um neurônio da<br />

camada oculta [Firmino Filho 2009].<br />

No ataque <strong>de</strong> maioria, o atacante usa m TPMs para melhorar sua capacida<strong>de</strong><br />

<strong>de</strong> predição. As m re<strong>de</strong>s não inicializadas com pesos aleatórios e quando a saída <strong>de</strong><br />

uma <strong>de</strong>terminada re<strong>de</strong> yi<br />

E for diferente <strong>de</strong> y A/B , E tenta corrigir sua representação<br />

da mesma forma que o ataque geométrico. Após a correção, o atacante E seleciona<br />

a representação interna mais comum e esta será adotada por todas as re<strong>de</strong>s na regra<br />

<strong>de</strong> aprendizagem [Firmino Filho 2009].<br />

Para aumentar a eficiência e reduzir a correlação que surge entre as TPMs<br />

<strong>de</strong> E <strong>de</strong>vido às atualizações idênticas, o atacante po<strong>de</strong> usar o ataque <strong>de</strong> maioria e o<br />

316

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!