18.04.2013 Views

PARALELIZAÇÃO DA RESOLUÇÃO DE EDPs PELO MÉTODO ...

PARALELIZAÇÃO DA RESOLUÇÃO DE EDPs PELO MÉTODO ...

PARALELIZAÇÃO DA RESOLUÇÃO DE EDPs PELO MÉTODO ...

SHOW MORE
SHOW LESS

Create successful ePaper yourself

Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.

3.1 - MÉTRICAS<br />

A seguir serão definidas algumas métricas, além daquelas já definidas em 2.5, que são<br />

importantes para quantificar especificamente o desempenho de uma aplicação paralela.<br />

3.1.1 - “Speedup”<br />

Fornece a medida de quanto um programa rodando em paralelo é mais rápido do que<br />

esse mesmo programa rodando seqüencialmente. É definido como ( p)<br />

28<br />

t<br />

t<br />

S<br />

S = [45], onde p é a<br />

quantidade de processadores, t1 é o tempo de execução do programa seqüencial e tp é o tempo<br />

de execução do programa paralelo com p processadores.<br />

A lei de Amdahl [3] estabelece um limite superior para o “speedup”, que é dependente<br />

da parte do programa que não é paralelizável. Se P é a proporção do programa que pode ser<br />

tornado paralelo, e (1-P) for a proporção que não pode ser paralelizado, então o máximo<br />

“speedup” que pode ser obtido usando p processadores é<br />

1<br />

( 1−<br />

P)<br />

No limite, quando p tende a infinito, o “speedup” máximo tende para / ( 1−<br />

P)<br />

+<br />

P<br />

p<br />

p<br />

1 . Por<br />

esta razão, computação paralela torna-se mais vantajosa quando P torna-se maior. Para uma<br />

aplicação cujo P fosse 1 (ideal), o “speedup” por usar p processadores seria p, chamado de<br />

“speedup” linear. Entretanto, não é incomum a obtenção de “speedup” superlinear, que é a<br />

obtenção de um “speedup” superior a p em uma máquina com p processadores. Uma razão<br />

para isso é que a memória cache aumenta com o número de processadores, tornando possível<br />

carregar maiores quantidades de dados em uma cache com tamanho agregado maior, evitando<br />

assim operações de “swapping”, reduzindo com isso a quantidade de acessos à memória.<br />

Em [39] mostra-se que a lei de Amdahl não deve ser encarada como uma restrição ao<br />

uso de processamento paralelo massivo.<br />

3.1.2 - Eficiência<br />

Para programas paralelos, a eficiência é definida como E(<br />

p)<br />

tS<br />

= , onde tS é o tempo<br />

t p<br />

de execução do programa seqüencial e tp é o tempo de execução do programa paralelo usando<br />

p processadores.<br />

p

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!