Evolução dos Processadores.
Evolução dos Processadores.
Evolução dos Processadores.
Create successful ePaper yourself
Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.
<strong>Evolução</strong> <strong>dos</strong> <strong>Processadores</strong><br />
Agora sim é necessária a genialidade <strong>dos</strong> programadores, pois como<br />
conseguir que uma estrutura deste tipo, imagine 1.024 processadores,<br />
trabalhe de forma sincronizada para gerar algum resultado? Se já é difícil<br />
escrever e depurar programas seriais, imagine fazer isso em um computador<br />
com 1.024 diferentes programas trabalhando sobre 1.024 da<strong>dos</strong> diferentes.<br />
Ganho de Velocidade<br />
Como medir o quanto se ganhou com a execução de uma tarefa em um<br />
computador paralelo? É intuitivo que devemos usar o tempo de execução para<br />
medir esse desempenho, já que nosso principal objetivo é aumentar a<br />
velocidade de processamento. Uma solução boa é verificarmos a relação entre<br />
os tempos gastos para executar essa tarefa em um computador serial e em um<br />
computador paralelo. A expressão a seguir é usada para o cálculo do Ganho de<br />
Velocidade, que é abreviado pela sigla GV.<br />
Por exemplo, uma determinada tarefa, quando executada em um<br />
computador convencional consome 200 s e quando executada em uma<br />
máquina paralela (24 processadores) consome 10 s, então o ganho de<br />
velocidade é GV = 200/10 = 20.<br />
Gostaríamos que o Ganho de Velocidade fosse igual à quantidade de<br />
Elementos de Processamento (EP) emprega<strong>dos</strong>, mas isso é raro de acontecer<br />
pois quando se escreve um programa para rodar em máquinas paralelas,<br />
invariavelmente se necessita colocar trechos extras (de programa) para<br />
sincronização <strong>dos</strong> diversos EP e troca de informações. Esses trechos extras<br />
recebem o nome de custo de paralelização. Dependendo da tarefa a ser<br />
executada, pode haver uma necessidade de sincronização e troca informações<br />
tão grande que venha a inviabilizar o processamento paralelo.<br />
Lei de Amdhal<br />
Apesar do quanto promissor a computação paralela possa parecer, ela não é<br />
uma solução para todo o problema de processamento. Existem tarefas que são<br />
eminentemente seqüenciais e que não tiram proveito de um computador<br />
paralelo. Voltando ao nosso exemplo da construção de uma casa, apesar dela<br />
ser executada em paralelo, existe por detrás uma seqüência que deve ser<br />
obedecida. Nessa construção, não podemos fazer o telhado antes de termos as<br />
paredes prontas e também não podemos construir as paredes antes do<br />
alicerce. Assim, é comum que as tarefas a serem executadas possuam porções<br />
paralelizáveis e porções que precisam ser executadas de forma seqüencial.<br />
Note que um computador paralelo operando de forma seqüencial é um grande<br />
desperdício, pois enquanto um processador trabalha no trecho serial, to<strong>dos</strong> os<br />
demais ficam ociosos.<br />
Conclusão<br />
O Processamento paralelo com certeza será um grande passo na evolução <strong>dos</strong><br />
computadores, mas ela está apenas "no ovo" e vai demorar algum tempo para<br />
que realmente atinja resulta<strong>dos</strong> satisfatórios.<br />
Felipe Tusset 53