30.07.2015 Views

Actas JP2011 - Universidad de La Laguna

Actas JP2011 - Universidad de La Laguna

Actas JP2011 - Universidad de La Laguna

SHOW MORE
SHOW LESS

Create successful ePaper yourself

Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.

<strong>Actas</strong> XXII Jornadas <strong>de</strong> Paralelismo (<strong>JP2011</strong>) , <strong>La</strong> <strong>La</strong>guna, Tenerife, 7-9 septiembre 2011rCUDA: Uso Concurrente <strong>de</strong> DispositivosCompatibles con CUDA <strong>de</strong> Forma Remota.Adaptación a CUDA 4Carlos Reaño, Antonio J. Peña, Fe<strong>de</strong>rico Silla y José Duato 1Rafael Mayo y Enrique S. Quintana-Ortí 2Resumen—<strong>La</strong>s mejoras realizadas en las GPUs (GraphicsProcessor Units) en la última década han propiciado queéstas sean utilizadas para incrementar el rendimiento enlos sistemas <strong>de</strong> computación <strong>de</strong> altas prestaciones. A esterespecto, NVIDIA viene <strong>de</strong>sarrollando <strong>de</strong>s<strong>de</strong> 2007 unanueva tecnología <strong>de</strong>nominada CUDA (Compute UnifiedDevice Architecture) que permite <strong>de</strong>scargar en la GPU granparte <strong>de</strong> los cómputos <strong>de</strong> la aplicación. En general, elprincipal inconveniente <strong>de</strong> esta ten<strong>de</strong>ncia es el aumento <strong>de</strong>energía que introducen las GPUs. Si, a<strong>de</strong>más, tenemos encuenta que en este tipo <strong>de</strong> sistemas no se suelen utilizartodos los recursos <strong>de</strong> las mismas, compartirlas seríabeneficioso en ambos sentidos: menor consumo y mayorutilización. Con el objetivo <strong>de</strong> proporcionar una soluciónbajo estas premisas nace rCUDA, un marco <strong>de</strong> trabajo quepermite el uso concurrente <strong>de</strong> dispositivos CUDA <strong>de</strong> formaremota.Este artículo <strong>de</strong>scribe las experiencias y conclusionesextraídas durante la primera fase <strong>de</strong> adaptación <strong>de</strong> rCUDA<strong>de</strong>s<strong>de</strong> la versión 3 <strong>de</strong> CUDA a la nueva versión 4.Palabras clave—CUDA, computación <strong>de</strong> altasprestaciones, aceleración basada en GPUs, virtualización,clústeres, ahorro <strong>de</strong> energía.EI. INTRODUCCIÓNN la actualidad, <strong>de</strong>bido a la creciente <strong>de</strong>manda <strong>de</strong>requisitos que se les viene exigiendo a las GPUs, sehan realizado gran<strong>de</strong>s avances en el <strong>de</strong>sarrollo <strong>de</strong> lasmismas, dando lugar a dispositivos con mayor po<strong>de</strong>rcomputacional y mayor ancho <strong>de</strong> banda <strong>de</strong> memoria quelas CPUs actuales [1]. En las Figuras 1 y 2 po<strong>de</strong>mos vergráficamente una comparativa <strong>de</strong> dichas característicasentre GPUs NVIDIA y CPUs Intel.<strong>La</strong> Figura 1 nos muestra cómo mediante el uso <strong>de</strong> GPUses posible obtener, en algunos casos, una tasa teórica <strong>de</strong>operaciones en coma flotante por segundo hasta casi 8veces superior a la <strong>de</strong> las CPUs más potentes en el año2010. En la Figura 2, por su parte, vemos cómo el ancho<strong>de</strong> banda <strong>de</strong> memoria teórico <strong>de</strong> las GPUs sextuplicaba,en el mismo año, al <strong>de</strong> las CPUs, a pesar <strong>de</strong> lascrecientes mejoras que estas últimas introducenpaulatinamente para incrementar éste.Figura 2. Ancho <strong>de</strong> banda <strong>de</strong> la memoria en CPUs y GPUs.Esta gran potencia <strong>de</strong> cálculo, junto con la eficiencia enel acceso a memoria, ha motivado la utilización <strong>de</strong>GPUs en ámbitos distintos a aquellos para los queinicialmente fueron diseñadas: son las llamadas tareas <strong>de</strong>propósito general, <strong>de</strong>rivando todo ello en la <strong>de</strong>nominadacomputación GPU o GPGPU (General PurposeComputing on GPU). Cabe <strong>de</strong>stacar, en cualquier caso,que las GPUs no son un reemplazo <strong>de</strong> las CPUs, dadoque solo son útiles para <strong>de</strong>terminados tipos <strong>de</strong>problemas en los que la misma operación es aplicadasobre una gran cantidad <strong>de</strong> datos y con un patrón <strong>de</strong>acceso <strong>de</strong>terminado.Por otra parte, <strong>de</strong>bido principalmente al gran volumen<strong>de</strong> negocio generado por la industria <strong>de</strong>l vi<strong>de</strong>ojuego, lasGPUs se han convertido en dispositivos <strong>de</strong> relativamentebajo coste, proporcionando una potencia <strong>de</strong> cómputoextraordinaria para la inversión que suponen.Figura 1. Operaciones en coma flotante por segundo en CPUs y GPUs.1 DISCA, Universitat Politècnica <strong>de</strong> València (UPV), e-mails:{carregon, apenya}@gap.upv.es, {fsilla, jduato}@disca.upv.es.2 DICC, Universitat Jaume I (UJI), e-mails: {mayo, quintana}@icc.uji.es.Todo ello ha provocado que en la actualidad los gran<strong>de</strong>sclústeres <strong>de</strong> computadores <strong>de</strong> altas prestaciones seinclinen hacia la utilización <strong>de</strong> estos dispositivos comouna vía para acelerar <strong>de</strong>terminadas partes <strong>de</strong>l código <strong>de</strong>las aplicaciones a las que prestan servicio. <strong>La</strong> propuesta<strong>de</strong> NVIDIA en este sentido es CUDA: una arquitectura<strong>JP2011</strong>-311

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!