12.07.2015 Views

En el continente blanco

En el continente blanco

En el continente blanco

SHOW MORE
SHOW LESS
  • No tags were found...

Create successful ePaper yourself

Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.

Expertos d<strong>el</strong> Ciematultiman un métodopara cultivar pi<strong>el</strong>Un equipo d<strong>el</strong> Centro de Investigaciones<strong>En</strong>ergéticas, Medioambientalesy Tecnologícas (CIEMAT)ultima la puesta en marcha de unnovedoso método de cultivo depi<strong>el</strong> humana a partir de pequeñasbiopsias de pacientes o donantes,según <strong>el</strong> jefe de la Unidad de BiomedicinaEpit<strong>el</strong>ial de este organismo,José Luis Jorcano Noval, quientambién dirige este proyecto. Esteexperto reconoce que están obteniendouna “alta eficiencia” coneste nuevo método.La memoria dependede varias regiones cerebralesExpertos de la Universidad de Boston aseguran qu<strong>el</strong>os pacientes con daño cerebral, en vez de ver losobjetos familiares como nuevos, como se ha pensadohasta ahora que ocurría, podrían ver los objetos nuevoscomo familiares. De esta forma, en sus cerebrosse crearía una memoria falsa.bio, las técnicas de separaciónofrecen la posibilidad de separarlas voces sin <strong>el</strong>iminar otros sonidosde interés”, explica <strong>el</strong> investigadorde la UJA.Con esta herramienta, los expertosde la UJA podrán recrearsonidos más realistas en 3D. “Sitenemos una señal que provienede uno o dos canales que tienenvarias fuentes y queremosrecrear sonido multicanal, unaforma de conseguirlo es utilizandolas mismas fuentes y despuésreproducirlos por diferentes canales.Así, modificaríamos <strong>el</strong> ritmoy la v<strong>el</strong>ocidad de las fuentes, entreotras variables”, apunta este ingenierojiennense.<strong>En</strong> este sentido, Ruiz Reyes proponeejemplos muy clarividentes.“¿Cómo sonaría Nino Bravo en3D, incorporando nuevas voces ynuevos instrumentos?, se pregunta.“Al ser una voz monofónica, lasposibilidades son muy variadas”.TRANSCRIPCIÓN DE PIEZASLas aportaciones de su estudioserán de gran utilidad para <strong>el</strong> sectoraudiovisual, sobre todo para <strong>el</strong>cine, pero la industria discográficatambién abrirá nuevas puertas.Una de <strong>el</strong>las es <strong>el</strong> hecho de que estastécnicas permitirán transcribirmusicalmente piezas sonoras.“A partir de una señal polifónica,resulta muy complejo obtener suinterpretación, pero si se diferencianlas fuentes, la transcripciónde las notas musicales es más real.De este modo, será posible captar,por ejemplo, los patrones musicalesde las piezas tocadas por SergéiRajmáninov, <strong>el</strong> famoso pianista ycompositor ruso”, asegura.Además de la puesta en marchade este software, Ruiz Reyes y suequipo están diseñando una baseEL DETALLEFiltrado de señales para<strong>el</strong>iminar interferenciasAl igual que sucede en <strong>el</strong> sector audiovisual,las técnicas utilizadas hasta <strong>el</strong> momento parapotenciar la señal de voz de los audífonos sebasaban en <strong>el</strong> filtrado de señales, es decir, <strong>el</strong>iminandointerferencias. De esta forma, “mucha informaciónse perdía en <strong>el</strong> camino”. Los audífonosdigitales son pequeños aparatos que funcionanmediante un procesador digital cuyo tamaño esligeramente superior al centímetro. La dificultadde aplicar técnicas de separación para amplificarla señal sonora deseada reside en la escasamemoria y <strong>el</strong> coste computacional de estos audífonos.“Habría que adaptarlo a la complejidad ytamaño de estos productos”, vaticina Ruiz Reyes.Parte de los resultados de este proyecto se hanpublicado en <strong>el</strong> número d<strong>el</strong> mes de marzo de larevista IEEE Transactions on audio, speech andlanguage processing.de datos sonora automatizada.“Hasta ahora, este tipo de archivosmusicales se hace de formamanual. Se etiquetan las cancionesindicando <strong>el</strong> tipo y númerode voces, qué instrumentos aparecen,a qué familia pertenecen,etc.”, matiza este experto.“Lo que proponemos con estanueva base de datos es, en definitiva,organizar y gestionar automáticament<strong>el</strong>a información sonoracomo paso previo a la separaciónde fuentes”. Pero este catálogomusical no es la única aplicaciónd<strong>el</strong> proyecto en <strong>el</strong> que los investigadoresde la UJA están trabajando.<strong>En</strong> otro ámbito de actuación,concretamente en <strong>el</strong> campo de lasalud, la separación de fuentessonoras mejorará la calidad auditivade las personas que utilizanaudífonos digitales.ALMIRA LABSLos ciegos oirán losmensajes SMS y lossordos los verán envídeoLas personas con estas discapacidades“son clientes fi<strong>el</strong>es que estándemandando tecnología, y no esun mercado pequeño”, ha afirmadoJavier Martín, director general deAlmira Labs, quien ha señalado que“la lengua de signos va a tener máspresencia en la sociedad” tras habersereconocido como oficial. Lossordos y los ciegos podrán aparcarsus problemas de comunicación en<strong>el</strong> futuro, al menos cuando contactenpor mensajes SMS y medianteuna aplicación que convertirá lostextos enviados en voz o en vídeosen los que un intérprete virtual lostraducirá al lenguaje de signos. Lasbarreras técnicas han sido superadastras casi un año de trabajo queha culminado con <strong>el</strong> desarrollo deun prototipo y con la promesa deque la aplicación para los usuariosestará disponible en la primeramitad de 2011. La idea es que lospropios discapacitados se dende alta en un registro, de maneraque los mensajes de texto que lesmanden lleguen a su t<strong>el</strong>éfono móviladaptados a sus condiciones particularestras ser procesados por laaplicación informática. <strong>En</strong> <strong>el</strong> casode que <strong>el</strong> receptor d<strong>el</strong> mensaje tengaalgún tipo de ceguera, <strong>el</strong> textose convertirá automáticamente enun mensaje de voz, mientras quecuando la discapacidad afecte asus percepciones auditivas, recibiráun vídeo en <strong>el</strong> que podrá “ver” esemensaje. El protagonista de esevídeo será un “avatar”, una especiede intérprete virtual con forma humana,que transmitirá <strong>el</strong> mensajea su destinatario en <strong>el</strong> lenguaje designos.NÚMERO 21 • 43

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!