martes, 15 de junio de 2010

Modelo que ayuda a los pacientes a visualizar su pronunciación

Interesante noticia acerca del Proyecto "Visual Speech" que están llevando a cabo investigadores del School of Behavioral and Brain Sciences, del Erik Jonsson School of Engineering and Computer Science y del School of Arts and Humanities.

Este equipo de investigadores está desarrollando una herramienta de alta tecnología que permita a los pacientes usar su sentido de la vista para visualizar los movimientos de la boca mientras hablan. Se trata de crear una animación por ordenador realista de los movimientos de la lengua y los labios del paciente durante la pronunciación de un discurso. Esta simulación permitirá a los pacientes comparar sus movimientos con los de un modelo animado, de tal forma que podrán realizar los cambios necesarios hasta producir el sonido de forma correcta.

Uno de los principales beneficios es la capacidad de exagerar los movimientos durante la pronunciación de tal forma que resulten más obvios a los pacientes, los cuales serán capaces de detectar el posicionamiento exacto de su lengua y labios para una correcta pronunciación.

Esta tecnología tiene el gran potencial de mejorar la calidad de vida de un gran número de pacientes, incluidas víctimas de derrame cerebral, niños con problemas de comunicación o incluso cualquiera que desee aprender un segundo idioma.

Para leer la información completa, ver el siguiente enlace de la Universidad de Texas en Dallas:
http://www.utdallas.edu/news/2010/6/10-3921_Model-to-Help-Patients-See-How-to-Sound-Out-Words_article.html

1 comentario:

programa residencia ancianos dijo...

Ciertamente que este ingenio mejorará la calidad de vida de muchos pacientes y especialmente ancianos