viernes, 18 de septiembre de 2009

La Universidad de Granada y Telefónica I+D diseñan habitaciones con sensores que ayudan a las personas dependientes

Investigadores del departamento de Teoría de la Señal, Redes y Comunicaciones de la Universidad de Granada, dirigido por José Carlos Segura Luna, están trabajando en un proyecto junto con investigadores de Telefónica I+D para desarrollar un sistema de localización de personas dependientes en su entorno, de tal forma que su estancia y seguridad puedan ser garantizadas gracias a los llamados Ambientes Inteligentes. Éste es un Proyecto de Excelencia del Ministerio de Innovación de Andalucía.

En la oficina de Telefónica I+D Granada, se ha diseñado una habitación que contiene un sistema electrónico que permite detectar casi cualquier localización de un receptor que se vaya moviendo por ella. El sistema funciona gracias a unos sensores colocados en el techo de tal forma que la información se recibe y procesa en un ordenador. Las posibilidades que permite son muchas, desde abrir las puertas cuando el receptor se acerca a ellas o frenar la silla de ruedas cuando los pacientes se acercan a una zona peligrosa.

TELIAMADE es el nombre de este nuevo proyecto que, combinado con diferentes tecnologías de localización como ZigBee, GPS (para espacios abiertos) o los ultrasonidos (cuando se quiere la posición exacta), puede extenderse a una gran variedad de espacios.

El prototipo está siendo probado en un estudio piloto en un hospital en Roma. Concretamente, los pacientes tienen en sus sillas de ruedas instalados los receptores-sensores y sus movimientos están totalmente controlados permitiendo frenar la silla si se acercan a sitios peligrosos como una escalera o abrir las puertas cuando se acercan a ellas.

Esta nueva herramienta puede ser muy útil para los servicios sociales como la telemedicina puesto que toda la información de los movimientos y actividad en las casas se podrá recibir remotamente.

Fuente de información: Andaluciainvestiga.com

miércoles, 16 de septiembre de 2009

Mapas virtuales para discapacitados visuales

El Doctor Orly Lahav de la universidad de Tel Aviv ha inventado una nueva herramienta software que permite las personas con limitaciones visuales navegar por lugares desconocidos para ellos. Para lograrlo, el usuario utilizará un joystick especial, un dispositivo háptico, que le permite tener sensación táctil.

Mediante este sistema, las personas pueden sentir físicamente la tensión en sus dedos mientras navegan en un entorno virtual que no pueden ver, pero sí sentir: por ejemplo, si el usuario se encuentra con una pared o una barrera, el joystick se endurece. El software además puede programarse para emitir sonidos: una máquina de café ardiendo en un café virtual o el sonido de un teléfono cuando el usuario se acerca a la mesa de un recepcionista.

Explorando mundos virtuales en 3 dimensiones basados en mapas de entornos reales, las personas ciegas pueden "sentir" las calles, las aceras y otros elementos urbanos a través del joystick cuando mueven el cursor en la pantalla del ordenador. La nueva solución les da el control, la confianza y la capacidad de explorar nuevas calles y espacios que no les son familiares. De esta forma, las personas que no pueden ver, pueden fabricarse mapas mentales en sus mentes que les servirá para moverse en el entorno real.

La herramienta que se ha llamado "BlindAid" fue mostrada recientemente en la conferencia internacional de rehabilitación virtual 2009, donde el doctor Lahav demostró casos de estudio de personas utilizándola en el centro de rehabilitación para ciegos en Newton, Massachusetts. Allí, una mujer parcialmente ciega, fue la primera que experimentó el entorno virtual del centro, además del campus y de otros 10 lugares, incluido un edificio de cuatro plantas. Después de 3 ó 4 sesiones, la mujer era capaz de navegar de forma eficaz y explorar sitios concretos del mundo real llevando una venda en los ojos.


Fuente de información original en inglés: ScienceDaily.com

Crean un robot que cuida de las personas mayores

Un nuevo interfaz permite a los ancianos comunicarse mejor con los robots cuidadores

Ingenieros norteamericanos han desarrollado un robot capaz de cuidar de las personas mayores en tareas como darle la mano para andar, oír lo que necesitan y realizar otras actividades físicas. Han creado un interfaz hombre-máquina que permitirá a los ancianos o discapacitados motores comunicarse mucho más fácilmente con los robots cuidadores, especialmente diseñados para su atención. No sustituirá la atención humana, pero incrementará la independencia de las personas con problemas físicos.

Un equipo de ingenieros electrónicos e informáticos y especialistas en ciencias de la salud de la Universidad de Illinois en Chicago (UIC), Estados Unidos, y de la Rush University, de la misma ciudad, han desarrollado un interfaz hombre-máquina que permitirá a los ancianos o discapacitados motores comunicarse mucho más fácilmente con los robots cuidadores, especialmente diseñados para su atención. Milos Zefran, Jezekiel Ben-Arie, Marquis Foreman y Bárbara Di Eugenio son los responsables de esta investigación.

Son conocidos los distintos inconvenientes que pueden ocasionar las discapacidades físicas en personas de edad avanzada. Sin embargo, hay muchos casos en los cuales las capacidades mentales no se encuentran alteradas y, en consecuencia, los ancianos solamente requieren una ayuda instrumental para poder realizar las tareas cotidianas que insumen un esfuerzo físico, por más pequeño que sea.

El objetivo de la nueva aplicación es que las personas con inconvenientes físicos pueden comunicarse muy fácilmente con los robots, indicándoles inmediatamente que necesitan. La investigación, difundida mediante un comunicado de prensa de la UIC, recibió una beca de 989.000 dólares por parte de la National Science Foundation (NSF) y forma parte del American Recovery and Reinvestment Act of 2009, debido a la importancia en distintos campos de la aplicación que se está desarrollando.

La innovación incluye una interfaz que permitirá a los ancianos o discapacitados comunicarse con los robots cuidadores mediante una amplia gama de canales, como el lenguaje verbal, los gestos no verbales o el tacto. De esta manera, se simplificaría el proceso de comunicación que debe cumplirse cuando surge la necesidad de la persona y el robot debe actuar en consecuencia.

Importantes beneficios para las partes implicadas

Este desarrollo también supondría una importante ayuda psicológica para los ancianos o discapacitados, ya que permitiría mantener su independencia, mejorar su calidad de vida y que sigan residiendo en sus domicilios, sin requerir una internación para recibir cuidados constantes de profesionales.

También sería positivo para las familias implicadas, teniendo en cuenta que alivianaría el trabajo de asistencia. Otro tanto sucedería con los médicos, clínicas y demás proveedores de atención médica, que podrían recibir únicamente a los casos más complejos en sus áreas de internación.

Los especialistas de la UIC y de la Rush University asociados en el proyecto son Jezekiel Ben-Arie, profesor de informática e ingeniería eléctrica; Bárbara Di Eugenio, profesora asociada de ciencias de la computación; Milos Zefran, especialista en robótica y Marquis Foreman, profesor emérito de ciencias de salud y del comportamiento.

Estos profesionales se encuentran especializados en áreas claves para el desarrollo de esta nueva aplicación, ya que Zefran cuenta con amplia experiencia en robótica y sentido del tacto computarizado, Ben-Arie en visión por computador y reconocimiento de patrones, Di Eugenio en el procesamiento del lenguaje natural y Foreman en enfermería y gerontología.

Detalles técnicos y funcionamiento

La interfaz de comunicación incluirá en su núcleo una metodología de reconocimiento llamada RISQ, inventada y patentada por Ben-Arie. RISQ permitirá que el robot pueda aprender a comunicarse con cada paciente, sorteando los ruidos comunicacionales que puedan provocar el contexto o las deficiencias en el habla de la persona.

Para ello, la aplicación no solamente tendrá en cuenta el lenguaje verbal, sino que también considerará el reconocimiento de gestos, objetos y otros elementos, integrando al circuito comunicacional al tacto y a la visión, para que el robot pueda interpretar una orden.

De esta manera, este desarrollo es capaz de tomar palabras individuales y dar sentido a una frase de acuerdo a la información complementaria procedente de estímulos referidos al tacto y a la visión. Mediante la combinación de técnicas de procesamiento del lenguaje natural y del tacto, el robot logrará entender y responder correctamente a las diversas formas de contacto humano.

Es así que sabrá responder inmediatamente al usuario al realizar tareas cotidianas como cocinar o hacer la cama. Para ello, se observarán las interacciones físicas y verbales que se utilizan en la comunicación entre los ancianos o discapacitados y los asistentes humanos. Posteriormente, se desarrollará un marco matemático que responda al modelo de interacción y que haga viable la comunicación robot-paciente.

En tres años se espera contar con un prototipo de estas características, para posteriormente desarrollar las variaciones y adelantos que sean necesarios. La interfaz podrá encontrar seguramente un amplio uso en la prestación de servicios de salud en distintas instituciones, realizando quizás muchos de los trabajos que hoy efectúan enfermeras u otros profesionales, que de esta manera podrán abocarse a otro tipo de tareas.

Fuente de información: Tendencias21

Un ordenador ´traduce´ el lenguaje de signos

El sistema podría ayudar a la integración de las personas sordas facilitando los trámites con la Administración Pública

EFE Investigadores de la Universidad Politécnica de Madrid han creado el primer ordenador que puede interpretar el lenguaje de los signos que utilizan las personas sordas, lo que podría ayudar a este colectivo a realizar sus trámites.

El sistema ha sido desarrollado en colaboración con la Fundación Confederación Estatal de Personas Sordas y tras las pruebas a las que se va a someter durante varios días, estará disponible el próximo lunes, han informado hoy la Universidad y esta fundación.

El sistema es capaz de traducir las expresiones pronunciadas por los funcionarios de la Administración Pública cuando atienden a una persona sorda que desea por ejemplo renovar el permiso de conducir o el Documento Nacional de Identidad (DNI).

Con este desarrollo, según la Universidad, se ha dado un importante paso para eliminar las barreras de comunicación que encuentran las personas sordas al realizar este tipo de trámites administrativos.

El sistema realiza el proceso de traducción en tres fases: en una primera se reconoce la voz del funcionario obteniendo la secuencia de palabras pronunciadas; en la segunda se traduce la secuencia de palabras a glosas (representación escrita de los signos) y en la tercera se representan los signos mediante un agente animado.

Para evaluar el sistema se utilizó en la Jefatura Provincial de Tráfico de Toledo con funcionarios y personas sordas, y el resultado fue "muy prometedor", según la misma fuente.

El trabajo ha sido financiado por el Ministerio de Industria, Turismo y Comercio dentro del Plan Avanza, y por la Fundación ONCE, y culmina un trabajo de investigación que desarrolla varios años el el Grupo de Tecnología del Habla de la Universidad Politécnica de Madrid.

Fuente de información: Levante-emv.com

miércoles, 9 de septiembre de 2009

Una aplicación permite a los invidentes usar los móviles de Google

Una empresa malagueña ha desarrollado un sistema para teléfonos móviles que ayuda a personas con deficiencias visuales

Según ha explicado a Efe uno de los promotores del proyecto, José Emilio Villena, el programa -desarrollado por Alea Technology- se puede obtener de forma gratuita a través de Internet desde hace dos semanas, tiempo en el que se han registrado más de seiscientas descargas.

También ha indicado que actualmente no hay ningún otro sistema de características similares, aunque conoce que el gigante informático Google ya trabaja en uno parecido.

Las primeras pruebas se han hecho con el terminal HTC Magic que comercializa Vodafone y del que se han vendido más de un millón de terminales, aunque los creadores no descartan adaptarlos a otros modelos reconocidos en el sector como el iPhone de Apple.

Villena ha desgranado el funcionamiento de la aplicación, bautizada como Blind y que se activa a través del botón principal de terminal, conocido como "trackball", y las esquinas superiores de la pantalla, que permiten navegar por las distintas opciones del menú del teléfono y seleccionar una de ellas.

Así, el usuario podrá realizar llamadas -marcando los números a través de la voz-, escribir SMS que enviará a sus contactos de la agenda después de escuchar las letras y símbolos con los que montará el mensaje.

Además, los invidentes podrán acceder a otras aplicaciones "a las que no habían podido anteriormente" como escuchar la música que tienen almacenadas en la memoria del teléfono, ya que el sistema lee los títulos de las canciones y el usuario puede elegir la que quiere o pasar a la siguiente.

Como novedad, el sistema -que todavía está en fase de pruebas- incluye una opción que activa la cámara fotográfica del aparato y que es capaz de decir el color de la ropa, aunque por el momento sólo procesa colores primarios como el rojo, amarillo, verde, azul, blanco y negro.

En este sentido, Villena ha explicado que también han incluido una característica que a modo de GPS indica al propietario del teléfono dónde está en caso de que se haya perdido.

Alea Technology se ubica en el malagueño Parque Tecnológico de Andalucía (PTA) y es una empresa de base tecnológica especializada en desarrollar software para dispositivos inalámbricos.Entre los distintos proyectos que ha desarrollado está un dispositivo adoptado por algunas autoescuelas por el que los aspirantes a sacarse el carné de conducir pueden realizar los test de tráfico desde su teléfono móvil.

Fuente de información: Levante.emv.com

domingo, 6 de septiembre de 2009

Encuentro sobre Tecnologías de la Información, las Comunicaciones y el Control para la Asistencia Social y Sanitaria

Próximamente se celebrará una nueva edición del Encuentro Transdisciplinar en Tecnologías de la información, las Comunicaciones y el Control para la Asistencia Social y Sanitaria (ETTICCASS) organizado por la Universidad de Alicante y patrocinado por Fundación Vodafone España. El Encuentro se celebrará los días 23, 24 y 25 de septiembre de 2009 en el Centro de Congresos de Elche (Alicante, España).

ETTICCASS 2009 es un encuentro donde participan expertos en tecnologías de la información, las comunicaciones y el control; en las ciencias de la salud, en trabajo social, en terapia ocupacional,… Dado que no existe formación específica en ninguno de los estudios universitarios relacionados, se pretende que este encuentro transdisciplinar sirva de complemento a la formación de cada uno de estos colectivos.

Profesionales de reconocido prestigio participarán en las conferencias y mesas redondas. Asimismo, se incluirán diversas exposiciones y exhibiciones de tecnología. En esta edición, además de contar con sesiones plenarias se celebrarán sesiones en paralelo con diferentes temáticas: TICCs para personas con diversidad funcional, TICCs y enfermería; y TICCs para la asistencia social y sanitaria y las administraciones públicas.

La inscripción es gratuita. Más información en la web del evento: http://www.iuii.ua.es/etticcass09/index.htm


Fuente de información: Tecnología y diversidad Blog

Audiodescripciones y subtítulos a medida en televisión

El Instituto Nacional de las Tecnologías de la Comunicación (Inteco), con sede en León, está trabajando, en colaboración con Once, en la implementación de IDTVos.

Estas siglas, IDTVos (Inteco Digital Televisión Operating System), dan nombre a un novedoso sistema operativo para decodificadores que se ha desarrollado en el departamento de TDT dirigido por Raúl Riesco.

Las líneas de investigación sobre las que se desarrolla este trabajo son la accesibilidad y la interactividad. En ambos casos, la tecnología existente en el mercado está muy por detrás de lo que obliga la legislación, por lo que la labor del centro leonés es pionera tanto a nivel nacional como internacional.

El Inteco ha creado un servicio "para que los discapacitados visuales puedan ver la televisión". Se trata de incorporar a los decodificadores un "motor de síntesis de voz (TTS) capaz de leer en voz alta" la información que aparece en los menús de la pantalla, así como decir en qué canal se encuentra el usuario o incluso "hacer una audiodescripción de una escena de cine", entre otras funciones.

Conscientes de la existencia de diversos grados de discapacidad, este sistema también posibilita la "personalización de la visualización de la pantalla". Es decir, que el televidente puede optar por agrandar los subtítulos, ponerlos a más o menos velocidad, elegir el tipo de fuente o ajustar las tonalidades del contraste de la imagen. Un proyecto pionero del que ya se benefician cientos de asociados a la Once.

Todos estos avances contribuyen a que tengamos un mejor acceso a los medios de comunicación.

Fuente de información: CESyA

Mapa conceptual de WCAG 2.0

Gracias al blog Accesibilidad en la Web, he visto este mapa conceptual de WCAG 2.0.

Como ya sabéis el W3C ha definido unas pautas de accesibilidad a los contenidos web que comprende un conjunto de recomendaciones que hacen los contenidos Web más accesibles para todos, pero específicamente para las personas que tienen diversas limitaciones funcionales: visual, auditiva, de comprensión, de movimiento, etc.

Las pautas comprenden:
- 4 principios: Perceptible, Operable, Comprensible y Robusto.
- 12 directrices.
- 60 criterios de cumplimiento, con un nivel de adecuación para cada criterio.

Os dejo el enlace para descargaros el documento en pdf.

Fuente original: Tripleablog

viernes, 4 de septiembre de 2009

Vuelta de vacaciones

Tras el largo parón vacacional, espero que el "nuevo curso" sea provechoso y pueda dedicar tiempo a informaros sobre tecnologías y accesibilidad.

Como sabéis el tema sigue candente, es una de las prioridades de la mayoría de los planes nacionales de los distintos países y se están realizando numerosos proyectos I+D+i relacionados. Además, la esperanza de vida cada vez es mayor, aumentando el número de personas mayores que quieren vivir el final de su vida de forma independiente y completa. No nos olvidemos que todos vamos a llegar a esa situación en algún momento...no podemos cerrar los ojos ante esta realidad.

Esperemos que este esfuerzo pronto dé sus frutos y todas las personas estemos en las mismas condiciones en cualquier situación de nuestras vidas: para acceder a un trabajo, para visitar un museo, para trabajar con Internet, etc.

Gracias a todos por leerme.

Un saludo.