martes, 28 de abril de 2009

Orange colabora con el proyecto Bobath para manejar el ordenador con los ojos

La Fundación Bobath, que desarrolla un sistema para que niños con parálisis cerebral manejen el ordenador con el movimiento de los ojos, ha ganado el concurso de la Fundación Orange "engánchanos a tu proyecto", por lo que los empleados de Orange España colaborarán con Bobath en su tiempo libre.

Bobath utiliza el sistema IRISCON que permite el control total del ordenador con el movimiento de los ojos y trabaja para que los niños que no pueden manejar un teclado o un ratón, especialmente los que tienen además problemas de comunicación, puedan interactuar con el ordenador.

Una cámara recoge la imagen del ojo del usuario y el reflejo que dos emisores de luz infrarroja provocan sobre el iris. El software del sistema interpreta la imagen, calcula donde se encuentra mirando el ojo del usuario y convierte esta posición en una coordenada para el ratón.

La Fundación Bobath tiene un centro de educación especial en el que hay 65 niños escolarizados y en el que se desarrolla un proyecto educativo basado en aprendizajes significativos para facilitar la comunicación en el entorno familiar y social.

Fuente de información: Hoy Tecnología

IFEMA presenta un nuevo certamen especializado en la asistencia a la dependencia, dirigido a profesionales

BIDA, Bienal de la Dependencia y la Autonomía, tiene como objetivo convertirse en una destacada plataforma comercial, donde dar a conocer al profesional las novedades que puedan surgir en torno a equipamientos, tecnologías y salud, y sus aplicaciones en el ámbito de la autonomía personal y la atención a personas en situación de dependencia.

BIDA está patrocinado por la Federación Empresarial de Asistencia a la Dependencia (FED), integrada por 3 organizaciones nacionales y 15 autonómicas que en total agrupan a 150.000 plazas residenciales, 28.000 plazas en centros de día y 315.000 usuarios de teleasistencia.

La oferta de BIDA se presentará estructurada en cuatro grandes sectores: Salud; Movilidad y Accesibilidad; Servicios especializados; Ayudas y Soluciones Técnicas y Tecnológicas. En torno a ellos se articulará la participación de empresas especializadas y no especializadas, que disponen de líneas de negocio y productos creados para facilitar la calidad de vida de discapacitados y Tercera Edad. De esta manera tendrán cabida en BIDA una completa variedad de contenidos, que van desde laboratorios farmacéuticos, terapias, higiene, o alimentación y nutrición, a vehículos adaptados, soluciones para la movilidad, equipos y servicios de teleasistencia, entidades financieras, seguros de salud, camas, ortopedia, vestuario de trabajo, desinfección y limpieza, domótica o software de gestión, entre otros.

BIDA será reflejo del alto nivel de calidad, profesionalidad, dinamismo, rentabilidad e innovación que viene demostrando este sector, integrado actualmente por 5.600 centros asistenciales públicos y privados, 291.200 plazas y 140.000 profesionales que desarrollan su trabajo en este ámbito. La puesta en marcha de BIDA coincide con una coyuntura favorable y unas previsiones de crecimiento muy positivas, derivadas de la entrada en vigor de la segunda fase de la Ley de Dependencia, en este mismo año.

Actualmente existen en España cerca de cuatro millones de personas con algún tipo de discapacidad, lo que representa un 8,5 por ciento del total de la población. De ellas, más de dos millones reciben asistencia, supervisión o cuidados personales y 1,5 millones, ayudas técnicas, según datos del Instituto Nacional de Estadística (INE).

Fuente de información: IFEMA.es

Científicos chinos desarrollan un robot para cuidar a los ancianos

Científicos chinos del Instituto de Tecnología de Harbin, en el nordeste de país, ultiman los detalles para lanzar próximamente al mercado un robot pensado para cuidar a las personas mayores que viven solas, informa hoy la prensa estatal china.

El robot, que costará entre 30.000 y 50.000 yuanes (4.000-7.000 dólares) podrá llevar comida y medicinas, hacer sonar las alarmas en caso de que en la casa haya escapes de agua o de gas, mandar mensajes de texto o vídeo a familia y amigos e incluso cantar canciones o jugar al ajedrez.

El aparato, de 1,6 metros de altura, podría estar en las tiendas dentro de dos o tres años, según destacó a la agencia oficial Xinhua Li Ruifeng, uno de los encargados del proyecto.

El desarrollo de este proyecto fue un encargo del Gobierno chino para hacer frente al problema del rápido envejecimiento de la población china, una de las consecuencias de la política del hijo único. El país tiene 159 millones de personas con más de 60 años, el 12 por ciento de la población total, y el escaso éxito de los asilos de ancianos en el país asiático hace que se necesiten, según los cálculos del Ministerio chino de Asuntos Civiles, unos 10 millones de asistentes sociales y enfermeras para atender a este grupo de población.

Fuente de información: Hoy Tecnología

lunes, 27 de abril de 2009

Software libre para la gestión de personas con discapacidad

Las instituciones que trabajan para personas con discapacidad y entre ellas las que trabajan con personas con enfermedad mental no tienen herramientas informáticas asequibles y específicas que permitan mejorar la acción que realizan. El programa de gestión gesmon quiere cubrir este hueco, quiere ayudar a las instituciones a realizar de manera más eficiente su misión.

Gesmon es un aplicación creada encima de Openbravo (www.openbravo.com). En ella se han mantenido las características esenciales, es una aplicación denominada ERP que permite la gestión económica, financiera, etc… de las pequeñas empresas. Está diseñado de manera nativa para el trabajo en formato web, precisando únicamente de un navegador (Internet Explorer, Mozilla firefox, etc…). Está creado con software libre lo que permite distribuir el código y realizar adaptaciones al mismo.

Gesmon está orientado a las pequeñas y medianas organizaciones (PYMO). Podríamos decir que es un URM (Users Relation Manager) a imagen y semejanza de un CRM para los clientes de una empresa.

Gesmon tiene tres módulos bien definidos:

El MÓDULO DE SEGUIMIENTO: Permite tener de una forma centralizada los datos de los usuarios (básicos, familiares, sociales, etc…) y llevar un control sobre las acciones que se realizan para mejorar el trabajo social (llamadas, entrevistas, etc…).

El MÓDULO DE GESTIÓN: Permite realizar el control del programa individual, la gestión laboral y los servicios a los que está inscrito. El programa individual pretende marcar el seguimiento social y los objetivos que se marcan a cada persona. La gestión laboral sirve para un control de las ofertas de la empresa ordinaria. Los servicios se trata de donde se encuentra inscrito un usuario: Seguimiento laboral, cursos de formación, … (pueden ser internos o externos).

El MÓDULO DE RRHH: Marca y controla las variables básicas de un trabajador: datos básicos de los contratos, calendario, formación.

Gesmón es un software libre en formato web.

Fuente de información: Gesmon.net

jueves, 23 de abril de 2009

Nuevos sensores inalámbricos controlarán los accidentes en personas mayores

Las caídas y otros accidentes comunes son una de las principales causas de muerte en personas de edad avanzada. Atendiendo a esta realidad, un equipo de investigadores de la Universidad de Virginia y del consorcio de investigación AFrame Digital ha desarrollado una nueva gama de sensores inalámbricos, capaces de obtener y transmitir datos en tiempo real sobre las causas físicas de estos percances. De esta manera, los dispositivos informáticos podrán ayudar a la reducción de la incidencia de esta clase de accidentes.

Es conocido que una caída a cierta edad puede significar una importante reducción de la calidad de vida de la persona, además de provocar grandes costos en cuanto a gastos médicos. En personas mayores de 65 años, los accidentes y caídas son la principal causa de deceso a nivel mundial, de acuerdo a las estadísticas de los centros de atención especializada en todo el planeta.

Al mismo tiempo, ocupan el lugar de vanguardia en cuanto a lesiones que no implican la muerte de la persona y en relación a atenciones por traumatismos y golpes en hospitales. Teniendo en cuenta esto, se calcula que sobre el año 2020 los costos directos e indirectos relacionados con estos accidentes lleguen casi a los 55 mil millones de dólares anuales. Estos datos han llevado a que un equipo de especialistas de la Escuela de Ingeniería, la Facultad de Medicina, el Departamento de Psicología y el Instituto sobre el Envejecimiento de la Universidad de Virginia, Estados Unidos, junto a investigadores del consorcio AFrame Digital, desarrollen un proyecto con el propósito de crear redes de sensores inalámbricos para monitorear este tipo de casos.

Luego de una primera etapa de investigación en laboratorio, los sistemas ya están comenzado a ser probados en personas de edad avanzada, con el objetivo de perfeccionar la tecnología empleada. La herramienta creada podría ser capaz de identificar los problemas que desembocan en caídas o accidentes mortales.

Características del sistema

El mecanismo funciona a través de una conexión inalámbrica desarrollada por AFrame Digital, a la cual se conectan los sensores, que aportan datos en tiempo real. Se preve que la tecnología pueda ser comercializada en un futuro cercano, pudiendo constituirse en una interesante alternativa en residencias de ancianos, geriátricos y centros de atención médica especializados en problemáticas de la tercera edad. Asimismo, como los sensores permiten un fácil manejo, los responsables de la investigación creen que estimularán la atención de personas mayores en sus propios hogares, algo que lógicamente repercutirá positivamente en su calidad de vida y reducirá notoriamente los gastos de atención sanitaria.

Los avances incluyen hasta el momento la investigación de sensores inalámbricos colocados como reloj de pulsera (con ensayos desde hace cinco años) y sensores capaces de medir cuantitativamente los patrones que desembocan en caídas. Esto incluye una gran cantidad de datos sobre el movimiento humano, por ejemplo en cuanto a aceleración lineal, tasa de rotación y otros. En la actualidad, este tipo de controles del movimiento se llevan a cabo en los mismos centros de atención médica, utilizando un tapiz rodante y sensible a la presión y con vigilancia por cámaras de vídeo. Aunque puede aportar información precisa, se trata de una metodología más onerosa y relativamente limitada en su aplicación.

Diversas aplicaciones y utilidades

También existe una faceta psicológica en esta investigación, ya que con este tipo de desarrollos se promueve la independencia de los adultos mayores gracias a un mejoramiento de su calidad de vida, disminuyendo los problemas relativos a pérdida de confianza y autoestima que supone cada caída o accidente, al tratarse de una emoción negativa.

Las implicancias de este proyecto no se circunscriben a la realidad de los ancianos. Según creen los investigadores, una vez que estos sensores alcancen una etapa importante de su desarrollo y prueba, podrán pasar a formar parte de la tecnología empleada en cuestiones militares, concretamente para el análisis de los movimientos desarrollados por los soldados durante el combate.

De acuerdo a un comunicado de prensa de la Universidad de Virginia, algunos de los investigadores que conforman el equipo interdisciplinario de trabajo abocado a este proyecto son: Mark Hanson, estudiante de doctorado en ingeniería eléctrica; Juan Lach, profesor asociado de ingeniería eléctrica e informática; Bruce Wilson, jefe de operaciones de AFrame Digital; Donna Hearn, presidenta del Departamento de Psicología y Adam Barth, estudiante de doctorado de ingeniería eléctrica. Aunque indudablemente resultó todo un reto unir profesionales de disciplinas tan diversas, la experiencia de este enfoque multidisciplinario fue más que positiva de acuerdo a lo que indican los propios investigadores, que incluso califican de imprescindible esa diversidad para la concreción del proyecto.

Fuente de información: Tendencias 21

miércoles, 22 de abril de 2009

Braille eBook, lector de libros electrónicos para ciegos

Cuatro grandes diseñadores han creado un prototipo de lector de eBooks (libros electrónicos) que utiliza el concepto de Braille, un sistema de lectura y escritura táctil pensado para personas ciegas o con poca visibilidad.

El cambio de textura se logra gracias a polímeros electroactivos que cambian su forma para modificar la superficie y sea sensible al tacto de los usuarios. Sin dudas este tipo de cambios consumirán mucha batería, por lo que tendremos que ver la autonomía de su batería, que sin dudas será de alta capacidad.

Volvemos a aclarar que estamos frente a un prototipo, por lo que todavía puede tener gran cantidad de cambios y mejoras. Sin dudas una buena manera de que todos podamos disfrutar de la tecnología del presente.

Fuente de información: Gizmotika.com
Vía: Engadget

martes, 21 de abril de 2009

Comunicador para personas con diversidad funcional motora severa basado en un teclado reducido y acceso por barrido mediante un pulsador

Demostrador en fase de realización por el Grupo de Comunicaciones Aplicadas a Redes Telemáticas. Responsable del demostrador: Julio Miró Borrás.

El comunicador es un sistema de entrada de texto con acceso indirecto por barrido y que utiliza como dispositivo de entrada un único pulsador. Los usuarios del mismo serán aquellas personas con diversidad funcional motora severa, dotándoles de una herramienta que les permita comunicarse. La matriz de caracteres tradicionalmente utilizada es sustituida por un teclado virtual ambiguo donde los caracteres son distribuidos sobre 3 celdas. Se plantea una forma novedosa de distribuir los caracteres sobre las celdas, y está basado en lo que se ha denominado AGC o Asociación Gráfica de Caracteres, donde los caracteres son distribuidos según su forma gráfica, a diferencia de otras agrupaciones típicas como “abc” o “qwerty”.

Como modo de desambiguación se emplea el modo predictivo, utilizado habitualmente en los teléfonos móviles. La introducción de texto consta de dos fases. La primera fase es equivalente a la pulsación de las teclas, y básicamente el cursor avanza entre las diferentes celdas, accionando el pulsador para seleccionar. La segunda fase es la fase de desambiguación propiamente dicha, mostrando por orden de probabilidad las palabras que cumplen con la secuencia de celdas seleccionadas. El modelo planteado elimina la necesidad de dedicar una celda para el carácter blanco y otra para la función Next utilizada durante el proceso de desambiguación, tal como ocurre en los teléfonos móviles. Para ello utiliza una combinación de barridos directo e inverso.

Fuente de información: Cátedra Telefónica

jueves, 16 de abril de 2009

Chariot: Mitad hombre, mitad vehículo

Cuando tenemos la oportunidad, hablamos de las maneras en que la tecnología está intentando ayudar a quienes tienen dificultades de movimiento. Ya sea una nueva silla de ruedas o piernas biónicas, siempre informamos de las nuevas tecnologías. Hoy tenemos un vehículo a batería que, aunque aún es un prototipo, funciona tan bien que no nos extrañaría verlo implementado en el futuro. Una de las cosas más llamativas del Chariot, es que no necesita de las manos para controlarlo ya que funciona con suaves movimientos del torso.

Durante el 7 y 10 de abril se llevó a cabo la demostración del Chariot, el nuevo prototipo de Exmovere Holdings. Este aparato es un vehículo para personas con dificultades de movimiento que utiliza un sistema de autobalanceo para controlarse, lo que deja las manos en total libertad. Como se puede ver en el vídeo, el usuario se introduce en el Chariot y lo controla con sutiles movimientos del torso. De esta manera puede moverse en todas direcciones con mucha fluidez y precisión. Sensores dentro de la cápsula predicen el movimiento que está intentando hacer el usuario, lo que le da la fluidez a los movimientos. Además, requiere solo un esfuerzo mínimo de la persona que lo controla y su forma erecta permite estar a la altura del resto de las personas. Este vehículo a batería puede alcanzar una velocidad de 19 kilómetros por hora.

Claro que esto aún es un prototipo. Según sus creadores la versión de producción masiva incluirá el sistema propietario de Exmovere para medir los signos vitales del usuario. El CEO de Exmovere Holdings, David Bychkov, dice “el Chariot representa un apasionante camino para nuestra empresa. Considerando que nuestro equipo inicialmente se centraba en el diseño de sensores de signos vitales, los sensores en el Chariot están diseñados para hacer la vida más llevadera. En especial, esperamos que el Chariot ofrezca dignidad, fuerza y, que aumente la movilidad de aquellos que resultaron heridos al servicio de nuestro país.” Además del sistema antes mencionado, el Chariot incluirá sensores que detectan si hay algún obstáculo en el camino y conexión wireless. Entre los planes para el futuro, una de las primeras prioridades de Exmovere es permitir que el vehículo pase de una posición erecta a una de asiento, para la comodidad del usuario.

El vídeo nos deja ver cómo funcionaría el vehículo en un día de oficina común y corriente. Lo más sorprendente de todo es que, más allá de lo raro que sería ver el aparato por primera vez, funciona tan bien que no sería extraño verlo implementado en el día a día de muchas personas. Este concepto parece ser el vehículo definitivo para las personas con dificultades de movimientos. Por lo menos hasta que se terminen de desarrollar las piernas biónicas. Más allá de lo increíble que es, aún tiene trabajo por delante y se nota. Sería apropiado poder disminuir el tamaño del aparato (más que nada la base). También quedaría por ver cómo podría el usuario levantar algo que se ha caído al suelo, porque más allá de que haga un fantástico trabajo autobalanceándose, no es capaz de llegar al piso. Aún así, más allá de los arreglos que falten podemos ver el Chariot implementándose en el futuro y facilitándole la vida a muchas personas.

Fuente original: Daily Mail

Fuente de información: Neoteo.com

martes, 14 de abril de 2009

Diseñan habitaciones inteligentes para ayudar a las personas dependientes

Un grupo de investigadores de la Universidad de Granada y de Telefónica I+D han desarrollado habitaciones inteligentes que trabajan con sensores para facilitar la localización de personas dependientes y evitar que se acerquen a zonas de peligro para ellos.

La estancia contiene un sistema electrónico adecuado para detectar la localización casi exacta del receptor que se mueve por ella mediante un sistema de sensores fijos situados en el techo. Mediante este mecanismo se habilitan opciones como que se abran las puertas cuando el receptor se acerque a ellas o que se frene una silla de ruedas en la que se mueve un paciente si se acerca a una zona peligrosa. ´

El director del grupo de investigación, José Carlos Segura, ha señalado que el prototipo "ha dado unos resultados magníficos en cuanto a efectividad en el reconocimiento del objeto en movimiento", y además tiene mayor precisión, es más económico y se ve menos afectado por el ruido que otros similares existentes en el mercado.

En la etapa de investigación que se encuentra ahora mismo se pretende ampliar el funcionamiento del sistema para que pueda funcionar en otros espacios, por lo que se le incorporará el lenguaje ZigBee (parecido a la tecnología Bluetooh) o el GPS, que permitirán instalarlo en edificios grandes con muchas habitaciones y en espacios abiertos.

El prototipo ya está siendo usado en un hospital de Roma, donde los pacientes llevan integrados en sus sillas de ruedas los sensores receptores para estar controlados y que se garantice su seguridad si se acercan a unas escaleras u otras zonas peligrosas.

Fuente de información: SID.USAL.ORG

Desarrollan un robot capaz de relacionarse con niños autistas

Un robot que monitoriza las emociones de los niños autistas ha sido desarrollado por científicos de la Universidad Vanderbilt. El sistema utiliza mediciones fisiológicas, como las pulsaciones, los cambios en el calor y la electricidad que transmiten los nervios y el sudor a través de la piel, la temperatura y la respuesta muscular, para desarrollar modelos matemáticos capaces de predecir los estados emocionales del sujeto analizado con una exactitud del 80%. De esta forma, el robot puede responder ante cualquiera de las emociones de los niños autistas con una coherencia difícil de alcanzar para los humanos.

El día en que los robots ayuden a los niños autistas a aprender las habilidades sociales de las que carecen está ahora un poco más cerca, gracias al desarrollo de un sistema que permite registrar el estado emocional de estos niños. El sistema ha sido desarrollado en la Universidad Vanderbilt, de Estados Unidos. Según declaró uno de sus creadores, Nilanjan Sarkar en un comunicado emitido por dicha universidad, actualmente hay muchas investigaciones en marcha en todo el mundo para intentar usar los robots en el tratamiento de niños con autismo. Se ha demostrado que los pequeños se sienten atraídos por los robots, por lo que se cree que si éstos estuvieran bien diseñados podrían jugar un importante papel en su tratamiento. Sin embargo, hasta ahora, estos esfuerzos se han visto muy limitados porque no se había encontrado la forma de registrar el estado emocional de los niños, para que el robot pudiera responder automáticamente a sus reacciones.

Mediciones fisiológicas

En los últimos cinco años, Sarkar ha desarrollado un método que utiliza mediciones fisiológicas –como las pulsaciones, los cambios en el calor y la electricidad que transmiten los nervios y el sudor a través de la piel (respuesta galvánica de la piel), la temperatura y la respuesta muscular- para registrar el estado emocional de niños con autismo. Aunque Sarkar empezó a trabajar en este sistema con la idea de mejorar la interacción humano-robot, el hecho de que su propio sobrino fuera diagnosticado de autismo hizo que cambiara la dirección de sus esfuerzos. Buscó entonces la ayuda de una experta en autismo infantil llamada Wendy Stone, que investiga en el Vanderbilt Kennedy Center. Entre los dos han conseguido desarrollar finalmente el sistema, que ya ha sido probado con seis niños autistas de entre 13 y 16 años.

A los participantes les fueron colocados una serie de sensores fisiológicos y se les pidió que jugaran a dos juegos. Uno de ellos fue el video juego Pong, y el otro un juego de baloncesto con una pequeña canasta. Los investigadores explican que los datos fisiológicos recogidos durante estos juegos por el sistema sirven para desarrollar modelos matemáticos para cada individuo, capaces de predecir todos sus estados emocionales con una exactitud del 80%.

Conocerlos mejor que los humanos

Además, los científicos demostraron que esta información puede usarse en tiempo real para modificar la configuración de los juegos que se estén jugando, con el fin de incrementar de forma significativa el grado de implicación o atención de los niños. Según Stone, el robot puede así “leer” las señales fisiológicas de la persona que está jugando, adaptar el juego a ésta y conseguir finalmente del jugador un estado de ánimo más positivo. Los científicos señalan que este sistema es tan bueno como un terapeuta experimentado en identificar el estado emocional de los niños. Por esa razón, puede resultar particularmente útil en el tratamiento de niños con autismo. A algunos de éstos quizá no les guste el contacto visual directo con otras personas, o quizá le molesten las voces o sonidos altos. Otros pueden reaccionar cuando la gente se les acerca demasiado. El robot estará preparado para responder ante cualquiera de estas emociones de los niños, gracias al sistema que es capaz de interpretarlas. De hecho, podrá ser programado para reaccionar en función de las necesidades de los niños, con una coherencia respecto a ellas difícil de alcanzar para los humanos.

Otros intentos

El uso de robots para enseñar a niños autistas habilidades sociales no es la única vía “artificial” abierta en este sentido. Por ejemplo, el año pasado, otra universidad norteamericana, la Northwestern, anunciaba que el uso de “iguales virtuales” también puede ayudar. Como tales se hacía referencia a dibujos animados con forma de niños, de tamaño real, diseñados para estimular comportamientos y conversaciones en niños autistas, con el fin de preparar a éstos para interacciones posteriores, con niños reales. En las pruebas realizadas, los investigadores recogieron datos de seis niños con autismo muy leve, de edades comprendidas entre los siete y los 11 años, mientras éstos jugaban con un niño virtual llamado Sam, y también con niños reales.

Así descubrieron que la relación de los niños autistas con Sam favoreció sus interacciones con niños reales. La Universidad de Yale, por su parte, desarrolló en 2005 un robot llamado Nico destinado a evaluar modelos de desarrollo social de los niños autistas, con el fin de diagnosticar con mayor precisión sus problemas. Este robot era capaz de determinar, midiendo el tono de voz de los niños, si éstos estaban contentos o enfadados.

Fuente de información: Tendencias 21

Un sistema novedoso pone el correo electrónico móvil al alcance de los invidentes

Un alumno de Ingeniería Informática, miembro del grupo de investigación Quercus, ha ideado un producto instalable en los teléfonos móviles con el que los discapacitados visuales pueden leer su correo electrónico. El producto es aplicable a todos los dispositivos que cuenten con un sistema operativo Symbian S60. Se trata de un conjunto de tres desarrollos de software. Uno sirve para mostrar la información en pantalla y encargarse de efectuar la interacción persona ordenador con el menor número de teclas posibles.

Andrés Iglesias Pérez, estudiante de Ingeniería Informática, ha ideado un producto que permite a las personas con discapacidad visual acceder y leer su correo electrónico desde cualquier lugar con su teléfono móvil. El alumno, integrante del grupo de investigación de la Universidad de Extremadura Quercus, ha intentado aprovechar la realización de su Proyecto Fin de Carrera para realizar un producto útil para un gran colectivo. “Un mensaje muy importante que se puede inferir es que las personas con discapacidad, si cuentan con las herramientas adecuadas, pueden participar de la Sociedad de la Información en igualdad de condiciones, aportando y recibiendo conocimiento en comunidad” apunta Iglesias, “además, he conseguido pasar de un planteamiento teórico a un producto real y funcional, que sirve como punto de inicio para una amplia gama de desarrollos para hacer accesibles todas las funciones del teléfono”.

El producto es aplicable a todos los dispositivos que cuenten con un sistema operativo Symbian S60. Se trata de un conjunto de tres desarrollos de software. Uno sirve para mostrar la información en pantalla y encargarse de efectuar la interacción persona ordenador con el menor número de teclas posibles, y que estas teclas sean fácilmente reconocibles por un usuario sin emplear la vista, como el nº 5 que tiene un marcado táctil. Otro desarrollo se encarga de realizar la síntesis de voz (coloquialmente, de “hablar” lo que se le ordena), y otro más de enviar y recibir e-mail usando cuentas de correo convencionales. La comunicación entre estos tres desarrollos, usando técnicas formales como XML, se puede considerar una especie de cuarto desarrollo virtual, por la cantidad de información recopilada y el esfuerzo de implementación necesarios.

El proyecto, dirigido por el profesor Fernando Sánchez Figueroa, responde al título “Adaptación del SAWMail a entornos de movilidad” y ha obtenido la calificación de Matrícula de Honor. El grupo Quercus lleva más de cinco años trabajando en iniciativas de accesibilidad, combinando estudios de Interacción Persona Ordenador con las más avanzadas técnicas de Ingeniería de Software. Actualmente el grupo colabora con la Fundación ONCE en un proyecto CENIT del CDTI.

Fuente de información: Cibersur.com

miércoles, 8 de abril de 2009

AccUsa: una herramienta de soporte a la ingeniería de usabilidad y accesibilidad

Os transmito una entrada del blog del Grupo SQUaC, mis compañeros de trabajo del ITI, que me ha parecido muy interesante.

Existen en la red diversas guías, documentos y plantillas para la realización de técnicas de usabilidad y accesibilidad, pero para el trabajo diario nosotros echábamos en falta algún tipo de herramienta más estructurada e integrada que permitiera gestionar y centralizar la información necesaria para esos procesos.

Con ese objetivo de solucionar esa necesidad, hemos publicado en nuestro apartado "Descargas" una primera versión/prototipo de AccUsa, que pretende ser una herramienta de soporte y documentación en los procesos propios de la ingeniería de usabilidad y de accesibilidad. En concreto, las técnicas a las que pretende dar soporte esta versión son la evaluación de accesibilidad y la evaluación heurística de usabilidad.

El objetivo de esta herramienta no es automatizar técnicas, sino servir de ayuda y de guía a los expertos en usabilidad y accesibilidad que deben realizarlas, así como de herramienta de gestión y documentación para ese tipo de proyectos.

Esta primera versión está implementada usando Microsoft Access, aunque no descartamos que en un futuro pueda basarse en otros entornos (por ej., web). También entra en nuestros planes integrar otras técnicas en ella (por ejemplo, tests con usuarios). Si no dispones de Access, puedes descargar una versión runtime gratuita desde la web de Microsoft.

Esta herramienta es utilizada internamente por nosotros para realizar los proyectos en los que aplicamos determinadas técnicas; con el objetivo de ahorrar trabajo y no complicarla innecesariamente, hemos respetado en gran medida la interfaz nativa de Access para la mayoría de acciones (inserción de registros, modificaciones, eliminaciones, etc.), intentando que los nombres de los distintos elementos (tablas, campos, etc.) sean suficientemente autoexplicativos.

Los formularios/pantallas principales de la aplicación son estos tres:
  1. Projects: gestión de diferentes proyectos y sus detalles: elementos a evaluar, tipos de evaluación, etc.
  2. Assignments & Issues: detalles de una evaluación/técnica en concreto y la lista de problemas.
  3. Issues (details): detalles de un problema.

Además, para ampliar la herramienta puede ser necesario acceder a otras tablas auxiliares de la aplicación: Experts, Priorities, etc. Para ello se puede utilizar la interfaz estándar de Access.

La herramienta tiene como datos de ejemplo los de un hipotético proyecto de evaluación de la web del Ministerio de Fomento de España.

Más detalles en fuente de información: Blog del grupo SQUaC

lunes, 6 de abril de 2009

Crean un traductor braille para dispositivos con pantalla táctil

¿Podría sacar partido un ciego un teléfono táctil? Va ser que no. ¿Pero podría necesitarlo en algún momento? Bien, se nos ocurren un par de situaciones en las que cualquier persona podría echar mano a un móvil, ya sea táctil o de botones.

Por eso mismo, investigadores finlandeses han desarrollado un método que utiliza pequeños "golpes" de vibraciones para imitar "puntos" en un Nokia 770 Internet Tablet, y vibraciones más lentas a modo de espacios en blanco. Dependiendo de la posición del dedo y de la letra en cuestión, la pantalla responderá de una forma o de otra.

Así han conseguido recrear el alfabeto braille en dispositivos con pantallas piezoeléctricas, y aunque al principio cuesta acostumbrarse, parece que con el tiempo es posible reconocer cada letra en aproximadamente 1,25 segundos.

¿La próxima meta? Componer palabras y frases completas para desarrollar programas de texto a braille.

Artículo completo (en inglés):

Fuente de información: INTECO

viernes, 3 de abril de 2009

Google anuncia Eyes-Free Shell

Google lanza una utilidad para desarrollar aplicaciones que se comuniquen con el dispositivo Android mediante la voz

El objetivo de este proyecto va desde entornos donde no se pueda usar la vista como conducción, o personas impedidas visualmente. El código ha estado disponible en los repositorios de Google Code y ahora han publicado la primera release pública de eyes-free shell en Android Marketplace.

Además con esta release también han hecho disponible una colección de aplicaciones para convertir los dispositivos móviles con Android en dispositivos de comunicación "libre-de-ojos" (eyes-free): marcación por voz, conocer tu localización, información del dispositivo (batería, nivel de señal y disponibilidad de WIFI), conocer fecha y hora. En las próximas semanas subirán vídeos varios a youtube mostrando sus capacidades.

Para más información:


Fuente de información: Blog Android-Spa.com

miércoles, 1 de abril de 2009

Ejercicios en pantalla mejoran la visión de pacientes de ictus

Los pacientes que se han quedado parcialmente ciegos como resultado de un ictus pueden ganar visión mediante ejercicios visuales realizados en la pantalla de un ordenador a diario, según un estudio de la Universidad de Rochester que se publica en la revista 'Journal of Neuroscience'.

Según explica Krystel Huxlin, directora del estudio, "nos sorprendimos mucho cuando vimos los resultados de nuestros primeros pacientes. Este es un tipo de daño cerebral del que médicos y científicos pensaban que no existía recuperación. Es devastador y los médicos suelen enviar a casa a los pacientes para afrontarlo lo mejor que pueden".

Huxlin estudió a siete personas que habían sufrido un ictus que dañó un área del cerebro conocida como la corteza visual primaria o V1, que sirve como puerta de entrada al resto del cerebro para la información visual que procede de los ojos. El área V1 pasa información visual a docenas de otras áreas cerebrales que procesan la información. Los pacientes con daños de la corteza visual primaria tienen deterioros graves de la visión y no pueden leer, conducir o realizar tareas cotidianas como comprar en el supermercado. Según la parte del cerebro afectada, la mayoría de pacientes perder entre una cuarta parte y la mitad de su campo visual. Todo lo que está a la izquierda o derecha de su campo visual, según el lado del cerebro afectado, podría ser gris u oscuro por ejemplo.

El equipo de Huxlin comenzó el estudio con siete personas, cuatro mujeres y tres hombres de entre 30 y 80 años que habían tenido un ictus entre ocho y 40 meses antes de comenzar el experimento. Todos habían sufrido daños graves en la corteza visual primaria. Los participantes tenían que fijar su mirada en un pequeño cuadrado negro en mitad de una pantalla de ordenador. Los investigadores utilizaron un dispositivo de seguimiento de la mirada para comprobar que los pacientes mantenían su vista puesta sobre el cuadrado.

Cada pocos segundos, un grupo de unos 100 pequeños puntos aparecía dentro de un círculo en algún lugar de la pantalla del campo visual que no podían ver los pacientes por su lesión. Los puntos se movían con rapidez, parecían hacerlo como grupo hacia la izquierda o la derecha, luego desaparecían después de un segundo y medio. Entonces el paciente tenía que elegir si los puntos se movían hacia la izquierda o la derecha. Una campanilla indica si el paciente había acertado, proporcionando una información de retorno con la que el cerebro sabía si había realizado la elección correcta y aprendía de estas decisiones.

Según los investigadores, aunque el paciente no se de cuenta de si está viendo algo o no, el cerebro es capaz de procesar la información. Cuando se forzaba a los pacientes a realizar una elección se comenzaba con una tasa de éxito de un 50 por ciento. Con el paso de los días, semanas o meses, el porcentaje de éxito en la elección ascendía a entre un 80 o 90 por ciento a medida que el cerebro aprendía a ver una nueva área y la información visual pasaba de la ceguera a la consciencia. Los pacientes finalmente advertían los puntos en movimiento. Cuando los pacientes mejoraban, los investigadores movían los puntos más allá de su área de ceguera para desafiar al cerebro y obligarle a ver una nueva área.

Los pacientes del estudio realizaban unas 300 pruebas por sesión, lo que se trasladaba a estar frente al ordenador entre 15 y 30 minutos una o dos veces al día, cada día, durante entre nueve y 18 meses.


Fuente de información: Europa Press

CITI, un juego para teléfono móvil pensado para personas con discapacidad intelectual

CITI (Competencia Intelectual y Tecnología de la Información) es un juego, descargable en el teléfono móvil, pensado para acercar las tecnologías a las personas con discapacidad intelectual de una forma sencilla, cómoda y atractiva. El juego ofrece una posibilidad de ocio y diversión contando con un elemento tan cotidiano como el teléfono móvil, en un ámbito, el del ocio electrónico, en el que apenas existen iniciativas para las personas con discapacidad intelectual.

CITI permite al usuario la opción de jugar realizando varias actividades que, además, fomentan habilidades cognitivas y mejoran destrezas psicomotrices como la orientación espacial, la atención, la memoria, la comparación… todo de una forma lúdica y en cualquier lugar. En las distintas actividades del juego se trabajan diferentes habilidades adaptativas de la vida cotidiana como son: autonomía en el hogar, auto-cuidado, uso de recursos comunitarios, interés hacia la cultura, autonomía en el transporte, etc., pero sin perder la orientación de juego y diversión.

CITI consta de cuatro actividades de estrategia: ir al cine, pasar un día en el museo, ir a patinar y organizar una fiesta mejicana, en cada una ellas el jugador debe superar una serie de pruebas para pasar a la siguiente pantalla o actividad, obteniendo refuerzos o “bonus” en caso de resolver las actividades en una secuencia temporal corta y planificando sus acciones. El juego se desarrolla en una ciudad compuesta por cinco escenarios: casa, parque, centro comercial, centro cultural y metro, en la que el jugador se mueve contando con la ayuda de un personaje asistente.

Cómo descargar el juego CITI

El juego se puede descargar al teléfono móvil a través del ordenador o mediante SMS. En este caso, sólo hay que enviar un SMS, desde cualquier operador, al número 7551 con la palabra “CITI”. El juego es gratuito, solamente hay que pagar el coste del mensaje SMS y de la conexión de descarga, según las tarifas de cada compañía de telefonía móvil. Todos los detalles de cómo realizar la descarga se pueden conocer en la página web de la Fundación Orange: www.fundacionorange.es y del Proyecto BIT: http://www.proyectobit.com/.

Desarrollo del proyecto

El proyecto que ha dado lugar a este juego está promovido por la Fundación Orange, con el desarrollo técnico de la Fundación Síndrome de Down de Madrid, y ha contado con el apoyo del Plan Avanza del Ministerio de Industria, Turismo y Comercio. La fase de diseño se ha realizado al completo por un equipo de psicólogos educativos de la Fundación Síndrome de Down de Madrid, encargado de fijar los objetivos, las habilidades sociales y los procesos cognitivos que se querían desarrollar en las personas con discapacidad intelectual a través de este juego. CITI ha sido testado durante varios meses por diferentes grupos de usuarios con distintas capacidades y con diferentes modelos de terminales móviles.

Considerando la variedad de dispositivos móviles que existen en el mercado la aplicación se ha diseñado de forma que sea lo más estándar posible, haciendo la visualización compatible con varios tamaños de pantalla, minimizando el número de teclas utilizadas, y tratando también de reducir al mínimo la cantidad de memoria requerida, tanto para instalarse como para conseguir un funcionamiento óptimo.

Por lo tanto, la aplicación puede ejecutarse sin problemas sobre un amplio rango de dispositivos móviles que cumplan con los requisitos mínimos que se detallan a continuación. La lista completa de terminales compatibles se puede consultar en la página web de la Fundación Orange, www.fundacionorange.es y del Proyecto BIT, http://www.proyectobit.com/.

Requisitos mínimos:
- Pantalla en color de 148x148 píxeles
- Memoria RAM (disponible para ejecución) de 1´5 Mb
- Memoria permanente (disponible para instalación): 250 Kb
- Especificación Java: MIDP 2.0

Fuente de información: Aecomo.org