Mostrando entradas con la etiqueta reconocimiento de voz. Mostrar todas las entradas
Mostrando entradas con la etiqueta reconocimiento de voz. Mostrar todas las entradas

martes, 24 de mayo de 2011

Crean un avatar virtual en 3D capaz de comunicarse en lengua de signos

La multinacional tecnológica Indra está desarrollando un agente virtual capaz de comunicarse e interactuar en lengua de signos con personas con discapacidad auditiva.

El proyecto se llama ‘Consignos‘ y se enmarca en el ‘Plan Avanza‘ del Ministerio de Industria, Turismo y Comercio. Está financiado parcialmente por el Fondo Europeo de Desarrollo Regional (Feder) y se implantará próximamente en servicios turísticos y de transportes.

Según fuentes de Indra, la solución desarrollada será el primer prototipo para reconocimiento de voz, traducción y generación de signos mediante un agente animado capaz de interactuar en lengua de signos española en sectores como el transporte y el turismo, aunque ya existen sistemas similares en otras lenguas (inglés).

La nueva aplicación ayudará a entender la información a las personas con discapacidad auditiva para las que la lengua de signos es el mecanismo natural de comunicación y que, en ocasiones, tienen dificultad para entender el lenguaje escrito.

La Empresa Municipal de Transportes de Madrid (EMT) será la primera en contar con este avatar virtual en 3D, una aplicación que permitirá acceder a la información que la compañía facilita a sus viajeros a través de la lengua de signos, reconocida como lengua oficial desde el año 2006. La nueva aplicación también será probada de forma experimental en el entorno hotelero, en colaboración con el Instituto para la Calidad Turística Española (ICTE).

Además de Indra, que coordina el proyecto a través de su red de Software Labs, el consorcio está formado por la EMT, el ICTE, la Universidad Politénica de Madrid, la Universidad de Castilla-La Mancha, la compañía Ambiser y la Fundación CNSE (Confederación Estatal de Personas Sordas) para la Supresión de las Barreras de Comunicación.

viernes, 18 de febrero de 2011

Proyecto Apeinta - Apuesta por la enseñanza inclusiva

Apuesta por la educación inclusiva dentro y fuera del aula para todos los estudiantes, independientemente de si estos presentan o no algún tipo de discapacidad.

Con este proyecto se propone el uso de nuevas tecnologías tanto informáticas como telemáticas para evitar barreras en el acceso a la educación y de aprendizaje que desafortunadamente actualmente aún existen en las aulas.

El proyecto se centra en dos propuestas inclusivas: una de ellas enfocada en su desarrollo dentro del aula y la otra centrada en la educación inclusiva fuera del aula.
  1. Dentro del Aula: En esta propuesta inclusiva se utilizan dos mecanismos para tratar de eliminar las barreras de comunicación que aún existen hoy en día en las aulas. En primer lugar, el uso de mecanismos de reconocimiento automático del habla (ASR: Automatic Speech Recognition) proporciona una trascripción en tiempo real que será útil para todas aquellas personas que tengan discapacidad auditiva temporal o permanente (subtitulado en directo). Por otro lado, el uso de mecanismos de síntesis de voz (TTS: Text To Speech) proporciona apoyo a la comunicación oral entre el profesor y estudiantes (transcripción en tiempo real).
  2. Fuera del Aula: Con esta propuesta se proporciona a los estudiantes una plataforma accesible de enseñanza Web con recursos digitales a los que pueden acceder en todo momento, ya estén dentro de clase como fuera.
En APEINTA colaboran el departamento de Informática y el de Telemática de la Universidad Carlos III junto con CESyA.

APEINTA ha sido evaluado en distintos centros educativos, como el Colegio Tres Olivos y la Universidad Carlos III de Madrid. Se han obtenido muy buenos resultados en la evaluación y satisfacción por parte de los alumnos que pudieron probar el sistema.

Este proyecto ha sido respaldado por el Ministerio de Ciencia e Innovación (proyectos de I+D 2007), en la convocatoria del Programa de Estudios y Análisis. Acciones destinadas a la Mejora de la Calidad de la Enseñanza Superior y de la Actividad del Profesorado Universitario.

Además, ha obtenido el premio de la Confederación Española de Familias de Personas Sordas (FIAPAS) en su convocatoria 2009 para labores de investigación de aplicación en el área de la EDUCACIÓN relacionadas con la deficiencia auditiva.

miércoles, 16 de septiembre de 2009

Crean un robot que cuida de las personas mayores

Un nuevo interfaz permite a los ancianos comunicarse mejor con los robots cuidadores

Ingenieros norteamericanos han desarrollado un robot capaz de cuidar de las personas mayores en tareas como darle la mano para andar, oír lo que necesitan y realizar otras actividades físicas. Han creado un interfaz hombre-máquina que permitirá a los ancianos o discapacitados motores comunicarse mucho más fácilmente con los robots cuidadores, especialmente diseñados para su atención. No sustituirá la atención humana, pero incrementará la independencia de las personas con problemas físicos.

Un equipo de ingenieros electrónicos e informáticos y especialistas en ciencias de la salud de la Universidad de Illinois en Chicago (UIC), Estados Unidos, y de la Rush University, de la misma ciudad, han desarrollado un interfaz hombre-máquina que permitirá a los ancianos o discapacitados motores comunicarse mucho más fácilmente con los robots cuidadores, especialmente diseñados para su atención. Milos Zefran, Jezekiel Ben-Arie, Marquis Foreman y Bárbara Di Eugenio son los responsables de esta investigación.

Son conocidos los distintos inconvenientes que pueden ocasionar las discapacidades físicas en personas de edad avanzada. Sin embargo, hay muchos casos en los cuales las capacidades mentales no se encuentran alteradas y, en consecuencia, los ancianos solamente requieren una ayuda instrumental para poder realizar las tareas cotidianas que insumen un esfuerzo físico, por más pequeño que sea.

El objetivo de la nueva aplicación es que las personas con inconvenientes físicos pueden comunicarse muy fácilmente con los robots, indicándoles inmediatamente que necesitan. La investigación, difundida mediante un comunicado de prensa de la UIC, recibió una beca de 989.000 dólares por parte de la National Science Foundation (NSF) y forma parte del American Recovery and Reinvestment Act of 2009, debido a la importancia en distintos campos de la aplicación que se está desarrollando.

La innovación incluye una interfaz que permitirá a los ancianos o discapacitados comunicarse con los robots cuidadores mediante una amplia gama de canales, como el lenguaje verbal, los gestos no verbales o el tacto. De esta manera, se simplificaría el proceso de comunicación que debe cumplirse cuando surge la necesidad de la persona y el robot debe actuar en consecuencia.

Importantes beneficios para las partes implicadas

Este desarrollo también supondría una importante ayuda psicológica para los ancianos o discapacitados, ya que permitiría mantener su independencia, mejorar su calidad de vida y que sigan residiendo en sus domicilios, sin requerir una internación para recibir cuidados constantes de profesionales.

También sería positivo para las familias implicadas, teniendo en cuenta que alivianaría el trabajo de asistencia. Otro tanto sucedería con los médicos, clínicas y demás proveedores de atención médica, que podrían recibir únicamente a los casos más complejos en sus áreas de internación.

Los especialistas de la UIC y de la Rush University asociados en el proyecto son Jezekiel Ben-Arie, profesor de informática e ingeniería eléctrica; Bárbara Di Eugenio, profesora asociada de ciencias de la computación; Milos Zefran, especialista en robótica y Marquis Foreman, profesor emérito de ciencias de salud y del comportamiento.

Estos profesionales se encuentran especializados en áreas claves para el desarrollo de esta nueva aplicación, ya que Zefran cuenta con amplia experiencia en robótica y sentido del tacto computarizado, Ben-Arie en visión por computador y reconocimiento de patrones, Di Eugenio en el procesamiento del lenguaje natural y Foreman en enfermería y gerontología.

Detalles técnicos y funcionamiento

La interfaz de comunicación incluirá en su núcleo una metodología de reconocimiento llamada RISQ, inventada y patentada por Ben-Arie. RISQ permitirá que el robot pueda aprender a comunicarse con cada paciente, sorteando los ruidos comunicacionales que puedan provocar el contexto o las deficiencias en el habla de la persona.

Para ello, la aplicación no solamente tendrá en cuenta el lenguaje verbal, sino que también considerará el reconocimiento de gestos, objetos y otros elementos, integrando al circuito comunicacional al tacto y a la visión, para que el robot pueda interpretar una orden.

De esta manera, este desarrollo es capaz de tomar palabras individuales y dar sentido a una frase de acuerdo a la información complementaria procedente de estímulos referidos al tacto y a la visión. Mediante la combinación de técnicas de procesamiento del lenguaje natural y del tacto, el robot logrará entender y responder correctamente a las diversas formas de contacto humano.

Es así que sabrá responder inmediatamente al usuario al realizar tareas cotidianas como cocinar o hacer la cama. Para ello, se observarán las interacciones físicas y verbales que se utilizan en la comunicación entre los ancianos o discapacitados y los asistentes humanos. Posteriormente, se desarrollará un marco matemático que responda al modelo de interacción y que haga viable la comunicación robot-paciente.

En tres años se espera contar con un prototipo de estas características, para posteriormente desarrollar las variaciones y adelantos que sean necesarios. La interfaz podrá encontrar seguramente un amplio uso en la prestación de servicios de salud en distintas instituciones, realizando quizás muchos de los trabajos que hoy efectúan enfermeras u otros profesionales, que de esta manera podrán abocarse a otro tipo de tareas.

Fuente de información: Tendencias21

Un ordenador ´traduce´ el lenguaje de signos

El sistema podría ayudar a la integración de las personas sordas facilitando los trámites con la Administración Pública

EFE Investigadores de la Universidad Politécnica de Madrid han creado el primer ordenador que puede interpretar el lenguaje de los signos que utilizan las personas sordas, lo que podría ayudar a este colectivo a realizar sus trámites.

El sistema ha sido desarrollado en colaboración con la Fundación Confederación Estatal de Personas Sordas y tras las pruebas a las que se va a someter durante varios días, estará disponible el próximo lunes, han informado hoy la Universidad y esta fundación.

El sistema es capaz de traducir las expresiones pronunciadas por los funcionarios de la Administración Pública cuando atienden a una persona sorda que desea por ejemplo renovar el permiso de conducir o el Documento Nacional de Identidad (DNI).

Con este desarrollo, según la Universidad, se ha dado un importante paso para eliminar las barreras de comunicación que encuentran las personas sordas al realizar este tipo de trámites administrativos.

El sistema realiza el proceso de traducción en tres fases: en una primera se reconoce la voz del funcionario obteniendo la secuencia de palabras pronunciadas; en la segunda se traduce la secuencia de palabras a glosas (representación escrita de los signos) y en la tercera se representan los signos mediante un agente animado.

Para evaluar el sistema se utilizó en la Jefatura Provincial de Tráfico de Toledo con funcionarios y personas sordas, y el resultado fue "muy prometedor", según la misma fuente.

El trabajo ha sido financiado por el Ministerio de Industria, Turismo y Comercio dentro del Plan Avanza, y por la Fundación ONCE, y culmina un trabajo de investigación que desarrolla varios años el el Grupo de Tecnología del Habla de la Universidad Politécnica de Madrid.

Fuente de información: Levante-emv.com

miércoles, 9 de septiembre de 2009

Una aplicación permite a los invidentes usar los móviles de Google

Una empresa malagueña ha desarrollado un sistema para teléfonos móviles que ayuda a personas con deficiencias visuales

Según ha explicado a Efe uno de los promotores del proyecto, José Emilio Villena, el programa -desarrollado por Alea Technology- se puede obtener de forma gratuita a través de Internet desde hace dos semanas, tiempo en el que se han registrado más de seiscientas descargas.

También ha indicado que actualmente no hay ningún otro sistema de características similares, aunque conoce que el gigante informático Google ya trabaja en uno parecido.

Las primeras pruebas se han hecho con el terminal HTC Magic que comercializa Vodafone y del que se han vendido más de un millón de terminales, aunque los creadores no descartan adaptarlos a otros modelos reconocidos en el sector como el iPhone de Apple.

Villena ha desgranado el funcionamiento de la aplicación, bautizada como Blind y que se activa a través del botón principal de terminal, conocido como "trackball", y las esquinas superiores de la pantalla, que permiten navegar por las distintas opciones del menú del teléfono y seleccionar una de ellas.

Así, el usuario podrá realizar llamadas -marcando los números a través de la voz-, escribir SMS que enviará a sus contactos de la agenda después de escuchar las letras y símbolos con los que montará el mensaje.

Además, los invidentes podrán acceder a otras aplicaciones "a las que no habían podido anteriormente" como escuchar la música que tienen almacenadas en la memoria del teléfono, ya que el sistema lee los títulos de las canciones y el usuario puede elegir la que quiere o pasar a la siguiente.

Como novedad, el sistema -que todavía está en fase de pruebas- incluye una opción que activa la cámara fotográfica del aparato y que es capaz de decir el color de la ropa, aunque por el momento sólo procesa colores primarios como el rojo, amarillo, verde, azul, blanco y negro.

En este sentido, Villena ha explicado que también han incluido una característica que a modo de GPS indica al propietario del teléfono dónde está en caso de que se haya perdido.

Alea Technology se ubica en el malagueño Parque Tecnológico de Andalucía (PTA) y es una empresa de base tecnológica especializada en desarrollar software para dispositivos inalámbricos.Entre los distintos proyectos que ha desarrollado está un dispositivo adoptado por algunas autoescuelas por el que los aspirantes a sacarse el carné de conducir pueden realizar los test de tráfico desde su teléfono móvil.

Fuente de información: Levante.emv.com

miércoles, 17 de junio de 2009

Touchphone para no videntes

En la vorágine del avance tecnológico descomunal que estamos viviendo, muchas veces se olvida aquellas necesidades que tienen las personas con capacidades especiales. En este sentido, y como nos explican en Yanko, el diseñador Zhenwei You, ha proyectado un teléfono móvil utilizando la tecnología touchscreen de los ya muy conocidos iPod y iPhone agregando la singularidad del sistema Braille para personas no videntes.

El teléfono móvil B-Touch aparece bajo la premisa de que las limitaciones de los sentidos no tienen porqué dificultar el uso de este teléfono, ya que combina tecnologías de pantallas para no videntes en sistema Braille, sistemas de reconocimiento de voz y programas para funcionar como un teléfono común, como sistema de navegación, lector de textos y escaner de objetos.

Creo que es algo muy interesante, pero considero que estas cosas tendrían que ocupar más y más el tiempo de las empresas, ya que hay muchísimas personas con capacidades especiales que quedan fuera de la mayoría de los avances tecnológicos. Sin embargo, existen cosas como estas a partir de las cuales uno puede vislumbrar un futuro casi de ciencia ficción en cuestión de brindar un servicio realmente necesario a quienes no cuentan con sus sentidos en plena forma.

Fuente de información: Kabytes.com

lunes, 25 de mayo de 2009

Cap Robotique ayudará a las personas con discapacidad en Francia

Cap Robotique, es un consorcio formado por 21 empresas tecnológicas que acaba de presentar el prototipo de "Romeo", un robot para la ayuda a personas mayores y con discapacidad, y será capaz de realizar funciones como seguir a su usuario y ayudarle a levantarse en caso de caída, así como avisar a los servicios de emergencia.

El androide, que podría estar a la venta en 2011, mide 1,20 metros. Está dotado con dispositivos que captan el movimiento, reconocen los objetos y las órdenes vocales, a través de unos sensores capaces de distinguir voces y tonos.

Aldebaran Robotics, empresa que lidera el consorcio lleva invertidos diez millones de euros en este proyecto, y cuenta con el apoyo de diversas entidades, entre ellas el Instituto Nacional de Investigación Informática y Automática de Francia (Inria), así como de la Dirección General de Competitividad de la Industria y los Servicios de Bercy y las autoridades de París.

Con esta iniciativa Cap Robotique espera liderar el mercado de productos para la ayuda a la persona, que según los expertos generará 50.000 millones de euros en 2015.

Fuente de información: Famma.org

sábado, 16 de mayo de 2009

APEINTA, un proyecto sobre enseñanza inclusiva realizado en colaboración con el CESyA, premio FIAPAS 2009

La Confederación Española de Familias de Personas Sordas-FIAPAS ha otorgado el Premio FIAPAS 2009 de Investigación en Deficiencias Auditivas en el Área de Educación, al proyecto "APEINTA: Apuesta por la enseñanza inclusiva (uso de nuevas tecnologías dentro y fuera del aula)", firmado por Ana María Iglesias, en representación del Equipo Investigador de la Universidad Carlos III de Madrid, en colaboración con el Centro Español de Subtitulado y Audiodescripción (CESyA).

Según la nota difundida por FIAPAS, el trabajo premiado responde a una de las demandas de la entidad: "el desarrollo y la disposición de sistemas que permitan transcribir, en tiempo real, el mensaje oral a texto escrito, con el fin de favorecer el acceso a la información y a la comunicación de las personas con dificultades de audición, a través de la lengua oral, en todos los ámbitos".

El objetivo principal del proyecto APEINTA es apostar por una enseñanza inclusiva de integración e igualdad en la universidad. Como instrumentos pedagógicos se propone el uso de las nuevas tecnologías tanto informáticas como telemáticas para evitar barreras en el acceso a la educación y de aprendizaje que actualmente aún existen en las aulas. El proyecto, costa de dos partes:
  • Una de ellas está centrada en facilitar la atención de los estudiantes dentro del aula. Está orientada especialmente a estudiantes con discapacidad auditiva, además de otros grupos beneficiados, como estudiantes con distinta lengua materna al idioma en el que se imparten las clases. La accesibilidad se consigue proporcionando mecanismos de transcripción en directo mediante reconocimiento de voz automático, así como mecanismos de síntesis de voz como apoyo a la comunicación oral.
  • La otra parte del proyecto utiliza tecnologías informáticas para aportar accesibilidad fuera del aula. Se trata de facilitar un acceso a los materiales de estudio y contenidos curriculares a todos los estudiantes, con independencia de sus características de acceso y habilidades. La accesibilidad se consigue proporcionando todos los contenidos y otros recursos a través de una aplicación web accesible siguiendo legislación y normativa vigente. De esta forma, se asegura un acceso a la educación para los estudiantes con discapacidad auditiva, visual o motora, aunque los recursos facilitados en la aplicación web son de gran riqueza para todos los estudiantes al margen de la discapacidad. La aplicación web ofrece los contenidos pedagógicos en diversos formatos para proporcionar acceso de acuerdo a las preferencias de los estudiantes de manera inclusiva. Se ofrecen videos de clases pregrabadas junto con su subtitulado, transcripciones para acceder desde un lector de pantalla, ejercicios, notas del profesor, etc. Además, al ofrecer la enseñanza por Internet, se pueden salvar barreras espaciales de estudiantes a los que desplazarse a una universidad puede ser un problema por su situación de dependencia.

Este proyecto cuenta con el respaldo del Ministerio de Ciencia e Innovación (proyectos de I+D 2007), en la convocatoria del Programa de Estudios y Análisis. Acciones destinadas a la Mejora de la Calidad de la Enseñanza Superior y de la Actividad del Profesorado Universitario.

Fuente de información: CESyA

lunes, 11 de mayo de 2009

Globus

Globus es un programa con el que puede hacerse una representación gráfica de los rasgos suprasegmentales de la voz en la pantalla. Los alumnos sordos, mediante estos programas, pueden percibir visualmente sus producciones vocálicas y ejercitarse para ajustar su voz.

La idea es que cuando los usuarios emitan algún sonido, lo vean en el ordenador. Para ello, una vez que el micrófono detecta sonidos, responde con colores, formas, juegos, etc. (según la opción del menú que hayan elegido con anterioridad).

Con Globus podemos estimular la articulación del habla. Existen varias versiones de la aplicación y en diferentes idiomas como español, catalán, gallego, euskera, portugués e inglés. El hardware periférico, que requiere Globus para su funcionamiento, es de bajo costo, requiere una tarjeta de sonido, compatible con SoundBlaster, y un micrófono (incluido generalmente en equipos de reciente adquisición).

Este programa, permite escoger la actividad con la que se quiera trabajar, desde una única opción de menú: ¿Qué quiero hacer? En cada una de ellas, es posible cambiar los parámetros de sonido. Existen 17 tipos de ejercicios, entre ellos:
  • Globus grises: se utiliza para percibir intensidad.
  • Arco Iris; Juego de los rectángulos, Atractor, Fractal de Mandelbrot, Plasma;
  • Viaje en globo: para ejercicios de ausencia o presencia de voz.
  • Chupa Chups: evolución del ritmo del sonido en función del tiempo.
  • Intensidad/duración: evolución de la intensidad del sonido en función del tiempo.
  • Movamos un coche: ajustar la voz a unos parámetros predeterminados.
  • Carrera: juego que requiere una producción sonora estable.
  • Espectroscopio/Osciloscopio: permite realizar el espectro y oscilograma de la voz.
  • Comparación de patrones: Comparación de espectros. Útil para estudios de fonética.
  • Sonograma: es la evolución del espectro en función del tiempo. Se puede realizar en dos pistas para poder mostrar un patrón y en el otro tratar de imitarlo.
  • Frecuencia: ejercicios de tono.

Se trata de una aplicación del Proyecto Fresa, un proyecto que nació a raíz de una licencia de estudios para realizar programas informáticos para personas discapacitadas.


Fuente de información: Capacitech

viernes, 3 de abril de 2009

Google anuncia Eyes-Free Shell

Google lanza una utilidad para desarrollar aplicaciones que se comuniquen con el dispositivo Android mediante la voz

El objetivo de este proyecto va desde entornos donde no se pueda usar la vista como conducción, o personas impedidas visualmente. El código ha estado disponible en los repositorios de Google Code y ahora han publicado la primera release pública de eyes-free shell en Android Marketplace.

Además con esta release también han hecho disponible una colección de aplicaciones para convertir los dispositivos móviles con Android en dispositivos de comunicación "libre-de-ojos" (eyes-free): marcación por voz, conocer tu localización, información del dispositivo (batería, nivel de señal y disponibilidad de WIFI), conocer fecha y hora. En las próximas semanas subirán vídeos varios a youtube mostrando sus capacidades.

Para más información:


Fuente de información: Blog Android-Spa.com

miércoles, 10 de diciembre de 2008

Dispositivos de manejo del ordenador para personas con discapacidad

La página web Devices to help disabled users accomplish tasks describe diferentes dispositivos que emplean las personas con discapcidad para interactuar con el ordenador:

Teclado adaptativo

Es un teclado que tiene las teclas más bajas de tal forma que es más fácil colocar el dedo en la tecla correcta antes de pulsarla. Este tipo de ayuda es útil para usuarios que tienen movimientos espásticos o poco control de sus músculos. Además se puede utilizar un software especial de completitud de palabras que reduce el número de pulsaciones que en el caso de textos largos puede resultar muy cansado.

Seguimiento de ojos

Este tipo de dispositivos siguen el movimiento ocular y permiten al usuario navegar a través del ordenador únicamente con el movimiento de sus ojos. Se necesita un software especial para poder mover el cursor y escribir. A pesar de ello, como su precio es alto comparado con las varilla de cabeza o boca, no son muy comunes.

Varilla de cabeza

Consiste en un palo atado con una correa a la cabeza. Al igual que el rastreador ocular, los usuarios tetrapléjicos pueden beneficiarse de este tipo de dispositivos. Mediante el movimiento de la cabeza, la varilla posibilita escribir y navegar. No son muy caros y son fáciles de usar, pero puede resultar cansado si se tiene que escribir demasiado. Otra desventaja es que es prácticamente imposible presionar más de una tecla a la vez.

Varilla de boca

Las varillas de boca se usan mucho debido a su bajo coste. El uso es similar al de la varilla de cabeza.

Teclado de una mano

Este tipo de teclados pueden usarse con una sola mano. Hay diferentes tipos, unos con muchos botones y otros sólo con 5 (uno por dedo), donde se usa más de una tecla por carácter. Las personas con limitaciones motoras en una parte de su cuerpo, por ejemplo, hemiplejia, pueden usar este tipo de dispositivos para escribir. Usuarios avanzados pueden trabajar incluso muy rápido. Durante la investigación un programador con discapacidad visual que usó este tipo de teclado fue entrevistado. Este programador usaba su mano izquierda para leer braille y a la vez escribía con su mano derecha.

Ratón trackball grande

Los ratones de tipo trackball son usados por mucha gente, no sólo por personas con discapacidad. Es más sencillo presionar el botón del ratón sin mover el cursor por lo que personas con discapacidad motora pueden aprovechar mucho este tipo de ayudas. Si se usa una varilla de cabeza o de boca es mucho más difícil mover el puntero de un ratón normal que manipular el trackball. Incluso los ratones de este tipo más grandes pueden ser usados con el pie.

Líneas Braille "refrescables"

Estos dispositivos pueden interpretar el texto que aparecería normalmente en una pantalla de ordenador y traducirlo a Braille para que pueda ser leído por personas ciegas, aunque no todas las personas con discapacidad visual saben Braille.

Magnificador de pantalla

Los magnificadores permiten ampliar lo que aparece por la pantalla del ordenador. Son muy útiles para personas con limitaciones visuales. Pueden ser hardware o software.

Lector de pantalla o navegador de audio

Los navegadores de audio permiten leer sitios web al usuario y darle opciones de navegación. Hay que destacar que los usuarios pueden ajustar la velocidad de lectura. Cuando se lee en silencio,la velocidad de lectura es mucho mayor que cuando se lee en alto, especialmente si leemos para alguien. Las personas que usan lectores de pantalla normalmente no quieren escucharlo a velocidad lenta porque no es eficiente. Cuando las personas con limitaciones visuales se acostumbran a la voz del lector, incrementan su velocidad tanto que es muy difícil de entender para las personas que no tienen experiencia en este software. JAWS es un lector de pantalla para Windows muy conocido.

Navegador modo texto

Las personas con discapacidad visual incapaces de usar el ratón y los usuarios con conexiones a Internet de baja velocidad usan navegadores de tipo textual.Estos no muestran las imágenes ni otros archivos multimedia. Es simplemente texto plano. Algunos dispositivos móviles usan navegadores tipo texto cuando no hay tarifa plana sino que se paga por kilobyte descargado.

Reconocimiento de voz

Las personas que tienen discapacidad motora tienen muchas dificultades para usar el teclado o el ratón. Los programas de reconocimiento de voz permiten controlar el ordenador mediante comandos de voz a través de un micrófono. Requiere de un tiempo considerable acostumbrarse a este método antes de poder usarlo de forma eficiente. Además se necesita una voz clara y práctica, pero abre un nuevo mundo de posibilidades para personas con discapacidad.

Fuente de información: Able.arto.ch

miércoles, 3 de diciembre de 2008

Biogiltz: la llave biométrica - Giltza Biometrikoa

La Universidad Deusto y capital privado han impulsado conjuntamente el proyecto Biogiltz - Giltza Biometrikoa (Llave Biométrica), que está siendo probado por un grupo de investigación universitario. Se trata de un prototipo de un sistema integral de control de acceso basado en el uso de la identificación por radiofrecuencia y el patrón biométrico de las venas de la palma de la mano.

El piloto emplea también técnicas de sintetización y reconocimiento de voz para su adaptación a personas con discapacidad visual. Además, posee una serie de indicadores luminosos para facilitar su uso por parte de personas con discapacidad auditiva. El sensor biométrico es fabricado por Fujitsu y se basa en el examen de la palma de la mano para ver si hay coincidencia de patrones biométricos.

Este sistema se utilizará como control de acceso a áreas de gran seguridad así como para facilitar el acceso a colectivos que puedan padecer dificultades para abrir puertas con llaves tradicionales. Uno de los objetivos de Biogiltz es, de hecho, mejorar la calidad de vida de personas discapacitadas y la de las personas que les asisten. Al eliminar la necesidad de utilizar llaves, invidentes y enfermos con pérdida de memoria pueden mantener su autonomía y llevar una vida normal.

Gracias a la arquitectura abierta y modular que se ha implementado en la plataforma BioGiltz, se facilita la personalización del producto por parte de empresas desarrolladoras. Además, queda garantizada la escalabilidad, ya que se podrán seguir desarrollando nuevos servicios sobre este sistema. El objetivo estratégico del proyecto es generar una oferta de sistemas novedosos de control de acceso para así solucionar la demanda existente. El producto podría comercializarse en 2010.

Fuente de información: Blog Discapacidad Araba

viernes, 21 de noviembre de 2008

Un sofisticado humanoide japonés 'afinará' sus destrezas en España

Uno de los más sofisticados robots humanoides del mundo, diseñado en Japón, "afinará" sus destrezas en España, en donde será programado por expertos del RoboticsLab de la Universidad Carlos III de Madrid, para atender a enfermos y discapacitados o llevar camillas en los hospitales.

Sendos equipos de científicos, uno de España y otro de Japón, colaborarán estrechamente, desde un laboratorio de investigación conjunto con representación en ambos países, en el entrenamiento de este robot denominado HRP2, creado originariamente para trabajar en instalaciones nucleares, y en el desarrollo del 'software' que le permitirá realizar tareas múltiples: domésticas, sanitarias, asistenciales, sociales, espaciales, de vigilancia, etc.

La ubicación en España de este robot, que no se comercializa fuera de Japón, es fruto de un ambicioso acuerdo ratificado por las autoridades españolas y niponas, durante la reciente visita del Rey de España, a donde viajó acompañado por la ministra de Ciencia e Innovación, Cristina Garmendia, para ratificar el desarrollo de varios proyectos conjuntos de investigación.

El cuerpo de este robot con aspecto de hombre, de 1,60 metros de altura y unos 50 kilogramos de peso (con baterías incorporadas), va recubierto por una fina carcasa para ocultar su sofisticada maquinaria, capaz de realizar un total de 32 grados de libertad, que es como técnicamente se llaman los distintos tipos de movimiento de sus articulaciones.

El próximo verano

Está previsto que el robot llegue a España el próximo verano para empezar a funcionar en otoño de 2009, aunque habrá que esperar a 2010 para que HRP2 esté a pleno rendimiento, tal como han avanzado la Directora General de Cooperación Internacional del Ministerio de Ciencia e Innovación, Montserrat Torné, y el vicerrector de investigación de la Universidad Carlos III, Carlos Balaguer, durante una entrevista conjunta.

Las habilidades de este robot, que actualmente camina, ve en tres dimensiones y reconoce a las personas, le permitirán una colaboración activa con los humanos en entornos peligrosos, como en centrales nucleares y desastres naturales (por ejemplo, para restablecer las telecomunicaciones en lugares asolados poniendo en pie pequeñas antenas) e incluso en ámbitos espaciales para la construcción de viviendas en otros planetas.

Sus tres ordenadores incorporan múltiples sensores con cámaras estereoscópicas para garantizar la visión tridimensional, inclinómetros y giróscopos para garantizar un andar estable, láseres telémetros para medir distancias, y además sensores de fuerza y tacto en sus manos.

Asimismo, está dotado de sistemas de reconocimiento de voz para comprender órdenes en japonés e inglés, así como de micrófonos para detectar la procedencia del sonido.

Puede reconocer

Este robot, cuyos materiales de fabricación incluyen el aluminio ligero aeronáutico, alguna aleación de magnesio, plásticos y polímeros muy ligeros y resistentes, también reconoce físicamente a las personas, hacia las cuales se gira cuando le hablan y a quienes conoce visualmente, gracias a un sistema de grabación de patrones de caras.

Según los expertos, cada rostro tiene al menos 15 puntos característicos para diferenciarlo del resto, y este robot está capacitado para calcular la distancia entre muchos de ellos (por ejemplo, de los extremos de los ojos a la nariz, a los labios), lo que le permite reconocer a las personas.

La entidad científica japonesa con la que trabajarán los investigadores españoles es el Instituto de Investigación en Sistemas Inteligentes de la National Institute of Advanced Industrial Science and Technology (AIST), uno de los centros de investigación más importantes en el país nipón, en donde se trabaja intensamente con este robot humanoide aún no comercializado, del que sólo existen unas quince unidades repartidas por universidades de Japón.


Fuente de información: El Mundo.es

sábado, 15 de noviembre de 2008

Yo hablo y tú escribes

El reconocimiento de voz crece como interfaz natural en móviles y PC. El sector podría mover 2.700 millones de dólares en tres años. Hospitales y bufetes de abogados, donde más se emplea el 'software' de voz.

"Dictar-en-lugar-de-escribir-coma-y-que-funcione-punto". Así, con un micrófono, es como deberíamos hablar al ordenador. Alto, claro, sin comernos sonidos y especificando cada signo de puntuación. Algo más despacio que en una conversación normal, pero más rápido que golpeando las teclas.

Tras años de ostracismo, las aplicaciones de reconocimiento y transcripción de voz quieren asaltar de una vez el mercado de masas. Nuevos programas, versiones y funcionalidades con exactitud casi perfecta las avalan; pero, ¿estamos preparados para hablar a las máquinas?.

La respuesta es una incógnita. Los entusiastas de las nuevas interfaces lo ven claro. Desde compañías especializadas como Nuance y Vlingo a gigantes como Microsoft. Bill Gates, poco antes de retirarse, vaticinó la desaparición del teclado y el ratón. Según él, la interacción natural, basada en sonidos, tacto y visión, acabará imponiéndose. Será cuestión de tiempo.

Sin embargo, pocos han utilizado las capacidades de identificación de voz incorporadas de serie en Windows Vista. Muchos ni saben que existen. Son los escépticos. Los que teclean a la velocidad del rayo o simplemente no confían en la efectividad del software. El problema es que todavía son mayoría los que piensan así.

De momento, la voz triunfa en campos minoritarios: en hospitales y despachos de abogados para automatizar la redacción de informes médicos y legales, en seguridad, biometría y en la gestión de llamadas en centros de contactos.

La consultora Opus Research calcula que en 2011 el mercado mundial de aplicaciones de voz sobrepasará los 2.700 millones de dólares. Pero, ¿llegarán al gran público? ¿Dictaremos algún día e-mails al ordenador o SMS al móvil para ahorrarnos tiempo y dolor de pulgares?

El éxito de empresas como SpinVox hace pensar que sí. Fundada por la española Christina Domecq y el británico Daniel Doulton, permite dictar mensajes al móvil y enviarlos en formato de texto a otro terminal, a una dirección de e-mail, a un blog o al perfil de una red social.

En 18 meses, 10 millones de personas han probado el servicio en todo el mundo. "El reconocimiento de voz por sí solo no es suficiente", explica Doulton. "Es necesario añadir inteligencia artificial que comprenda el sentido de las frases al transcribir los mensajes. Ahí fallan muchas soluciones".

Pero el reconocimiento de voz ya se aplica con muy buenos resultados en la atención telefónica de los bancos y en organizaciones policiales. En esos campos destaca una empresa española, Agnitio, que con su tecnología consigue errores inferiores al 3% y, por tanto, sustituir sistemas de biometría. Agnitio ha vendido su software a los cuerpos policiales de una veintena de países, en donde se registran voces de delincuentes y potenciales delincuentes.

"Una ventaja frente a la biometría de iris o de huellas es que no necesitas instalar equipamientos. Basta una línea telefónica fija o móvil para transmitir los datos", reconoce Emilio Martínez, director general de Agnitio.

Fuente de información: El País.com

jueves, 13 de noviembre de 2008

Desarrollan tecnología autóctona para ayudar a discapacitados

La petrolera estatal Pdvsa presentó el programa Accesibilidad para todas y todos, que permite a las personas con discapacidad visual usar el computador. El proyecto fue expuesto en la primera Feria Universitaria de Tecnologías de Apoyo a las Personas con Discapacidad, en la que otras instituciones tuvieron la oportunidad de exhibir sus aportes científicos en esta área.

El programa desarrollado por Pdvsa para el sistema operativo de informática Linux, ofrece guiar a las personas con discapacidad visual en cualquier software a través de una voz que describe las acciones en la pantalla.

Johan Trujillo, coordinador del plan, explicó que es una herramienta gratis y libre. "Con este programa podemos masificar los procesos educativos. La idea es que en todos los computadores del país esté instalado", añadió. Trujillo expuso que los objetivos de Accesibilidad para todas y todos va más allá de la enseñanza de la computación. Los conocimientos que se adquieren permiten que las personas con discapacidad visual amplíen sus posibilidades educativas, laborales y sociales.

Sustituyen productos nacionales.

En la feria, la Universidad Simón Bolívar exhibió algunos adelantos tecnológicos de prótesis tradicionales y electrónicas. Orlando Pelliccioni, profesor de Ingeniería Mecánica, explicó que la casa de estudios cuenta con cinco grupos de investigación dedicados continuamente al tema de la discapacidad, y que actualmente construyen, junto con médicos especialistas, sustitutos para partes del cuerpo con productos nacionales.

La Universidad Monteávila, que según los organizadores de la feria hace un esfuerzo importante en adquisición de tecnología para sus alumnos con discapacidad, promocionó cursos y diplomados en materia de inclusión en el ámbito laboral y social.

Lucía Pestana, coordinadora de la feria por parte de la Dirección de Ingreso y Desempeño Estudiantil del Ministerio de Educación Superior, explicó que la exposición se enmarca en la política que desarrolla el Gobierno desde 2004, mediante la cual se busca el ejercicio pleno del derecho de las personas con discapacidad. "Nuestra intención es invitar a las distintas universidades e instituciones interesadas, a desarrollar nuevas tecnologías a partir del impulso que dan los proyectos ya avanzados", agregó Pestana.

Fuente de información: Entorno Inteligente

martes, 28 de octubre de 2008

Tecnología robótica se inspira en los servicios de ayuda a personas con discapacidad realizados por perros

Un robot biológicamente inspirado diseñado por investigadores del Georgia Tech emula los servicios de perros que ayudan a personas discapacitadas.

Los perros son una compañía de gran valor para ayudar a personas de movilidad reducida a realizar las tareas del día a día. A pesar de su coste (en media unos 16.000 dólares por perro, sin contar los 2 años de entrenamiento que son requeridos para lograr dichas capacidades), la demanda por estos perros supera su disponibilidad.

Investigadores del Instituto Tecnológico de Georgia han diseñado un robot inspirado biológicamente que refleja las acciones de los servicios de perros. Mediante comandos de voz el robot completa una tarea y responde una vez que un puntero láser básico ilumina la zona de la acción deseada. Por ejemplo, si una persona necesita coger un objeto, normalmente se lo ordenaría al perro y después con las manos indicaría la localización. El servicio robot imita el proceso reemplazándose el gesto de las manos por la señalización con un puntero láser al artículo deseado.

Empleando esta tecnología, los usuarios pueden realizar misiones básicas pero muy difíciles si son discapacitados como puede ser abrir una puerta, los cajones o una medicación.

Fuente de información: Georgia Tech

viernes, 17 de octubre de 2008

Fagor elabora productos para personas con movilidad reducida

Fagor presentó sus novedades en este campo durante la Jornada y Espacio de Prueba "Tecnología en la Vida Diaria. Acceso y Uso para Personas con Movilidad Reducida" organizada en Madrid.

Lo más destacado fue la presentación de su nuevo dispositivo Maior Vocce, gracias al cuál, aquellas personas con discapacidad motora pueden disfrutar de una mayor autonomía, mejorando así su calidad de vida, ya que permite controlar una red domótica mediante la voz, y conseguir llevar a cabo actividades tan cotidianas como encender o apagar la luz o subir o bajar las persianas. La compañía también realizó demostraciones insitu para los asistentes.

Maior Vocce es una auténtica revolución en el mundo de la domótica, pues permite controlar la Red Domótica Fagor utilizando únicamente la voz.

Gracias a su facilidad de utilización y transporte, el usuario podrá llevarlo por ejemplo en la muñeca a modo de reloj o colgado del cuello, Maior Vocce aportará a las personas con alguna discapacidad o de avanzada edad que sufran problemas de movilidad, la posibilidad de disfrutar de una mayor autonomía. Actividades tan cotidianas como encender/apagar la luz, subir/bajar las persianas, encender la climatización y los electrodomésticos, etc. podrán ser gestionadas por el usuario sin desplazarse y sin necesidad de recurrir a terceros, desde cualquier lugar de la vivienda y con total autonomía, gracias a su tecnología de comunicaciones vía radio, y con un simple comando de voz.

Maior Vocce es único en el mercado actual de la domótica, tanto por tecnología como por prestaciones. Permite el control por voz, sin necesidad de ningún proceso de aprendizaje, pudiendo ser utilizado por varias personas a la vez y permite el control de elementos desde cualquier lugar, es transportable, sin requerir la visión directa entre el dispositivo y el elemento a controlar.

Con este nuevo lanzamiento, Fagor Electrodomésticos da un paso más en innovación y vuelve a apostar por responder a las necesidades de los usuarios. Según Edorta Mendieta, Director de Marketing de Domótica Fagor afirma 'Utilizar la voz como modo de interacción de los usuarios con los dispositivos electrónicos simplifica el proceso en gran medida, ya que contribuye a superar los posibles miedos que pueda suponer el manejo de productos tecnológicos, percibidos como complejos y que en determinados grupos de usuarios provocan cierto rechazo. Maior Vocce rompe con este tópico, ofreciendo al usuario la activación/desactivación y consulta de estado de los automatismos de la vivienda de una manera fácil y sencilla: con su voz'.

Fuentes de información: Famma.org, Discapnet

martes, 2 de septiembre de 2008

"Vocal Joystick": una nueva dimensión en la interacción hombre-máquina

Estudiantes del departamento de Ingeniería Electrónica de la Universidad de Washington han desarrollado "Vocal Joystick" (VJ), un software de reconocimiento de voz mejorado, con el fin de facilitar el uso de ordenadores a personas con discapacidad.

Este programa permite a los usuarios mover el cursor en la pantalla del ordenador con tan solo pronunciar sonidos vocálicos, así como pulsar el botón del ratón para seleccionar objetos y funciones.

El objetivo del proyecto según se informa en su página web (http://ssli.ee.washington.edu/vj) es perfeccionar esta tecnología para que pueda aplicarse en otros ámbitos, como en el manejo de prótesis robotizadas y de los sistemas domóticos que permiten automatizar las viviendas mediante dispositivos que controlan funciones como el apagado y encendido de las luces y la climatización, o la apertura y cierre de persianas y toldos, etc.

El lenguaje hablado estándar es bastante ineficiente para dichas tareas de control continuas y, con frecuencia, los reconocedores de voz tienen grandes dificultades para su reconocimiento. El sistema VJ, sin embargo, permitirá a los usuarios utilizar un amplio y variado conjunto de vocalizaciones tanto para control de movimiento continuo como discreto, y su selección será optimizada para obtener una alta capacidad de discriminación y un bajo ancho de banda. Además, los usuarios podrán percibir realimentación visual del sistema y hacer los ajustes necesarios en tiempo real.

Como último apunte, destacar que en la primera prueba piloto del motor VJ, se experimentó con más de 40 niños de edad comprendida entre 6 y 14. La experiencia consistió en que los niños llevaran un micrófono y jugaran a mover el ratón y pinchar en unos dibujos animados que había en pantalla a través de su voz. Fue interesante observar como cuando los niños fallaban porque no producían el sonido correcto, tendían a crear sus propios sonidos para realizar ciertos movimientos. Este tipo de información fue de gran valor para el rediseño del sistema VJ, de tal forma que estuviera más acorde con la percepción humana.

miércoles, 6 de agosto de 2008

I+D relacionada con la accesibilidad en Microsoft

Microsoft Research dirige las investigaciones básicas y aplicadas en informática e ingeniería del software. Entre sus objetivos se encuentra la mejora de la experiencia de usuario con los dispositivos y la investigación de nuevas tecnologías. Muchos de sus proyectos están enfocados a hacer los ordenadores más sencillos de visualizar, oír e interactuar con ellos.

A continuación se muestran algunas de las áreas en las que Microsoft está trabajando para mejorar la accesibilidad y simplificar el uso de ordenadores:

1) Interacción hombre-máquina

La investigación en la relación entre humanos y ordenadores (HCI) juega un papel central en muchos de los equipos de Microsoft Research. El trabajo de los investigadores está centrado en mejorar la forma en que las personas utilizan los dispositivos informáticos. Esto incluye búsquedas, acceso y gestión de la información, exposición de datos e información complejos, modelo de usuario y reconocimiento de actividades, recogida de datos e interacción eficiente, el papel de la automatización y la unión entre sistemas inteligentes y manipulación directa, etc.

Las principales líneas de investigación en este campo son:
  • Sistemas adaptados e interacción. El Grupo de Sistemas adaptados e interacción (ASI) dirige su investigación hacia el razonamiento automatizado, la adaptación y la interacción hombre-máquina. Uno de sus focos de interés está dirigido al desarrollo de nuevos dispositivos de entrada de datos y sensores que permitan a los usuarios nuevas posibilidades de manipulación directa de objetos y visualizaciones. El trabajo en este área incluye el añadir sensores a ratones y teclados de tal manera que los sistemas puedan sentir el conTacto de las manos de los usuarios.
  • Tecnología del lenguaje. Microsoft Research dispone de un grupo en Redmon y otro en Beijing trabajando conjuntamente en la mejora de las tecnologías del lenguaje. Su objetivo primordial es construir aplicaciones que permitan que los ordenadores estén disponibles en cualquier lugar. El equipo de Asia se centra en el reconocimiento automático de voz para que con él sea más sencillo el acceso a los datos, ayude a la creación de contenidos y se puedan realizar fácilmente algunas tareas. La síntesis de voz permite a los ordenadores hablar con voz humana, responder y proporcionar información, además de leer. La recuperación y procesamiento de documentos hablados enriquece la comunicación entre las personas, por ejemplo, convirtiendo los mensajes de voz en mensajes de texto.
  • Tratamiento del lenguaje natural. Los investigadores trabajan para diseñar y desarrollar software capaz de analizar, entender y generar lenguajes que las personas usan naturalmente, de forma que sea posible hablar con el ordenador de la misma manera que se hablaría con cualquier persona.

2) Desarrollo de hardware

La investigación en este área se centra en el desarrollo de dispositivos que permitan conectar a lo usuarios de manera más íntima, natural y eficiente con el entorno informático. El rango de dispositivos va desde grandes pantallas hasta sistemas micro-electro-mecánicos (MEMS).

Los investigadores trabajan actualmente en dispositivos que permiten nuevas formas de introducir datos, tales como gestos, guiños, voz o a través de un bolígrafo. Investigan también nuevas formas de utilizar los teclados, por ejemplo, añadiendo sliders entre los grupos de teclas de los teclados extendidos de forma que no fuese necesario separar las manos del teclado para coger el ratón y poder moverse de una zona a otra del documento. Se han estudiado detectores de movimiento que aumentan el tamaño de las letras cuando se acerca la cabeza a la pantalla o giran un gráfico cuando se mueve la cabeza hacia un lado.