Google lanzó dos nuevas herramientas que permiten que el aprendizaje automático y las cámaras frontales de los teléfonos inteligentes funcionen detectando los movimientos faciales y oculares.
Los usuarios pueden escanear la pantalla de su teléfono y seleccionar una tarea sonriendo, levantando las cejas, abriendo la boca o mirando a la izquierda, derecha o arriba.
"Para hacer que Android sea más accesible para todos, estamos lanzando nuevas herramientas que facilitan el control de su teléfono y la comunicación mediante gestos faciales", dijo Google.
Los Centros para el Control y la Prevención de Enfermedades estiman que 61 millones de adultos en Estados Unidos viven con discapacidades, lo que ha empujado a Google y a sus rivales Apple y Microsoft a hacer que los productos y servicios sean más accesibles para ellos.
"Todos los días, la gente usa comandos de voz, como 'hey, Google', o sus manos para navegar en sus teléfonos", explicó el gigante tecnológico en una publicación de blog. "Sin embargo, eso no siempre es posible para las personas con discapacidades motoras y del habla graves".
Los cambios son el resultado de dos nuevas funciones, una se llama "Interruptores de cámara", que permite a las personas usar sus rostros en lugar de deslizar y tocar para interactuar con los teléfonos inteligentes.
Project Activate
El otro es Project Activate, una nueva aplicación de Android que permite a las personas usar esos gestos para desencadenar una acción, como hacer que un teléfono reproduzca una frase grabada, envíe un mensaje de texto o haga una llamada.
"Ahora es posible que cualquier persona utilice movimientos oculares y gestos faciales personalizados para su rango de movimiento para navegar en su teléfono, sin manos ni voz", afirmó la compañia.
Apple, Google y Microsoft han implementado constantemente innovaciones que hacen que la tecnología de Internet sea más accesible para las personas con discapacidades o que encuentran que la edad ha dificultado algunas tareas, como la lectura.
Los asistentes digitales controlados por voz integrados en los altavoces y los teléfonos inteligentes pueden permitir que las personas con problemas de visión o de movimiento le digan a las computadoras qué hacer.
Existe un software que identifica texto en páginas web o en imágenes y luego lo lee en voz alta, así como generación automática de subtítulos que muestran lo que se dice en videos.
Una función -AssistiveTouch- que Apple incorporó al software que alimenta su reloj inteligente permite que las pantallas táctiles se controlen mediante la detección de movimientos como pellizcos con los dedos o con las manos.
Apple dijo en una publicación que "esta función también funciona con VoiceOver para que pueda navegar por Apple Watch con una mano mientras usa un bastón o lleva un animal de servicio".
El gigante de la informática Microsoft por su parte describe la accesibilidad como esencial para capacitar a todos con herramientas tecnológicas.
"Para permitir un cambio transformador, la accesibilidad debe ser una prioridad", citó. "Nuestro objetivo es integrarlo en lo que diseñamos para cada equipo, organización, aula y hogar".
* Con información de AFP.
¡Conéctate con la Voz de América! Suscríbete a nuestro canal de YouTube y activa las notificaciones, o bien, síguenos en redes sociales: Facebook, Twitter e Instagram.