Las configuraciones que hacen que los teléfonos inteligentes sean más fáciles de usar para todos

Los teléfonos inteligentes se han vuelto gradualmente más útiles para personas con una variedad de capacidades físicas, gracias a herramientas como lectores de pantalla y tamaños de texto ajustables.

Con el reciente lanzamiento del software iOS 16 de Apple y Android 13 de Google, se han introducido o actualizado aún más funciones de accesibilidad, incluidas herramientas mejoradas de transcripción en vivo y aplicaciones que usan inteligencia artificial para identificar objetos. Cuando está habilitado, su teléfono puede enviarle una alerta visual cuando un bebé llora, por ejemplo, o una alerta de sonido cuando se acerca a una puerta.

Y muchas herramientas de accesibilidad, antiguas y nuevas, facilitan el uso del teléfono para todos. Aquí hay un recorrido.

En un teléfono basado en iOS o Android, abra la aplicación Configuración y seleccione Accesibilidad para encontrar todas las herramientas y funciones disponibles. Tómese el tiempo para explorar y experimentar.

Para una referencia completa, los sitios web de Apple y Google tienen secciones de Accesibilidad dedicadas, pero tenga en cuenta que sus características exactas variarán según la versión de su software y el modelo de teléfono.

Deslizar y tocar con la mano para navegar por las funciones de un teléfono no funciona para todos, pero iOS y Android ofrecen varias formas de moverse por las pantallas y los menús, incluidos atajos de toque rápido y gestos para realizar tareas.

Estos controles (como las herramientas Assistive Touch de Apple y su función Back Tap, que completa las acciones asignadas cuando tocas la parte posterior del teléfono) se encuentran en la configuración de iOS Touch.

Los accesos directos de accesibilidad de Android ofrecen opciones similares. Una forma de acceder a estos es abriendo el ícono principal de Configuración, seleccionando Sistema, luego Gestos y Navegación del sistema.

Ambas plataformas admiten la navegación a través de dispositivos adaptables de terceros, como controladores Bluetooth, o mediante el uso de la cámara para reconocer expresiones faciales asignadas a acciones, como mirar a la izquierda para deslizar el dedo hacia la izquierda. Estos dispositivos y acciones se pueden configurar en la configuración de control de interruptores y seguimiento de cabeza de iOS, o en las aplicaciones de interruptores de cámara y activación de proyectos de Google para Android.

Apple y Google brindan varias herramientas para aquellos que no pueden ver la pantalla. El software iOS de Apple ofrece la función VoiceOver, y Android tiene una herramienta similar llamada TalkBack, que proporciona descripciones de audio de lo que hay en la pantalla (como el nivel de la batería) a medida que mueve el dedo.

Activar la opción Control de voz de iOS o Acceso de voz de Android le permite controlar el teléfono con comandos hablados. Habilitar el contenido hablado de iOS o la configuración Seleccionar para hablar de Android hace que el teléfono lea en voz alta lo que hay en la pantalla, y puede ser útil para la revisión basada en audio.

No olvide algunos métodos clásicos de interacción manos libres con su teléfono. Siri de Apple y el Asistente de Google pueden abrir aplicaciones y realizar acciones con comandos hablados. Y la función de dictado de Apple (en la configuración del teclado de iOS) y la función de escritura por voz de Google le permiten escribir texto hablando.

En sus configuraciones de Accesibilidad, iOS y Android incluyen accesos directos para acercar secciones de la pantalla del teléfono. Pero si, en general, desea un texto más grande y en negrita y otros ajustes de visualización, abra el ícono Configuración, elija Accesibilidad y seleccione Pantalla y tamaño de texto. En Android, vaya a Configuración, luego a Accesibilidad y elija Tamaño de pantalla y Texto.

La aplicación Magnifier, la lupa digital de Apple para ampliar objetos en la vista de la cámara, se actualizó en iOS 16. Las nuevas funciones de la aplicación están diseñadas para ayudar a las personas ciegas o con problemas de visión a usar sus iPhones para detectar puertas y personas cercanas. como para identificar y describir objetos y su entorno.

La aplicación de visión asistida Lookout recientemente actualizada de Google (una descarga gratuita en Play Store) puede identificar moneda, texto, etiquetas de alimentos, objetos y más. Google presentó Lookout en 2018 y funciona en Android 6 y versiones posteriores.

Ambas plataformas ofrecen controles para amplificar el habla a tu alrededor a través de tus auriculares. En iOS, vaya a la sección Audio/Visual para adaptaciones de auriculares, en Android, visite la configuración de Amplificador de sonido.

Con la actualización de iOS 16, Apple incluye Live Captions, una función de transcripción en tiempo real que convierte el diálogo audible a tu alrededor en texto en pantalla. La caja de herramientas de accesibilidad de Android incluye la configuración Live Caption que subtitula automáticamente videos, podcasts, videollamadas y otros medios de audio que se reproducen en su teléfono.