Apple agrega subtítulos en vivo en todo el sistema como parte de una actualización de accesibilidad más amplia
El Día Mundial de Concientización sobre la Accesibilidad es este jueves (19 de mayo) y Apple, como muchas otras compañías, anuncia actualizaciones de soporte en honor a la ocasión. La compañía está trayendo nuevas funciones para iPhone, iPad, Mac y Apple Watch, y lo más intrigante de todo son los subtítulos en vivo en todo el sistema.
Similar a Implementación de Google en Android, Live Captions de Apple transcribirá el audio que se reproduce en tu iPhone, iPad o Mac en tiempo real, mostrando los subtítulos en la pantalla. También subtitulará el audio a tu alrededor, para que puedas usarlo para seguir conversaciones en el mundo real. Podrá ajustar el tamaño y la posición del área de subtítulos y también elegir diferentes tamaños de fuente para las palabras. La transcripción también se genera en el dispositivo. Pero a diferencia de Android, los subtítulos en vivo en las llamadas de FaceTime también distinguirán claramente entre los oradores, usando íconos y nombres para atribuir lo que se dice. Además, aquellos que usen Mac podrán escribir una respuesta y hacer que se exprese en voz alta en tiempo real para otros participantes en la conversación. Los subtítulos en vivo estarán disponibles en versión beta en inglés para aquellos en los EE. UU. y Canadá.
Apple también está actualizando su herramienta de reconocimiento de sonido existente, que permite que los iPhone escuchen constantemente ruidos como alarmas, sirenas, timbres o bebés llorando. Con una próxima actualización, los usuarios podrán entrenar sus iPhones o iPads para escuchar sonidos personalizados, como la canción «I’m done» de su lavadora o el graznido de su pato, tal vez. Una nueva característica llamada Siri Pause Time también te permitirá extender el tiempo de espera del asistente cuando respondas o pidas algo, para que puedas tomarte tu tiempo para terminar de decir lo que necesitas.
La compañía está actualizando su aplicación Magnifier, que ayuda a las personas con discapacidad visual a interactuar mejor con las personas y los objetos que los rodean. Extender sobre un anterior Herramienta de detección de personas que les decía a los usuarios qué tan lejos estaban los demás a su alrededor, Apple está agregando una nueva función de detección de puertas. Esto utilizará el LiDAR y la cámara del iPhone no solo para ubicar e identificar puertas, sino también para leer el texto o los símbolos que se muestran, como las horas de operación y los letreros que representan baños o entradas accesibles. Además, describirá las manijas, ya sea para empujar, tirar o girar una perilla, así como el color, la forma, el material de la puerta y si está cerrada o abierta. Juntos, la detección de personas y puertas formarán parte del nuevo modo de detección de lupa.
Las actualizaciones también están llegando a Apple Watch. El año pasado, la empresa lanzó Contacto de soporte, que permitió a las personas interactuar con el dispositivo portátil sin tocar la pantalla. El reloj detectaría si la mano en la que se encuentra cerró el puño o si el usuario tocó el dedo índice y el pulgar juntos para una acción de «pellizco». Con una próxima actualización de software, debería ser más rápido y fácil habilitar Acciones rápidas en Assistive Touch, que luego le permitiría usar gestos como el doble pellizco para responder o finalizar llamadas, tomar fotos, comenzar un entrenamiento o pausar la reproducción de medios.
Pero Assistive Touch no es un método que todos puedan usar. Para las personas con discapacidades físicas o motoras que les impiden utilizar completamente los gestos con las manos, la compañía ofrece una forma de control por voz y cambia a su reloj inteligente. La función se llama Apple Watch Mirroring y utiliza hardware y software, incluido AirPlay, para transferir la voz preestablecida de un usuario o cambiar las preferencias de control de, por ejemplo, su iPhone al dispositivo portátil. Esto les permitiría usar el seguimiento de la cabeza, las acciones de sonido y los interruptores Made For iPhone para interactuar con su Apple Watch.
Apple está agregando más opciones de personalización a la aplicación Libros, lo que permite a los usuarios aplicar nuevos temas y cambiar la altura de las líneas, el espaciado entre palabras y caracteres, y más. Su lector de pantalla VoiceOver también estará disponible pronto en más de 20 nuevos idiomas y regiones, incluidos bengalí, búlgaro, catalán, ucraniano y vietnamita. También se agregarán docenas de nuevas voces, al igual que un modo de ortografía de control de voz que le permite dictar ortografías personalizadas utilizando la entrada letra por letra.
Finalmente, la compañía está lanzando una nueva función llamada Buddy Controller que permitirá a los usuarios usar dos controladores para conducir a un solo jugador, lo que sería útil para los usuarios con discapacidades que desean asociarse con sus proveedores de atención. Buddy Controller funcionará con controladores de juegos compatibles para iPhone, iPad, Mac y Apple TV. Están llegando muchas más actualizaciones al ecosistema de Apple, incluidos los intérpretes de lenguaje de señas estadounidense a pedido que se expanden a Apple Store y brindan soporte en Canadá, y una nueva guía en Mapas, listas de reproducción seleccionadas en Apple TV y Música, y la adición del Asistente de accesibilidad. a la aplicación Atajos en Mac y Watch. Las funciones que se han presentado hoy estarán disponibles a finales de este año.