El siguiente artículo te ayudará: El iPhone podrá imitar tu voz con solo 15 minutos de entrenamiento
iOS 17 ya se mueve, se presentará en unas semanas y Apple ha comenzado a levantar el velo de novedades para los iPhone. Así, en un comunicado, la compañía de Cupertino presentó un conjunto de novedades pensadas para la accesibilidad cognitiva, visual, auditiva y de movilidad.
Accesibilidad para personas que han perdido la capacidad de hablar
De lo ya anunciado, la noticia incluye una nueva función de voz personal para personas que pueden perder la capacidad de hablarlo que les permite crear “una voz sintetizada que suena como ellos” para hablar con amigos o familiares.
En según manzana, los usuarios pueden crear una voz personal leyendo un conjunto de instrucciones de texto en voz alta, un total de 15 minutos de audio en su iPhone o iPad. Dado que la funcionalidad se integra con Live Speech, los usuarios pueden escribir lo que quieren decir y hacer que su Personal Voice se lo lea a quien quiera hablar.
Apple dice que la función utiliza “aprendizaje automático en el dispositivo para mantener la información del usuario privada y segura”.
Además, Apple está introduciendo versiones simplificadas de sus aplicaciones principales como parte de un función llamada Acceso asistido, diseñada para ayudar a los usuarios con deficiencias cognitivas. La función está diseñada para “refinar las aplicaciones y experiencias hasta su funcionalidad esencial para aliviar la carga cognitiva”.
Esto incluye una versión combinada de Teléfono y FaceTime, así como versiones modificadas de Mensajes, Cámara, Fotos y Música que incluyen botones de alto contraste, etiquetas de texto grandes y herramientas de accesibilidad adicionales.
Más características que vienen en iOS 17
Según se detectó, en una versión beta de iOS 16.2, Apple comenzó a trabajar en un “modo de accesibilidad personalizado”. Sin embargo, esta función aún no se ha lanzado. La compañía dijo que estas y otras características llegarán “a finales de este año”, lo que sugiere que podrían ser parte de iOS 17.
También hay un nuevo modo de detección en Lupa para ayudar a los usuarios ciegos o con problemas de visión, que está diseñado para ayudar a los usuarios a interactuar con objetos físicos con numerosas etiquetas de texto. Por ejemplo, Apple dice que un usuario puede apuntar la cámara de su dispositivo a una etiqueta, o al teclado de un dispositivo, que el iPhone o iPad leerá en voz alta cuando el usuario mueva el dedo sobre cada número o definición en el dispositivo.
Esta función aprovecha la alta definición de la cámara y utiliza el escáner LiDAR.
Apple también destacó una serie de otras características que llegarán a la Mac, incluida una forma para que los usuarios sordos o con problemas de audición puedan empareje sus dispositivos auditivos Hecho para iPhone trabajando con una Mac. La compañía también está agregando una forma más fácil de ajustar el tamaño del texto en Finder, Mensajes, Correo, Calendario y Notas en Mac.
Los usuarios también podrán pausar las imágenes GIF en Safari y Mensajes, personalizar la velocidad a la que Siri les habla y usar el control de voz para obtener sugerencias fonéticas al editar texto. Todo esto se basa en las funciones de accesibilidad existentes de Apple para Mac y iPhone, que incluyen subtítulos en vivo, un lector de pantalla VoiceOver, detección de puertos y más.