La tecnología de clonación de voz llega al iPhone y al iPad para ayudar a las personas con discapacidades a hablar


Aunque el software de clonación de voz ya ha hecho sonar las alarmas sobre su posible uso indebido, Apple está aprovechando la tecnología para ayudar a hablar a las personas con discapacidades.

La compañía hoy anticipó(Se abre en una nueva ventana) su función «Personal Voice», que llegará a través de una colección de nuevas mejoras de accesibilidad a finales de este año para el iPhone y el iPad.

“Aquellos en riesgo de perder su capacidad de hablar pueden usar Personal Voice para crear una voz sintetizada que suene como ellos para conectarse con familiares y amigos”, dice Apple.

La función podría ser útil para las personas que padecen afecciones como la esclerosis lateral amiotrófica (ELA) o la enfermedad de Lou Gehrig, que pueden romper las células nerviosas e impedir que alguien hable con su voz normal.

Cómo funciona Personal Voice.

(Crédito: Apple)

El sistema de Apple requiere que las personas graben 15 minutos de audio en un iPhone o iPad, que debería ser suficiente audio para clonar su voz. A partir de ahí, el usuario puede escribir lo que quiere decir y el hardware de Apple lo leerá en voz alta en su voz sintetizada.

“Esta función de accesibilidad de voz utiliza el aprendizaje automático en el dispositivo para mantener la información de los usuarios privada y segura”, agrega Apple. Por lo tanto, la voz clonada vivirá en el teléfono del usuario y en ningún otro lugar, evitando que otros accedan a ella.

La función parece similar a la función de clonación de voz de Samsung, que se lanzó en ciertos teléfonos Galaxy en Corea. Pero en el caso de Samsung, la compañía está aplicando la tecnología de clonación de voz para los consumidores cuando están en un área ruidosa o necesitan permanecer en silencio. Apple, por otro lado, ha desarrollado Personal Voice como una función de accesibilidad.

Recomendado por Nuestros Editores

Para las personas que no pueden hablar, Apple creó una función llamada Live Speech. “Los usuarios pueden escribir lo que quieren decir para que se diga en voz alta durante las llamadas telefónicas y de FaceTime, así como en las conversaciones en persona”, dice Apple.

Discurso en vivo

Discurso en vivo (Crédito: Apple)

Se espera que la empresa lance las funciones de accesibilidad en iOS 17, que probablemente se anunciarán en la WWDC a principios de junio y se lanzarán en septiembre. Otra mejora incluye una interfaz revisada de iPhone/iPad llamada «Acceso asistido», que está diseñada para usuarios con discapacidades cognitivas.

“La función ofrece una interfaz distintiva con botones de alto contraste y etiquetas de texto grandes, así como herramientas para ayudar a los colaboradores de confianza a personalizar la experiencia para la persona a la que apoyan”, dice Apple.

Interfaz de acceso asistido

Interfaz de acceso asistido (Crédito: Apple)

¿Fanático de Apple?

Suscríbete a nuestro Resumen semanal de Apple para recibir las últimas noticias, reseñas, consejos y más directamente en su bandeja de entrada.

Este boletín puede contener publicidad, ofertas o enlaces de afiliados. Suscribirse a un boletín informativo indica su consentimiento a nuestros Términos de uso y Política de privacidad. Puede darse de baja de los boletines en cualquier momento.





Source link-38