(se abre en una pesta\u00f1a nueva)<\/span><\/p>\nElevenLabs afirma que \u00absiempre tuvo la capacidad de rastrear cualquier clip de audio generado hasta un usuario espec\u00edfico\u00bb. La pr\u00f3xima semana lanzar\u00e1 una herramienta que permitir\u00e1 a cualquier persona confirmar que se gener\u00f3 un clip usando su tecnolog\u00eda y reportarlo.<\/p>\n
La compa\u00f1\u00eda dice que el contenido malicioso fue creado por \u00abcuentas an\u00f3nimas gratuitas\u00bb, por lo que agregar\u00e1 una nueva capa de verificaci\u00f3n de identidad. Voice Lab estar\u00e1 disponible solo en niveles pagos y eliminar\u00e1 inmediatamente la versi\u00f3n gratuita de su sitio. ElevenLabs actualmente est\u00e1 rastreando y prohibiendo cualquier cuenta que cree contenido da\u00f1ino en violaci\u00f3n de sus pol\u00edticas.<\/p>\n
ElevenLabs admite que poner la tecnolog\u00eda detr\u00e1s de un muro de pago \u00abno siempre evitar\u00e1 el abuso\u00bb, pero dice que \u00abhace que los usuarios de VoiceLab sean menos an\u00f3nimos y los obliga a pensar dos veces antes de compartir contenido inapropiado\u00bb.<\/p>\n
Pero, \u00bfqu\u00e9 pasa con el problema de las personas que usan voces de celebridades en lugar de las propias? ElevenLabs sugiri\u00f3 que los usuarios lean un mensaje de muestra para entrenar a la IA en su voz en lugar de cargar cualquier archivo de audio antiguo.<\/p>\n
Las cuentas gratuitas a\u00fan podr\u00e1n usar la funcionalidad de texto a voz, pero solo con acceso a voces prefabricadas. ElevenLabs dice que continuar\u00e1 monitoreando la situaci\u00f3n y que todas las cuentas afectadas recibir\u00e1n un reembolso.<\/p>\n
Justo esta semana, el director ejecutivo de OpenAI dijo que el mal uso de la IA podr\u00eda ser \u00abuna luz apagada para todos nosotros\u00bb. Pero en serio, \u00bfqu\u00e9 pens\u00f3 ElevenLabs que suceder\u00eda si le diera a Internet una herramienta que pudiera hacer que cualquier voz dijera algo? Vamos chicos.<\/p>\n<\/div>\n