La FTC advierte a las empresas de tecnología contra los engaños de la IA que dañan a los consumidores


Desde su creación en 1914, la Comisión Federal de Comercio de EE. UU. se ha mantenido como un baluarte contra el fraude, el engaño y los tratos turbios a los que se enfrentan los consumidores estadounidenses todos los días: multar a las marcas que «secuestran las revisiones» de los listados de Amazon, lo que facilita la cancelación de suscripciones a revistas y bloqueando la orientación de anuncios explotadores. El lunes, Michael Atleson, abogado de la División de Prácticas Publicitarias de la FTC, expuso tanto el razonamiento de la comisión sobre cómo los sistemas generativos de IA emergentes como ChatGPT, Dall-E 2 podrían usarse para violar el espíritu de injusticia de la Ley de la FTC, y lo que haría. a las empresas que se encuentran en violación.

«Según la Ley de la FTC, una práctica es injusta si causa más daño que bien», dijo Atleson. «Es injusto si causa o es probable que cause un daño sustancial a los consumidores que los consumidores no puedan evitar razonablemente y que no sea superado por los beneficios compensatorios para los consumidores o la competencia».

Señala que la nueva generación de chatbots como Bing, Bard y ChatGPT se puede utilizar para influir en las «creencias, emociones y comportamiento» del usuario. Ya los hemos visto empleados como negociadores dentro de la red de suministro de Walmart y como terapeutas de conversación, ambas ocupaciones específicamente orientadas a influir en quienes lo rodean. Cuando se combina con los efectos comunes del sesgo de automatización, en el que los usuarios aceptan más fácilmente la palabra de un sistema de IA presumiblemente imparcial y el antropomorfismo. «Fácilmente se podría hacer pensar a las personas que están conversando con algo que las entiende y que está de su lado», argumentó Atleson.

Admite que los problemas relacionados con la tecnología de IA generativa van mucho más allá del ámbito inmediato de la FTC, pero reitera que no tolerará que empresas sin escrúpulos la utilicen para aprovecharse de los consumidores. «Las empresas que están pensando en usos novedosos de la IA generativa, como la personalización de anuncios para personas o grupos específicos», advirtió el abogado de la FTC, «deben saber que los elementos de diseño que engañan a las personas para que tomen decisiones dañinas son un elemento común en los casos de la FTC, como los recientes acciones relacionadas con ofertas financieras, compras en el juego e intentos de cancelar servicios».

Las medidas de seguridad de la FTC también se aplican a la colocación de anuncios dentro de una aplicación de IA generativa, de forma similar a como Google inserta anuncios en sus resultados de búsqueda. «La gente debería saber si la respuesta de un producto de IA los dirige a un sitio web, proveedor de servicios o producto en particular debido a una relación comercial», escribió Atleson. «Y, ciertamente, la gente debería saber si se está comunicando con una persona real o con una máquina».

Finalmente, Atleson lanzó una advertencia poco sutil a la industria tecnológica. «Dadas estas muchas preocupaciones sobre el uso de nuevas herramientas de IA, tal vez no sea el mejor momento para que las empresas las construyan o implementen para eliminar o despedir al personal dedicado a la ética y la responsabilidad de la IA y la ingeniería», escribió. «Si la FTC llama y quiere convencernos de que evaluó adecuadamente los riesgos y mitigó los daños, es posible que estas reducciones no sean una buena idea». Esa es una lección que Twitter ya aprendió por las malas.

Todos los productos recomendados por Engadget son seleccionados por nuestro equipo editorial, independiente de nuestra empresa matriz. Algunas de nuestras historias incluyen enlaces de afiliados. Si compra algo a través de uno de estos enlaces, podemos ganar una comisión de afiliado. Todos los precios son correctos en el momento de la publicación.



Source link-47