{"id":1092718,"date":"2024-04-16T13:06:14","date_gmt":"2024-04-16T13:06:14","guid":{"rendered":"https:\/\/magazineoffice.com\/la-junta-de-supervision-de-meta-investiga-imagenes-explicitas-generadas-por-ia-publicadas-en-instagram-y-facebook\/"},"modified":"2024-04-16T13:06:17","modified_gmt":"2024-04-16T13:06:17","slug":"la-junta-de-supervision-de-meta-investiga-imagenes-explicitas-generadas-por-ia-publicadas-en-instagram-y-facebook","status":"publish","type":"post","link":"https:\/\/magazineoffice.com\/la-junta-de-supervision-de-meta-investiga-imagenes-explicitas-generadas-por-ia-publicadas-en-instagram-y-facebook\/","title":{"rendered":"La Junta de Supervisi\u00f3n de Meta investiga im\u00e1genes expl\u00edcitas generadas por IA publicadas en Instagram y Facebook"},"content":{"rendered":"


\n<\/p>\n

\n

La Junta de Supervisi\u00f3n, el consejo pol\u00edtico semiindependiente de Meta, est\u00e1 centrando su atenci\u00f3n en c\u00f3mo las plataformas sociales de la compa\u00f1\u00eda manejan im\u00e1genes expl\u00edcitas generadas por IA. El martes, anunci\u00f3 investigaciones sobre dos casos separados sobre c\u00f3mo Instagram en India y Facebook en Estados Unidos manejaron im\u00e1genes de figuras p\u00fablicas generadas por IA despu\u00e9s de que los sistemas de Meta no lograron detectar y responder al contenido expl\u00edcito.<\/p>\n

En ambos casos, los sitios ahora han eliminado a los medios. La junta no nombra a las personas a las que se dirigen las im\u00e1genes de IA \u00abpara evitar el acoso por motivos de g\u00e9nero\u00bb, seg\u00fan un correo electr\u00f3nico que Meta envi\u00f3 a TechCrunch.<\/p>\n

La junta se ocupa de casos sobre las decisiones de moderaci\u00f3n de Meta. Los usuarios primero deben apelar a Meta sobre una medida de moderaci\u00f3n antes de acercarse a la Junta de Supervisi\u00f3n. La junta publicar\u00e1 sus hallazgos y conclusiones completos en el futuro.<\/p>\n

Los casos<\/h2>\n

Al describir el primer caso, la junta dijo que un usuario denunci\u00f3 como pornograf\u00eda un desnudo generado por IA de una figura p\u00fablica de la India en Instagram. La imagen fue publicada por una cuenta que publica exclusivamente im\u00e1genes de mujeres indias creadas por IA, y la mayor\u00eda de los usuarios que reaccionan a estas im\u00e1genes residen en la India.<\/p>\n

Meta no pudo eliminar la imagen despu\u00e9s del primer informe y el ticket del informe se cerr\u00f3 autom\u00e1ticamente despu\u00e9s de 48 horas despu\u00e9s de que la empresa no revis\u00f3 m\u00e1s el informe. Cuando el denunciante original apel\u00f3 la decisi\u00f3n, el informe se cerr\u00f3 nuevamente autom\u00e1ticamente sin ninguna supervisi\u00f3n por parte de Meta. En otras palabras, despu\u00e9s de dos informes, la imagen expl\u00edcita generada por IA permaneci\u00f3 en Instagram.<\/p>\n

Finalmente, el usuario apel\u00f3 ante la junta. La empresa solo actu\u00f3 en ese momento para eliminar el contenido objetable y elimin\u00f3 la imagen por violar los est\u00e1ndares comunitarios sobre intimidaci\u00f3n y acoso.<\/p>\n

El segundo caso se relaciona con Facebook, donde un usuario public\u00f3 una imagen expl\u00edcita generada por IA que se parec\u00eda a una figura p\u00fablica estadounidense en un grupo centrado en creaciones de IA. En este caso, la red social elimin\u00f3 la imagen tal como fue publicada anteriormente por otro usuario, y Meta la agreg\u00f3 a un banco de servicios de coincidencia de medios en la categor\u00eda \u00abphotoshop o dibujos sexualizados despectivos\u00bb.<\/p>\n

Cuando TechCrunch pregunt\u00f3 por qu\u00e9 la junta seleccion\u00f3 un caso en el que la compa\u00f1\u00eda elimin\u00f3 con \u00e9xito una imagen expl\u00edcita generada por IA, la junta dijo que selecciona casos \u00abque son emblem\u00e1ticos de problemas m\u00e1s amplios en las plataformas de Meta\u00bb. Agreg\u00f3 que estos casos ayudan al consejo asesor a analizar la efectividad global de la pol\u00edtica y los procesos de Meta para diversos temas.<\/p>\n

\u201cSabemos que Meta es m\u00e1s r\u00e1pido y eficaz a la hora de moderar contenido en algunos mercados e idiomas que en otros. Al tomar un caso de Estados Unidos y otro de India, queremos ver si Meta est\u00e1 protegiendo a todas las mujeres a nivel mundial de manera justa\u201d, dijo en un comunicado la copresidenta de la Junta de Supervisi\u00f3n, Helle Thorning-Schmidt.<\/span><\/span><\/p>\n

\u00abLa Junta cree que es importante explorar si las pol\u00edticas y pr\u00e1cticas de cumplimiento de Meta son efectivas para abordar este problema\u00bb.<\/span><\/span><\/p>\n

El problema de la pornograf\u00eda profundamente falsa y la violencia de g\u00e9nero en l\u00ednea<\/h2>\n

Algunas herramientas de IA generativa (no todas) en los \u00faltimos a\u00f1os se han ampliado para permitir a los usuarios generar pornograf\u00eda. Como inform\u00f3 TechCrunch anteriormente, grupos como Unstable Diffusion est\u00e1n tratando de monetizar la pornograf\u00eda con IA con l\u00edneas \u00e9ticas turbias y sesgos en los datos.<\/p>\n

En regiones como India, los deepfakes tambi\u00e9n se han convertido en un motivo de preocupaci\u00f3n. El a\u00f1o pasado, un informe de la BBC se\u00f1al\u00f3 que la cantidad de v\u00eddeos deepfake de actrices indias se ha disparado en los \u00faltimos tiempos. Los datos sugieren que las mujeres son m\u00e1s com\u00fanmente objeto de videos deepfaked.<\/p>\n

A principios de este a\u00f1o, el viceministro de TI, Rajeev Chandrasekhar, expres\u00f3 su descontento con el enfoque de las empresas de tecnolog\u00eda para contrarrestar los deepfakes.<\/p>\n

\u00abSi una plataforma cree que puede salirse con la suya sin eliminar videos deepfake, o simplemente mantener un enfoque informal, tenemos el poder de proteger a nuestros ciudadanos bloqueando dichas plataformas\u00bb, dijo Chandrasekhar en una conferencia de prensa en ese momento.<\/p>\n

Si bien India ha reflexionado sobre la posibilidad de incorporar a la ley normas espec\u00edficas relacionadas con los deepfakes, todav\u00eda no hay nada escrito.<\/p>\n

Si bien en el pa\u00eds existen disposiciones legales para denunciar la violencia de g\u00e9nero en l\u00ednea, los expertos se\u00f1alan que el proceso podr\u00eda ser tedioso y, a menudo, hay poco apoyo. En un estudio publicado el a\u00f1o pasado, el grupo de defensa indio IT for Change se\u00f1al\u00f3 que los tribunales de la India deben contar con procesos s\u00f3lidos para abordar la violencia de g\u00e9nero en l\u00ednea y no trivializar estos casos.<\/p>\n

Aparajita Bharti, cofundadora de The Quantum Hub, una firma consultora de pol\u00edticas p\u00fablicas con sede en India, dijo que deber\u00eda haber l\u00edmites a los modelos de IA para evitar que creen contenido expl\u00edcito que cause da\u00f1o.<\/p>\n

\u201cEl principal riesgo de la IA generativa es que el volumen de dicho contenido aumente porque es f\u00e1cil de generar y con un alto grado de sofisticaci\u00f3n. Por lo tanto, primero debemos evitar la creaci\u00f3n de dicho contenido entrenando modelos de IA para limitar la producci\u00f3n en caso de que la intenci\u00f3n de da\u00f1ar a alguien ya est\u00e9 clara. Tambi\u00e9n deber\u00edamos introducir etiquetas predeterminadas para una f\u00e1cil detecci\u00f3n\u201d, dijo Bharti a TechCrunch por correo electr\u00f3nico.<\/p>\n

Devika Malik, experta en pol\u00edticas de plataformas que anteriormente trabaj\u00f3 en el equipo de pol\u00edticas de Meta en el sur de Asia, dijo que si bien las redes sociales tienen pol\u00edticas contra las im\u00e1genes \u00edntimas no consensuadas, su aplicaci\u00f3n depende en gran medida de los informes de los usuarios.<\/p>\n

\u201cEsto impone al usuario afectado una carga injusta de demostrar su identidad y la falta de consentimiento (como es el caso de la pol\u00edtica de Meta). Esto puede volverse m\u00e1s propenso a errores cuando se trata de medios sint\u00e9ticos y, por decirlo as\u00ed, el tiempo necesario para capturar y verificar estas se\u00f1ales externas permite que el contenido gane tracci\u00f3n da\u00f1ina\u201d, dijo Malik.<\/p>\n

Actualmente, solo existen unas pocas leyes a nivel mundial que abordan la producci\u00f3n y distribuci\u00f3n de pornograf\u00eda generada mediante herramientas de inteligencia artificial. Un pu\u00f1ado de estados de EE. UU. tienen leyes contra los deepfakes. El Reino Unido introdujo esta semana una ley para penalizar la creaci\u00f3n de im\u00e1genes sexualmente expl\u00edcitas impulsadas por IA.<\/p>\n

La respuesta de Meta y los pr\u00f3ximos pasos.<\/h2>\n

En respuesta a los casos de la Junta de Supervisi\u00f3n, Meta dijo que elimin\u00f3 ambos contenidos. Sin embargo, la compa\u00f1\u00eda de redes sociales no abord\u00f3 el hecho de que no pudo eliminar contenido en Instagram despu\u00e9s de los informes iniciales de los usuarios o durante cu\u00e1nto tiempo estuvo el contenido en la plataforma.<\/p>\n

Meta dijo que utiliza una combinaci\u00f3n de inteligencia artificial y revisi\u00f3n humana para detectar contenido sexualmente sugerente. El gigante de las redes sociales dijo que no recomienda este tipo de contenido en lugares como Instagram Explore o recomendaciones de Reels.<\/p>\n

La Junta de Supervisi\u00f3n ha solicitado comentarios p\u00fablicos (con fecha l\u00edmite el 30 de abril) sobre el asunto que aborda los da\u00f1os causados \u200b\u200bpor la pornograf\u00eda ultrafalsa, informaci\u00f3n contextual sobre la proliferaci\u00f3n de dicho contenido en regiones como Estados Unidos e India, y posibles dificultades del enfoque de Meta para detectar Im\u00e1genes expl\u00edcitas generadas por IA.<\/p>\n

La junta investigar\u00e1 los casos y los comentarios p\u00fablicos y publicar\u00e1 la decisi\u00f3n en el sitio en unas semanas.<\/p>\n

Estos casos indican que las grandes plataformas todav\u00eda est\u00e1n lidiando con procesos de moderaci\u00f3n m\u00e1s antiguos, mientras que las herramientas impulsadas por IA han permitido a los usuarios crear y distribuir diferentes tipos de contenido de forma r\u00e1pida y sencilla. Empresas como Meta est\u00e1n experimentando con herramientas que utilizan IA para la generaci\u00f3n de contenido, con algunos esfuerzos para detectar dichas im\u00e1genes. En abril, la compa\u00f1\u00eda anunci\u00f3 que aplicar\u00eda insignias \u00abHecho con IA\u00bb a los deepfakes si pudiera detectar el contenido utilizando \u00abindicadores de im\u00e1genes de IA est\u00e1ndar de la industria\u00bb o divulgaciones de los usuarios.<\/p>\n

Malik, experto en pol\u00edticas de plataformas, dijo que el etiquetado suele ser ineficiente porque el sistema para detectar im\u00e1genes generadas por IA a\u00fan no es confiable.<\/p>\n

\u201cSe ha demostrado que el etiquetado tiene un impacto limitado cuando se trata de limitar la distribuci\u00f3n de contenido da\u00f1ino. Si recordamos el caso de las im\u00e1genes de Taylor Swift generadas por IA, millones de usuarios fueron dirigidos a esas im\u00e1genes a trav\u00e9s del tema de tendencia de X, ‘Taylor Swift AI’. Entonces, la gente y la plataforma sab\u00edan que el contenido no era aut\u00e9ntico y aun as\u00ed estaba amplificado algor\u00edtmicamente\u201d, se\u00f1al\u00f3 Malik.<\/p>\n

Sin embargo, los perpetradores encuentran constantemente formas de escapar de estos sistemas de detecci\u00f3n y publicar contenido problem\u00e1tico en las plataformas sociales.<\/p>\n<\/p><\/div>\n


\n
Source link-48<\/a><\/p>\n","protected":false},"excerpt":{"rendered":"

La Junta de Supervisi\u00f3n, el consejo pol\u00edtico semiindependiente de Meta, est\u00e1 centrando su atenci\u00f3n en c\u00f3mo las plataformas sociales de la compa\u00f1\u00eda manejan im\u00e1genes expl\u00edcitas generadas por IA. El martes,…<\/p>\n","protected":false},"author":1,"featured_media":1092719,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[21980],"tags":[59142,1967,19357,666,5147,12602,4171,9842,110,27543,14391],"_links":{"self":[{"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/posts\/1092718"}],"collection":[{"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/comments?post=1092718"}],"version-history":[{"count":1,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/posts\/1092718\/revisions"}],"predecessor-version":[{"id":1092720,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/posts\/1092718\/revisions\/1092720"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/media\/1092719"}],"wp:attachment":[{"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/media?parent=1092718"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/categories?post=1092718"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/tags?post=1092718"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}