{"id":549800,"date":"2023-04-01T14:01:06","date_gmt":"2023-04-01T14:01:06","guid":{"rendered":"https:\/\/magazineoffice.com\/los-especialistas-en-etica-responden-a-la-carta-de-pausa-de-ia-que-dicen-que-ignora-los-danos-reales\/"},"modified":"2023-04-01T14:01:10","modified_gmt":"2023-04-01T14:01:10","slug":"los-especialistas-en-etica-responden-a-la-carta-de-pausa-de-ia-que-dicen-que-ignora-los-danos-reales","status":"publish","type":"post","link":"https:\/\/magazineoffice.com\/los-especialistas-en-etica-responden-a-la-carta-de-pausa-de-ia-que-dicen-que-ignora-los-danos-reales\/","title":{"rendered":"Los especialistas en \u00e9tica responden a la carta de ‘Pausa de IA’ que dicen que ‘ignora los da\u00f1os reales’"},"content":{"rendered":"


\n<\/p>\n

\n

Un grupo de conocidos expertos en \u00e9tica de la IA ha escrito un contrapunto a la controvertida carta de esta semana pidiendo una \u00abpausa\u00bb de seis meses en el desarrollo de la IA, critic\u00e1ndola por centrarse en amenazas hipot\u00e9ticas futuras cuando los da\u00f1os reales son atribuibles al mal uso de la tecnolog\u00eda hoy. .<\/p>\n

Miles de personas, incluidos nombres tan familiares como Steve Wozniak y Elon Musk, firmaron la carta abierta del instituto Future of Life a principios de esta semana, proponiendo que el desarrollo de modelos de IA como GPT-4 deber\u00eda suspenderse para evitar \u00abp\u00e9rdida\u00bb. de control de nuestra civilizaci\u00f3n\u201d, entre otras amenazas.<\/p>\n

Timnit Gebru, Emily M. Bender, Angelina McMillan-Major y Margaret Mitchell son figuras importantes en los dominios de la IA y la \u00e9tica, conocidas (adem\u00e1s de por su trabajo) por haber sido expulsadas de Google por un art\u00edculo que criticaba las capacidades de la IA. Actualmente est\u00e1n trabajando juntos en el Instituto DAIR, un nuevo equipo de investigaci\u00f3n destinado a estudiar, exponer y prevenir los da\u00f1os asociados con la IA.<\/p>\n

Pero no se encontraban en la lista de signatarios, y ahora han publicado una reprimenda que denuncia que la carta no aborda los problemas existentes causados \u200b\u200bpor la tecnolog\u00eda.<\/p>\n

\u201cEsos riesgos hipot\u00e9ticos son el foco de una ideolog\u00eda peligrosa llamada largoplacismo que ignora los da\u00f1os reales que resultan del despliegue de los sistemas de IA hoy\u201d, escribieron, citando la explotaci\u00f3n de los trabajadores, el robo de datos, los medios sint\u00e9ticos que apuntalan las estructuras de poder existentes y la mayor concentraci\u00f3n. de esas estructuras de poder en menos manos.<\/p>\n

La elecci\u00f3n de preocuparse por un apocalipsis de robot tipo Terminator o Matrix es una pista falsa cuando tenemos, en el mismo momento, informes de compa\u00f1\u00edas como Clearview AI que la polic\u00eda est\u00e1 utilizando para incriminar a un hombre inocente. No es necesario un T-1000 cuando tiene c\u00e1maras Ring en todas las puertas de entrada accesibles a trav\u00e9s de f\u00e1bricas de garant\u00edas con sellos de goma en l\u00ednea.<\/p>\n

Si bien el equipo de DAIR est\u00e1 de acuerdo con algunos de los objetivos de la carta, como identificar los medios sint\u00e9ticos, enfatizan que se deben tomar medidas ahora, sobre los problemas de hoy, con los remedios que tenemos disponibles:<\/p>\n

\n

Lo que necesitamos es una regulaci\u00f3n que imponga la transparencia. No solo siempre debe quedar claro cuando nos encontramos con medios sint\u00e9ticos, sino que tambi\u00e9n se debe exigir a las organizaciones que construyen estos sistemas que documenten y divulguen los datos de capacitaci\u00f3n y las arquitecturas modelo. La responsabilidad de crear herramientas que sean seguras de usar debe recaer en las empresas que construyen e implementan sistemas generativos, lo que significa que los desarrolladores de estos sistemas deben ser responsables de los resultados producidos por sus productos.<\/p>\n

La carrera actual hacia \u00abexperimentos de IA\u00bb cada vez m\u00e1s grandes no es un camino predeterminado en el que nuestra \u00fanica opci\u00f3n es qu\u00e9 tan r\u00e1pido correr, sino m\u00e1s bien un conjunto de decisiones impulsadas por el af\u00e1n de lucro. Las acciones y elecciones de las corporaciones deben estar determinadas por una regulaci\u00f3n que proteja los derechos e intereses de las personas.<\/p>\n

De hecho, es hora de actuar: pero el foco de nuestra preocupaci\u00f3n no debe ser imaginarias \u00abmentes digitales poderosas\u00bb. En cambio, deber\u00edamos centrarnos en las pr\u00e1cticas explotadoras muy reales y muy presentes de las empresas que afirman construirlas, que est\u00e1n centralizando r\u00e1pidamente el poder y aumentando las desigualdades sociales.<\/p>\n<\/blockquote>\n

Por cierto, esta carta hace eco de un sentimiento que escuch\u00e9 de la fundadora de Uncharted Power, Jessica Matthews, en el evento AfroTech de ayer en Seattle: \u201cNo debes tener miedo de la IA. Deber\u00edas tener miedo de las personas que lo construyen\u201d. (Su soluci\u00f3n: convertirse en las personas que lo construyen).<\/p>\n

Si bien es extremadamente improbable que alguna empresa importante acepte detener sus esfuerzos de investigaci\u00f3n de acuerdo con la carta abierta, est\u00e1 claro, a juzgar por el compromiso que recibi\u00f3, que los riesgos (reales e hipot\u00e9ticos) de la IA son motivo de gran preocupaci\u00f3n en muchos segmentos de la industria. sociedad. Pero si no lo hacen, quiz\u00e1s alguien tenga que hacerlo por ellos.<\/p>\n<\/p><\/div>\n


\n
Source link-48<\/a><\/p>\n","protected":false},"excerpt":{"rendered":"

Un grupo de conocidos expertos en \u00e9tica de la IA ha escrito un contrapunto a la controvertida carta de esta semana pidiendo una \u00abpausa\u00bb de seis meses en el desarrollo…<\/p>\n","protected":false},"author":1,"featured_media":549801,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[21980],"tags":[5359,3625,376,7947,12702,38886,8,5352,595,11562],"_links":{"self":[{"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/posts\/549800"}],"collection":[{"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/comments?post=549800"}],"version-history":[{"count":1,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/posts\/549800\/revisions"}],"predecessor-version":[{"id":549802,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/posts\/549800\/revisions\/549802"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/media\/549801"}],"wp:attachment":[{"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/media?parent=549800"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/categories?post=549800"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/tags?post=549800"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}