{"id":850784,"date":"2023-10-22T07:36:20","date_gmt":"2023-10-22T07:36:20","guid":{"rendered":"https:\/\/magazineoffice.com\/esta-semana-en-ia-podemos-confiar-en-que-deepmind-sea-etico\/"},"modified":"2023-10-22T07:36:44","modified_gmt":"2023-10-22T07:36:44","slug":"esta-semana-en-ia-podemos-confiar-en-que-deepmind-sea-etico","status":"publish","type":"post","link":"https:\/\/magazineoffice.com\/esta-semana-en-ia-podemos-confiar-en-que-deepmind-sea-etico\/","title":{"rendered":"Esta semana en IA: \u00bfPodemos confiar en que DeepMind sea \u00e9tico?"},"content":{"rendered":"


\n<\/p>\n

\n

Mantenerse al d\u00eda con una industria que evoluciona tan r\u00e1pidamente como la IA es una tarea dif\u00edcil. Entonces, hasta que una IA pueda hacerlo por usted, aqu\u00ed hay un resumen \u00fatil de historias recientes en el mundo del aprendizaje autom\u00e1tico, junto con investigaciones y experimentos notables que no cubrimos por s\u00ed solos.<\/p>\n

Esta semana en IA, DeepMind, el laboratorio de investigaci\u00f3n y desarrollo de IA propiedad de Google, public\u00f3 un documento que propone un marco para evaluar los riesgos sociales y \u00e9ticos de los sistemas de IA.<\/p>\n

El momento en que se public\u00f3 el documento, que exige distintos niveles de participaci\u00f3n de los desarrolladores de IA, de aplicaciones y de \u201cpartes interesadas p\u00fablicas en general\u201d en la evaluaci\u00f3n y auditor\u00eda de la IA, no es accidental.<\/p>\n

La pr\u00f3xima semana se celebrar\u00e1 la Cumbre de Seguridad de la IA, un evento patrocinado por el gobierno del Reino Unido que reunir\u00e1 a gobiernos internacionales, empresas l\u00edderes en IA, grupos de la sociedad civil y expertos en investigaci\u00f3n para centrarse en la mejor manera de gestionar los riesgos de los avances m\u00e1s recientes en IA. incluida la IA generativa (por ejemplo, ChatGPT, difusi\u00f3n estable, etc.). All\u00ed, el Reino Unido planea introducir un grupo asesor global sobre IA inspirado en el Panel Intergubernamental sobre Cambio Clim\u00e1tico de la ONU, compuesto por un elenco rotativo de acad\u00e9micos que escribir\u00e1n informes peri\u00f3dicos sobre desarrollos de vanguardia en IA y sus peligros asociados.<\/p>\n

DeepMind est\u00e1 expresando su perspectiva, de manera muy visible, antes de las conversaciones pol\u00edticas sobre el terreno en la cumbre de dos d\u00edas. Y, para dar cr\u00e9dito a quien corresponde, el laboratorio de investigaci\u00f3n hace algunos puntos razonables (aunque obvios), como pedir enfoques para examinar los sistemas de IA en el \u00abpunto de interacci\u00f3n humana\u00bb y las formas en que estos sistemas podr\u00edan usarse y incrustado en la sociedad.<\/p>\n

\n

Gr\u00e1fico que muestra qu\u00e9 personas ser\u00edan mejores para evaluar qu\u00e9 aspectos de la IA.<\/p>\n<\/div>\n

Pero al sopesar las propuestas de DeepMind, resulta informativo observar la puntuaci\u00f3n de la empresa matriz del laboratorio, Google, en un estudio reciente publicado por investigadores de Stanford que clasifica diez modelos principales de IA seg\u00fan su apertura.<\/p>\n

Calificado seg\u00fan 100 criterios, incluido si su fabricante revel\u00f3 las fuentes de sus datos de entrenamiento, informaci\u00f3n sobre el hardware que utiliz\u00f3, el trabajo involucrado en el entrenamiento y otros detalles, PaLM 2, uno de los modelos insignia de inteligencia artificial de an\u00e1lisis de texto de Google, obtiene un miserable 40. %.<\/p>\n

Ahora bien, DeepMind no desarroll\u00f3 PaLM 2, al menos no directamente. Pero hist\u00f3ricamente el laboratorio no ha sido consistentemente transparente sobre sus propios modelos, y el hecho de que su empresa matriz no cumpla con las medidas clave de transparencia sugiere que no hay mucha presi\u00f3n de arriba hacia abajo para que DeepMind lo haga mejor.<\/p>\n

Por otro lado, adem\u00e1s de sus reflexiones p\u00fablicas sobre pol\u00edticas, DeepMind parece estar tomando medidas para cambiar la percepci\u00f3n de que guarda silencio sobre las arquitecturas y el funcionamiento interno de sus modelos. El laboratorio, junto con OpenAI y Anthropic, se comprometi\u00f3 hace varios meses a proporcionar al gobierno del Reino Unido \u201cacceso temprano o prioritario\u201d a sus modelos de IA para respaldar la investigaci\u00f3n sobre evaluaci\u00f3n y seguridad.<\/p>\n

La pregunta es: \u00bfes esto meramente performativo? Despu\u00e9s de todo, nadie acusar\u00eda a DeepMind de filantrop\u00eda: el laboratorio obtiene cientos de millones de d\u00f3lares en ingresos cada a\u00f1o, principalmente al otorgar licencias de su trabajo internamente a los equipos de Google.<\/p>\n

Quiz\u00e1s la pr\u00f3xima gran prueba \u00e9tica del laboratorio sea Gemini, su pr\u00f3ximo chatbot de IA, que el CEO de DeepMind, Demis Hassabis, ha prometido repetidamente que rivalizar\u00e1 con el ChatGPT de OpenAI en sus capacidades. Si DeepMind desea ser tomado en serio en el frente \u00e9tico de la IA, tendr\u00e1 que detallar completa y minuciosamente las debilidades y limitaciones de Gemini, no solo sus fortalezas. Sin duda estaremos observando de cerca para ver c\u00f3mo se desarrollan las cosas en los pr\u00f3ximos meses.<\/p>\n

Aqu\u00ed hay algunas otras historias destacadas de IA de los \u00faltimos d\u00edas:<\/p>\n