{"id":350755,"date":"2022-12-15T12:50:00","date_gmt":"2022-12-15T12:50:00","guid":{"rendered":"https:\/\/magazineoffice.com\/3-formas-de-domesticar-chatgpt\/"},"modified":"2022-12-15T12:50:02","modified_gmt":"2022-12-15T12:50:02","slug":"3-formas-de-domesticar-chatgpt","status":"publish","type":"post","link":"https:\/\/magazineoffice.com\/3-formas-de-domesticar-chatgpt\/","title":{"rendered":"3 formas de domesticar ChatGPT"},"content":{"rendered":"


\n<\/p>\n

\n

Este a\u00f1o, hemos<\/span> visto la introducci\u00f3n de poderosos sistemas generativos de inteligencia artificial que tienen la capacidad de crear im\u00e1genes y texto a pedido. <\/p>\n

Al mismo tiempo, los reguladores est\u00e1n en movimiento. Europa se encuentra en medio de la finalizaci\u00f3n de su regulaci\u00f3n de IA (la Ley de IA), cuyo objetivo es establecer reglas estrictas sobre los sistemas de IA de alto riesgo. Canad\u00e1, el Reino Unido, los EE. UU. y China han introducido sus propios enfoques para regular la IA de alto impacto. Pero la IA de prop\u00f3sito general parece ser una ocurrencia tard\u00eda en lugar del enfoque central. Cuando se propusieron las nuevas reglas regulatorias de Europa en abril de 2021, no hubo una sola menci\u00f3n de modelos fundamentales de prop\u00f3sito general, incluida la IA generativa. Apenas un a\u00f1o y medio despu\u00e9s, nuestra comprensi\u00f3n del futuro de la IA ha cambiado radicalmente. Una exenci\u00f3n injustificada de los modelos fundacionales actuales de estas propuestas convertir\u00eda las regulaciones de IA en tigres de papel que parecen poderosos pero no pueden proteger los derechos fundamentales.<\/p>\n

ChatGPT hizo el<\/span> Cambio de paradigma de IA tangible. Ahora, algunos modelos, como GPT-3, DALL-E, Stable Diffusion y AlphaCode, se est\u00e1n convirtiendo en la base de casi todos los sistemas basados \u200b\u200ben IA. Las nuevas empresas de IA pueden ajustar los par\u00e1metros de estos modelos fundamentales para adaptarse mejor a sus tareas espec\u00edficas. De esta manera, los modelos fundacionales pueden alimentar una gran cantidad de aplicaciones posteriores en varios campos, incluidos marketing, ventas, servicio al cliente, desarrollo de software, dise\u00f1o, juegos, educaci\u00f3n y leyes. <\/p>\n

Si bien los modelos fundamentales se pueden usar para crear aplicaciones y modelos comerciales novedosos, tambi\u00e9n pueden convertirse en una forma poderosa de difundir informaci\u00f3n err\u00f3nea, automatizar el correo no deseado de alta calidad, escribir malware y plagiar contenido e invenciones con derechos de autor. Se ha demostrado que los modelos fundacionales contienen sesgos y generan contenido estereotipado o prejuicioso. Estos modelos pueden emular con precisi\u00f3n el contenido extremista y podr\u00edan usarse para radicalizar a las personas en ideolog\u00edas extremistas. Tienen la capacidad de enga\u00f1ar y presentar informaci\u00f3n falsa de manera convincente. Es preocupante que las posibles fallas en estos modelos se transmitan a todos los modelos posteriores, lo que podr\u00eda generar problemas generalizados si no se controlan deliberadamente.<\/p>\n

El problema de \u201cmuchas manos\u201d se refiere al desaf\u00edo de atribuir la responsabilidad moral por los resultados causados \u200b\u200bpor m\u00faltiples actores, y es uno de los factores clave que erosionan la rendici\u00f3n de cuentas cuando se trata de sociedades algor\u00edtmicas. La responsabilidad de las nuevas cadenas de suministro de IA, donde los modelos fundamentales alimentan cientos de aplicaciones posteriores, debe basarse en la transparencia de extremo a extremo. Espec\u00edficamente, necesitamos fortalecer la transparencia de la cadena de suministro en tres niveles y establecer un ciclo de retroalimentaci\u00f3n entre ellos.<\/p>\n

Transparencia en los modelos fundacionales<\/strong> es fundamental para permitir que los investigadores y toda la cadena de suministro de usuarios investiguen y comprendan las vulnerabilidades y los sesgos de los modelos. Los propios desarrolladores de los modelos han reconocido esta necesidad. Por ejemplo, los investigadores de DeepMind sugieren que los da\u00f1os de los grandes modelos de lenguaje deben abordarse mediante la colaboraci\u00f3n con una amplia gama de partes interesadas que se basen en un nivel suficiente de explicabilidad e interpretabilidad para permitir una detecci\u00f3n, evaluaci\u00f3n y mitigaci\u00f3n eficientes de los da\u00f1os. Se necesitan metodolog\u00edas para la medici\u00f3n estandarizada y la evaluaci\u00f3n comparativa, como HELM de la Universidad de Standford. Estos modelos se est\u00e1n volviendo demasiado poderosos para operar sin la evaluaci\u00f3n de investigadores y auditores independientes. Los reguladores deber\u00edan preguntarse: \u00bfEntendemos lo suficiente como para poder evaluar d\u00f3nde se deben aplicar los modelos y d\u00f3nde se deben prohibir? \u00bfSe pueden evaluar adecuadamente las aplicaciones posteriores de alto riesgo en cuanto a seguridad y solidez con la informaci\u00f3n disponible?<\/p>\n<\/div>\n


\n
Source link-46<\/a><\/p>\n","protected":false},"excerpt":{"rendered":"

Este a\u00f1o, hemos visto la introducci\u00f3n de poderosos sistemas generativos de inteligencia artificial que tienen la capacidad de crear im\u00e1genes y texto a pedido. Al mismo tiempo, los reguladores est\u00e1n…<\/p>\n","protected":false},"author":1,"featured_media":350756,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[21981],"tags":[65604,67751,3496],"_links":{"self":[{"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/posts\/350755"}],"collection":[{"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/comments?post=350755"}],"version-history":[{"count":1,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/posts\/350755\/revisions"}],"predecessor-version":[{"id":350757,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/posts\/350755\/revisions\/350757"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/media\/350756"}],"wp:attachment":[{"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/media?parent=350755"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/categories?post=350755"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/tags?post=350755"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}