{"id":1002712,"date":"2024-02-09T23:30:22","date_gmt":"2024-02-09T23:30:22","guid":{"rendered":"https:\/\/magazineoffice.com\/conozca-a-los-bromistas-detras-de-goody-2-el-chatbot-de-ia-mas-responsable-del-mundo\/"},"modified":"2024-02-09T23:30:24","modified_gmt":"2024-02-09T23:30:24","slug":"conozca-a-los-bromistas-detras-de-goody-2-el-chatbot-de-ia-mas-responsable-del-mundo","status":"publish","type":"post","link":"https:\/\/magazineoffice.com\/conozca-a-los-bromistas-detras-de-goody-2-el-chatbot-de-ia-mas-responsable-del-mundo\/","title":{"rendered":"Conozca a los bromistas detr\u00e1s de Goody-2, el chatbot de IA \u00abm\u00e1s responsable\u00bb del mundo"},"content":{"rendered":"


\n<\/p>\n

\n

Goody-2 tambi\u00e9n destaca c\u00f3mo, aunque las conversaciones corporativas sobre la IA responsable y la desviaci\u00f3n por parte de los chatbots se han vuelto m\u00e1s comunes, los graves problemas de seguridad con los grandes modelos de lenguaje y los sistemas de IA generativos siguen sin resolverse. El reciente brote de deepfakes de Taylor Swift en Twitter surgi\u00f3 de un generador de im\u00e1genes lanzado por Microsoft, que fue una de las primeras grandes empresas de tecnolog\u00eda en desarrollar y mantener un importante programa de investigaci\u00f3n responsable de IA.<\/p>\n

Las restricciones impuestas a los chatbots de IA y la dificultad para encontrar una alineaci\u00f3n moral que agrade a todos ya se han convertido en tema de debate. Algunos desarrolladores han alegado que ChatGPT de OpenAI tiene un sesgo de izquierda y han tratado de construir una alternativa pol\u00edticamente m\u00e1s neutral. Elon Musk prometi\u00f3 que su propio rival de ChatGPT, Grok, ser\u00eda menos parcial que otros sistemas de inteligencia artificial, aunque de hecho a menudo termina equivoc\u00e1ndose en formas que pueden recordar a Goody-2.<\/p>\n

Muchos investigadores de IA parecen apreciar la broma detr\u00e1s de Goody-2 (y tambi\u00e9n los puntos serios planteados por el proyecto) y comparten elogios y recomendaciones para el chatbot. \u00ab\u00bfQui\u00e9n dice que la IA no puede hacer arte?\u00bb, Toby Walsh, profesor de la Universidad de Nueva Gales del Sur que trabaja en la creaci\u00f3n de una IA confiable, publicado en X<\/a>.<\/p>\n

\u201cA riesgo de arruinar un buen chiste, tambi\u00e9n demuestra lo dif\u00edcil que es hacerlo bien\u201d. agregado<\/a> Ethan Mollick, profesor de Wharton Business School que estudia IA. \u201cAlgunas barandillas son necesarias… pero r\u00e1pidamente se vuelven intrusivas\u201d.<\/p>\n

Brian Moore, el otro codirector ejecutivo de Goody-2, dice que el proyecto refleja la voluntad de priorizar la precauci\u00f3n m\u00e1s que otros desarrolladores de IA. \u00abEst\u00e1 realmente centrado en la seguridad, ante todo, literalmente por encima de todo lo dem\u00e1s, incluida la utilidad y la inteligencia y, en realidad, cualquier tipo de aplicaci\u00f3n \u00fatil\u00bb, afirma.<\/p>\n

Moore a\u00f1ade que el equipo detr\u00e1s del chatbot est\u00e1 explorando formas de construir un generador de im\u00e1genes de IA extremadamente seguro, aunque parece que podr\u00eda ser menos entretenido que Goody-2. \u00abEs un campo apasionante\u00bb, dice Moore. \u00abEl desenfoque ser\u00eda un paso que podr\u00edamos ver internamente, pero querr\u00edamos oscuridad total o potencialmente ninguna imagen al final\u00bb.<\/p>\n

\n
<\/picture><\/span><\/div>\n

Goody-2 a trav\u00e9s de Will Knight<\/span><\/p>\n<\/figure>\n<\/div>\n