Elon Musk critica a ChatGPT como máquina de propaganda: ‘Necesitamos TruthGPT’


Elon Musk está haciendo retroceder la creciente popularidad de ChatGPT, diciendo que el programa de inteligencia artificial no es seguro para el uso público general debido a su potencial para decir mentiras y supuesta propaganda.

“Lo que necesitamos es TruthGPT”, dijo. tuiteó(Se abre en una nueva ventana) el viernes.

En Twitter, Musk ha estado denunciando las fallas de ChatGPT, que se está integrando en el motor de búsqueda Bing de Microsoft para mejorar la experiencia. «¡Acordado! Claramente aún no es seguro”, Musk escribió(Se abre en una nueva ventana) en respuesta a un tweet que pedía a Microsoft que cerrara ChatGPT en Bing.

El intercambio es quizás un poco irónico ya que el tweet inicial provino de una personalidad en línea que no es exactamente conocida por decir la verdad.(Se abre en una nueva ventana). Tanto Twitter como plataforma como el propio Musk también han sido acusados ​​de difundir información errónea.

Aún así, está claro que ChatGPT es una herramienta poderosa; puede escribir ensayos completos, resumir temas complejos e incluso generar código de computadora usando un simple mensaje de texto del usuario. Pero en los últimos días, los usuarios de las redes sociales han publicado numerosos ejemplos de los diversos errores que puede cometer el programa de IA. Esto incluye publicar errores fácticos, volverse emocionalmente trastornado y negarse a responder a algunos temas políticamente delicados mientras responde a otros.

Las fallas llevaron a Musk a tomar varios golpes en ChatGPT, incluido burlándose(Se abre en una nueva ventana) el programa de IA como una máquina de propaganda que podría suplantar a los principales medios de comunicación.

Además, ha criticado al creador de ChatGPT, OpenAI, una empresa de San Francisco que Musk ayudó a fundar antes. cortando lazos(Se abre en una nueva ventana) en 2018.

“OpenAI se creó como una empresa de código abierto (por eso la llamé ‘IA abierta’), una empresa sin fines de lucro para servir como contrapeso a Google, pero ahora se ha convertido en una empresa de código cerrado y de máximo beneficio controlada efectivamente por Microsoft. , almizcle tuiteó(Se abre en una nueva ventana) hoy. «No es lo que pretendía en absoluto».

OpenAI reconoció esta semana que su proceso para «afinar» ChatGPT es «imperfecto».

«A veces, el proceso de ajuste no alcanza nuestra intención (producir una herramienta segura y útil) ni la intención del usuario (obtener un resultado útil en respuesta a una entrada dada)», dice OpenAI.(Se abre en una nueva ventana). «Mejorar nuestros métodos para alinear los sistemas de IA con los valores humanos es una prioridad máxima(Se abre en una nueva ventana) para nuestra empresa, particularmente a medida que los sistemas de inteligencia artificial se vuelven más capaces».

La postura crítica de Musk no es una sorpresa. Durante años, ha hecho sonar las alarmas sobre los peligros de la IA. En 2014, dijo: “Con la inteligencia artificial, estamos invocando al demonio”. Ese mismo año, él tuiteó(Se abre en una nueva ventana) que la IA podría ser “más peligrosa que las armas nucleares”.

Recomendado por Nuestros Editores

A principios de esta semana, Musk dijo que es hora de que los gobiernos intervengan. “Creo que necesitamos regular la seguridad de la IA, francamente”, dijo en la Cumbre del Gobierno Mundial en Dubái. “Creo que deberíamos tener una supervisión regulatoria similar para la inteligencia artificial porque creo que es un riesgo mayor para la sociedad que los automóviles, los aviones o la medicina”.

Musk hablando en la cumbre de Dubái.

(Crédito: Cumbre del Gobierno Mundial en Dubai.)

(Hablando de autos, Tesla, donde Musk también se desempeña como director ejecutivo, emitió un retiro voluntario de 362,758 vehículos esta semana debido a una actualización de software beta de su propia IA, que según la compañía puede hacer que los vehículos desobedezcan las leyes de tránsito locales y aumentar el riesgo. de un accidente.)

Los llamados a la regulación pueden crecer a medida que las empresas implementan chatbots impulsados ​​​​por IA para más usuarios en todo el mundo. Pero mientras tanto, hay señales de que tanto OpenAI como Microsoft están teniendo en cuenta los comentarios del público con los ajustes de ChatGPT.

En el caso de OpenAI, la empresa está preparando una actualización que podría permitir a los usuarios personalizar ChatGPT para abordar su sesgo en ciertos temas delicados. “Esto significará permitir salidas del sistema con las que otras personas (incluidos nosotros mismos) pueden estar totalmente en desacuerdo”, dijo la compañía.

Microsoft, por otro lado, está considerando agregar más medidas de seguridad para controlar las respuestas espeluznantes de Bing con ChatGPT, según(Se abre en una nueva ventana) a Los New York Times. Esto incluye limitar la duración de las conversaciones, lo que a veces puede confundir a Bing para que dé respuestas extrañas.

¡Obtenga nuestras mejores historias!

Matricularse en ¿Qué hay de nuevo ahora? para recibir nuestras mejores historias en su bandeja de entrada todas las mañanas.

Este boletín puede contener publicidad, ofertas o enlaces de afiliados. Suscribirse a un boletín informativo indica su consentimiento a nuestros Términos de uso y Política de privacidad. Puede darse de baja de los boletines en cualquier momento.





Source link-38