El despido de Sam Altman podría haberse debido a un avance de la inteligencia artificial que amenaza a la humanidad


El drama de cinco días, que mostró el despido del director ejecutivo de OpenAI, Sam Altman, y luego su reinstalación como director ejecutivo de la compañía, es solo otro ejemplo de cuán descontrolado puede ser el reino de Silicon Valley. Sin embargo, el despido de Altman no se debió a que mantuviera una actitud rebelde con la junta, sino a un descubrimiento revolucionario en IA realizado por investigadores de OpenAI que podría ser potencialmente peligroso para la humanidad.

Varios investigadores del personal de OpenAI escribieron una carta a la junta, informándoles de los peligros que conlleva este avance de la IA, lo que finalmente llevó al despido de Sam Altman.

Suponiendo que la IA no esté controlada o regulada, podría conducir a resultados nocivos, y eso es lo que informó Reuters cuando fuentes familiarizadas con el asunto dijeron a la publicación que la junta estaba cada vez más preocupada por cómo avanzaba la IA y cómo Sam Altman podría no hacerlo. han estado al tanto de las consecuencias. Un mensaje interno se refirió al proyecto como ‘Q*’ o Q-star, señalando que podría ser un gran avance en la búsqueda de la startup de IA por crear inteligencia artificial general (AGI).

OpenAI cree que la AGI podría superar a los humanos en la mayoría de las tareas, lo que también la hace muy peligrosa, ya que puede limitar las opciones de lo que la población global puede hacer para ganarse la vida, aunque las consecuencias pueden alcanzar una escala completamente nueva. Con recursos casi ilimitados, el nuevo modelo AGI pudo resolver ciertos problemas matemáticos, y aunque estos problemas eran equivalentes a los de los estudiantes de su grado, superarlos hizo que los investigadores de OpenAI se sintieran muy optimistas sobre el futuro de Q*.

Actualmente, la IA no puede resolver problemas matemáticos de manera confiable, que es donde entra en juego la ventaja de AGI. El informe afirma además que los investigadores creen que al resolver problemas matemáticos, solo hay una respuesta correcta, y si la IA puede superar este obstáculo, se considera un hito masivo. Una vez que la IA pueda resolver problemas matemáticos de manera consistente, podrá tomar decisiones que se asemejen a la inteligencia humana y al mismo tiempo trabajar en investigaciones científicas.

La carta escrita por investigadores de OpenAI habla de los peligros que la IA presenta para la humanidad, pero no se han especificado las preocupaciones de seguridad exactas. Ha habido interminables debates sobre cómo la IA puede resultar en la destrucción de la humanidad, e incluso los medios publicados en el pasado describen esos peligros cuando los humanos no actúan con cuidado. Con todo el drama que OpenAI, Sam Altman y muchos otros han experimentado en estos últimos días, parece que todos tendrán que tomarse un respiro pronto y entablar conversaciones significativas sobre cómo hacer avanzar este nuevo modelo sin la riesgos antes mencionados.

Fuente de noticias: Reuters

Comparte esta historia

Facebook

Gorjeo



Source link-29