Estos rivales de ChatGPT están diseñados para jugar con tus emociones


ChatGPT y sus Los hermanos son sorprendentemente inteligentes y decepcionantemente tontos. Claro, pueden generar bonitos poemas, resolver acertijos científicos y depurar código espagueti. Pero sabemos que a menudo fabrican, olvidan y actúan como bichos raros.

Inflection AI, una empresa fundada por investigadores que anteriormente trabajaron en importantes proyectos de inteligencia artificial en Google, OpenAI y Nvidia, construyó un bot llamado Pi que parece cometer menos errores y ser más hábil en conversaciones sociables.

Inflection diseñó Pi para abordar algunos de los problemas de los chatbots actuales. Los programas como ChatGPT usan redes neuronales artificiales que intentan predecir qué palabras deben seguir a un fragmento de texto, como una respuesta a la pregunta de un usuario. Con suficiente capacitación en miles de millones de líneas de texto escritas por humanos, respaldadas por computadoras de alta potencia, estos modelos pueden generar respuestas coherentes y relevantes que se sienten como una conversación real. Pero también inventan cosas y se descarrilan.

Mustafa Suleyman, director ejecutivo de Inflection, dice que la compañía ha seleccionado cuidadosamente los datos de capacitación de Pi para reducir la posibilidad de que el lenguaje tóxico se infiltre en sus respuestas. “Somos bastante selectivos con lo que se incluye en el modelo”, dice. «Tomamos mucha información que está disponible en la web abierta, pero no absolutamente todo».

Suleyman, quien cofundó la empresa de inteligencia artificial Deepmind, que ahora es parte de Google, también dice que limitar la longitud de las respuestas de Pi reduce, pero no elimina por completo, la probabilidad de errores de hecho.

Basado en mi propio tiempo chateando con Pi, el resultado es atractivo, aunque más limitado y menos útil que ChatGPT y Bard. Esos chatbots se volvieron mejores para responder preguntas a través de capacitación adicional en la que los humanos evaluaron la calidad de sus respuestas. Esa retroalimentación se usa para guiar a los bots hacia respuestas más satisfactorias.

Suleyman dice que Pi fue entrenado de manera similar, pero con énfasis en ser amigable y solidario, aunque sin una personalidad humana, lo que podría confundir a los usuarios sobre las capacidades del programa. Los chatbots que adoptan una personalidad humana ya han demostrado ser problemáticos. El año pasado, un ingeniero de Google afirmó controvertidamente que el modelo de IA LaMDA de la compañía, uno de los primeros programas en demostrar cuán inteligentes y atractivos podrían ser los grandes modelos de lenguaje de IA, podría ser sensible.

Pi también puede mantener un registro de todas sus conversaciones con un usuario, lo que le otorga una especie de memoria a largo plazo que falta en ChatGPT y tiene como objetivo agregar coherencia a sus chats.

“Una buena conversación se trata de responder a lo que dice una persona, hacer preguntas aclaratorias, ser curioso, ser paciente”, dice Suleyman. “Está ahí para ayudarlo a pensar, en lugar de darle un fuerte consejo de dirección, para ayudarlo a desempacar sus pensamientos”.

Pi adopta una personalidad cariñosa y habladora, incluso si no pretende ser humana. A menudo me preguntaba cómo estaba y con frecuencia me ofrecía palabras de aliento. Las respuestas cortas de Pi significan que también funcionaría bien como asistente de voz, donde las respuestas largas y los errores son especialmente discordantes. Puede intentar hablar con él usted mismo en el sitio web de Inflection.

La increíble publicidad en torno a ChatGPT y herramientas similares significa que muchos empresarios esperan hacerse ricos en el campo.

Suleyman solía ser gerente dentro del equipo de Google que trabajaba en el chatbot LaMDA. Google dudaba en lanzar la tecnología, para frustración de algunos de los que trabajaban en ella que creían que tenía un gran potencial comercial.



Source link-46