Prepárate para conocer a los clones de ChatGPT


ChatGPT bien podría ser el algoritmo más famoso y potencialmente valioso del momento, pero las técnicas de inteligencia artificial utilizadas por OpenAI para proporcionar su inteligencia no son únicas ni secretas. Los proyectos de la competencia y los clones de código abierto pronto pueden hacer que los bots de estilo ChatGPT estén disponibles para que cualquiera pueda copiarlos y reutilizarlos.

Stability AI, una startup que ya ha desarrollado una tecnología avanzada de generación de imágenes de código abierto, está trabajando en un competidor abierto de ChatGPT. “Estamos a unos meses del lanzamiento”, dice Emad Mostaque, CEO de Stability. Varias nuevas empresas competidoras, incluidas Anthropic, Cohere y AI21, están trabajando en chatbots propietarios similares al bot de OpenAI.

La inminente avalancha de chatbots sofisticados hará que la tecnología sea más abundante y visible para los consumidores, así como más accesible para las empresas, desarrolladores e investigadores de IA. Eso podría acelerar la prisa por ganar dinero con herramientas de inteligencia artificial que generan imágenes, código y texto.

Compañías establecidas como Microsoft y Slack están incorporando ChatGPT en sus productos, y muchas nuevas empresas se están apresurando a construir sobre una nueva API de ChatGPT para desarrolladores. Pero una mayor disponibilidad de la tecnología también puede complicar los esfuerzos para predecir y mitigar los riesgos que conlleva.

La capacidad seductora de ChatGPT para proporcionar respuestas convincentes a una amplia gama de consultas también hace que a veces invente hechos o adopte personajes problemáticos. Puede ayudar con tareas maliciosas, como producir código de malware o campañas de spam y desinformación.

Como resultado, algunos investigadores han pedido que se reduzca la implementación de sistemas similares a ChatGPT mientras se evalúan los riesgos. “No hay necesidad de detener la investigación, pero ciertamente podríamos regular el despliegue generalizado”, dice Gary Marcus, un experto en IA que ha tratado de llamar la atención sobre riesgos como la desinformación generada por la IA. “Podríamos, por ejemplo, solicitar estudios sobre 100.000 personas antes de lanzar estas tecnologías a 100 millones de personas”.

Una disponibilidad más amplia de los sistemas de estilo ChatGPT y el lanzamiento de versiones de código abierto harían más difícil limitar la investigación o una implementación más amplia. Y la competencia entre empresas grandes y pequeñas para adoptar o igualar ChatGPT sugiere poco interés por reducir la velocidad, pero parece incentivar la proliferación de la tecnología.

La semana pasada, LLaMA, un modelo de IA desarrollado por Meta, y similar al que está en el centro de ChatGPT, se filtró en línea después de compartirlo con algunos investigadores académicos. El sistema podría usarse como un componente básico en la creación de un chatbot y su lanzamiento. preocupación provocada entre aquellos que temen que los sistemas de inteligencia artificial conocidos como modelos de lenguaje grande y los chatbots construidos sobre ellos como ChatGPT, se utilicen para generar información errónea o automatizar violaciones de seguridad cibernética. Algunos expertos argumentan que tales riesgos pueden exagerarse, y otros sugieren que hacer que la tecnología sea más transparente ayudará a otros a protegerse contra los usos indebidos.

Meta se negó a responder preguntas sobre la filtración, pero la portavoz de la compañía, Ashley Gabriel, proporcionó una declaración que decía: “Si bien el modelo no es accesible para todos y algunos han tratado de eludir el proceso de aprobación, creemos que la estrategia de lanzamiento actual nos permite equilibrar la responsabilidad. y apertura.”





Source link-46