¿Alguna vez ha querido aprender a programar, pero es posible que no haya querido hacerlo solo pero que tampoco haya tenido la oportunidad de tomar una clase? Entonces estás en un momento único para los estudiantes de computación y programación (entre muchos otros tipos).
La afluencia de chatbots de IA significa que puede enfrentarse al panorama cibernético o al funcionamiento interno de su computadora con un ayudante más que antes. ChatGPT-4 de OpenAI y Bing AI equipados con ChatGPT han sido muy apreciados tanto por las industrias directamente afectadas como por el público en general.
Parte de lo que cautivó a los usuarios fue que ChatGPT había agregado funcionalidad en la forma de poder ayudarlo a escribir, simular, corregir, sugerir, explicar y realizar muchas otras funciones para su código existente (o incluso necesidades generales de programación).
Pero a partir de la semana pasada, el chatbot de IA recién acuñado de Google, Google Bard, ahora también puede ayudarlo con sus consultas de codificación y programación. Este es uno de los servicios más solicitados por Bard y ha sido el mayor desarrollo para el chatbot de IA desde su lanzamiento.
En una publicación de blog de la empresa, se postula que Bard puede ayudar con una amplia variedad de tareas específicas en todo tipo de lenguajes de programación y mucho más. Está destinado específicamente a ser un colaborador alimentado por IA que puede ayudar con las necesidades de programación y desarrollo de software, como «generación de código, depuración y explicación de código». Estas capacidades estarán disponibles en más de 20 lenguajes de programación, incluidos los más utilizados, como Python, Java y C++.
Útil, pero necesita orientación
Ahora, de manera similar a cómo Bing y ChatGPT brindan descargos de responsabilidad, Bard lo inicia en su interfaz con un recordatorio de que «Bard es un experimento» y «no siempre lo hará bien» y, como con un guiño, le recuerda que es vale la pena verificar su salida «buscándolo en Google».
Esto se debe a que, al igual que ChatGPT, es un modelo de lenguaje grande (LLM). Los LLM son grandes modelos conceptuales que se entrenan en grandes conjuntos de datos, es decir, en forma de código y texto. Sin embargo, lo que estos dos LLM no tienen es ningún tipo de índice de conocimiento central para verificar lo que sea que produzca, por lo que vale la pena verificar dos veces, tanto si tiene sentido para el propósito para el que lo está utilizando como si realmente es factual según alguna autoridad.
Estamos en una era interesante por muchas razones, pero otra, además de ser herramientas integrales y coherentes al estilo de un asistente, es que las consideraciones éticas en todo tipo de disciplinas se están materializando en un asunto mucho más visceral que nunca.
Las escuelas y las instituciones académicas ya han expresado su preocupación y planteado la necesidad de un software de detección para el trabajo compuesto por IA. el borde (se abre en una pestaña nueva) informó que en enero, una conferencia de IA, la Conferencia Internacional sobre Aprendizaje Automático (ICML), prohibió por completo los trabajos académicos redactados por ChatGPT y otras herramientas de lenguaje de IA de este tipo, pero dijo que podrían usarse para ayudar a ‘editar’ y ‘ obras de autores polacos.
James Vincent, autor del artículo de Verge, hace una pregunta interesante sobre cuánto de esto debe permitirse antes de que pueda llamar a un artículo «coautor», o incluso «escrito», por uno de estos bots. El sitio web de la conferencia publicó una elaboración y declaró que operaría «sobre el principio de ser conservador con respecto a la protección contra posibles problemas del uso de LLM».
Me imagino que esto significa que la cantidad y el tipo de material generado por IA se examinan muy de cerca, y especularía que la conferencia se realizó caso por caso. Por lo tanto, quedan muchas áreas grises, y supongo que esto obligará a directrices más definidas y generalizadas en el futuro, porque eso ciertamente debe suceder.