Esta semana en IA: OpenAI encuentra un socio en la educación superior


Mantenerse al día con una industria que evoluciona tan rápidamente como la IA es una tarea difícil. Entonces, hasta que una IA pueda hacerlo por usted, aquí hay un resumen útil de historias recientes en el mundo del aprendizaje automático, junto con investigaciones y experimentos notables que no cubrimos por sí solos.

Esta semana en IA, OpenAI registró su primer cliente de educación superior: la Universidad Estatal de Arizona.

ASU colaborará con OpenAI para llevar ChatGPT, el chatbot impulsado por IA de OpenAI, a los investigadores, el personal y los profesores de la universidad, organizando un desafío abierto en febrero para invitar a los profesores y al personal a enviar ideas sobre formas de utilizar ChatGPT.

El acuerdo OpenAI-ASU ilustra el cambio de opiniones en torno a la IA en la educación a medida que la tecnología avanza más rápido de lo que los planes de estudio pueden seguir. El verano pasado, las escuelas y universidades se apresuraron a prohibir ChatGPT por temor a plagio y desinformación. Desde entonces, algunos han revocado sus prohibiciones, mientras que otros han comenzado a organizar talleres sobre las herramientas GenAI y su potencial de aprendizaje.

No es probable que el debate sobre el papel de GenAI en la educación se resuelva pronto. Pero, por si sirve de algo, me encuentro cada vez más en el campo de los partidarios.

Sí, GenAI es un mal resumidor. Es parcial y tóxico. Inventa cosas. Pero también se puede utilizar para el bien.

Considere cómo una herramienta como ChatGPT podría ayudar a los estudiantes que tienen dificultades con una tarea. Podría explicar un problema matemático paso a paso o generar un esquema de ensayo. O podría revelar la respuesta a una pregunta que a Google le llevaría mucho más tiempo.

Ahora, existen preocupaciones razonables sobre las trampas, o al menos sobre lo que podría considerarse trampa dentro de los límites de los planes de estudio actuales. He oído hablar anecdóticamente de estudiantes, particularmente estudiantes universitarios, que usan ChatGPT para escribir grandes cantidades de artículos y preguntas de ensayo en exámenes para llevar a casa.

Este no es un problema nuevo: los servicios pagos de redacción de ensayos existen desde hace mucho tiempo. Pero ChatGPT reduce drásticamente la barrera de entrada, argumentan algunos educadores.

Hay pruebas que sugieren que estos temores son exagerados. Pero dejando eso de lado por un momento, propongo que demos un paso atrás y consideremos qué impulsa a los estudiantes a hacer trampa en primer lugar. Los estudiantes a menudo son recompensados ​​por sus calificaciones, no por su esfuerzo o comprensión. La estructura de incentivos está deformada. ¿Es de extrañar, entonces, que los niños vean las tareas escolares como casillas que marcar en lugar de oportunidades para aprender?

Así que dejemos que los estudiantes tengan GenAI y dejemos que los educadores prueben formas de aprovechar esta nueva tecnología para llegar a los estudiantes donde estén. No tengo muchas esperanzas de una reforma educativa drástica. Pero tal vez GenAI sirva como plataforma de lanzamiento para planes de lecciones que entusiasmen a los niños con temas que nunca antes habrían explorado.

Aquí hay algunas otras historias destacadas de IA de los últimos días:

Tutor de lectura de Microsoft: Microsoft puso esta semana Reading Coach, su herramienta de inteligencia artificial que brinda a los estudiantes práctica de lectura personalizada, disponible sin costo para cualquier persona con una cuenta de Microsoft.

Transparencia algorítmica en la música: Los reguladores de la UE están pidiendo leyes que obliguen a una mayor transparencia algorítmica en las plataformas de transmisión de música. También quieren abordar la música generada por IA y los deepfakes.

Los robots de la NASA: La NASA mostró recientemente una estructura robótica autoensamblable que, escribe Devin, podría convertirse en una parte crucial del movimiento fuera del planeta.

Samsung Galaxy, ahora impulsado por IA: En el evento de lanzamiento del Galaxy S24 de Samsung, la compañía presentó las diversas formas en que la IA podría mejorar la experiencia del teléfono inteligente, incluida la traducción en vivo de llamadas, respuestas y acciones sugeridas y una nueva forma de realizar búsquedas en Google mediante gestos.

Solucionador de geometría de DeepMind: DeepMind, el laboratorio de I+D de IA de Google, presentó esta semana AlphaGeometry, un sistema de IA que, según el laboratorio, puede resolver tantos problemas de geometría como el medallista de oro promedio de la Olimpiada Internacional de Matemáticas.

OpenAI y crowdsourcing: En otras noticias de OpenAI, la startup está formando un nuevo equipo, Collective Alignment, para implementar ideas del público sobre cómo garantizar que sus futuros modelos de IA «se alineen con los valores de la humanidad». Al mismo tiempo, está cambiando su política para permitir aplicaciones militares de su tecnología. (Hable sobre mensajes mixtos).

Un plan Pro para Copilot: Microsoft lanzó un plan pago centrado en el consumidor para Copilot, la marca general de su cartera de tecnologías de generación de contenido impulsadas por IA, y flexibilizó los requisitos de elegibilidad para las ofertas de Copilot a nivel empresarial. También lanzó nuevas funciones para usuarios gratuitos, incluida una aplicación para teléfonos inteligentes Copilot.

Modelos engañosos: La mayoría de los humanos aprenden la habilidad de engañar a otros humanos. Entonces, ¿pueden los modelos de IA aprender lo mismo? Sí, la respuesta parece… y, aterradoramente, son excepcionalmente buenos en eso. según un nuevo estudio de la startup de IA Anthropic.

Demostración de robótica en escena de Tesla: El robot humanoide Optimus de Tesla de Elon Musk está haciendo más cosas: esta vez doblando una camiseta sobre una mesa en una instalación de desarrollo. Pero resulta que el robot no es nada autónomo en la etapa actual.

Más aprendizajes automáticos

Una de las cosas que frena las aplicaciones más amplias de cosas como el análisis de satélites impulsado por IA es la necesidad de entrenar modelos para reconocer lo que puede ser una forma o concepto bastante esotérico. Identificar el contorno de un edificio: fácil. Identificar campos de escombros después de una inundación: ¡no es tan fácil! Los investigadores suizos de la EPFL esperan facilitar esta tarea con un programa al que llaman METEOR.

Créditos de imagen: EPFL

«El problema en las ciencias ambientales es que a menudo es imposible obtener un conjunto de datos lo suficientemente grande como para entrenar programas de IA para nuestras necesidades de investigación», afirmó Marc Rußwurm, uno de los líderes del proyecto. Su nueva estructura de entrenamiento permite entrenar un algoritmo de reconocimiento para una nueva tarea con solo cuatro o cinco imágenes representativas. Los resultados son comparables a los modelos entrenados con muchos más datos. Su plan es graduar el sistema del laboratorio al producto con una interfaz de usuario para que la gente común (es decir, investigadores no especializados en IA) lo utilice. Puedes leer el artículo que publicaron aquí.

Ir en la otra dirección (crear imágenes) es un campo de intensa investigación, ya que hacerlo de manera eficiente podría reducir la carga de cálculo de las plataformas de IA generativa. El método más común se llama difusión, que refina gradualmente una fuente de ruido puro hasta convertirla en una imagen objetivo. El Laboratorio Nacional de Los Alamos tiene un nuevo enfoque al que llaman Blackout Diffusion, que comienza a partir de una imagen en negro puro.

Para empezar, eso elimina la necesidad de ruido, pero el verdadero avance está en que el marco se lleva a cabo en «espacios discretos» en lugar de continuos, lo que reduce en gran medida la carga computacional. Dicen que funciona bien y a un costo menor, pero definitivamente está lejos de ser un lanzamiento generalizado. No estoy calificado para evaluar la efectividad de este enfoque (las matemáticas me superan con creces), pero los laboratorios nacionales no tienden a exagerar algo como esto sin razón. Pediré más información a los investigadores.

Los modelos de IA están surgiendo en todas las ciencias naturales, donde su capacidad para separar señales del ruido produce nuevos conocimientos y ahorra dinero en las horas de entrada de datos de los estudiantes de posgrado.

Australia está aplicando la tecnología de detección de incendios forestales de Pano AI a su «Triángulo Verde», una importante región forestal. Me encanta ver cómo se utilizan empresas emergentes de esta manera: no solo podría ayudar a prevenir incendios, sino que también produce datos valiosos para las autoridades forestales y de recursos naturales. Cada minuto cuenta con incendios forestales (o incendios forestales, como los llaman allí), por lo que las notificaciones tempranas podrían marcar la diferencia entre decenas y miles de acres de daños.

Reducción del permafrost medida por el modelo antiguo, izquierda, y el nuevo modelo, derecha.

Los Álamos recibe una segunda mención (me di cuenta mientras repasaba mis notas) ya que también están trabajando en un nuevo modelo de inteligencia artificial para estimar la disminución del permafrost. Los modelos existentes para esto tienen una resolución baja y predicen niveles de permafrost en trozos de aproximadamente 1/3 de milla cuadrada. Esto es ciertamente útil, pero con más detalles se obtienen resultados menos engañosos para áreas que podrían parecer 100% permafrost a mayor escala, pero que claramente son menos que eso cuando se mira más de cerca. A medida que avanza el cambio climático, ¡estas mediciones deben ser exactas!

Los biólogos están encontrando formas interesantes de probar y utilizar la IA o modelos adyacentes a la IA en los numerosos subcampos de ese dominio. En una conferencia reciente escrita por mis amigos de GeekWire, se mostraron en sesiones de carteles herramientas para rastrear cebras, insectos e incluso células individuales.

Y desde el punto de vista de la física y la química, los investigadores de Argonne NL están buscando la mejor manera de empaquetar hidrógeno para usarlo como combustible. El hidrógeno libre es notoriamente difícil de contener y controlar, por lo que unirlo a una molécula auxiliar especial lo mantiene dócil. El problema es que el hidrógeno se une a prácticamente todo, por lo que existen miles de millones de posibilidades para las moléculas auxiliares. Pero clasificar grandes conjuntos de datos es una especialidad del aprendizaje automático.

«Estábamos buscando moléculas líquidas orgánicas que retengan el hidrógeno durante mucho tiempo, pero no con tanta fuerza como para que no puedan eliminarse fácilmente cuando sea necesario», dijo Hassan Harb, del proyecto. Su sistema clasificó 160 mil millones de moléculas y, utilizando un método de detección de IA, pudieron examinar 3 millones por segundo, por lo que todo el proceso final tomó aproximadamente medio día. (Por supuesto, estaban usando una supercomputadora bastante grande). Identificaron 41 de los mejores candidatos, lo cual es un número insignificante para que el equipo experimental lo pruebe en el laboratorio. Ojalá encuentren algo útil: no quiero tener que lidiar con fugas de hidrógeno en mi próximo automóvil.

Sin embargo, para terminar con una palabra de precaución: un estudio en Science encontró que los modelos de aprendizaje automático utilizados para predecir cómo responderían los pacientes a ciertos tratamientos eran muy precisos… dentro del grupo de muestra en el que fueron entrenados. En otros casos, básicamente no ayudaron en absoluto. Esto no significa que no deban usarse, pero respalda lo que mucha gente en el negocio ha estado diciendo: la IA no es una solución milagrosa y debe probarse exhaustivamente en cada nueva población y aplicación en la que se aplique. a.



Source link-48