¿Qué define la inteligencia artificial? La guía completa de WIRED


La inteligencia artificial es aquí. Está sobrevalorado, no se comprende bien y tiene fallas, pero ya es fundamental para nuestras vidas, y solo extenderá su alcance.

La IA impulsa la investigación de automóviles sin conductor, detecta signos de enfermedad invisibles en imágenes médicas, encuentra una respuesta cuando le haces una pregunta a Alexa y te permite desbloquear tu teléfono con tu cara para hablar con amigos como una caca animada en el iPhone X usando Animoji de Apple. . Esas son solo algunas de las formas en que la IA ya influye en nuestras vidas, y aún queda mucho trabajo por hacer. Pero no se preocupe, los algoritmos superinteligentes no van a tomar todos los trabajos o acabar con la humanidad.

El auge actual en todo lo relacionado con la IA fue catalizado por avances en un área conocida como aprendizaje automático. Se trata de «entrenar» a las computadoras para realizar tareas basadas en ejemplos, en lugar de confiar en la programación de un ser humano. Una técnica llamada aprendizaje profundo ha hecho que este enfoque sea mucho más poderoso. Solo pregúntale a Lee Sedol, poseedor de 18 títulos internacionales en el complejo juego de Go. Fue derrotado por un software llamado AlphaGo en 2016.

Hay evidencia de que la IA puede hacernos más felices y saludables. Pero también hay motivos para la cautela. Los incidentes en los que los algoritmos detectaron o amplificaron los sesgos sociales en torno a la raza o el género muestran que un futuro mejorado por la IA no será automáticamente mejor.

Los comienzos de la inteligencia artificial

La inteligencia artificial tal como la conocemos comenzó como un proyecto de vacaciones. El profesor de Dartmouth, John McCarthy, acuñó el término en el verano de 1956, cuando invitó a un pequeño grupo a pasar unas semanas reflexionando sobre cómo hacer que las máquinas hicieran cosas como usar el lenguaje.

Tenía grandes esperanzas de un gran avance en el camino hacia las máquinas de nivel humano. “Creemos que se puede lograr un avance significativo”, escribió con sus coorganizadores, “si un grupo cuidadosamente seleccionado de científicos trabajan juntos durante un verano”.

Esas esperanzas no se cumplieron y McCarthy admitió más tarde que había sido demasiado optimista. Pero el taller ayudó a los investigadores que sueñan con máquinas inteligentes a unirse en un campo académico reconocido.

Los primeros trabajos a menudo se enfocaban en resolver problemas bastante abstractos en matemáticas y lógica. Pero no pasó mucho tiempo antes de que la IA comenzara a mostrar resultados prometedores en más tareas humanas. A fines de la década de 1950, Arthur Samuel creó programas que aprendían a jugar a las damas. En 1962, uno anotó una victoria sobre un maestro en el juego. En 1967, un programa llamado Dendral demostró que podía replicar la forma en que los químicos interpretaban los datos de espectrometría de masas sobre la composición de muestras químicas.

A medida que se desarrolló el campo de la IA, también lo hicieron diferentes estrategias para fabricar máquinas más inteligentes. Algunos investigadores intentaron destilar el conocimiento humano en código o crear reglas para tareas específicas, como comprender el lenguaje. Otros se inspiraron en la importancia de aprender a comprender la inteligencia humana y animal. Construyeron sistemas que podían mejorar en una tarea con el tiempo, tal vez simulando la evolución o aprendiendo de datos de ejemplo. El campo alcanzó un hito tras otro a medida que las computadoras dominaban tareas que antes solo podían ser realizadas por personas.

El aprendizaje profundo, el combustible para cohetes del auge actual de la IA, es un renacimiento de una de las ideas más antiguas de la IA. La técnica consiste en pasar datos a través de redes de matemáticas inspiradas libremente en el funcionamiento de las células cerebrales que se conocen como redes neuronales artificiales. A medida que una red procesa datos de entrenamiento, las conexiones entre las partes de la red se ajustan, lo que genera la capacidad de interpretar datos futuros.

Las redes neuronales artificiales se convirtieron en una idea establecida en IA poco después del taller de Dartmouth. El Perceptron Mark 1 de 1958 que llenaba la habitación, por ejemplo, aprendió a distinguir diferentes formas geométricas y quedó escrito en Los New York Times como el «Embrión de computadora diseñado para leer y hacerse más sabio». Pero las redes neuronales cayeron en desgracia después de que un influyente libro de 1969 en coautoría con Marvin Minsky del MIT sugiriera que no podían ser muy poderosas.

Sin embargo, no todos quedaron convencidos por los escépticos, y algunos investigadores mantuvieron viva la técnica durante décadas. Fueron reivindicados en 2012, cuando una serie de experimentos demostraron que las redes neuronales alimentadas con grandes cantidades de datos podían dar a las máquinas nuevos poderes de percepción. Procesar tantos datos era difícil con los chips de computadora tradicionales, pero el cambio a las tarjetas gráficas precipitó una explosión en el poder de procesamiento.



Source link-46