\nGrabaci\u00f3n en vivo de Ars Frontiers 2023.<\/p>\n<\/figcaption><\/figure>\n
Dado que \u00abIA\u00bb es un t\u00e9rmino confuso que significa diferentes cosas en diferentes contextos, comenzamos la discusi\u00f3n considerando la definici\u00f3n de IA y lo que significa para los panelistas. Bailey dijo: \u00abMe gusta pensar en la IA como algo que ayuda a derivar patrones de los datos y usarlos para predecir conocimientos… no es m\u00e1s que derivar conocimientos de los datos y usarlos para hacer predicciones y generar informaci\u00f3n a\u00fan m\u00e1s \u00fatil\u00bb.<\/p>\n
Zhang estuvo de acuerdo, pero desde el punto de vista de los videojuegos, tambi\u00e9n ve a la IA como una fuerza creativa en evoluci\u00f3n. Para ella, la IA no se trata solo de analizar, encontrar patrones y clasificar datos; tambi\u00e9n est\u00e1 desarrollando capacidades en lenguaje creativo, generaci\u00f3n de im\u00e1genes y codificaci\u00f3n. Zhang cree que este poder transformador de la IA puede elevar e inspirar la inventiva humana, especialmente en los videojuegos, que considera \u00abla m\u00e1xima expresi\u00f3n de la creatividad humana\u00bb.<\/p>\n
A continuaci\u00f3n, nos sumergimos en la pregunta principal del panel: \u00bfQu\u00e9 ha cambiado que ha llevado a esta nueva era de la IA? \u00bfSe trata solo de exageraciones, tal vez debido a la alta visibilidad de ChatGPT, o ha habido algunos avances tecnol\u00f3gicos importantes que nos trajeron esta nueva ola?<\/p>\n\n Anuncio <\/span> <\/p>\n<\/aside>\n\nAgrandar
\/<\/span> Paige Bailey de Google durante su panel Ars Frontiers 2023 sobre IA.<\/div>\nArs Technica<\/p>\n<\/figcaption><\/figure>\n
Zhang se\u00f1al\u00f3 los desarrollos en las t\u00e9cnicas de IA y la gran cantidad de datos ahora disponibles para el entrenamiento: \u00abHemos visto avances en la arquitectura de modelos para modelos de transformadores, as\u00ed como en los modelos de codificadores autom\u00e1ticos recursivos, y tambi\u00e9n la disponibilidad de grandes conjuntos de datos. para luego entrenar estos modelos y combinar eso con, en tercer lugar, la disponibilidad de hardware como GPU, MPU para poder realmente tomar los modelos para tomar los datos y poder entrenarlos en nuevas capacidades de c\u00f3mputo\u00bb.<\/p>\n
Bailey se hizo eco de estos sentimientos y agreg\u00f3 una menci\u00f3n notable de las contribuciones de c\u00f3digo abierto: \u00abTambi\u00e9n tenemos esta comunidad vibrante de expertos en c\u00f3digo abierto que son modelos de c\u00f3digo abierto, modelos como LLaMA, ajust\u00e1ndolos con ajuste de instrucciones de muy alta calidad y conjuntos de datos RLHF. \u00ab<\/p>\n
Cuando se le pidi\u00f3 que explicara la importancia de las colaboraciones de c\u00f3digo abierto para acelerar los avances de la IA, Bailey mencion\u00f3 el uso generalizado de modelos de capacitaci\u00f3n de c\u00f3digo abierto como PyTorch, Jax y TensorFlow. Tambi\u00e9n afirm\u00f3 la importancia de compartir las mejores pr\u00e1cticas y afirm\u00f3: \u00abCiertamente creo que esta comunidad de aprendizaje autom\u00e1tico solo existe porque las personas comparten sus ideas, sus conocimientos y su c\u00f3digo\u00bb.<\/p>\n
Cuando se le pregunt\u00f3 acerca de los planes de Google para los modelos de c\u00f3digo abierto, Bailey se\u00f1al\u00f3 los recursos existentes de Google Research en GitHub y enfatiz\u00f3 su asociaci\u00f3n con Hugging Face, una comunidad de inteligencia artificial en l\u00ednea. \u00abNo quiero revelar nada que pueda estar viniendo por la tuber\u00eda\u00bb, dijo.<\/p>\n