\n<\/aside>\n<\/p>\n
En junio de 2021, GitHub anunci\u00f3 Copilot, una especie de autocompletado para c\u00f3digo de computadora impulsado por la tecnolog\u00eda de generaci\u00f3n de texto de OpenAI. Proporcion\u00f3 una visi\u00f3n temprana del impresionante potencial de la inteligencia artificial generativa para automatizar trabajos valiosos. Dos a\u00f1os despu\u00e9s, Copilot es uno de los ejemplos m\u00e1s maduros de c\u00f3mo la tecnolog\u00eda puede asumir tareas que antes ten\u00edan que hacerse a mano.<\/p>\n
Esta semana, GitHub public\u00f3 un informe, basado en datos de casi un mill\u00f3n de programadores que pagan para usar Copilot, que muestra cu\u00e1n transformacional se ha vuelto la codificaci\u00f3n generativa de IA. En promedio, aceptaron las sugerencias del asistente de IA alrededor del 30 por ciento de las veces, lo que sugiere que el sistema es notablemente bueno para predecir c\u00f3digo \u00fatil.<\/p>\n\nGitHub<\/p>\n<\/figcaption><\/figure>\n\nEl sorprendente gr\u00e1fico anterior muestra c\u00f3mo los usuarios tienden a aceptar m\u00e1s sugerencias de Copilot a medida que pasan m\u00e1s meses usando la herramienta. El informe tambi\u00e9n concluye que los codificadores mejorados con IA ven aumentar su productividad con el tiempo, seg\u00fan el hecho de que un estudio anterior de Copilot inform\u00f3 un v\u00ednculo entre la cantidad de sugerencias aceptadas y la productividad de un programador. El nuevo informe de GitHub dice que las mayores ganancias de productividad se observaron entre los desarrolladores menos experimentados. <\/p>\n <\/figure>\n<\/p>\nA primera vista, es una imagen impresionante de una tecnolog\u00eda novedosa que demuestra r\u00e1pidamente su valor. Cualquier tecnolog\u00eda que mejore la productividad y aumente las habilidades de los trabajadores menos calificados podr\u00eda ser una bendici\u00f3n tanto para las personas como para la econom\u00eda en general. GitHub contin\u00faa ofreciendo algunas especulaciones al dorso del sobre, estimando que la codificaci\u00f3n de IA podr\u00eda aumentar el PIB mundial en $ 1,5 billones para 2030.<\/p>\n
Pero el gr\u00e1fico de GitHub que muestra a los programadores vincul\u00e1ndose con Copilot me record\u00f3 otro estudio del que escuch\u00e9 recientemente mientras conversaba con Talia Ringer, profesora de la Universidad de Illinois en Urbana-Champaign, sobre la relaci\u00f3n de los programadores con herramientas como Copilot.<\/p>\n\n Anuncio <\/span> <\/p>\n<\/aside>\nA finales del a\u00f1o pasado, un equipo de la Universidad de Stanford public\u00f3 un trabajo de investigaci\u00f3n que analizaba c\u00f3mo el uso de un asistente de IA generador de c\u00f3digo que construyeron afecta la calidad del c\u00f3digo que produce la gente. Los investigadores descubrieron que los programadores que recib\u00edan sugerencias de IA tend\u00edan a incluir m\u00e1s errores en su c\u00f3digo final; sin embargo, aquellos con acceso a la herramienta tend\u00edan a creer que su c\u00f3digo era m\u00e1s<\/em> seguro. \u00abProbablemente hay beneficios y riesgos involucrados\u00bb con la codificaci\u00f3n en conjunto con la IA, dice Ringer. \u00abM\u00e1s c\u00f3digo no es mejor c\u00f3digo\u00bb.<\/p>\nCuando consideras la naturaleza de la programaci\u00f3n, ese hallazgo no es sorprendente. Como escribi\u00f3 Clive Thompson en una funci\u00f3n de WIRED de 2022, Copilot puede parecer milagroso, pero sus sugerencias se basan en patrones en el trabajo de otros programadores, que pueden ser defectuosos. Estas conjeturas pueden crear errores que son endiabladamente dif\u00edciles de detectar, especialmente cuando te fascina lo buena que es la herramienta.<\/p>\n
Sabemos por otras \u00e1reas de la ingenier\u00eda que los humanos pueden caer en una dependencia excesiva de la automatizaci\u00f3n. La Autoridad Federal de Aviaci\u00f3n de EE. UU. ha advertido repetidamente que algunos pilotos se est\u00e1n volviendo tan dependientes del piloto autom\u00e1tico que sus habilidades de vuelo se est\u00e1n atrofiando. Un fen\u00f3meno similar es familiar en los autom\u00f3viles aut\u00f3nomos, donde se requiere una vigilancia extraordinaria para protegerse contra fallas raras pero potencialmente mortales.<\/p>\n
Esta paradoja puede ser fundamental para la historia en desarrollo de la IA generativa y hacia d\u00f3nde nos llevar\u00e1. La tecnolog\u00eda ya parece estar impulsando una espiral descendente en la calidad del contenido web, ya que los sitios de buena reputaci\u00f3n se inundan con escoria generada por IA, proliferan los sitios web de spam y los chatbots intentan estimular artificialmente la participaci\u00f3n.<\/p>\n
Nada de esto quiere decir que la IA generativa sea un fiasco. Hay un creciente cuerpo de investigaci\u00f3n que muestra c\u00f3mo las herramientas de IA generativa pueden aumentar el rendimiento y la felicidad de algunos trabajadores, como los que manejan las llamadas de atenci\u00f3n al cliente. Algunos otros estudios tampoco han encontrado un aumento en los errores de seguridad cuando los desarrolladores usan un asistente de IA. Y para su cr\u00e9dito, GitHub est\u00e1 investigando la cuesti\u00f3n de c\u00f3mo codificar de manera segura con la asistencia de IA. En febrero, anunci\u00f3 una nueva caracter\u00edstica de Copilot que intenta detectar las vulnerabilidades generadas por el modelo subyacente.<\/p>\n
Pero los efectos complejos de la generaci\u00f3n de c\u00f3digo brindan una advertencia para las empresas que trabajan para implementar algoritmos generativos para otros casos de uso.<\/p>\n
Los reguladores y legisladores que muestren m\u00e1s preocupaci\u00f3n por la IA tambi\u00e9n deber\u00edan tomar nota. Con tanto entusiasmo por el potencial de la tecnolog\u00eda, y la especulaci\u00f3n salvaje sobre c\u00f3mo podr\u00eda conquistar el mundo, podr\u00eda pasarse por alto evidencia m\u00e1s sutil y a\u00fan m\u00e1s sustantiva de c\u00f3mo est\u00e1n funcionando las implementaciones de IA. Casi todo en nuestro futuro estar\u00e1 respaldado por software, y si no tenemos cuidado, tambi\u00e9n podr\u00eda estar plagado de errores generados por IA.<\/p>\n
Esta historia apareci\u00f3 originalmente en <\/i>Wired.com<\/i>.<\/p>\n<\/p><\/div>\n
\nSource link-49<\/a><\/p>\n","protected":false},"excerpt":{"rendered":"En junio de 2021, GitHub anunci\u00f3 Copilot, una especie de autocompletado para c\u00f3digo de computadora impulsado por la tecnolog\u00eda de generaci\u00f3n de texto de OpenAI. Proporcion\u00f3 una visi\u00f3n temprana del…<\/p>\n","protected":false},"author":1,"featured_media":711220,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[21980],"tags":[8674,194,2052,19299,2347,2350,110,6685],"_links":{"self":[{"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/posts\/711219"}],"collection":[{"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/comments?post=711219"}],"version-history":[{"count":1,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/posts\/711219\/revisions"}],"predecessor-version":[{"id":711221,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/posts\/711219\/revisions\/711221"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/media\/711220"}],"wp:attachment":[{"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/media?parent=711219"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/categories?post=711219"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/tags?post=711219"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}