\n
Chat GPT-4 \u00bfVale la pena actualizarlo? | Tecnolog\u00eda del futuro<\/p>\n<\/div>\n
<\/video><\/div>\n<\/div>\n<\/div>\n<\/div>\n<\/div>\n<\/div>\n<\/div>\n54% de los votantes estadounidenses registrados encuestados en una nueva encuesta<\/span> realizado por The Tech Oversight Project acord\u00f3 que el Congreso deber\u00eda tomar \u00abmedidas r\u00e1pidas para regular la IA\u00bb a fin de promover la privacidad y la seguridad y garantizar que la tecnolog\u00eda proporcione el \u00abm\u00e1ximo beneficio para la sociedad\u00bb. Los republicanos y los dem\u00f3cratas expresaron un apoyo casi id\u00e9ntico a controlar la IA<\/span>, un raro signo de bipartidismo que insin\u00faa un creciente consenso sobre la tecnolog\u00eda en r\u00e1pida evoluci\u00f3n. El 41% de los votantes dijeron que preferir\u00edan ver que la regulaci\u00f3n provenga de la intervenci\u00f3n del gobierno en lugar de solo el 20% que pensaba que las empresas de tecnolog\u00eda deber\u00edan regularse a s\u00ed mismas. Los votantes encuestados tampoco parec\u00edan comprar argumentos de los ejecutivos de tecnolog\u00eda<\/span> quienes advierten que la nueva regulaci\u00f3n de la IA podr\u00eda hacer retroceder a la econom\u00eda estadounidense. Solo el 15% de los encuestados dijo que regular la IA sofocar\u00eda la innovaci\u00f3n.<\/p>\n\u201cSi bien la nueva tecnolog\u00eda de inteligencia artificial, y la comprensi\u00f3n que tiene el p\u00fablico de ella, est\u00e1 evolucionando r\u00e1pidamente, es muy revelador que la mayor\u00eda de los estadounidenses no conf\u00eden en las grandes tecnolog\u00edas para priorizar la seguridad y regularla, y por un margen de dos a uno. quiero que el Congreso act\u00fae\u201d, dijo a Gizmodo el director ejecutivo adjunto del Proyecto de supervisi\u00f3n tecnol\u00f3gica, Kyle Morris.<\/p>\n
La encuesta cae en lo que podr\u00eda convertirse en un punto de inflexi\u00f3n para la pol\u00edtica de inteligencia artificial del gobierno. Horas antes de la publicaci\u00f3n de la encuesta, la Administraci\u00f3n Biden se reuni\u00f3 con los l\u00edderes de cuatro empresas l\u00edderes de IA para analizar los riesgos de la IA. La administraci\u00f3n tambi\u00e9n revel\u00f3 que la Fundaci\u00f3n Nacional de Ciencias proporcionar\u00eda $ 140 millones en fondos para lanzar siete nuevos Institutos Nacionales de Investigaci\u00f3n de IA.<\/p>\n
Retroceso reciente contra la IA<\/strong><\/h2>\nIncluso sin encuestas, hay algunas se\u00f1ales claras de que la conversaci\u00f3n nacional en torno a la IA se ha alejado de la diversi\u00f3n y el entusiasmo leves en torno a los generadores de IA y chatbots<\/span> hacia da\u00f1os potenciales. Sin embargo, cu\u00e1les son exactamente esos da\u00f1os var\u00edan ampliamente, dependiendo de a qui\u00e9n le preguntes. El mes pasado, m\u00e1s de 500 expertos en tecnolog\u00eda y l\u00edderes empresariales firm\u00f3 una carta abierta<\/span> pidiendo a los laboratorios de IA que detengan de inmediato el desarrollo de todos los nuevos modelos de lenguaje grande m\u00e1s potentes que OpenAI’ GPT-4<\/span> por las preocupaciones de que podr\u00eda plantear \u00abriesgos profundos para la sociedad y la humanidad\u00bb. Los signatarios, que inclu\u00edan al cofundador de OpenAI, Elon Musk, y al cofundador de Apple, Steve Wozniak, dijeron que apoyar\u00edan una moratoria impuesta por el gobierno sobre la tecnolog\u00eda si las empresas se niegan a participar voluntariamente.<\/p>\nOtros investigadores l\u00edderes en el campo, como la profesora de ling\u00fc\u00edstica de la Universidad de Washington, Emily M. Bende, y la directora general del AI Now Institute, Sarah Myers West, est\u00e1n de acuerdo en que la IA necesita m\u00e1s regulaci\u00f3n, pero se resisten a la tendencia cada vez m\u00e1s com\u00fan de atribuir caracter\u00edsticas similares a las humanas a las m\u00e1quinas que esencialmente juegan un papel muy importante. juego avanzado o asociaci\u00f3n de palabras. sistemas de IA, la los investigadores le dijeron previamente a Gizmodo<\/span>, no son sensibles ni humanos, pero eso no importa. Temen que la tendencia de la tecnolog\u00eda a inventar hechos y presentarlos como la verdad podr\u00eda conducir a una avalancha de informaci\u00f3n err\u00f3nea que dificulta a\u00fan m\u00e1s determinar qu\u00e9 es verdad. Los sesgos integrados en la tecnolog\u00eda de los conjuntos de datos discriminatorios, dicen, significan que los impactos negativos podr\u00edan ser a\u00fan peores para los grupos marginados. Mientras tanto, los conservadores, temerosos de los sesgos \u00abdespertados\u00bb en los resultados del chatbot, han aplaudido la idea de Musk. creando su propio \u00abBasedAI\u00bb pol\u00edticamente incorrecto.<\/span><\/p>\n\u201cA menos que tengamos una intervenci\u00f3n pol\u00edtica, nos enfrentamos a un mundo en el que la trayectoria de la IA no rendir\u00e1 cuentas al p\u00fablico y estar\u00e1 determinada por un pu\u00f1ado de empresas que tienen los recursos para desarrollar estas herramientas y experimentar con ellas en la naturaleza\u201d, West le dijo a Gizmodo.<\/p>\n