{"id":214883,"date":"2022-10-05T09:47:01","date_gmt":"2022-10-05T09:47:01","guid":{"rendered":"https:\/\/magazineoffice.com\/la-casa-blanca-propone-reglas-voluntarias-de-seguridad-y-transparencia-en-torno-a-la-ia-techcrunch\/"},"modified":"2022-10-05T09:47:03","modified_gmt":"2022-10-05T09:47:03","slug":"la-casa-blanca-propone-reglas-voluntarias-de-seguridad-y-transparencia-en-torno-a-la-ia-techcrunch","status":"publish","type":"post","link":"https:\/\/magazineoffice.com\/la-casa-blanca-propone-reglas-voluntarias-de-seguridad-y-transparencia-en-torno-a-la-ia-techcrunch\/","title":{"rendered":"La Casa Blanca propone reglas voluntarias de seguridad y transparencia en torno a la IA \u2022 TechCrunch"},"content":{"rendered":"
\n<\/p>\n
La Casa Blanca dio a conocer esta ma\u00f1ana lo que coloquialmente llama una \u00abDeclaraci\u00f3n de derechos de IA\u00bb, que tiene como objetivo establecer principios sobre las formas en que se deben implementar los algoritmos de IA, as\u00ed como las medidas de seguridad en sus aplicaciones. En cinco vi\u00f1etas elaboradas con comentarios del p\u00fablico, empresas como Microsoft y Palantir y grupos de derechos humanos y \u00e9tica de la IA, el documento establece los principios de seguridad, transparencia y privacidad que la Oficina de Pol\u00edtica Cient\u00edfica y Tecnol\u00f3gica (OSTP, por sus siglas en ingl\u00e9s), que redact\u00f3 el borrador de la IA. Declaraci\u00f3n de derechos: argumenta que conducir\u00e1 a mejores resultados mientras mitiga las consecuencias da\u00f1inas de la vida real. <\/span><\/p>\n La Declaraci\u00f3n de derechos de IA exige que los sistemas de IA demuestren ser seguros y efectivos mediante pruebas y consultas con las partes interesadas, adem\u00e1s del monitoreo continuo de los sistemas en producci\u00f3n. Llama expl\u00edcitamente a la discriminaci\u00f3n algor\u00edtmica, diciendo que los sistemas de IA deben dise\u00f1arse para proteger tanto a las comunidades como a las personas de la toma de decisiones sesgada. Y sugiere encarecidamente que los usuarios deber\u00edan poder optar por no participar en las interacciones con un sistema de IA si as\u00ed lo desean, por ejemplo, en caso de una falla del sistema.<\/span><\/p>\n M\u00e1s all\u00e1 de esto, el plan propuesto por la Casa Blanca postula que los usuarios deben tener control sobre c\u00f3mo se utilizan sus datos, ya sea en la toma de decisiones o el desarrollo de un sistema de IA, y ser informados en un lenguaje sencillo sobre cu\u00e1ndo se utiliza un sistema automatizado en un lenguaje sencillo. <\/span><\/p>\n Para los puntos de OSTP, la historia reciente est\u00e1 llena de ejemplos de algoritmos que se han vuelto locos. Posteriormente se descubri\u00f3 que los modelos utilizados en los hospitales para informar los tratamientos de los pacientes eran discriminatorios, mientras que se demostr\u00f3 que las herramientas de contrataci\u00f3n dise\u00f1adas para descartar candidatos para puestos de trabajo rechazan predominantemente a las mujeres solicitantes en favor de los hombres, debido a los datos sobre los que se entrenaron los sistemas. Sin embargo, como se\u00f1alan Axios y Wired en su cobertura de la prensa de hoy, la Casa Blanca llega tarde a la fiesta; un n\u00famero creciente de organismos ya han intervenido sobre el tema de la regulaci\u00f3n de la IA, incluida la UE e incluso el Vaticano.<\/span><\/p>\n Tambi\u00e9n es completamente voluntario. Mientras que la Casa Blanca busca \u201cpredicar con el ejemplo\u201d y hacer que las agencias federales se alineen con sus propias acciones y pol\u00edticas derivadas, las corporaciones privadas no est\u00e1n sujetas a la Declaraci\u00f3n de Derechos de AI.<\/p>\n Junto con el lanzamiento de la Declaraci\u00f3n de Derechos de AI, la Casa Blanca anunci\u00f3 que ciertas agencias, incluido el Departamento de Salud y Servicios Humanos y el Departamento de Educaci\u00f3n, publicar\u00e1n una gu\u00eda en los pr\u00f3ximos meses para reducir el uso de tecnolog\u00edas algor\u00edtmicas da\u00f1inas o peligrosas. en configuraciones espec\u00edficas. Pero estos pasos no alcanzan, por ejemplo, la regulaci\u00f3n de la UE en desarrollo, que proh\u00edbe y restringe ciertas categor\u00edas de IA que se considera que tienen un potencial da\u00f1ino.<\/p>\n A\u00fan as\u00ed, expertos como Oren Etzioni, cofundador del Instituto Allen para IA, creen que las pautas de la Casa Blanca tendr\u00e1n cierta influencia. \u201cSi se implementa correctamente, [a] El proyecto de ley podr\u00eda reducir el uso indebido de la IA y, sin embargo, respaldar los usos beneficiosos de la IA en la medicina, la conducci\u00f3n, la productividad empresarial y m\u00e1s\u201d, dijo a The Wall Street Journal.<\/p>\n<\/p><\/div>\n