{"id":200241,"date":"2022-09-29T00:14:25","date_gmt":"2022-09-29T00:14:25","guid":{"rendered":"https:\/\/magazineoffice.com\/europa-planea-cambios-en-la-responsabilidad-del-producto-para-que-sea-mas-facil-demandar-a-las-ia-techcrunch\/"},"modified":"2022-09-29T00:14:27","modified_gmt":"2022-09-29T00:14:27","slug":"europa-planea-cambios-en-la-responsabilidad-del-producto-para-que-sea-mas-facil-demandar-a-las-ia-techcrunch","status":"publish","type":"post","link":"https:\/\/magazineoffice.com\/europa-planea-cambios-en-la-responsabilidad-del-producto-para-que-sea-mas-facil-demandar-a-las-ia-techcrunch\/","title":{"rendered":"Europa planea cambios en la responsabilidad del producto para que sea m\u00e1s f\u00e1cil demandar a las IA – TechCrunch"},"content":{"rendered":"


\n<\/p>\n

\n

\n

La Uni\u00f3n Europea actualizar\u00e1 las leyes de responsabilidad por productos defectuosos para abordar el riesgo de da\u00f1os causados \u200b\u200bpor los sistemas de inteligencia artificial y abordar otros problemas de responsabilidad derivados de dispositivos digitales, como drones y dispositivos inteligentes.<\/span><\/p>\n

Al presentar una propuesta de revisi\u00f3n de las reglas de productos de la UE de larga data, que incluye una Directiva de responsabilidad de AI dedicada, el comisionado de justicia, Didier Reynders, dijo que se necesita una modernizaci\u00f3n del marco legal para tener en cuenta la \u00abtransformaci\u00f3n digital\u00bb en general y la explicabilidad de la \u00abcaja negra\u00bb. desaf\u00edo que la IA plantea espec\u00edficamente para garantizar que los consumidores pueden obtener reparaci\u00f3n por los da\u00f1os causados \u200b\u200bpor los productos modernos. <\/span><\/p>\n

El ejecutivo de la UE tambi\u00e9n argumenta que su enfoque brindar\u00e1 seguridad jur\u00eddica a las empresas, adem\u00e1s de ayudar a fomentar la confianza (de los consumidores) en sus productos.<\/p>\n

\u201cLas normas de responsabilidad actuales no est\u00e1n preparadas para manejar reclamos por da\u00f1os causados \u200b\u200bpor productos y servicios habilitados para IA\u201d, dijo Reynders al hablar sobre la Directiva de responsabilidad de IA en una rueda de prensa. \u201cDebemos cambiar esto y garantizar la protecci\u00f3n de todos los consumidores\u201d.<\/p>\n

La Directiva contiene dos medidas principales: requisitos de divulgaci\u00f3n y una presunci\u00f3n refutable de causalidad.<\/p>\n

\u201cCon estas medidas, las v\u00edctimas tendr\u00e1n una oportunidad efectiva de probar sus reclamaciones de responsabilidad justificadas en los tribunales\u201d, sugiri\u00f3. \u201cPorque s\u00f3lo cuando las partes tienen iguales herramientas para defender su caso ante un juez, se hace efectivo el derecho fundamental de acceso a la justicia.<\/p>\n

\u201cNuestra propuesta garantizar\u00e1 que las afirmaciones justificadas no se vean obstaculizadas por dificultades espec\u00edficas de prueba vinculadas a la IA\u201d.<\/p>\n

La propuesta de responsabilidad de AI de la Comisi\u00f3n aplicar\u00eda sus protecciones tanto a individuos como a empresas, no solo a consumidores.<\/p>\n

Si bien, por el lado de la culpabilidad, el proyecto de ley no se limita en su alcance a un fabricante original de un sistema de IA; m\u00e1s bien, el riesgo de responsabilidad abarca a los fabricantes, desarrolladores o usuarios de un sistema de IA que cause da\u00f1os como resultado de errores u omisiones. Por lo tanto, parece un dise\u00f1o bastante m\u00e1s amplio que la propuesta anterior de la Ley de IA (dirigida a los sistemas de IA de \u00abalto riesgo\u00bb), ya que no limita la responsabilidad del productor sino que la abre a toda la cadena de suministro.<\/p>\n

Esa es una diferencia interesante, especialmente teniendo en cuenta ciertas cr\u00edticas de la sociedad civil a la Ley de IA por carecer de derechos y v\u00edas para que las personas busquen reparaci\u00f3n cuando se ven afectadas negativamente por la IA.<\/p>\n

La respuesta de la Comisi\u00f3n parece ser que facilitar\u00e1 que las personas demanden si las IA les hacen da\u00f1o. (En una sesi\u00f3n de preguntas y respuestas sobre el v\u00ednculo entre la Ley de IA y la Directiva de responsabilidad, se escribe: \u201cLas normas orientadas a la seguridad tienen como objetivo principal reducir los riesgos y prevenir da\u00f1os, pero esos riesgos nunca se eliminar\u00e1n por completo. Se necesitan disposiciones de responsabilidad para garantizar que, en el caso de que un riesgo se materialice en da\u00f1o, la compensaci\u00f3n es efectiva y realista. Mientras que la Ley AI tiene como objetivo prevenir el da\u00f1o, la Directiva de Responsabilidad AI establece una red de seguridad para la compensaci\u00f3n en caso de da\u00f1o\u00bb).<\/span><\/p>\n

\u201cEl principio es simple\u201d, dijo Reynders de la Directiva de responsabilidad de AI. \u201cLas nuevas reglas se aplican cuando un producto que funciona gracias a la tecnolog\u00eda de IA causa da\u00f1os y<\/em> que este da\u00f1o es el resultado de un error cometido por los fabricantes, desarrolladores o usuarios de esta tecnolog\u00eda\u201d.<\/p>\n

Dio el ejemplo del da\u00f1o causado por un operador de drones que entrega paquetes pero no respeta las instrucciones del usuario que se relacionan particularmente con la IA como el tipo de escenario que se cubrir\u00eda. O un fabricante que no est\u00e1 aplicando \u00abmedidas correctivas esenciales\u00bb para los servicios de contrataci\u00f3n que utilizan IA. O un operador que da instrucciones incorrectas a un robot m\u00f3vil equipado con IA, que luego choca con un autom\u00f3vil estacionado.<\/p>\n

Actualmente, dijo que es dif\u00edcil obtener compensaci\u00f3n por responsabilidad en torno a tales productos de IA, dado lo que describi\u00f3 como \u00abla oscuridad de estas tecnolog\u00edas, su naturaleza \u00fanica y su extrema complejidad\u00bb.<\/p>\n

La directiva propone eludir la \u00abcaja negra de la IA\u00bb al establecer poderes para que las v\u00edctimas obtengan documentos o datos registrados generados por un sistema de IA para construir su caso, tambi\u00e9n conocidos como poderes de divulgaci\u00f3n, con disposiciones tambi\u00e9n establecidas para proteger informaci\u00f3n comercialmente sensible (como secretos comerciales).<\/p>\n

La ley tambi\u00e9n introducir\u00e1 una presunci\u00f3n refutable de causalidad para aliviar el problema de la \u00abcarga de la prueba\u00bb asociado a los sistemas complejos de IA.<\/p>\n

\u00abEste [presumption] significa que si la v\u00edctima puede demostrar que la persona responsable cometi\u00f3 fraude al no cumplir con una determinada obligaci\u00f3n, como un requisito de la Ley AI o una obligaci\u00f3n establecida por la legislaci\u00f3n nacional o de la UE para evitar que suceda un da\u00f1o, el tribunal puede suponer que este no- el cumplimiento provoc\u00f3 el da\u00f1o\u201d, explic\u00f3.<\/p>\n

Si bien una persona potencialmente responsable podr\u00eda refutar la presunci\u00f3n si puede demostrar que otra causa llev\u00f3 a la IA a generar el da\u00f1o, agreg\u00f3.<\/p>\n

\u201cLa directiva cubre todos los tipos de da\u00f1os que actualmente se compensan en la legislaci\u00f3n nacional de cada Estado miembro, como problemas que resultan en lesiones f\u00edsicas, da\u00f1os materiales o discriminaci\u00f3n\u201d, continu\u00f3 Reynders, y agreg\u00f3: \u201cEsta directiva actuar\u00e1 en inter\u00e9s de todas las v\u00edctimas.\u201d<\/p>\n

Al comentar sobre este aspecto de la propuesta en un comunicado, John Buyers, jefe de AI en el bufete de abogados internacional Osborne Clarke, dijo: \u00abHay una interacci\u00f3n muy intencional entre la Ley AI y las nuevas presunciones propuestas sobre responsabilidad, que vinculan el incumplimiento con el r\u00e9gimen regulatorio planificado de la UE con mayor exposici\u00f3n a acciones por da\u00f1os y perjuicios. En lugar de tener que probar que el sistema de IA caus\u00f3 el da\u00f1o sufrido, los reclamantes que puedan probar el incumplimiento de la Ley (o de ciertos otros requisitos reglamentarios) se beneficiar\u00e1n de la presunci\u00f3n de que sus da\u00f1os est\u00e1n probados. Luego, el enfoque se desplazar\u00e1 hacia el acusado para demostrar que su sistema no es la causa del da\u00f1o sufrido\u201d.<\/p>\n

\u201cLa posibilidad de que los demandantes obtengan la documentaci\u00f3n de cumplimiento normativo de un demandado para fundamentar sus reclamos puede agregar una capa t\u00e1ctica a la forma en que se escriben esos documentos t\u00e9cnicos\u201d, agreg\u00f3. \u00abNo hay duda de que la industria de la IA, al menos en lo que respecta a las aplicaciones clasificadas como de alto riesgo seg\u00fan la Ley, necesitar\u00e1 dedicar tiempo y pensar para cumplir con la nueva Ley y la mejor manera de proteger sus intereses\u00bb.<\/p>\n

En una sesi\u00f3n de preguntas y respuestas, la Comisi\u00f3n especifica adem\u00e1s que las nuevas reglas de responsabilidad de AI cubrir\u00e1n la compensaci\u00f3n \u00abde cualquier tipo de da\u00f1o cubierto por la legislaci\u00f3n nacional (vida, salud, propiedad, privacidad, etc.)\u00bb, lo que plantea una perspectiva interesante de litigio de privacidad (notoriamente dif\u00edciles de lograr bajo los marcos legales actuales en Europa) potencialmente<\/em> obteniendo un impulso, dado lo lejos que se est\u00e1 extendiendo la IA (y lo r\u00e1pido y perdido que pueden ser los mineros de datos de IA con la informaci\u00f3n de las personas).<\/p>\n

\u00bfSe podr\u00eda demandar a Facebook por los da\u00f1os a la privacidad de los perfiles de comportamiento y la orientaci\u00f3n de anuncios en virtud de la directiva entrante? es un pensamiento<\/p>\n

Dicho esto, la Comisi\u00f3n vierte un poco de agua fr\u00eda sobre la noci\u00f3n del marco de responsabilidad revisado que faculta a los ciudadanos a demandar directamente por da\u00f1os y perjuicios por infracciones de sus derechos fundamentales, escribiendo: \u201cLas nuevas reglas no permiten compensaci\u00f3n por infracciones de derechos fundamentales, por ejemplo si alguien fall\u00f3 en una entrevista de trabajo debido a un software de reclutamiento de IA discriminatorio. El proyecto de Ley de IA que se est\u00e1 negociando actualmente tiene como objetivo evitar que se produzcan tales infracciones. Sin embargo, cuando ocurran, las personas pueden recurrir a las normas nacionales de responsabilidad para obtener una compensaci\u00f3n, y la Directiva de responsabilidad de AI propuesta podr\u00eda ayudar a las personas en tales reclamos\u201d.<\/p>\n

Pero su respuesta sobre eso tambi\u00e9n especifica que un reclamo por da\u00f1os y perjuicios pudo<\/em> ser presentado por \u201cp\u00e9rdida de datos\u201d.<\/p>\n

No solo IA de alto riesgo…<\/h2>\n

Si bien Reynders mencion\u00f3 en la rueda de prensa de hoy la categor\u00eda de \u00abalto riesgo\u00bb de los sistemas de IA que se incluye en la Ley de IA, lo que parece sugerir que la directiva de responsabilidad se limitar\u00eda a ese subconjunto limitado de aplicaciones de IA, dijo que ese no es en realidad el Intenci\u00f3n de la Comisi\u00f3n.<\/p>\n

\u201cLa referencia es, por supuesto, a los productos de alto riesgo de IA que hemos incluido en la ley de IA, pero con la posibilidad de ir m\u00e1s all\u00e1 si hay alguna evidencia sobre el v\u00ednculo con el da\u00f1o\u201d, dijo, y agreg\u00f3: \u201cAs\u00ed que es no es una limitaci\u00f3n a las aplicaciones exclusivas de alto riesgo, pero es la primera referencia y la referencia est\u00e1 vinculada a la Ley de IA\u201d.<\/p>\n

Las revisiones a la Directiva de responsabilidad existente de la UE que tambi\u00e9n se adoptaron hoy, allanando el camino para que la Directiva de responsabilidad de IA establezca reglas uniformes en torno a los productos de IA, tambi\u00e9n incluyen una modernizaci\u00f3n adicional enfocada en las reglas de responsabilidad para productos digitales, como permitir la compensaci\u00f3n por da\u00f1os. cuando productos como robots, drones o sistemas dom\u00e9sticos inteligentes se vuelven inseguros debido a actualizaciones de software; o por servicios digitales (o AI) que se necesitan para operar el producto; o si los fabricantes no abordan las vulnerabilidades de ciberseguridad.<\/p>\n

A principios de este mes, la UE present\u00f3 planes para una Ley de Resiliencia Cibern\u00e9tica para incorporar requisitos obligatorios de ciberseguridad para productos inteligentes que se aplican a lo largo de su vida \u00fatil.<\/p>\n

La revisi\u00f3n propuesta de las normas de responsabilidad por productos defectuosos de la UE que se remontan a 1985 tambi\u00e9n tiene por objeto considerar los productos que se originan en modelos comerciales de econom\u00eda circular, es decir, cuando los productos se modifican o mejoran, y la UE dice que quiere crear seguridad jur\u00eddica para ayudar a respaldar la circularidad como parte tambi\u00e9n de su impulso m\u00e1s amplio para una transici\u00f3n verde.<\/p>\n

Comentando en un comunicado, el comisionado para el mercado interior, Thierry Breton, agreg\u00f3: \u201c<\/em>La Directiva de responsabilidad por productos defectuosos ha sido la piedra angular del mercado interior durante cuatro d\u00e9cadas. La propuesta de hoy la adecuar\u00e1 para responder a los desaf\u00edos de las pr\u00f3ximas d\u00e9cadas. Las nuevas reglas reflejar\u00e1n las cadenas de valor globales, fomentar\u00e1n la innovaci\u00f3n y la confianza del consumidor, y brindar\u00e1n una mayor seguridad jur\u00eddica a las empresas involucradas en la transici\u00f3n verde y digital\u201d.<\/p>\n

Las propuestas de responsabilidad por productos defectuosos de la Comisi\u00f3n avanzar\u00e1n ahora a trav\u00e9s del proceso colegislativo de la UE, lo que significa que ser\u00e1n debatidas y posiblemente modificadas por el Parlamento Europeo y el Consejo, que deber\u00e1n dar su aprobaci\u00f3n a los cambios si el paquete se convierte en UE. ley. Por lo tanto, queda por ver c\u00f3mo podr\u00eda cambiar el paquete de pol\u00edticas.<\/p>\n

La propuesta de la UE no cubre el da\u00f1o involuntario o sin culpa causado por los sistemas de IA, pero la Comisi\u00f3n dijo que revisar\u00e1 esa posici\u00f3n cinco a\u00f1os despu\u00e9s de que la directiva entre en vigor.<\/p>\n

Los resultados imprevistos, los llamados \u00abcasos extremos\u00bb, son uno de los riesgos potenciales del aprendizaje autom\u00e1tico. AI<\/span> sistemas y ser\u00e1 interesante ver si eso resulta ser un problema te\u00f3rico o material\u201d, agreg\u00f3 Compradores de Osborne Clarke.<\/p>\n

\u201clos AI<\/span> Act avanza con bastante lentitud a trav\u00e9s del proceso legislativo de la UE; ciertamente, no esperamos que se convierta en ley antes de fines de 2023, con un per\u00edodo de cumplimiento despu\u00e9s de eso, probablemente de 2 a\u00f1os, pero a\u00fan se est\u00e1 debatiendo. Por otro lado, es importante monitorear lo que se debe hacer para que las empresas puedan planificar con anticipaci\u00f3n en t\u00e9rminos de recursos y planificaci\u00f3n de este trabajo\u201d.<\/p>\n

Este informe se actualiz\u00f3 con un comentario adicional<\/em><\/p>\n<\/p><\/div>\n


\n
Source link-48<\/a><\/p>\n","protected":false},"excerpt":{"rendered":"

La Uni\u00f3n Europea actualizar\u00e1 las leyes de responsabilidad por productos defectuosos para abordar el riesgo de da\u00f1os causados \u200b\u200bpor los sistemas de inteligencia artificial y abordar otros problemas de responsabilidad…<\/p>\n","protected":false},"author":1,"featured_media":200242,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[21980],"tags":[2134,194,12916,593,1001,246,84,107,4364,14171,3894,1101,22367],"_links":{"self":[{"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/posts\/200241"}],"collection":[{"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/comments?post=200241"}],"version-history":[{"count":1,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/posts\/200241\/revisions"}],"predecessor-version":[{"id":200243,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/posts\/200241\/revisions\/200243"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/media\/200242"}],"wp:attachment":[{"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/media?parent=200241"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/categories?post=200241"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/tags?post=200241"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}