Ícono del sitio La Neta Neta

Robot malo: Europa planea cambios en la responsabilidad del producto para que sea más fácil demandar a las IA

Robot malo: Europa planea cambios en la responsabilidad del producto para que sea más fácil demandar a las IA

La Unión Europea actualizará las leyes de responsabilidad por productos defectuosos para abordar el riesgo de daños causados ​​por los sistemas de inteligencia artificial y abordar otros problemas de responsabilidad que surgen de los dispositivos digitales, como drones y dispositivos inteligentes.

Presentar una propuesta de revisión de las normas de productos de la UE de larga data, que incluye una Directiva de responsabilidad de AI — el comisionado de justicia, Didier Reynders, dijo que la modernización del marco legal es necesaria para tener en cuenta la “transformación digital” en general y el desafío de explicabilidad de la ‘caja negra’ que la IA plantea específicamente para garantizar que los consumidores puedan obtener reparación por los daños causados ​​por productos modernos.

El ejecutivo de la UE también argumenta que su enfoque brindará seguridad jurídica a las empresas, además de ayudar a fomentar la confianza (de los consumidores) en sus productos.

“Las normas de responsabilidad actuales no están preparadas para manejar reclamos por daños causados ​​por productos y servicios habilitados para IA”, dijo Reynders al hablar sobre la Directiva de responsabilidad de IA en una rueda de prensa. “Debemos cambiar esto y garantizar la protección de todos los consumidores”.

La Directiva contiene dos medidas principales: requisitos de divulgación y una presunción refutable de causalidad.

“Con estas medidas, las víctimas tendrán una oportunidad efectiva de probar sus reclamaciones de responsabilidad justificadas en los tribunales”, sugirió. “Porque sólo cuando las partes tienen iguales herramientas para defender su caso ante un juez, se hace efectivo el derecho fundamental de acceso a la justicia.

“Nuestra propuesta garantizará que las afirmaciones justificadas no se vean obstaculizadas por dificultades específicas de prueba vinculadas a la IA”.

La propuesta de responsabilidad de AI de la Comisión aplicaría sus protecciones tanto a individuos como a empresas, no solo a consumidores.

Si bien, por el lado de la culpabilidad, el proyecto de ley no se limita en su alcance a un fabricante original de un sistema de IA; más bien, el riesgo de responsabilidad abarca a los fabricantes, desarrolladores o usuarios de un sistema de IA que cause daños como resultado de errores u omisiones. Por lo tanto, parece un diseño bastante más amplio que la propuesta anterior de la Ley de IA (dirigida a los sistemas de IA de “alto riesgo”), ya que no limita la responsabilidad del productor sino que la abre a toda la cadena de suministro.

Esa es una diferencia interesante, especialmente teniendo en cuenta ciertas críticas de la sociedad civil a la Ley de IA por carecer de derechos y vías para que las personas busquen reparación cuando se ven afectadas negativamente por la IA.

La respuesta de la Comisión parece ser que facilitará que las personas demanden si las IA les hacen daño. (En un Preguntas y respuestas sobre el vínculo entre la Ley AI y la Directiva de responsabilidad, escribe: “Las normas orientadas a la seguridad tienen como objetivo principal reducir los riesgos y prevenir daños, pero esos riesgos nunca se eliminarán por completo. Las disposiciones de responsabilidad son necesarias para garantizar que, en caso de que un riesgo se materialice en daño, la compensación sea efectiva y realista. Mientras que la Ley de IA tiene como objetivo prevenir daños, la Directiva de responsabilidad de IA establece una red de seguridad para la compensación en caso de daños”).

“El principio es simple”, dijo Reynders de la Directiva de responsabilidad de AI. “Las nuevas reglas se aplican cuando un producto que funciona gracias a la tecnología AI causa un daño y ese daño es el resultado de un error cometido por los fabricantes, desarrolladores o usuarios de esta tecnología”.

Dio el ejemplo del daño causado por un operador de drones que entrega paquetes pero no respeta las instrucciones del usuario que se relacionan particularmente con la IA como el tipo de escenario que se cubriría. O un fabricante que no está aplicando “medidas correctivas esenciales” para los servicios de contratación que utilizan IA. O un operador que da instrucciones incorrectas a un robot móvil equipado con IA, que luego choca con un automóvil estacionado.

Actualmente, dijo que es difícil obtener compensación por responsabilidad en torno a tales productos de IA, dado lo que describió como “la oscuridad de estas tecnologías, su naturaleza única y su extrema complejidad”.

La directiva propone eludir la “caja negra de la IA” al establecer poderes para que las víctimas obtengan documentos o datos registrados generados por un sistema de IA para construir su caso, también conocidos como poderes de divulgación, con disposiciones también establecidas para proteger información comercialmente sensible (como secretos comerciales).

La ley también introducirá una presunción refutable de causalidad para aliviar el problema de la “carga de la prueba” asociado a los sistemas complejos de IA.

“Este [presumption] significa que si la víctima puede demostrar que la persona responsable cometió fraude al no cumplir con una determinada obligación, como un requisito de la Ley AI o una obligación establecida por la legislación nacional o de la UE para evitar que suceda un daño, el tribunal puede suponer que este no- el cumplimiento provocó el daño”, explicó.

Si bien una persona potencialmente responsable podría refutar la presunción si puede demostrar que otra causa llevó a la IA a generar el daño, agregó.

“La directiva cubre todos los tipos de daños que actualmente se compensan en la legislación nacional de cada Estado miembro, como problemas que resultan en lesiones físicas, daños materiales o discriminación”, continuó Reynders, y agregó: “Esta directiva actuará en interés de todas las víctimas.”

Al comentar sobre este aspecto de la propuesta en un comunicado, John Buyers, jefe de AI en el bufete de abogados internacional Osborne Clarke, dijo: “Hay una interacción muy intencional entre la Ley AI y las nuevas presunciones propuestas sobre responsabilidad, que vinculan el incumplimiento con el régimen regulatorio planificado de la UE con mayor exposición a acciones por daños y perjuicios. En lugar de tener que probar que el sistema de IA causó el daño sufrido, los reclamantes que puedan probar el incumplimiento de la Ley (o de ciertos otros requisitos reglamentarios) se beneficiarán de la presunción de que sus daños están probados. Luego, el enfoque se desplazará hacia el acusado para demostrar que su sistema no es la causa del daño sufrido”.

“La posibilidad de que los demandantes obtengan la documentación de cumplimiento normativo de un demandado para fundamentar sus reclamos puede agregar una capa táctica a la forma en que se escriben esos documentos técnicos”, agregó. “No hay duda de que la industria de la IA, al menos en lo que respecta a las aplicaciones clasificadas como de alto riesgo según la Ley, necesitará dedicar tiempo y pensar para cumplir con la nueva Ley y la mejor manera de proteger sus intereses”.

en un Preguntas y respuestasla Comisión especifica además que las nuevas reglas de responsabilidad de AI cubrirán la compensación “de cualquier tipo de daño cubierto por la legislación nacional (vida, salud, propiedad, privacidad, etc.)”, lo que plantea una perspectiva interesante de litigio de privacidad (notoriamente difícil de sacar bajo los marcos legales actuales en Europa) potencialmente recibiendo un impulso, dado lo lejos que se está extendiendo la IA (y lo rápido y perdido que pueden ser los mineros de datos de IA con la información de las personas).

¿Se podría demandar a Facebook por los daños a la privacidad de los perfiles de comportamiento y la orientación de anuncios en virtud de la directiva entrante? es un pensamiento

Dicho esto, la Comisión echa un poco de agua fría sobre la noción del marco de responsabilidad revisado que faculta a los ciudadanos a demandar directamente por daños y perjuicios por violaciones de sus derechos fundamentales: escritura: “Las nuevas normas no permiten indemnizaciones por infracciones de los derechos fundamentales, por ejemplo, si alguien no pasa una entrevista de trabajo debido a un software de contratación de IA discriminatorio. El proyecto de Ley de IA que se está negociando actualmente tiene como objetivo evitar que se produzcan tales infracciones. Cuando, no obstante, ocurran, las personas pueden recurrir a las normas nacionales de responsabilidad para recibir compensación, y la propuesta Directiva de responsabilidad de AI podría ayudar a las personas en tales reclamos”.

Pero su respuesta al respecto también especifica que se podría presentar una demanda por daños y perjuicios por “pérdida de datos”.

No solo IA de alto riesgo…

Si bien Reynders mencionó en la rueda de prensa de hoy la categoría de “alto riesgo” de los sistemas de IA que se incluye en la Ley de IA, lo que parece sugerir que la directiva de responsabilidad se limitaría a ese subconjunto limitado de aplicaciones de IA, dijo que ese no es en realidad el Intención de la Comisión.

“La referencia es, por supuesto, a los productos de alto riesgo de IA que hemos incluido en la ley de IA, pero con la posibilidad de ir más allá si hay alguna evidencia sobre el vínculo con el daño”, dijo, y agregó: “Así que es no es una limitación a las aplicaciones exclusivas de alto riesgo, pero es la primera referencia y la referencia está vinculada a la Ley de IA”.

Las revisiones a la Directiva de responsabilidad existente de la UE que también se adoptaron hoy, allanando el camino para que la Directiva de responsabilidad de IA establezca reglas uniformes en torno a los productos de IA, también incluyen una modernización adicional enfocada en las reglas de responsabilidad para productos digitales, como permitir la compensación por daños. cuando productos como robots, drones o sistemas domésticos inteligentes se vuelven inseguros debido a actualizaciones de software; o por servicios digitales (o AI) que se necesitan para operar el producto; o si los fabricantes no abordan las vulnerabilidades de ciberseguridad.

A principios de este mes, la UE presentó planes para una Ley de Resiliencia Cibernética para incorporar requisitos obligatorios de ciberseguridad para productos inteligentes que se aplican a lo largo de su vida útil.

La revisión propuesta de las normas de responsabilidad por productos defectuosos de la UE que se remontan a 1985 también tiene por objeto considerar los productos que se originan en modelos comerciales de economía circular, es decir, cuando los productos se modifican o mejoran, y la UE dice que quiere crear seguridad jurídica para ayudar a respaldar la circularidad como parte también de su impulso más amplio para una transición verde.

Comentando en una declaración, el comisario del mercado interior, Thierry Breton, añadió: “La Directiva de responsabilidad por productos defectuosos ha sido una piedra angular del mercado interior durante cuatro décadas. La propuesta de hoy la adecuará para responder a los desafíos de las próximas décadas. Las nuevas reglas reflejarán las cadenas de valor globales, fomentarán la innovación y la confianza del consumidor, y brindarán una mayor seguridad jurídica a las empresas involucradas en la transición verde y digital”.

Las propuestas de responsabilidad por productos defectuosos de la Comisión avanzarán ahora a través del proceso colegislativo de la UE, lo que significa que serán debatidas y posiblemente modificadas por el Parlamento Europeo y el Consejo, que deberán dar su aprobación a los cambios si el paquete se convierte en UE. ley. Por lo tanto, queda por ver cómo podría cambiar el paquete de políticas.

La propuesta de la UE no cubre el daño involuntario o sin culpa causado por los sistemas de IA, pero la Comisión dijo que revisará esa posición cinco años después de que la directiva entre en vigor.

“Los resultados imprevistos, los llamados “casos extremos”, son uno de los riesgos potenciales de los sistemas de IA de aprendizaje automático y será interesante ver si resulta ser un problema teórico o material”, agregaron los compradores de Osborne Clarke.

“La Ley de IA avanza con bastante lentitud a través del proceso legislativo de la UE; ciertamente, no esperamos que se convierta en ley antes de fines de 2023, con un período de cumplimiento posterior, probablemente de 2 años, pero aún se está debatiendo. Por otro lado, es importante monitorear lo que se debe hacer para que las empresas puedan planificar con anticipación en términos de recursos y planificación de este trabajo”.

Este informe se actualizó con un comentario adicional


Source link
Salir de la versión móvil