miércoles, 12 de febrero de 2025

PROPUESTA DE DIRECTIVA EUROPEA SOBRE RESPONSABILIDAD CIVIL EXTRACONTRACTUAL A LA INTELIGENCIA ARTIFICIAL

  Por: Carlos A. FERREYROS SOTO

Doctor en Derecho

Universidad de Montpellier I Francia.

cferreyros@hotmail.com

RESUMEN

A pesar que la propuesta de Directiva sobre responsabilidad civil extracontractual en el ámbito de la IA supone un avance significativo hacia un marco jurídico adaptado a las necesidades tecnológicas actuales, su implementación puede verse suspendida. Dos visiones contrapuestas se han afrontado en la Cumbre sobre IA celebrada en París los días 10 y 11 de febrero: ésta, de promover las tecnologías centradas en el ser humano, no solo para su protección sino el fomento de un entorno regulatorio más claro y seguro para las empresas y las innovaciones de los servicios y mercado digital europeo y; aquella, de su excesiva regulación, acusada de frenar las inversiones, la innovación y el desarrollo global.

En este contexto, el retiro de la Directiva sobre responsabilidad de la IA puede entenderse como un movimiento estratégico de la UE para presentar una imagen de apertura al capital y a la innovación, demostrar que prioriza la competitividad y demostrar buena voluntad hacia la nueva administración estadounidense.

Lo que está en disputa es la franquicia del uso del instrumento de producción Inteligencia Artificial, IA, sin regulación, vulnerando el principio de prevención, su carácter inclusivo y ético.

El suscrito ha traducido del inglés al castellano, con la ayuda del aplicativo Google Translator el Resumen Ejecutivo de la Propuesta de Directiva sobre responsabilidad civil extracontractual en el ámbito de la IA. El enlace al documento original de en inglés obra en: https://www.europarl.europa.eu/thinktank/en/document/EPRS_STU(2024)762861

A fin de acceder a normas similares y estándares europeos, las empresas, organizaciones públicas y privados interesados en asesorías, consultorías, capacitaciones, estudios, evaluaciones, auditorías sobre el tema, sírvanse comunicar al correo electrónico:cferreyros@hotmail.com

________________________________________________________


                                                            Parlamento Europeo

Propuesta de Directiva sobre la adaptación de las normas de responsabilidad civil extracontractual a la inteligencia artificial.

 Evaluación de impacto complementario.

EPRS | Servicio de Estudios del Parlamento Europeo

Unidad de Evaluación de Impacto Ex-Ante

PE 762.861 – Septiembre de 2024

 

Resumen ejecutivo

La responsabilidad por la inteligencia artificial (IA) se encuentra en una encrucijada, tanto a nivel mundial como en la UE. Si bien varias leyes existentes, desde la protección de datos hasta la no discriminación, establecen la responsabilidad por ciertos tipos de daños facilitados por la IA, la Ley de IA y la Directiva revisada sobre responsabilidad por productos (PLD) son los dos primeros instrumentos legales a nivel de la UE que implementan específicamente obligaciones integrales para los sistemas de IA a lo largo de toda la cadena de valor de la IA, y las correspondientes reglas de responsabilidad por productos y software de IA defectuosos. En este contexto, la directiva sobre responsabilidad por la inteligencia artificial (AILD), propuesta por la Comisión Europea junto con la revisión de la PLD, enfrenta varios desafíos en cuanto a cómo encaja en este nuevo marco regulatorio. Sin duda, la IA tiene un enorme potencial para el beneficio social (desde la detección del cáncer hasta la detección del fraude y la prevención de accidentes), pero también conlleva riesgos. Sin embargo, la PLD no cubre adecuadamente la amplia gama de riesgos específicos de la IA, en particular los relacionados con la IA generativa, como la discriminación y la vulneración de los derechos de la personalidad.

Para trazar un camino a seguir para la AILD, esta evaluación de impacto complementaria se desarrolla en cuatro pasos, después de una descripción general inicial sobre la responsabilidad por la IA. En primer lugar, se ofrece una evaluación de la evaluación de impacto inicial (EI) de la Comisión Europea que acompaña a la propuesta de una AILD en 2022. En segundo lugar, el estudio investiga en detalle la relación entre la PLD, la Ley de IA y la AILD. En tercer lugar, se compara el marco de la AILD con las normas propuestas por el Parlamento Europeo en su resolución de 2020 sobre un régimen de responsabilidad civil para la IA. Por último, se evalúa la necesidad y el proceso de convertir la AILD en una regulación de la responsabilidad por software en general.

I. Evaluación de la IA de la Comisión Europea

En el debate sobre la EI de la Comisión Europea, se identifican dos deficiencias clave: un conjunto incompleto de opciones de política y un análisis de costo-beneficio abreviado de las opciones de política. En lo que respecta a la primera, en particular, la EI presta poca atención a la resolución de 2020 del Parlamento Europeo sobre la responsabilidad por la IA. En concreto, no investiga a fondo la posibilidad de integrar la responsabilidad estricta con topes de responsabilidad, y carece de profundidad a la hora de explorar un espectro más amplio de presunciones de negligencia o inversiones completas de la carga de la prueba. En consecuencia, el análisis de la IA de los costos y beneficios asociados a las opciones regulatorias alternativas, como la responsabilidad estricta, se detalla de manera inconsistente. Si bien algunos aspectos de estas opciones de política están bien examinados, la evaluación es más bien breve al analizar el potencial y los inconvenientes asociados con un régimen de responsabilidad estricta.

II. Relación entre la AILD, la PLD y la Ley de IA

Para llenar estos vacíos, se hacen las siguientes recomendaciones.

• Identidad de conceptos y definiciones. La AILD incluye varios conceptos clave de la Ley de IA. Por razones de coherencia y claridad jurídica, la AILD debería adoptar los conceptos utilizados en la Ley de IA (por ejemplo, la propia definición de IA).

• De sistemas de IA de alto riesgo a sistemas de IA de alto impacto. Sin embargo, la AILD debería añadir ciertas categorías que activen las obligaciones de divulgación de pruebas y las presunciones refutables sobre culpa y causalidad[1]. Esto se refiere principalmente a: sistemas de IA de propósito general (por ejemplo, ChatGPT); sistemas del antiguo marco legislativo (por ejemplo, vehículos autónomos; aplicaciones de IA relacionada con el transporte en general[2]); otros sistemas de IA que caen bajo la Sección B del Anexo I de la Ley de IA[3]); y aplicaciones de seguros más allá de los seguros de salud y de vida. El estudio sugiere un término general ("sistemas de IA de alto impacto") para cubrir los sistemas de IA de alto riesgo y esos sistemas adicionales.

• Refutación de la presunción. El marco AILD debería permitir que la presunción de causalidad sea refutada en casos en que las violaciones iniciales de la Ley de IA se rectifiquen en etapas posteriores.

• Violaciones de los artículos 14 y 26 de la Ley de IA. Los artículos 14 y 26 de la Ley de IA requieren mecanismos de supervisión humana en los sistemas de IA. La causalidad directa entre la falta de supervisión ex post y los resultados perjudiciales no siempre está clara. Se sugiere establecer una presunción directa de causalidad entre los resultados de la IA y los daños por incumplimiento de las obligaciones de monitoreo.

• Manejo de sistemas de IA prohibidos. Para los sistemas de IA prohibidos según el Artículo 5 de la Ley de IA, la recomendación es asumir la responsabilidad estricta por cualquier daño que causen.

• Impacto de los sistemas de IA de propósito general. El marco actual de la AILD no cubre adecuadamente los sistemas de IA de propósito general, lo que puede provocar daños significativos, en particular en los ámbitos de la no discriminación (por ejemplo, contenido desequilibrado) y los derechos de la personalidad (por ejemplo, discurso de odio y noticias falsas). Se recomienda que los sistemas de IA generativos, como ChatGPT, se clasifiquen en la nueva categoría de "alto impacto". Esto los incluiría en el ámbito de la AILD, garantizaría la divulgación de pruebas y establecería presunciones de causalidad para las violaciones de seguridad. Esto, a su vez, ayuda a las partes lesionadas en las demandas legales.

• Extensión de la AILD más allá de la PLD. Dadas las limitaciones de la PLD (por ejemplo, en relación con los usuarios no profesionales y los tipos de daños no cubiertos por la PLD), hay un sólido argumento para ampliar la AILD, para garantizar un marco de responsabilidad integral (véase la Figura 1, a continuación).

• Aplicabilidad de la AILD a los casos de discriminación. Debe quedar claro que la AILD se aplica a los casos de responsabilidad por discriminación. La necesidad de mecanismos de divulgación de pruebas y de una presunción refutable en los casos de discriminación se ve subrayada por los desafíos de aplicación existentes y el precedente legal establecido por el Tribunal de Justicia de la UE (caso Meister), que actualmente restringe el acceso a datos y algoritmos críticos para demostrar la discriminación.

Figura 1 – Áreas cubiertas por la AILD pero no por la PLD


Fuente: Autor

• De la AILD a un instrumento de responsabilidad del software. El borrador actual de la AILD aborda la responsabilidad de la IA, pero no aborda las complejidades y desafíos similares presentes en muchos tipos de software que no son de IA (por ejemplo, la prueba de la culpa y la causalidad). La PLD, a su vez, ya se aplica al software de manera más general. Para abordar esta discrepancia, se recomienda que la AILD se amplíe a un instrumento de responsabilidad del software más integral (consulte la Tabla 1, a continuación). Esto puede tomar la forma de una directiva o, preferiblemente, un reglamento (Parte IV, a continuación). Abarcaría no solo la IA, sino también todos los demás tipos de software, como la PLD. Esta ampliación garantizaría que las exenciones de pruebas se apliquen de manera uniforme a todas las aplicaciones de software, independientemente de si están clasificadas como sistemas de IA (de alto riesgo) o no.

En concreto, el mecanismo de divulgación de pruebas debería ser aplicable a todos los tipos de software, y la presunción refutable para el software que no sea de IA debería alinearse con las normas para los sistemas de IA que no sean de alto riesgo. Tabla 1 – Tipos de software y daños cubiertos por la PLD revisada, la AILD propuesta y el instrumento de responsabilidad del software (SLI) recomendado

 

Software no IA

 

IA

Propiedad del Consumidor((PLD)

EDM, RP

 

EDM, RP

 

Salud (PLD)

EDM, RP

 

EDM, RP

 

Vida (PLD)

EDM, RP

 

EDM, RP

 

Discriminación (AILD/SLI)

EDM, RP

 

EDM, RP

 

Derechos de la personalidad (AILD/SLI)

EDM, RP

 

EDM, RP

 

Otros derechos fundamentales (AILD/SLI)

EDM, RP

 

EDM, RP

 

Propiedad profesional, como derechos de propiedad intelectual (AILD/SLI)

EDM, RP

 

EDM, RP

 

Pérdida económica pura (AILD/SLI)

EDM, RP

 

EDM, RP

 

Daños a la sostenibilidad (AILD/SLI)

EDM, RP

 

EDM, RP

 

Nota: EDM: Mecanismo de divulgación de pruebas; IP: Propiedad intelectual; RP: Presunción refutable.

Fuente: Autor.

La Tabla 1 muestra que, sin la AILD y la SLI, la protección sería inadecuada en muchas áreas, en comparación con la nueva PLD: en las casillas verdes, solo se puede lograr una protección similar con la AILD; y en las casillas rojas, solo con la SLI.

III. La AILD y la resolución del Parlamento Europeo de 2020 sobre responsabilidad de la IA

• Responsabilidad estricta para los modelos de daño ilegítimo. Se recomienda que el marco de responsabilidad estricta propuesto en la resolución del Parlamento Europeo de 2020 sobre responsabilidad de la IA,[4] en particular para los sistemas de IA de alto riesgo, se considere para su integración en una AILD revisada. Esto implicaría adoptar un modelo de responsabilidad estricta que distinga entre los modelos de IA que causan daño legítimo e ilegítimo en el curso adecuado de su funcionamiento. Si los sistemas de IA están destinados a causar un daño justificado, por ejemplo al rechazar correctamente a un candidato para un puesto de trabajo, no pueden estar sujetos a una responsabilidad verdaderamente estricta. De lo contrario, todos los candidatos, excepto el elegido, podrían demandar con éxito al operador de un sistema que funcione perfectamente.

• Argumentos a favor y en contra de la responsabilidad estricta. En lo que respecta a los modelos que no deberían causar daños si se diseñan y se implementan correctamente, es necesario sopesar a fondo los argumentos a favor y en contra de la responsabilidad estricta. Una responsabilidad verdaderamente estricta para la IA puede crear incentivos para una cantidad socialmente óptima de implementación de la IA, agilizar los procesos de compensación y garantizar que quienes se benefician principalmente de ella económicamente también asuman el costo de los daños potenciales. Por el contrario, una responsabilidad verdaderamente estricta podría tener un efecto disuasorio sobre la inversión y el despliegue de la IA en la UE y, por lo tanto, reducir la disponibilidad de tecnologías de IA beneficiosas. En la medida en que esto afecte a servicios críticos como la atención médica y la educación, podría conducir potencialmente a una disminución en el disfrute de los derechos fundamentales relacionados. Además, un régimen de responsabilidad de este tipo podría aumentar los litigios vejatorios, en particular los relacionados con daños inmateriales. Esto afectaría en particular a las pequeñas y medianas empresas (PYME), que representan la mayor parte del ecosistema europeo de IA.

• Opciones políticas y transparencia. Estos argumentos deberían discutirse abierta y transparentemente en el proceso legislativo de la AILD. La adopción de una responsabilidad estricta para los sistemas de IA de alto riesgo es, en última instancia, una opción política y normativa.

• Responsabilidad conjunta a lo largo de la cadena de valor. La distribución justa de la responsabilidad en la cadena de valor de la IA, en particular en el caso de los sistemas de IA de uso general, requiere un marco de reparación simplificado en la AILD, para reducir la dependencia de diversas leyes nacionales y fomentar un entorno jurídico coherente dentro de la UE. Sobre la base de las disposiciones de la PLD y la Ley de Datos, tres opciones de política (la presunción de participación igualitaria, el apoyo a las pymes y la protección de las partes posteriores) ofrecen diferentes mecanismos para garantizar una compensación justa y una distribución de la responsabilidad. Pueden combinarse y todas requieren disposiciones vinculantes para evitar que las prácticas contractuales socaven estas protecciones.

• Responsabilidad basada en la culpa y divulgación de pruebas. La AILD debería alinearse con la PLD al exigir que la divulgación (de pruebas) se presente de una manera fácilmente comprensible para los no expertos, como los consumidores o sus asesores legales. En el caso de las reclamaciones de no competidores, debería reducirse la barrera para activar la divulgación de pruebas al exigir únicamente la demostración del daño y la participación de un sistema de IA.

IV. Elección del instrumento

• De directivas a reglamentos. La transición de una directiva a un reglamento evitaría la fragmentación del mercado, mejoraría la claridad y promovería la innovación y la protección del consumidor al establecer estándares legales consistentes en todo el mercado único digital. También se alinearía con las tendencias actuales en la legislación sobre seguridad de los productos, donde numerosas directivas están siendo reemplazadas por reglamentos (por ejemplo, el Reglamento general sobre seguridad de los productos; el Reglamento sobre dispositivos médicos). Por lo tanto, estas conclusiones exigen un Reglamento revisado sobre responsabilidad por productos y un reglamento sobre responsabilidad de la IA (o más bien: un reglamento sobre responsabilidad del software, véase más arriba) en lugar de directivas.

• Pasos a seguir. La implementación de este cambio requiere: (i) evaluaciones legales alineadas con los Tratados de la UE; (ii) consultas con las partes interesadas, (iii) una evaluación de impacto; (iv) modificaciones a la propuesta legal; (v) seguir el procedimiento legislativo ordinario; y (vi) desarrollar directrices de implementación detalladas para una transición sin problemas.



[1] La AILD establece que, en determinadas circunstancias, las partes lesionadas tienen derecho a obtener pruebas de la persona que desarrolla o utiliza un sistema de IA; en algunos casos, la AILD también establece que se presume la culpa de estos individuos (y la causalidad de esa culpa para el resultado de la IA) a menos que estos individuos puedan mostrar evidencia de lo contrario.

[2] Véase también, en una línea similar, M. C. Buiten, A. De Streel y M. Peitz, 'The law and economics of AI liability  , Computer Law & Security Review, vol. 48, artículo 105794, 2023, pág. 18; J. De Bruyne, O. Dheu y C. Ducuing, The European Commission's approach to extra-contractual liability and AI – An evaluation of the AI liability directive and the revised product liability directive  , Computer Law & Security Review, vol. 51, artículo 105894, 2023, pág. 4: '[La AILD] también puede ser una oportunidad perdida, considerando la importancia de los vehículos autónomos.'; S. Wachter, 'Limitations and loopholes in the EU AI Act and AI Liability Directives: what this means for the European Union, the United States, and beyond'  ', Yale Journal of Law and Technology, vol. 26(3), 2024, pág. 671, p. 716.

[3] Regulation (EU) 2024/1689   del Parlamento Europeo y del Consejo, de 13 de junio de 2024, por el que se establecen normas armonizadas sobre inteligencia artificial (Ley de Inteligencia Artificial).

[4] Resolution  de 20 de octubre de 2020 con recomendaciones


No hay comentarios:

Publicar un comentario