Por: Carlos A. FERREYROS SOTO
Doctor
en Derecho
Universidad de Montpellier I Francia.
RESUMEN
A pesar que la
propuesta de Directiva sobre responsabilidad civil extracontractual en el ámbito
de la IA supone un avance significativo hacia un marco jurídico adaptado a las necesidades
tecnológicas actuales, su implementación puede verse suspendida. Dos visiones contrapuestas
se han afrontado en la Cumbre sobre IA celebrada
en París los días 10 y 11 de febrero: ésta, de promover las tecnologías centradas
en el ser humano, no solo para su protección sino el fomento de un entorno regulatorio
más claro y seguro para las empresas y las innovaciones de los servicios y mercado
digital europeo y; aquella, de su excesiva regulación,
acusada de frenar las inversiones, la innovación y el desarrollo global.
En este contexto, el retiro de la Directiva sobre responsabilidad
de la IA puede entenderse como un movimiento estratégico de la UE para presentar
una imagen de apertura al capital y a la innovación, demostrar que prioriza la competitividad
y demostrar buena voluntad hacia la nueva administración estadounidense.
Lo que está en disputa es la franquicia del uso del instrumento
de producción Inteligencia Artificial, IA, sin regulación, vulnerando el
principio de prevención, su carácter inclusivo y ético.
El suscrito ha traducido del inglés al castellano, con la ayuda del aplicativo Google Translator el Resumen Ejecutivo de la Propuesta de Directiva sobre responsabilidad civil extracontractual en el ámbito de la IA. El enlace al documento original de en inglés obra en: https://www.europarl.europa.eu/thinktank/en/document/EPRS_STU(2024)762861
A
fin de acceder a normas similares y estándares europeos, las empresas, organizaciones
públicas y privados interesados en asesorías, consultorías, capacitaciones, estudios,
evaluaciones, auditorías sobre el tema, sírvanse comunicar al correo electrónico:cferreyros@hotmail.com
________________________________________________________
Parlamento Europeo
Propuesta de Directiva sobre la adaptación de las normas de responsabilidad civil extracontractual a la inteligencia artificial.
Evaluación de impacto complementario.
EPRS | Servicio de Estudios del Parlamento
Europeo
Unidad de Evaluación de Impacto Ex-Ante
PE 762.861 – Septiembre de 2024
Resumen
ejecutivo
La
responsabilidad por la inteligencia artificial (IA) se encuentra en una
encrucijada, tanto a nivel mundial como en la UE. Si bien varias leyes
existentes, desde la protección de datos hasta la no discriminación, establecen
la responsabilidad por ciertos tipos de daños facilitados por la IA, la Ley de
IA y la Directiva revisada sobre responsabilidad por productos (PLD) son los
dos primeros instrumentos legales a nivel de la UE que implementan
específicamente obligaciones integrales para los sistemas de IA a lo largo de
toda la cadena de valor de la IA, y las correspondientes reglas de
responsabilidad por productos y software de IA defectuosos. En este contexto,
la directiva sobre responsabilidad por la inteligencia artificial (AILD),
propuesta por la Comisión Europea junto con la revisión de la PLD, enfrenta
varios desafíos en cuanto a cómo encaja en este nuevo marco regulatorio. Sin
duda, la IA tiene un enorme potencial para el beneficio social (desde la
detección del cáncer hasta la detección del fraude y la prevención de
accidentes), pero también conlleva riesgos. Sin embargo, la PLD no cubre
adecuadamente la amplia gama de riesgos específicos de la IA, en particular los
relacionados con la IA generativa, como la discriminación y la vulneración de
los derechos de la personalidad.
Para
trazar un camino a seguir para la AILD, esta evaluación de impacto complementaria
se desarrolla en cuatro pasos, después de una descripción general inicial sobre
la responsabilidad por la IA. En primer lugar, se ofrece una evaluación de la
evaluación de impacto inicial (EI) de la Comisión Europea que acompaña a la
propuesta de una AILD en 2022. En segundo lugar, el estudio investiga en
detalle la relación entre la PLD, la Ley de IA y la AILD. En tercer lugar, se
compara el marco de la AILD con las normas propuestas por el Parlamento Europeo
en su resolución de 2020 sobre un régimen de responsabilidad civil para la IA.
Por último, se evalúa la necesidad y el proceso de convertir la AILD en una
regulación de la responsabilidad por software en general.
I. Evaluación de la IA
de la Comisión Europea
En
el debate sobre la EI de la Comisión Europea, se identifican dos deficiencias
clave: un conjunto incompleto de opciones de política y un análisis de
costo-beneficio abreviado de las opciones de política. En lo que respecta a la
primera, en particular, la EI presta poca atención a la resolución de 2020 del
Parlamento Europeo sobre la responsabilidad por la IA. En concreto, no
investiga a fondo la posibilidad de integrar la responsabilidad estricta con
topes de responsabilidad, y carece de profundidad a la hora de explorar un
espectro más amplio de presunciones de negligencia o inversiones completas de
la carga de la prueba. En consecuencia, el análisis de la IA de los costos y
beneficios asociados a las opciones regulatorias alternativas, como la
responsabilidad estricta, se detalla de manera inconsistente. Si bien algunos
aspectos de estas opciones de política están bien examinados, la evaluación es
más bien breve al analizar el potencial y los inconvenientes asociados con un
régimen de responsabilidad estricta.
II. Relación entre la
AILD, la PLD y la Ley de IA
Para
llenar estos vacíos, se hacen las siguientes recomendaciones.
• Identidad de conceptos
y definiciones. La
AILD incluye varios conceptos clave de la Ley de IA. Por razones de coherencia
y claridad jurídica, la AILD debería adoptar los conceptos utilizados en la Ley
de IA (por ejemplo, la propia definición de IA).
• De sistemas de IA de
alto riesgo a sistemas de IA de alto impacto. Sin embargo, la AILD debería añadir ciertas categorías
que activen las obligaciones de divulgación de pruebas y las presunciones
refutables sobre culpa y causalidad[1]. Esto se refiere
principalmente a: sistemas de IA de propósito general (por ejemplo, ChatGPT);
sistemas del antiguo marco legislativo (por ejemplo, vehículos autónomos; aplicaciones
de IA relacionada con el transporte en general[2]); otros sistemas de IA que
caen bajo la Sección B del Anexo I de la Ley de IA[3]); y aplicaciones de
seguros más allá de los seguros de salud y de vida. El estudio sugiere un
término general ("sistemas de IA de alto impacto") para cubrir los
sistemas de IA de alto riesgo y esos sistemas adicionales.
• Refutación de la
presunción. El marco
AILD debería permitir que la presunción de causalidad sea refutada en casos en
que las violaciones iniciales de la Ley de IA se rectifiquen en etapas
posteriores.
• Violaciones de los
artículos 14 y 26 de la Ley de IA.
Los artículos 14 y 26 de la Ley de IA requieren mecanismos de supervisión
humana en los sistemas de IA. La causalidad directa entre la falta de
supervisión ex post y los resultados perjudiciales no siempre está clara. Se
sugiere establecer una presunción directa de causalidad entre los resultados de
la IA y los daños por incumplimiento de las obligaciones de monitoreo.
• Manejo de sistemas de
IA prohibidos. Para
los sistemas de IA prohibidos según el Artículo 5 de la Ley de IA, la
recomendación es asumir la responsabilidad estricta por cualquier daño que
causen.
• Impacto de los
sistemas de IA de propósito general.
El marco actual de la AILD no cubre adecuadamente los sistemas de IA de propósito
general, lo que puede provocar daños significativos, en particular en los
ámbitos de la no discriminación (por ejemplo, contenido desequilibrado) y los
derechos de la personalidad (por ejemplo, discurso de odio y noticias falsas).
Se recomienda que los sistemas de IA generativos, como ChatGPT, se clasifiquen
en la nueva categoría de "alto impacto". Esto los incluiría en el
ámbito de la AILD, garantizaría la divulgación de pruebas y establecería
presunciones de causalidad para las violaciones de seguridad. Esto, a su vez,
ayuda a las partes lesionadas en las demandas legales.
• Extensión de la AILD
más allá de la PLD.
Dadas las limitaciones de la PLD (por ejemplo, en relación con los usuarios no
profesionales y los tipos de daños no cubiertos por la PLD), hay un sólido
argumento para ampliar la AILD, para garantizar un marco de responsabilidad
integral (véase la Figura 1, a continuación).
• Aplicabilidad de la
AILD a los casos de discriminación.
Debe quedar claro que la AILD se aplica a los casos de responsabilidad por
discriminación. La necesidad de mecanismos de divulgación de pruebas y de una
presunción refutable en los casos de discriminación se ve subrayada por los
desafíos de aplicación existentes y el precedente legal establecido por el
Tribunal de Justicia de la UE (caso Meister), que actualmente restringe el
acceso a datos y algoritmos críticos para demostrar la discriminación.
Figura 1 – Áreas
cubiertas por la AILD pero no por la PLD
Fuente:
Autor
• De la AILD a un
instrumento de responsabilidad del software. El borrador actual de la AILD aborda la responsabilidad
de la IA, pero no aborda las complejidades y desafíos similares presentes en
muchos tipos de software que no son de IA (por ejemplo, la prueba de la culpa y
la causalidad). La PLD, a su vez, ya se aplica al software de manera más
general. Para abordar esta discrepancia, se recomienda que la AILD se amplíe a
un instrumento de responsabilidad del software más integral (consulte la Tabla
1, a continuación). Esto puede tomar la forma de una directiva o,
preferiblemente, un reglamento (Parte IV, a continuación). Abarcaría no solo la
IA, sino también todos los demás tipos de software, como la PLD. Esta ampliación garantizaría que las
exenciones de pruebas se apliquen de manera uniforme a todas las aplicaciones
de software, independientemente de si están clasificadas como sistemas de IA
(de alto riesgo) o no.
En
concreto, el mecanismo de divulgación de pruebas debería ser aplicable a todos
los tipos de software, y la presunción refutable para el software que no sea de
IA debería alinearse con las normas para los sistemas de IA que no sean de alto
riesgo. Tabla 1 – Tipos de software y daños cubiertos por la PLD revisada, la
AILD propuesta y el instrumento de responsabilidad del
software (SLI) recomendado
|
Software
no IA |
IA |
Propiedad del Consumidor((PLD) |
EDM, RP |
EDM, RP |
Salud (PLD) |
EDM, RP |
EDM, RP |
Vida (PLD) |
EDM, RP |
EDM, RP |
Discriminación (AILD/SLI) |
EDM, RP |
EDM, RP |
Derechos
de la personalidad (AILD/SLI) |
EDM, RP |
EDM, RP |
Otros
derechos fundamentales (AILD/SLI) |
EDM, RP |
EDM, RP |
Propiedad
profesional, como derechos de propiedad intelectual (AILD/SLI) |
EDM, RP |
EDM, RP |
Pérdida
económica pura (AILD/SLI) |
EDM, RP |
EDM, RP |
Daños a la
sostenibilidad (AILD/SLI) |
EDM, RP |
EDM, RP |
Nota:
EDM: Mecanismo de divulgación de pruebas; IP: Propiedad intelectual; RP: Presunción
refutable.
Fuente:
Autor.
La
Tabla 1 muestra que, sin la AILD y la SLI, la protección sería inadecuada en
muchas áreas, en comparación con la nueva PLD: en las casillas verdes, solo se
puede lograr una protección similar con la AILD; y en las casillas rojas, solo
con la SLI.
III. La AILD y la
resolución del Parlamento Europeo de 2020 sobre responsabilidad de la IA
• Responsabilidad
estricta para los modelos de daño ilegítimo. Se recomienda que el marco de responsabilidad estricta
propuesto en la resolución del Parlamento Europeo de 2020 sobre responsabilidad
de la IA,[4] en particular para los
sistemas de IA de alto riesgo, se considere para su integración en una AILD
revisada. Esto implicaría adoptar un modelo de responsabilidad estricta que
distinga entre los modelos de IA que causan daño legítimo e ilegítimo en el
curso adecuado de su funcionamiento. Si los sistemas de IA están destinados a
causar un daño justificado, por ejemplo al rechazar correctamente a un
candidato para un puesto de trabajo, no pueden estar sujetos a una
responsabilidad verdaderamente estricta. De lo contrario, todos los candidatos,
excepto el elegido, podrían demandar con éxito al operador de un sistema que
funcione perfectamente.
• Argumentos a favor y
en contra de la responsabilidad estricta. En lo que respecta a los modelos que no deberían causar
daños si se diseñan y se implementan correctamente, es necesario sopesar a
fondo los argumentos a favor y en contra de la responsabilidad estricta. Una
responsabilidad verdaderamente estricta para la IA puede crear incentivos para
una cantidad socialmente óptima de implementación de la IA, agilizar los
procesos de compensación y garantizar que quienes se benefician principalmente
de ella económicamente también asuman el costo de los daños potenciales. Por el
contrario, una responsabilidad verdaderamente estricta podría tener un efecto
disuasorio sobre la inversión y el despliegue de la IA en la UE y, por lo
tanto, reducir la disponibilidad de tecnologías de IA beneficiosas. En la
medida en que esto afecte a servicios críticos como la atención médica y la
educación, podría conducir potencialmente a una disminución en el disfrute de
los derechos fundamentales relacionados. Además, un régimen de responsabilidad
de este tipo podría aumentar los litigios vejatorios, en particular los
relacionados con daños inmateriales. Esto afectaría en particular a las
pequeñas y medianas empresas (PYME), que representan la mayor parte del
ecosistema europeo de IA.
• Opciones políticas y
transparencia. Estos
argumentos deberían discutirse abierta y transparentemente en el proceso
legislativo de la AILD. La adopción de una responsabilidad estricta para los
sistemas de IA de alto riesgo es, en última instancia, una opción política y
normativa.
• Responsabilidad
conjunta a lo largo de la cadena de valor. La distribución justa de la responsabilidad en la
cadena de valor de la IA, en particular en el caso de los sistemas de IA de uso
general, requiere un marco de reparación simplificado en la AILD, para reducir
la dependencia de diversas leyes nacionales y fomentar un entorno jurídico
coherente dentro de la UE. Sobre la base de las disposiciones de la PLD y la
Ley de Datos, tres opciones de política (la presunción de participación
igualitaria, el apoyo a las pymes y la protección de las partes posteriores)
ofrecen diferentes mecanismos para garantizar una compensación justa y una
distribución de la responsabilidad. Pueden combinarse y todas requieren
disposiciones vinculantes para evitar que las prácticas contractuales socaven
estas protecciones.
• Responsabilidad basada
en la culpa y divulgación de pruebas.
La AILD debería alinearse con la PLD al exigir que la divulgación (de pruebas)
se presente de una manera fácilmente comprensible para los no expertos, como
los consumidores o sus asesores legales. En el caso de las reclamaciones de no
competidores, debería reducirse la barrera para activar la divulgación de
pruebas al exigir únicamente la demostración del daño y la participación de un
sistema de IA.
IV. Elección del
instrumento
• De directivas a
reglamentos. La
transición de una directiva a un reglamento evitaría la fragmentación del
mercado, mejoraría la claridad y promovería la innovación y la protección del
consumidor al establecer estándares legales consistentes en todo el mercado
único digital. También se alinearía con las tendencias actuales en la
legislación sobre seguridad de los productos, donde numerosas directivas están
siendo reemplazadas por reglamentos (por ejemplo, el Reglamento general sobre
seguridad de los productos; el Reglamento sobre dispositivos médicos). Por lo
tanto, estas conclusiones exigen un Reglamento revisado sobre responsabilidad
por productos y un reglamento sobre responsabilidad de la IA (o más bien: un
reglamento sobre responsabilidad del software, véase más arriba) en lugar de
directivas.
• Pasos a seguir. La implementación de este cambio
requiere: (i) evaluaciones legales alineadas con los Tratados de la UE; (ii)
consultas con las partes interesadas, (iii) una evaluación de impacto; (iv)
modificaciones a la propuesta legal; (v) seguir el procedimiento legislativo
ordinario; y (vi) desarrollar directrices de implementación detalladas para una
transición sin problemas.
[1] La AILD establece que, en determinadas circunstancias,
las partes lesionadas tienen derecho a obtener pruebas de la persona que
desarrolla o utiliza un sistema de IA; en algunos casos, la AILD también
establece que se presume la culpa de estos individuos (y la causalidad de esa
culpa para el resultado de la IA) a menos que estos individuos puedan mostrar
evidencia de lo contrario.
[2] Véase también, en una línea similar, M. C. Buiten, A.
De Streel y M. Peitz, 'The law and
economics of AI liability , Computer Law & Security Review, vol. 48, artículo 105794, 2023,
pág. 18; J. De Bruyne, O. Dheu y C. Ducuing, The European
Commission's approach to extra-contractual liability and AI – An evaluation of
the AI liability directive and the revised product liability directive , Computer Law
& Security Review, vol. 51, artículo 105894, 2023, pág. 4: '[La AILD]
también puede ser una oportunidad perdida, considerando la importancia de los
vehículos autónomos.'; S. Wachter, 'Limitations and
loopholes in the EU AI Act and AI Liability Directives: what this means for the
European Union, the United States, and beyond' ', Yale Journal
of Law and Technology, vol. 26(3), 2024, pág. 671, p. 716.
[3] Regulation (EU) 2024/1689 del Parlamento Europeo y del Consejo, de 13 de
junio de 2024, por el que se establecen normas armonizadas sobre inteligencia
artificial (Ley de Inteligencia Artificial).
[4] Resolution de
20 de octubre de 2020 con recomendaciones
No hay comentarios:
Publicar un comentario