Por: Carlos A. FERREYROS SOTO
Doctor en Derecho
Universidad de
Montpellier I Francia.
RESUMEN
El presente informe, elaborado
por el Servicio de Investigaciones del Parlamento Europeo, aborda los
principales retos jurídicos y éticos ante el rápido desarrollo, uso y expansión
de la inteligencia artificial (IA) en la sociedad y los mercados europeos.
Las principales reflexiones del Informe se refieren a:
- Desafíos
Jurídicos: La autonomía creciente de los sistemas IA desafía el marco
jurídico actual, planteando dudas sobre las obligaciones y responsabilidad
civil, la atribución de daños, la protección de datos y la transparencia de
los algoritmos.
- Revisión
Normativa: La UE necesita adaptar su normativa para responder a los riesgos
inéditos e imprevisibles asociados a la IA, lo que exige una revisión doctrinal
y jurídica de conceptos tradicionales como la autonomía y la privacidad,
así como el refuerzo de derechos fundamentales.
- Enfoque
Ético: El Parlamento Europeo enfatiza la importancia de un estricto marco
ético, basado en principios y valores expresados en la Carta de Derechos Fundamentales
de la UE, a fin de garantizar que el diseño, desarrollo y uso de IA coloquen
a la persona en el centro del proceso. Subrayando la necesidad de auditoría,
transparencia, explicabilidad y supervisión humana de los algoritmos.
- Instrumento
de Regulación: Se propone combinar modelos de regulación tradicionales (“hard
law”) con modelos flexibles (“soft law”), como códigos de conducta y órganos
de monitoreo ético, tanto para la protección como en la innovación.
Finalmente, el Parlamento Europeo
recomienda, examinar
y evaluar cuidadosamente el impacto de las tecnologías de IA en el disfrute de
los derechos humanos, desde la libertad de expresión, de reunión y asociación,
el derecho a la privacidad, el derecho al trabajo y el derecho a la no
discriminación, hasta la igualdad ante la ley. El control humano ininterrumpido,
la obligación y responsabilidades de las personas y organizaciones que implementen
sistemas de IA e introducir el derecho de apelación y el derecho a la
reparación cuando la IA se utilice para decisiones
que afecten a las personas.
El documento fue
traducido del inglés al castellano por el suscrito con la ayuda de Google
Translator.
A fin de acceder a normas similares y
estándares europeos, las empresas, organizaciones públicas y privadas
interesadas en asesorías, consultorías, capacitaciones, estudios, evaluaciones,
auditorías sobre el tema, sírvanse comunicar al correo electrónico: cferreyros@ferreyros-ferreyros.com
_________________________________________________________
Inteligencia Artificial ante portas: Reflexiones legales y éticas
Ante el auge de las aplicaciones de inteligencia artificial (IA) y su capacidad para actuar de forma autónoma e imprevisible, el creciente interés por sus aspectos éticos y legales no resulta sorprendente. La IA parece tener el potencial de generar cambios disruptivos en el derecho, ya que las estructuras jurídicas existentes se esfuerzan por adaptarse a la creciente opacidad y al desarrollo del autoaprendizaje de las máquinas autónomas, así como a las preocupaciones asociadas sobre el control y la responsabilidad. La reconfiguración del marco jurídico actual, en consonancia con las nuevas realidades tecnológicas, dependerá principalmente del progreso tecnológico y la adopción comercial de la IA, ya que una IA más potente podría incluso requerir un cambio de paradigma fundamental. Dada la previsible omnipresencia de la IA, es legítimo y necesario plantearse cómo definir, clasificar y traducir este conjunto de tecnologías en términos jurídicos y éticos.
Desafíos/dimensiones legales
A medida que los sistemas de IA
se utilizan en contextos más comunes y trascendentales, y pronto se aplicarán
en aplicaciones críticas para la
seguridad, como el apoyo a la decisión clínica y la conducción autónoma,
aumenta la atención sobre si deben regularse, cómo y en qué medida. Como
tecnología transformadora, caracterizada por su alta complejidad,
imprevisibilidad y autonomía en sus capacidades de toma de decisiones y
aprendizaje, la IA tiene el potencial de desafiar las nociones tradicionales de
personalidad jurídica, capacidad de acción individual y responsabilidad. La
introducción de sistemas de IA autónomos y autorregulados, que pueden operar
independientemente de sus creadores u operadores y que están equipados con
capacidades de adaptación y aprendizaje que les permiten aprender de su propia
experiencia variable y de su interacción con el entorno de una manera única e
imprevisible, puede significar un cambio significativo en los fundamentos del
derecho. Sobre todo, teniendo en cuenta que el estado de derecho se basa
tradicionalmente en la previsibilidad y la obligación legal de indemnizar por
un daño ilícito a una persona o propiedad.
Los sistemas jurídicos se
enfrentan actualmente a una gama sin precedentes de desafíos relacionados con
la IA, asociados, entre otras cosas, con la necesidad de prevenir el sesgo
algorítmico, salvaguardar el control humano sobre el funcionamiento de los
sistemas inteligentes automatizados y exigirles responsabilidad. Sin embargo,
¿es el derecho el instrumento adecuado para abordar el sesgo o restaurar la
presencia humana en sistemas puramente automatizados? ¿Es el sesgo una cuestión
jurídica o cultural y social? ¿Se justifica la regulación anticipada para
ciertas clases de riesgos y/o aplicaciones de IA? ¿Deberían los sistemas
jurídicos recurrir al principio de precaución para evitar lidiar con los
riesgos de una trayectoria tecnológica en rápida evolución? ¿O debería
permitirse la experimentación jurídica, como la introducción de entornos de
prueba regulatorios que podrían contener posibles irregularidades tecnológicas?
¿Son necesarias las iniciativas basadas en la tecnología o es más apropiado un
enfoque específico para cada producto? ¿Se puede establecer una distinción
entre la orientación jurídica y la ética en este contexto?
Definiendo la IA
Definir el objeto preciso de la
regulación en dominios tecnológicos dinámicos es un desafío en sí mismo. Dado
que la IA sigue siendo una noción abierta que abarca una gama muy amplia de
productos y aplicaciones, no existe un acuerdo transnacional sobre una
definición operativa comúnmente aceptada, ni a nivel técnico ni
jurídico/político. Dado que no hay consenso jurídico ni político sobre qué es
la IA, ha surgido una pluralidad de definiciones en Europa y en todo el mundo
que resultan demasiado inclusivas o demasiado sectoriales. Este panorama
conceptual fragmentado puede impedir el desarrollo inmediato de una lex robótica y posiblemente socavar
todos los esfuerzos por crear una nomenclatura jurídica común, que es
particularmente fundamental para la redacción, adopción e implementación
efectiva de normas jurídicas vinculantes. Como alternativa, una definición
amplia y tecnológicamente neutral, basada en el cumplimiento de diversos
criterios estructurales, como el nivel de autonomía y la función, podría ser
una opción más plausible.
Si no existe un esquema
definitorio que abarque todos los usos y aplicaciones posibles de esta
tecnología, entonces la introducción de instrumentos flexibles como actos
delegados, cláusulas de extinción y legislación experimental podría ser
necesaria para abordar el problema
del ritmo - adaptando las normas a las cambiantes circunstancias
tecnológicas y mantenerse al día con los rápidos avances tecnológicos. Mantener
dicha flexibilidad es importante para fomentar la innovación tecnológica en el
campo de la IA, así como para garantizar que la legislación de la Unión se
desarrolle de manera cuidadosa e inclusiva.
El problema de la ambigüedad
definicional está estrechamente relacionado con la cuestión de la clasificación
jurídica de la IA y la categorización de sus diversas aplicaciones. ¿Deberían
abordarse los productos y sistemas de IA bajo el paraguas de las categorías
jurídicas tradicionales, o estamos simplemente presenciando la creación gradual
de un dominio completamente nuevo de pensamiento jurídico crítico que puede
desencadenar un cambio desde la noción tradicional del código como derecho
hacia una nueva conceptualización del derecho como código?
Finalmente, a medida que se
desarrollan las aplicaciones autónomas de IA, surgen preguntas sobre si se les
debería otorgar personalidad jurídica. El desarrollo de la noción de
«personalidad jurídica para robots» y la atribución de personalidad jurídica a
la IA en su sentido inteligente/fuerte puede resultar beneficioso, ya que
podría restablecer la cadena de causalidad y limitar la responsabilidad del
propietario. Al mismo tiempo, la creación de tal ficción jurídica no parece
cumplir con los criterios tradicionales de personalidad jurídica y se basa en
lo que muchos
expertos consideran una sobrevaloración de las capacidades reales incluso
de los robots más avanzados, una comprensión superficial de la imprevisibilidad
y las capacidades de autoaprendizaje, una percepción de los robots
distorsionada por la ciencia ficción y algunos anuncios sensacionalistas
recientes en la prensa.
Responsabilidades
La complejidad de los modelos de
IA, combinada con el uso de diversas formas de automatización y sesgos
algorítmicos, plantea desafíos para la transparencia y la responsabilidad de
los sistemas de aprendizaje automático e IA. Por lo tanto, una preocupación
jurídica muy importante se relaciona con la necesidad de equidad, transparencia
y responsabilidad algorítmicas en el contexto de la IA. Aclarar el curso de
acción seguido para la recopilación, el uso y el procesamiento de datos
personales puede verse obstaculizado por la necesidad de proteger a aquellos
agentes comerciales que desarrollan los algoritmos y los mecanismos de
procesamiento de datos sobre la base de la necesidad de proteger los derechos
de secreto comercial.
La transparencia, en cuanto a la
divulgación del código algorítmico, no garantiza si el algoritmo se utilizó
realmente en el sistema de toma de decisiones correspondiente, ni bajo qué
condiciones, ni si funcionó según lo programado inicialmente. Por lo tanto, la
explicabilidad podría facilitar el análisis de los términos de la interfaz
entre las entradas y salidas de los algoritmos, así como de los supuestos
subyacentes y la forma en que se entrenaron e implementaron los conjuntos de
datos.
El establecimiento del «derecho a
la explicación» de las decisiones algorítmicas permitiría a los usuarios
recibir aclaraciones sobre el razonamiento que llevó a tomar una decisión que
les concierne con ayuda de la IA; comprender el valor de los datos generados en
el marco de un sistema de toma de decisiones algorítmico basado en IA; y estar
debidamente informados sobre los procedimientos de almacenamiento y destrucción,
así como sobre los términos del proceso de consentimiento informado requerido.
La implementación de este derecho
podría esclarecer el funcionamiento de los sistemas de IA, junto con la
auditoría del código fuente e introducir requisitos estrictos de transparencia
y rendición de cuentas debería complementar los esfuerzos mencionados. El
requisito de que los responsables del tratamiento de datos proporcionen a los
sujetos de datos de «información significativa sobre la lógica implicada» en un
proceso automatizado de toma de decisiones fue introducido recientemente por el
requisito de que los controladores de datos proporcionen a los sujetos de datos
"información significativa sobre la lógica involucrada" en un proceso
de toma de decisiones automatizado fue introducido recientemente por el Reglamento
General de Protección de Datos (RGPD). Descubrir el razonamiento y los
supuestos principales que subyacen a la toma de decisiones basada en IA es una
importante preocupación jurídica que trasciende diversos ámbitos de la economía
digital. Debe ser posible siempre reducir los cálculos del sistema
de IA a una forma comprensible para los humanos y dotar a los robots
avanzados de una «caja negra» que registre datos sobre cada transacción
realizada por la máquina, incluyendo la lógica que contribuyó a sus decisiones.
En otras palabras, debe prestarse
especial atención jurídica no solo a la necesidad de equilibrar los requisitos
del RGPD y la Directiva
de Secretos Comerciales, sino también a que la alfabetización algorítmica
sea una parte esencial de cualquier intento regulatorio de controlar la toma de
decisiones algorítmica que pueda conducir a la discriminación social o
menoscabar la protección de los derechos humanos fundamentales. Mejorar la
accesibilidad y la legibilidad del procedimiento de procesamiento de datos
también facilitará una mejor comprensión del tipo de datos que se procesan, a
quién pertenecen, cómo se difunden y con qué propósito se analizan.
Obligaciones.
La cuestión de cómo garantizar la
transparencia y la rendición de cuentas de los sistemas de IA en sus
operaciones está estrechamente relacionada con el debate sobre la asignación de
obligaciones en el contexto de la IA. El carácter autónomo e impredecible del
funcionamiento de los sistemas de IA podría suscitar interrogantes sobre la
causalidad, las circunstancias imprevistas y la atribución imprecisa de
responsabilidades. ¿Quién será responsable cuando una aplicación de IA cause
daños físicos o morales? ¿Quién será responsable si un sistema de IA propone un
plan que resulta perjudicial: el fabricante o quienes implementan los
algoritmos? Sin embargo, ¿es posible que los desarrolladores de IA respeten y
protejan el derecho a la privacidad y obtengan un consentimiento claro,
inequívoco e informado, especialmente dado que algunas de sus aplicaciones se
ubican en ámbitos tradicionalmente protegidos y privados? ¿Se puede demandar a
un algoritmo por mala praxis?
Debido al rápido desarrollo de
ciertas características autónomas y cognitivas, el derecho civil deberá abordar
esta tecnología de forma diferente y, posiblemente, apartarse de sus teorías de
responsabilidad tradicionales, como la responsabilidad por productos
defectuosos, la negligencia y la responsabilidad objetiva. Por consiguiente, es
necesario desarrollar un régimen de responsabilidad civil proporcional que
garantice una clara división de responsabilidades entre diseñadores,
fabricantes, proveedores de servicios y usuarios finales. La resolución del
Parlamento Europeo de 16 de febrero de 2017, con recomendaciones a la Comisión
sobre «Normas de derecho civil sobre robótica», propuso, entre otras cosas, el
establecimiento de un sistema de seguro obligatorio, un fondo de compensación y
un registro de la Unión, y sugirió la creación de un estatus jurídico
específico para los robots a largo plazo, de modo que, al menos los robots
autónomos más sofisticados, puedan ser considerados
personas electrónicas responsables de reparar cualquier daño que puedan
causar, y posiblemente aplicando la personalidad jurídica a los casos en que
los robots tomen decisiones autónomas o interactúen de forma independiente con
terceros.
Protección de datos/Privacidad
La IA requiere el acceso a
grandes conjuntos de datos, en muchos casos, datos sensibles o protegidos,
incluidos datos sobre raza, etnia, género y otros atributos sensibles. Se
plantean preocupaciones legales en relación con el poder de extrapolación de la
IA, el volumen de datos necesario para desarrollar eficazmente algoritmos y
patrones de aprendizaje automático, así como con las tendencias de
concentración de mercado en el campo de la IA. La capacidad de la IA para
analizar datos e identificar usuarios puede, de hecho, aumentar la sensibilidad
de datos que antes se consideraban suficientemente anónimos. A pesar del
desarrollo gradual de técnicas de anonimización que permiten el análisis de
macrodatos preservando la privacidad, la IA supone una amenaza creciente para
el derecho de las personas a formarse sus propias opiniones y tomar decisiones
autónomas. Debe prestarse especial atención a la capacidad de la IA para
utilizar datos personales y no personales con el fin de clasificar
y segmentar a las personas, identificar vulnerabilidades individuales y
explotar conocimientos predictivos precisos. Cualquier iniciativa que fomente
el flujo libre y abierto de datos debe tener en cuenta la necesidad legal de
cumplir con los principios de minimización de datos, el derecho a obtener una
explicación de una decisión basada en el procesamiento automatizado y los
principios de privacidad desde el diseño y por defecto, y los principios de
proporcionalidad, necesidad, minimización de datos y limitación de la
finalidad.
Seguridad.
Los vehículos autónomos y otros
sistemas relacionados con la IA pueden propiciar brechas de seguridad,
ciberataques o el uso indebido de datos personales, especialmente cuando
implican la recopilación y el procesamiento de grandes volúmenes de datos.
Existen riesgos y vulnerabilidades de seguridad significativos asociados a la
posibilidad de que las aplicaciones de IA integradas en el cuerpo humano sean
pirateadas, lo que podría poner en peligro la salud, la libertad cognitiva e
incluso la integridad mental y la vida humanas.
El uso indebido de la IA no solo
puede amenazar la seguridad digital, física y pública, sino que también podría
suponer un riesgo para la democracia mediante campañas de desinformación y
manipulación electoral. Los productos
de IA deben estar sujetos a normas de seguridad de productos y de
protección al consumidor que garanticen, cuando proceda, estándares mínimos de
seguridad y aborden el riesgo de accidentes derivados de la interacción con
personas o del trabajo en proximidad a ellas. En este sentido, se necesitan
normas de ciberseguridad y garantías legales para asegurar que los datos no
sean corrompidos ni utilizados indebidamente, lo que podría minar la confianza
de la industria y los consumidores en la IA.
Desafíos socio éticos.
Más allá de los desafíos legales,
la IA plantea numerosas consideraciones éticas. El uso de la IA para
monitorizar o incluso predecir el comportamiento humano conlleva el riesgo
de estigmatización, reforzando estereotipos, segregación y exclusión social y
cultural, y menoscabando la libertad individual y la igualdad de oportunidades.
El potencial de empoderamiento de la IA, los riesgos asociados a la creación de
«burbujas de filtro» o al uso de metodologías de puntuación social mediante su
uso, así como la asequibilidad y accesibilidad de los servicios de IA, suscitan
inquietudes sobre la seguridad, la salud, la libertad, la privacidad, la
integridad, la dignidad, la autodeterminación y la no discriminación.
El creciente uso de la toma de
decisiones algorítmica basada en IA en los ámbitos de los servicios
financieros, la banca y la justicia penal, sin la intervención del juicio
humano ni el debido proceso, puede reforzar estereotipos sociales perjudiciales
contra determinados grupos minoritarios y agravar los prejuicios raciales y de
género. Esta práctica ha sido criticada por diversas instituciones de la UE,
como el Consejo
de Europa, el Supervisor
Europeo de Protección de Datos y la Agencia
de la Unión Europea para los Derechos Fundamentales.
El advenimiento de la IA fuerte,
que trasciende las categorías jurídicas y conlleva la reconsideración de
términos legales tradicionales como autonomía y privacidad, plantea
interrogantes sobre la capacidad del Derecho de la UE para lograr un equilibrio
adecuado entre la tecnología como objeto o categoría regulatoria y su papel
como agente de la agenda regulatoria. Los avances en IA fuerte también ponen de
manifiesto la necesidad de reconocer que los códigos codifican valores y no
pueden considerarse una mera cuestión de ingeniería. Las cuestiones éticas
asociadas al poder social de los algoritmos se suman a las preguntas sobre la
brecha digital intergeneracional y pueden afectar al ejercicio del derecho a la
vida, el derecho a un juicio justo, el derecho a la privacidad, la libertad de
expresión y los derechos laborales. Existen importantes preocupaciones éticas,
psicológicas y jurídicas sobre la autonomía de los robots inteligentes y su
impacto en la relación médico-paciente en las aplicaciones sanitarias, que aún
no se han abordado adecuadamente a nivel de la UE, en particular en lo que
respecta a la protección de los datos personales de los pacientes, la
responsabilidad y las nuevas relaciones económicas y laborales resultantes.
Por consiguiente, se necesita un
marco ético rector estricto y eficaz para el desarrollo, el diseño, la
producción y el uso de algoritmos que complemente el acervo nacional y de la
Unión vigente. El marco ético rector, que debe salvaguardar la supervisión
humana de la toma de decisiones automatizada y algorítmica, debe basarse en los
principios y valores consagrados en la Carta de los Derechos Fundamentales,
como la dignidad humana, la igualdad, la justicia y la equidad, la no
discriminación, el consentimiento informado, la vida privada y familiar y la
protección de datos, así como en otros principios y valores subyacentes del
Derecho de la Unión, como la no estigmatización, la transparencia, la
autonomía, la responsabilidad individual y la responsabilidad social, así como
las prácticas y códigos éticos existentes.
Iniciativas a nivel de la UE.
El auge de la IA en Europa se ha
producido hasta ahora en un vacío regulatorio. Con la excepción del desarrollo
de códigos de conducta y directrices éticas, se han adoptado muy pocas
iniciativas legales que aborden la IA de forma integral o a nivel sistémico. No
se ha adoptado ninguna norma horizontal ni decisión judicial que aborde
específicamente los desafíos únicos que plantea la IA.
El 10 de abril de 2018, 25 países
firmaron una Declaración
de Cooperación sobre IA, en la que acordaron «colaborar en las cuestiones
más importantes que plantea la IA; desde garantizar la competitividad de Europa
en la investigación y el despliegue de la IA, hasta abordar las cuestiones
sociales, económicas, éticas y jurídicas». A nivel de la UE, el Parlamento
Europeo instó
a la Comisión Europea a evaluar el impacto de la inteligencia artificial y
formuló recomendaciones de amplio alcance sobre las normas de derecho civil
relativas a la robótica en febrero de 2017. Además, el Parlamento adoptó un
informe de propia iniciativa sobre una «Política
industrial europea integral sobre inteligencia artificial y robótica» en
febrero de 2019. El Comité Económico y Social Europeo emitió un dictamen
sobre la IA en mayo de 2017. Entretanto, el Consejo Europeo de octubre de 2017 invitó
a la Comisión a presentar un enfoque europeo sobre la IA.
La Comisión Europea subrayó la
importancia de ocupar una posición de liderazgo en el desarrollo de tecnologías,
plataformas y aplicaciones de IA en su revisión
intermedia de la estrategia para el mercado único digital, publicada en
mayo de 2017. Finalmente, la Comisión Europea adoptó una comunicación
sobre «Inteligencia artificial para Europa» el 25 de mayo de 2018, en la
que se establece el enfoque europeo para aprovechar las oportunidades que
ofrece la IA y abordar los nuevos retos que plantea. La Comisión propuso un
enfoque triple: aumentar la inversión pública y privada; Prepararse para los
cambios socioeconómicos derivados de la IA y garantizar un marco ético y
jurídico adecuado.
En cuanto a este marco, se espera
que la Comisión proponga directrices éticas sobre la IA, publique un documento
de orientación sobre la interpretación de la Directiva
de Obligaciones por Productos Defectuosos a mediados de 2019 y lleve a cabo
estudios e investigaciones, así como que formule respuestas políticas a los
retos que plantea la IA en materia de responsabilidad, seguridad, internet de
las cosas (IoT), robótica, conocimiento algorítmico, protección del consumidor
y protección de datos. En junio de 2018, la Comisión nombró a 52 expertos para
un nuevo Grupo de Expertos de Alto Nivel sobre Inteligencia Artificial
(GEA-IA), integrado principalmente por representantes del ámbito académico y la
industria, cuyo objetivo es apoyar la implementación de la estrategia europea
sobre IA. En diciembre de 2018, el GEA-IA publicó su primer
borrador de las directrices éticas de la UE sobre IA. El borrador de las
directrices estuvo disponible y abierto a consulta pública hasta el 1 de
febrero de 2019. En diciembre de 2018, la Comisión publicó un plan coordinado
sobre inteligencia artificial con el objetivo de armonizar los enfoques de los
Estados miembros en relación con sus objetivos estratégicos nacionales en
materia de IA, sus programas de formación y capacitación, los mecanismos de
financiación disponibles, así como la revisión de la legislación vigente y las
directrices éticas. El Consejo de Ministros adoptó conclusiones
sobre el plan coordinado relativo al desarrollo y uso de la «Inteligencia
artificial fabricada en Europa» en febrero de 2019.
En cuanto a la normativa
específica ya finalizada sobre IA, la regulación de la UE sobre algoritmos en
los mercados financieros es la más avanzada. Desde el 3 de enero de 2018, el
artículo 26 de la Directiva 2 de la UE sobre Mercados de Instrumentos
Financieros (MiFID II) exige a las empresas de inversión que incluyan
información detallada sobre los algoritmos informáticos responsables de las decisiones
de inversión y de la ejecución de las transacciones. El 12 de febrero de 2019,
se aprobó en sesión plenaria una moción de resolución del Parlamento Europeo,
tras la adopción del informe de propia iniciativa sobre «Una política
industrial europea integral sobre inteligencia artificial y robótica».
Conclusiones finales.
El desarrollo de la IA en un vacío regulatorio
y ético ha suscitado numerosos debates sobre la necesidad de su control
jurídico y supervisión ética. Algoritmos basados en IA que realizan tareas de
razonamiento automatizado parecen controlar cada vez más aspectos de nuestras
vidas mediante la implementación de la toma de decisiones institucionales
basadas en el análisis de macrodatos, convirtiéndose así en un influyente
referente.
Es necesario examinar y evaluar
cuidadosamente el impacto de las tecnologías de IA existentes en el disfrute de
los derechos humanos, desde la libertad de expresión, de reunión y asociación,
el derecho a la privacidad, el derecho al trabajo y el derecho a la no
discriminación, hasta la igualdad ante la ley. Asimismo, se debe considerar el
potencial de la IA para agravar las desigualdades y aumentar la brecha digital.
Dada la capacidad de la IA para actuar de forma autónoma, su complejidad y
opacidad, así como la incertidumbre que rodea su funcionamiento, una respuesta
regulatoria integral resulta esencial para evitar que sus aplicaciones, en
constante expansión, causen daños sociales a una amplia gama de individuos y
grupos sociales.
Dicha respuesta debería implicar
la obligación de los desarrolladores de algoritmos de IA de respetar plenamente
los derechos humanos y las libertades civiles de todos los usuarios,
manteniendo el control humano ininterrumpido sobre los sistemas de IA,
abordando los efectos del vínculo emocional entre humanos y robots, y
desarrollando estándares comunes para evaluar a las autoridades judiciales que
utilizan IA. También debería centrarse en la asignación de responsabilidades,
derechos y deberes, y evitar que el proceso de gobernanza jurídica se reduzca a
una mera optimización técnica del aprendizaje automático y los procedimientos
de toma de decisiones algorítmica. En este marco, es necesario introducir
nuevos derechos colectivos relativos a los datos que garanticen la posibilidad
de negarse a ser objeto de elaboración de perfiles, el derecho de apelación y
el derecho a una explicación en los marcos de toma de decisiones basados en
IA.
Además, los legisladores deben
asegurar que las organizaciones que implementan y utilizan estos sistemas sigan
siendo jurídicamente responsables de cualquier daño causado y desarrollen
protocolos de consentimiento informado sostenibles y proporcionales. Si bien ninguna
ley puede abarcar toda la complejidad de la tecnología actual, y mucho
menos predecir su desarrollo futuro, la UE podría emplear instrumentos de
derecho blando (como evaluaciones regulatorias de tecnología y auditorías
éticas en tiempo real) para anticipar o incluso moldear las tendencias
tecnológicas, y garantizar que las tecnologías disruptivas se implementen de
forma coherente con el acervo ético de la UE. Aunque algunos eventos
tecnológicos imprevistos seguirán siendo imposibles de predecir, un enfoque de
ética desde el diseño podría asegurar que la política regulatoria se adapte de
forma proactiva a un ecosistema disruptivo en constante evolución e influya en
el diseño de las tecnologías.
Dado que los sistemas de IA son
objetos inestables sujetos a escrutinio legal y ético, las evaluaciones y
auditorías del impacto algorítmico podrían convertirse en un requisito legal.
La resolución del Parlamento Europeo de 2017 sobre normas de derecho civil en
robótica - que comprende un «código de conducta ética para ingenieros
robóticos», un «código para comités de ética de la investigación», una
«licencia para diseñadores» y una «licencia para usuarios» - puede servir como
modelo de gobernanza para una arquitectura detallada, basada en procesos, de
ética tecnológica en el campo de la IA. La carta sobre robótica contenida en la
resolución combina un enfoque de ética por diseño ex ante con un marco
reflexivo y un análisis meta ético del proceso de gobernanza empleado para la
integración de la ética en las estructuras de desarrollo de esta tecnología
disruptiva. Esta iniciativa legislativa debería formar parte de un cambio de
paradigma más amplio que podría incluir la introducción de nuevos
principios éticos (como el derecho a no ser medido, relacionado con
posibles usos indebidos de la IA y el internet de las cosas, y el derecho al
contacto humano significativo, relacionado con posibles usos indebidos de los
robots de asistencia).
Dada la dificultad y complejidad
de predecir el rendimiento de muchos sistemas de IA y sus interacciones,
resulta imprescindible poner a prueba nuevas formas de obligaciones y
responsabilidades mediante métodos innovadores de experimentación jurídica. Los
legisladores de la UE deben evaluar cuidadosamente la necesidad de una
regulación específica relativa a la toma de decisiones mediante IA y, aún más
importante, la conveniencia de introducir el derecho
de apelación y el derecho a la reparación cuando la IA se utilice para
decisiones que afecten a las personas. Las auditorías éticas y las evaluaciones
previas del impacto algorítmico deben convertirse en aspectos esenciales de
todos los esfuerzos por controlar los sistemas de IA con autonomía y capacidad
de autoaprendizaje integradas. Cabe destacar en este punto la labor del Grupo
de Expertos de Alto Nivel sobre IA de la Comisión Europea: su primer borrador
de Directrices
Éticas para una IA Confiable subraya la necesidad de garantizar que la IA
esté centrada en el ser humano, se desarrolle, se implemente y se utilice con
un «propósito ético», y recomienda la incorporación de requisitos específicos
para una IA fiable desde la fase inicial de diseño (responsabilidad, gobernanza
de datos, diseño inclusivo, gobernanza de la autonomía de la IA [supervisión
humana], no discriminación, respeto a la autonomía humana, respeto a la
privacidad, robustez, seguridad y transparencia) subraya la importancia de la
auditabilidad de los sistemas de IA, especialmente en contextos o situaciones
críticas, así como de garantizar un proceso específico para la gobernanza de la
responsabilidad.
La reciente resolución
del Parlamento Europeo sobre una política industrial europea integral en
materia de inteligencia artificial y robótica reforzó la atención del
Parlamento Europeo en la necesidad de establecer un marco ético rector y la
convicción política de que Europa debe liderar el ámbito mundial desplegando
únicamente IA con una sólida base ética. Recomienda que los Estados miembros de
la UE establezcan organismos de control y supervisión de la ética de la IA;
animen a las empresas que desarrollan IA a crear comités de ética y a elaborar
directrices éticas para sus desarrolladores de IA; y solicita un enfoque de
ética desde el diseño que facilite la integración de valores como la
transparencia y la explicabilidad en el desarrollo de la IA. Todas estas
consideraciones podrían constituir elementos de un nuevo contrato social a
nivel de la UE sobre innovación responsable, que posiblemente situaría la ética
desde el diseño en el epicentro del ciclo de desarrollo tecnológico. Dicho
contrato podría hacer plenamente operativas las herramientas de ética
tecnológica anticipatoria y poner de relieve el papel y las limitaciones de la
pericia ética como fuente de autoridad epistémica que pretende representar la
totalidad de las preocupaciones sociales.
REFERENCIAS
- Artificial
intelligence for Europe, Legislative Observatory (OEIL), European
Parliament.
- Comprehensive
European industrial policy on artificial intelligence and robotics,
Legislative Observatory (OEIL), European Parliament.
- Resolution of 27 January 2017, civil
law rules on robotics, on European Parliament.
- European
coordinated plan on artificial intelligence, press release, Council of
the EU, 18 February 2019.
- Draft
AI ethics guidelines, European Commission, December 2018.
- Communication on Artificial
intelligence for Europe, European Commission, 25 April 2018.
- Communication on a Coordinated
plan on artificial intelligence, European Commission, 7 December 2018.
AVISO LEGAL Y DERECHOS
DE AUTOR
Este documento
se ha elaborado para los miembros y el personal del Parlamento Europeo como
material informativo para facilitar su labor parlamentaria. El contenido del documento
es responsabilidad exclusiva de su(s) autor(es) y las opiniones aquí expresadas
no deben interpretarse como la posición oficial del Parlamento.
Se autoriza la
reproducción y traducción para fines no comerciales, siempre que se cite la
fuente y se notifique previamente al Parlamento Europeo, enviándole una copia.
© Unión Europea, 2019.
stoa@ep.europa.eu
(contacto)
http://www.europarl.europa.eu/stoa/
(sitio web de STOA)
www.europarl.europa.eu/thinktank (internet)
http://epthinktank.eu
(blog)
No hay comentarios:
Publicar un comentario