miércoles, 5 de noviembre de 2025

INTELIGENCIA ARTIFICIAL: REFLEXIONES LEGALES Y ÉTICAS - PARLAMENTO EUROPEO.

   Por: Carlos A. FERREYROS SOTO

Doctor en Derecho

Universidad de Montpellier I Francia.

cferreyros@hotmail.com

RESUMEN

El presente informe, elaborado por el Servicio de Investigaciones del Parlamento Europeo, aborda los principales retos jurídicos y éticos ante el rápido desarrollo, uso y expansión de la inteligencia artificial (IA) en la sociedad y los mercados europeos.

Las principales reflexiones del Informe se refieren a:

  • Desafíos Jurídicos: La autonomía creciente de los sistemas IA desafía el marco jurídico actual, planteando dudas sobre las obligaciones y responsabilidad civil, la atribución de daños, la protección de datos y la transparencia de los algoritmos.
  • Revisión Normativa: La UE necesita adaptar su normativa para responder a los riesgos inéditos e imprevisibles asociados a la IA, lo que exige una revisión doctrinal y jurídica de conceptos tradicionales como la autonomía y la privacidad, así como el refuerzo de derechos fundamentales.
  • Enfoque Ético: El Parlamento Europeo enfatiza la importancia de un estricto marco ético, basado en principios y valores expresados en la Carta de Derechos Fundamentales de la UE, a fin de garantizar que el diseño, desarrollo y uso de IA coloquen a la persona en el centro del proceso. Subrayando la necesidad de auditoría, transparencia, explicabilidad y supervisión humana de los algoritmos.
  • Instrumento de Regulación: Se propone combinar modelos de regulación tradicionales (“hard law”) con modelos flexibles (“soft law”), como códigos de conducta y órganos de monitoreo ético, tanto para la protección como en la innovación.

Finalmente, el Parlamento Europeo recomienda,  examinar y evaluar cuidadosamente el impacto de las tecnologías de IA en el disfrute de los derechos humanos, desde la libertad de expresión, de reunión y asociación, el derecho a la privacidad, el derecho al trabajo y el derecho a la no discriminación, hasta la igualdad ante la ley. El control humano ininterrumpido, la obligación y responsabilidades de las personas y organizaciones que implementen sistemas de IA e introducir el derecho de apelación y el derecho a la reparación cuando la IA se utilice para decisiones que afecten a las personas.

El documento fue traducido del inglés al castellano por el suscrito con la ayuda de Google Translator.

A fin de acceder a normas similares y estándares europeos, las empresas, organizaciones públicas y privadas interesadas en asesorías, consultorías, capacitaciones, estudios, evaluaciones, auditorías sobre el tema, sírvanse comunicar al correo electrónico: cferreyros@ferreyros-ferreyros.com

_________________________________________________________

 INSTRUCCIONES

Inteligencia Artificial ante portas: Reflexiones legales y éticas

Ante el auge de las aplicaciones de inteligencia artificial (IA) y su capacidad para actuar de forma autónoma e imprevisible, el creciente interés por sus aspectos éticos y legales no resulta sorprendente. La IA parece tener el potencial de generar cambios disruptivos en el derecho, ya que las estructuras jurídicas existentes se esfuerzan por adaptarse a la creciente opacidad y al desarrollo del autoaprendizaje de las máquinas autónomas, así como a las preocupaciones asociadas sobre el control y la responsabilidad. La reconfiguración del marco jurídico actual, en consonancia con las nuevas realidades tecnológicas, dependerá principalmente del progreso tecnológico y la adopción comercial de la IA, ya que una IA más potente podría incluso requerir un cambio de paradigma fundamental. Dada la previsible omnipresencia de la IA, es legítimo y necesario plantearse cómo definir, clasificar y traducir este conjunto de tecnologías en términos jurídicos y éticos.

Desafíos/dimensiones legales

A medida que los sistemas de IA se utilizan en contextos más comunes y trascendentales, y pronto se aplicarán en aplicaciones críticas para la seguridad, como el apoyo a la decisión clínica y la conducción autónoma, aumenta la atención sobre si deben regularse, cómo y en qué medida. Como tecnología transformadora, caracterizada por su alta complejidad, imprevisibilidad y autonomía en sus capacidades de toma de decisiones y aprendizaje, la IA tiene el potencial de desafiar las nociones tradicionales de personalidad jurídica, capacidad de acción individual y responsabilidad. La introducción de sistemas de IA autónomos y autorregulados, que pueden operar independientemente de sus creadores u operadores y que están equipados con capacidades de adaptación y aprendizaje que les permiten aprender de su propia experiencia variable y de su interacción con el entorno de una manera única e imprevisible, puede significar un cambio significativo en los fundamentos del derecho. Sobre todo, teniendo en cuenta que el estado de derecho se basa tradicionalmente en la previsibilidad y la obligación legal de indemnizar por un daño ilícito a una persona o propiedad.

Los sistemas jurídicos se enfrentan actualmente a una gama sin precedentes de desafíos relacionados con la IA, asociados, entre otras cosas, con la necesidad de prevenir el sesgo algorítmico, salvaguardar el control humano sobre el funcionamiento de los sistemas inteligentes automatizados y exigirles responsabilidad. Sin embargo, ¿es el derecho el instrumento adecuado para abordar el sesgo o restaurar la presencia humana en sistemas puramente automatizados? ¿Es el sesgo una cuestión jurídica o cultural y social? ¿Se justifica la regulación anticipada para ciertas clases de riesgos y/o aplicaciones de IA? ¿Deberían los sistemas jurídicos recurrir al principio de precaución para evitar lidiar con los riesgos de una trayectoria tecnológica en rápida evolución? ¿O debería permitirse la experimentación jurídica, como la introducción de entornos de prueba regulatorios que podrían contener posibles irregularidades tecnológicas? ¿Son necesarias las iniciativas basadas en la tecnología o es más apropiado un enfoque específico para cada producto? ¿Se puede establecer una distinción entre la orientación jurídica y la ética en este contexto?

Definiendo la IA

Definir el objeto preciso de la regulación en dominios tecnológicos dinámicos es un desafío en sí mismo. Dado que la IA sigue siendo una noción abierta que abarca una gama muy amplia de productos y aplicaciones, no existe un acuerdo transnacional sobre una definición operativa comúnmente aceptada, ni a nivel técnico ni jurídico/político. Dado que no hay consenso jurídico ni político sobre qué es la IA, ha surgido una pluralidad de definiciones en Europa y en todo el mundo que resultan demasiado inclusivas o demasiado sectoriales. Este panorama conceptual fragmentado puede impedir el desarrollo inmediato de una lex robótica y posiblemente socavar todos los esfuerzos por crear una nomenclatura jurídica común, que es particularmente fundamental para la redacción, adopción e implementación efectiva de normas jurídicas vinculantes. Como alternativa, una definición amplia y tecnológicamente neutral, basada en el cumplimiento de diversos criterios estructurales, como el nivel de autonomía y la función, podría ser una opción más plausible.

Si no existe un esquema definitorio que abarque todos los usos y aplicaciones posibles de esta tecnología, entonces la introducción de instrumentos flexibles como actos delegados, cláusulas de extinción y legislación experimental podría ser necesaria para abordar el problema del ritmo - adaptando las normas a las cambiantes circunstancias tecnológicas y mantenerse al día con los rápidos avances tecnológicos. Mantener dicha flexibilidad es importante para fomentar la innovación tecnológica en el campo de la IA, así como para garantizar que la legislación de la Unión se desarrolle de manera cuidadosa e inclusiva.

El problema de la ambigüedad definicional está estrechamente relacionado con la cuestión de la clasificación jurídica de la IA y la categorización de sus diversas aplicaciones. ¿Deberían abordarse los productos y sistemas de IA bajo el paraguas de las categorías jurídicas tradicionales, o estamos simplemente presenciando la creación gradual de un dominio completamente nuevo de pensamiento jurídico crítico que puede desencadenar un cambio desde la noción tradicional del código como derecho hacia una nueva conceptualización del derecho como código?

Finalmente, a medida que se desarrollan las aplicaciones autónomas de IA, surgen preguntas sobre si se les debería otorgar personalidad jurídica. El desarrollo de la noción de «personalidad jurídica para robots» y la atribución de personalidad jurídica a la IA en su sentido inteligente/fuerte puede resultar beneficioso, ya que podría restablecer la cadena de causalidad y limitar la responsabilidad del propietario. Al mismo tiempo, la creación de tal ficción jurídica no parece cumplir con los criterios tradicionales de personalidad jurídica y se basa en lo que muchos expertos consideran una sobrevaloración de las capacidades reales incluso de los robots más avanzados, una comprensión superficial de la imprevisibilidad y las capacidades de autoaprendizaje, una percepción de los robots distorsionada por la ciencia ficción y algunos anuncios sensacionalistas recientes en la prensa.

Responsabilidades

La complejidad de los modelos de IA, combinada con el uso de diversas formas de automatización y sesgos algorítmicos, plantea desafíos para la transparencia y la responsabilidad de los sistemas de aprendizaje automático e IA. Por lo tanto, una preocupación jurídica muy importante se relaciona con la necesidad de equidad, transparencia y responsabilidad algorítmicas en el contexto de la IA. Aclarar el curso de acción seguido para la recopilación, el uso y el procesamiento de datos personales puede verse obstaculizado por la necesidad de proteger a aquellos agentes comerciales que desarrollan los algoritmos y los mecanismos de procesamiento de datos sobre la base de la necesidad de proteger los derechos de secreto comercial.

La transparencia, en cuanto a la divulgación del código algorítmico, no garantiza si el algoritmo se utilizó realmente en el sistema de toma de decisiones correspondiente, ni bajo qué condiciones, ni si funcionó según lo programado inicialmente. Por lo tanto, la explicabilidad podría facilitar el análisis de los términos de la interfaz entre las entradas y salidas de los algoritmos, así como de los supuestos subyacentes y la forma en que se entrenaron e implementaron los conjuntos de datos.

El establecimiento del «derecho a la explicación» de las decisiones algorítmicas permitiría a los usuarios recibir aclaraciones sobre el razonamiento que llevó a tomar una decisión que les concierne con ayuda de la IA; comprender el valor de los datos generados en el marco de un sistema de toma de decisiones algorítmico basado en IA; y estar debidamente informados sobre los procedimientos de almacenamiento y destrucción, así como sobre los términos del proceso de consentimiento informado requerido.

La implementación de este derecho podría esclarecer el funcionamiento de los sistemas de IA, junto con la auditoría del código fuente e introducir requisitos estrictos de transparencia y rendición de cuentas debería complementar los esfuerzos mencionados. El requisito de que los responsables del tratamiento de datos proporcionen a los sujetos de datos de «información significativa sobre la lógica implicada» en un proceso automatizado de toma de decisiones fue introducido recientemente por el requisito de que los controladores de datos proporcionen a los sujetos de datos "información significativa sobre la lógica involucrada" en un proceso de toma de decisiones automatizado fue introducido recientemente por el Reglamento General de Protección de Datos (RGPD). Descubrir el razonamiento y los supuestos principales que subyacen a la toma de decisiones basada en IA es una importante preocupación jurídica que trasciende diversos ámbitos de la economía digital. Debe ser posible siempre reducir los cálculos del sistema de IA a una forma comprensible para los humanos y dotar a los robots avanzados de una «caja negra» que registre datos sobre cada transacción realizada por la máquina, incluyendo la lógica que contribuyó a sus decisiones.

En otras palabras, debe prestarse especial atención jurídica no solo a la necesidad de equilibrar los requisitos del RGPD y la Directiva de Secretos Comerciales, sino también a que la alfabetización algorítmica sea una parte esencial de cualquier intento regulatorio de controlar la toma de decisiones algorítmica que pueda conducir a la discriminación social o menoscabar la protección de los derechos humanos fundamentales. Mejorar la accesibilidad y la legibilidad del procedimiento de procesamiento de datos también facilitará una mejor comprensión del tipo de datos que se procesan, a quién pertenecen, cómo se difunden y con qué propósito se analizan.

Obligaciones.

La cuestión de cómo garantizar la transparencia y la rendición de cuentas de los sistemas de IA en sus operaciones está estrechamente relacionada con el debate sobre la asignación de obligaciones en el contexto de la IA. El carácter autónomo e impredecible del funcionamiento de los sistemas de IA podría suscitar interrogantes sobre la causalidad, las circunstancias imprevistas y la atribución imprecisa de responsabilidades. ¿Quién será responsable cuando una aplicación de IA cause daños físicos o morales? ¿Quién será responsable si un sistema de IA propone un plan que resulta perjudicial: el fabricante o quienes implementan los algoritmos? Sin embargo, ¿es posible que los desarrolladores de IA respeten y protejan el derecho a la privacidad y obtengan un consentimiento claro, inequívoco e informado, especialmente dado que algunas de sus aplicaciones se ubican en ámbitos tradicionalmente protegidos y privados? ¿Se puede demandar a un algoritmo por mala praxis?

Debido al rápido desarrollo de ciertas características autónomas y cognitivas, el derecho civil deberá abordar esta tecnología de forma diferente y, posiblemente, apartarse de sus teorías de responsabilidad tradicionales, como la responsabilidad por productos defectuosos, la negligencia y la responsabilidad objetiva. Por consiguiente, es necesario desarrollar un régimen de responsabilidad civil proporcional que garantice una clara división de responsabilidades entre diseñadores, fabricantes, proveedores de servicios y usuarios finales. La resolución del Parlamento Europeo de 16 de febrero de 2017, con recomendaciones a la Comisión sobre «Normas de derecho civil sobre robótica», propuso, entre otras cosas, el establecimiento de un sistema de seguro obligatorio, un fondo de compensación y un registro de la Unión, y sugirió la creación de un estatus jurídico específico para los robots a largo plazo, de modo que, al menos los robots autónomos más sofisticados, puedan ser considerados personas electrónicas responsables de reparar cualquier daño que puedan causar, y posiblemente aplicando la personalidad jurídica a los casos en que los robots tomen decisiones autónomas o interactúen de forma independiente con terceros.

Protección de datos/Privacidad

La IA requiere el acceso a grandes conjuntos de datos, en muchos casos, datos sensibles o protegidos, incluidos datos sobre raza, etnia, género y otros atributos sensibles. Se plantean preocupaciones legales en relación con el poder de extrapolación de la IA, el volumen de datos necesario para desarrollar eficazmente algoritmos y patrones de aprendizaje automático, así como con las tendencias de concentración de mercado en el campo de la IA. La capacidad de la IA para analizar datos e identificar usuarios puede, de hecho, aumentar la sensibilidad de datos que antes se consideraban suficientemente anónimos. A pesar del desarrollo gradual de técnicas de anonimización que permiten el análisis de macrodatos preservando la privacidad, la IA supone una amenaza creciente para el derecho de las personas a formarse sus propias opiniones y tomar decisiones autónomas. Debe prestarse especial atención a la capacidad de la IA para utilizar datos personales y no personales con el fin de clasificar y segmentar a las personas, identificar vulnerabilidades individuales y explotar conocimientos predictivos precisos. Cualquier iniciativa que fomente el flujo libre y abierto de datos debe tener en cuenta la necesidad legal de cumplir con los principios de minimización de datos, el derecho a obtener una explicación de una decisión basada en el procesamiento automatizado y los principios de privacidad desde el diseño y por defecto, y los principios de proporcionalidad, necesidad, minimización de datos y limitación de la finalidad.

Seguridad.

Los vehículos autónomos y otros sistemas relacionados con la IA pueden propiciar brechas de seguridad, ciberataques o el uso indebido de datos personales, especialmente cuando implican la recopilación y el procesamiento de grandes volúmenes de datos. Existen riesgos y vulnerabilidades de seguridad significativos asociados a la posibilidad de que las aplicaciones de IA integradas en el cuerpo humano sean pirateadas, lo que podría poner en peligro la salud, la libertad cognitiva e incluso la integridad mental y la vida humanas.

El uso indebido de la IA no solo puede amenazar la seguridad digital, física y pública, sino que también podría suponer un riesgo para la democracia mediante campañas de desinformación y manipulación electoral. Los productos de IA deben estar sujetos a normas de seguridad de productos y de protección al consumidor que garanticen, cuando proceda, estándares mínimos de seguridad y aborden el riesgo de accidentes derivados de la interacción con personas o del trabajo en proximidad a ellas. En este sentido, se necesitan normas de ciberseguridad y garantías legales para asegurar que los datos no sean corrompidos ni utilizados indebidamente, lo que podría minar la confianza de la industria y los consumidores en la IA.

Desafíos socio éticos.

Más allá de los desafíos legales, la IA plantea numerosas consideraciones éticas. El uso de la IA para monitorizar o incluso predecir el comportamiento humano conlleva el riesgo de estigmatización, reforzando estereotipos, segregación y exclusión social y cultural, y menoscabando la libertad individual y la igualdad de oportunidades. El potencial de empoderamiento de la IA, los riesgos asociados a la creación de «burbujas de filtro» o al uso de metodologías de puntuación social mediante su uso, así como la asequibilidad y accesibilidad de los servicios de IA, suscitan inquietudes sobre la seguridad, la salud, la libertad, la privacidad, la integridad, la dignidad, la autodeterminación y la no discriminación.

El creciente uso de la toma de decisiones algorítmica basada en IA en los ámbitos de los servicios financieros, la banca y la justicia penal, sin la intervención del juicio humano ni el debido proceso, puede reforzar estereotipos sociales perjudiciales contra determinados grupos minoritarios y agravar los prejuicios raciales y de género. Esta práctica ha sido criticada por diversas instituciones de la UE, como el Consejo de Europa, el Supervisor Europeo de Protección de Datos y la Agencia de la Unión Europea para los Derechos Fundamentales.

El advenimiento de la IA fuerte, que trasciende las categorías jurídicas y conlleva la reconsideración de términos legales tradicionales como autonomía y privacidad, plantea interrogantes sobre la capacidad del Derecho de la UE para lograr un equilibrio adecuado entre la tecnología como objeto o categoría regulatoria y su papel como agente de la agenda regulatoria. Los avances en IA fuerte también ponen de manifiesto la necesidad de reconocer que los códigos codifican valores y no pueden considerarse una mera cuestión de ingeniería. Las cuestiones éticas asociadas al poder social de los algoritmos se suman a las preguntas sobre la brecha digital intergeneracional y pueden afectar al ejercicio del derecho a la vida, el derecho a un juicio justo, el derecho a la privacidad, la libertad de expresión y los derechos laborales. Existen importantes preocupaciones éticas, psicológicas y jurídicas sobre la autonomía de los robots inteligentes y su impacto en la relación médico-paciente en las aplicaciones sanitarias, que aún no se han abordado adecuadamente a nivel de la UE, en particular en lo que respecta a la protección de los datos personales de los pacientes, la responsabilidad y las nuevas relaciones económicas y laborales resultantes.

Por consiguiente, se necesita un marco ético rector estricto y eficaz para el desarrollo, el diseño, la producción y el uso de algoritmos que complemente el acervo nacional y de la Unión vigente. El marco ético rector, que debe salvaguardar la supervisión humana de la toma de decisiones automatizada y algorítmica, debe basarse en los principios y valores consagrados en la Carta de los Derechos Fundamentales, como la dignidad humana, la igualdad, la justicia y la equidad, la no discriminación, el consentimiento informado, la vida privada y familiar y la protección de datos, así como en otros principios y valores subyacentes del Derecho de la Unión, como la no estigmatización, la transparencia, la autonomía, la responsabilidad individual y la responsabilidad social, así como las prácticas y códigos éticos existentes.

 Iniciativas a nivel de la UE.

El auge de la IA en Europa se ha producido hasta ahora en un vacío regulatorio. Con la excepción del desarrollo de códigos de conducta y directrices éticas, se han adoptado muy pocas iniciativas legales que aborden la IA de forma integral o a nivel sistémico. No se ha adoptado ninguna norma horizontal ni decisión judicial que aborde específicamente los desafíos únicos que plantea la IA.

El 10 de abril de 2018, 25 países firmaron una Declaración de Cooperación sobre IA, en la que acordaron «colaborar en las cuestiones más importantes que plantea la IA; desde garantizar la competitividad de Europa en la investigación y el despliegue de la IA, hasta abordar las cuestiones sociales, económicas, éticas y jurídicas». A nivel de la UE, el Parlamento Europeo instó a la Comisión Europea a evaluar el impacto de la inteligencia artificial y formuló recomendaciones de amplio alcance sobre las normas de derecho civil relativas a la robótica en febrero de 2017. Además, el Parlamento adoptó un informe de propia iniciativa sobre una «Política industrial europea integral sobre inteligencia artificial y robótica» en febrero de 2019. El Comité Económico y Social Europeo emitió un dictamen sobre la IA en mayo de 2017. Entretanto, el Consejo Europeo de octubre de 2017 invitó a la Comisión a presentar un enfoque europeo sobre la IA.

La Comisión Europea subrayó la importancia de ocupar una posición de liderazgo en el desarrollo de tecnologías, plataformas y aplicaciones de IA en su revisión intermedia de la estrategia para el mercado único digital, publicada en mayo de 2017. Finalmente, la Comisión Europea adoptó una comunicación sobre «Inteligencia artificial para Europa» el 25 de mayo de 2018, en la que se establece el enfoque europeo para aprovechar las oportunidades que ofrece la IA y abordar los nuevos retos que plantea. La Comisión propuso un enfoque triple: aumentar la inversión pública y privada; Prepararse para los cambios socioeconómicos derivados de la IA y garantizar un marco ético y jurídico adecuado.

En cuanto a este marco, se espera que la Comisión proponga directrices éticas sobre la IA, publique un documento de orientación sobre la interpretación de la Directiva de Obligaciones por Productos Defectuosos a mediados de 2019 y lleve a cabo estudios e investigaciones, así como que formule respuestas políticas a los retos que plantea la IA en materia de responsabilidad, seguridad, internet de las cosas (IoT), robótica, conocimiento algorítmico, protección del consumidor y protección de datos. En junio de 2018, la Comisión nombró a 52 expertos para un nuevo Grupo de Expertos de Alto Nivel sobre Inteligencia Artificial (GEA-IA), integrado principalmente por representantes del ámbito académico y la industria, cuyo objetivo es apoyar la implementación de la estrategia europea sobre IA. En diciembre de 2018, el GEA-IA publicó su primer borrador de las directrices éticas de la UE sobre IA. El borrador de las directrices estuvo disponible y abierto a consulta pública hasta el 1 de febrero de 2019. En diciembre de 2018, la Comisión publicó un plan coordinado sobre inteligencia artificial con el objetivo de armonizar los enfoques de los Estados miembros en relación con sus objetivos estratégicos nacionales en materia de IA, sus programas de formación y capacitación, los mecanismos de financiación disponibles, así como la revisión de la legislación vigente y las directrices éticas. El Consejo de Ministros adoptó conclusiones sobre el plan coordinado relativo al desarrollo y uso de la «Inteligencia artificial fabricada en Europa» en febrero de 2019.

En cuanto a la normativa específica ya finalizada sobre IA, la regulación de la UE sobre algoritmos en los mercados financieros es la más avanzada. Desde el 3 de enero de 2018, el artículo 26 de la Directiva 2 de la UE sobre Mercados de Instrumentos Financieros (MiFID II) exige a las empresas de inversión que incluyan información detallada sobre los algoritmos informáticos responsables de las decisiones de inversión y de la ejecución de las transacciones. El 12 de febrero de 2019, se aprobó en sesión plenaria una moción de resolución del Parlamento Europeo, tras la adopción del informe de propia iniciativa sobre «Una política industrial europea integral sobre inteligencia artificial y robótica».

Conclusiones finales.

 El desarrollo de la IA en un vacío regulatorio y ético ha suscitado numerosos debates sobre la necesidad de su control jurídico y supervisión ética. Algoritmos basados ​​en IA que realizan tareas de razonamiento automatizado parecen controlar cada vez más aspectos de nuestras vidas mediante la implementación de la toma de decisiones institucionales basadas en el análisis de macrodatos, convirtiéndose así en un influyente referente.

Es necesario examinar y evaluar cuidadosamente el impacto de las tecnologías de IA existentes en el disfrute de los derechos humanos, desde la libertad de expresión, de reunión y asociación, el derecho a la privacidad, el derecho al trabajo y el derecho a la no discriminación, hasta la igualdad ante la ley. Asimismo, se debe considerar el potencial de la IA para agravar las desigualdades y aumentar la brecha digital. Dada la capacidad de la IA para actuar de forma autónoma, su complejidad y opacidad, así como la incertidumbre que rodea su funcionamiento, una respuesta regulatoria integral resulta esencial para evitar que sus aplicaciones, en constante expansión, causen daños sociales a una amplia gama de individuos y grupos sociales.

Dicha respuesta debería implicar la obligación de los desarrolladores de algoritmos de IA de respetar plenamente los derechos humanos y las libertades civiles de todos los usuarios, manteniendo el control humano ininterrumpido sobre los sistemas de IA, abordando los efectos del vínculo emocional entre humanos y robots, y desarrollando estándares comunes para evaluar a las autoridades judiciales que utilizan IA. También debería centrarse en la asignación de responsabilidades, derechos y deberes, y evitar que el proceso de gobernanza jurídica se reduzca a una mera optimización técnica del aprendizaje automático y los procedimientos de toma de decisiones algorítmica. En este marco, es necesario introducir nuevos derechos colectivos relativos a los datos que garanticen la posibilidad de negarse a ser objeto de elaboración de perfiles, el derecho de apelación y el derecho a una explicación en los marcos de toma de decisiones basados ​​en IA.

Además, los legisladores deben asegurar que las organizaciones que implementan y utilizan estos sistemas sigan siendo jurídicamente responsables de cualquier daño causado y desarrollen protocolos de consentimiento informado sostenibles y proporcionales. Si bien ninguna ley puede abarcar toda la complejidad de la tecnología actual, y mucho menos predecir su desarrollo futuro, la UE podría emplear instrumentos de derecho blando (como evaluaciones regulatorias de tecnología y auditorías éticas en tiempo real) para anticipar o incluso moldear las tendencias tecnológicas, y garantizar que las tecnologías disruptivas se implementen de forma coherente con el acervo ético de la UE. Aunque algunos eventos tecnológicos imprevistos seguirán siendo imposibles de predecir, un enfoque de ética desde el diseño podría asegurar que la política regulatoria se adapte de forma proactiva a un ecosistema disruptivo en constante evolución e influya en el diseño de las tecnologías.

Dado que los sistemas de IA son objetos inestables sujetos a escrutinio legal y ético, las evaluaciones y auditorías del impacto algorítmico podrían convertirse en un requisito legal. La resolución del Parlamento Europeo de 2017 sobre normas de derecho civil en robótica - que comprende un «código de conducta ética para ingenieros robóticos», un «código para comités de ética de la investigación», una «licencia para diseñadores» y una «licencia para usuarios» - puede servir como modelo de gobernanza para una arquitectura detallada, basada en procesos, de ética tecnológica en el campo de la IA. La carta sobre robótica contenida en la resolución combina un enfoque de ética por diseño ex ante con un marco reflexivo y un análisis meta ético del proceso de gobernanza empleado para la integración de la ética en las estructuras de desarrollo de esta tecnología disruptiva. Esta iniciativa legislativa debería formar parte de un cambio de paradigma más amplio que podría incluir la introducción de nuevos principios éticos (como el derecho a no ser medido, relacionado con posibles usos indebidos de la IA y el internet de las cosas, y el derecho al contacto humano significativo, relacionado con posibles usos indebidos de los robots de asistencia).

Dada la dificultad y complejidad de predecir el rendimiento de muchos sistemas de IA y sus interacciones, resulta imprescindible poner a prueba nuevas formas de obligaciones y responsabilidades mediante métodos innovadores de experimentación jurídica. Los legisladores de la UE deben evaluar cuidadosamente la necesidad de una regulación específica relativa a la toma de decisiones mediante IA y, aún más importante, la conveniencia de introducir el derecho de apelación y el derecho a la reparación cuando la IA se utilice para decisiones que afecten a las personas. Las auditorías éticas y las evaluaciones previas del impacto algorítmico deben convertirse en aspectos esenciales de todos los esfuerzos por controlar los sistemas de IA con autonomía y capacidad de autoaprendizaje integradas. Cabe destacar en este punto la labor del Grupo de Expertos de Alto Nivel sobre IA de la Comisión Europea: su primer borrador de Directrices Éticas para una IA Confiable subraya la necesidad de garantizar que la IA esté centrada en el ser humano, se desarrolle, se implemente y se utilice con un «propósito ético», y recomienda la incorporación de requisitos específicos para una IA fiable desde la fase inicial de diseño (responsabilidad, gobernanza de datos, diseño inclusivo, gobernanza de la autonomía de la IA [supervisión humana], no discriminación, respeto a la autonomía humana, respeto a la privacidad, robustez, seguridad y transparencia) subraya la importancia de la auditabilidad de los sistemas de IA, especialmente en contextos o situaciones críticas, así como de garantizar un proceso específico para la gobernanza de la responsabilidad.

La reciente resolución del Parlamento Europeo sobre una política industrial europea integral en materia de inteligencia artificial y robótica reforzó la atención del Parlamento Europeo en la necesidad de establecer un marco ético rector y la convicción política de que Europa debe liderar el ámbito mundial desplegando únicamente IA con una sólida base ética. Recomienda que los Estados miembros de la UE establezcan organismos de control y supervisión de la ética de la IA; animen a las empresas que desarrollan IA a crear comités de ética y a elaborar directrices éticas para sus desarrolladores de IA; y solicita un enfoque de ética desde el diseño que facilite la integración de valores como la transparencia y la explicabilidad en el desarrollo de la IA. Todas estas consideraciones podrían constituir elementos de un nuevo contrato social a nivel de la UE sobre innovación responsable, que posiblemente situaría la ética desde el diseño en el epicentro del ciclo de desarrollo tecnológico. Dicho contrato podría hacer plenamente operativas las herramientas de ética tecnológica anticipatoria y poner de relieve el papel y las limitaciones de la pericia ética como fuente de autoridad epistémica que pretende representar la totalidad de las preocupaciones sociales.

REFERENCIAS

AVISO LEGAL Y DERECHOS DE AUTOR

Este documento se ha elaborado para los miembros y el personal del Parlamento Europeo como material informativo para facilitar su labor parlamentaria. El contenido del documento es responsabilidad exclusiva de su(s) autor(es) y las opiniones aquí expresadas no deben interpretarse como la posición oficial del Parlamento.

Se autoriza la reproducción y traducción para fines no comerciales, siempre que se cite la fuente y se notifique previamente al Parlamento Europeo, enviándole una copia.

© Unión Europea, 2019.

stoa@ep.europa.eu (contacto)

http://www.europarl.europa.eu/stoa/ (sitio web de STOA)

www.europarl.europa.eu/thinktank (internet)

http://epthinktank.eu (blog)


No hay comentarios:

Publicar un comentario