Por: Carlos A. FERREYROS SOTO
Doctor
en Derecho
Université
de Montpellier I Francia.
cferreyros@hotmail.com
PROLOGO
El
presente artículo examina las incidencias sobre los derechos fundamentales del
uso de la Inteligencia Artificial en el ámbito de los servicios represivos y de
la justicia penal desde la óptica de la Unión Europea.
La traducción
del artículo del francés al castellano ha sido realizada por el suscrito, con
el auxilio del aplicativo Google Traduction
y se estructura en cuatro partes:
Abstract
Contexto
Objetivo
Conclusiones
El
enlace al resumen del artículo original en francés es:
_________________________________________________________________________
Departamento Temático de Derechos Ciudadanos y Asuntos
Constitucionales
Dirección General de Políticas Internas
PE 656.295 - Julio de 2020
SÍNTESIS
Estudio para la comisión LIBE Parlamento
Europeo
La inteligencia artificial y su uso por los servicios
represivos: incidencias sobre los derechos fundamentales[1]
ABSTRACT El presente estudio, encargado por el Departamento Temático
de Políticas de los Derechos de los Ciudadanos y Asuntos Constitucionales del
Parlamento Europeo a solicitud de la Comisión LIBE, examina las incidencias
sobre los derechos fundamentales del uso a la inteligencia artificial en el ámbito
de los servicios represivos y de la justicia penal, desde el punto de vista
de la Unión Europea. El estudio presenta el marco legal aplicable (en
particular en materia de protección de datos) y analiza las grandes
tendencias y los principales debates políticos en este ámbito. El estudio
también examina las evoluciones que ha entrañado la epidemia de COVID-19. Este
sostiene que la gravedad y la amplitud de los desafíos pueden justificar una
intervención a nivel de la Unión, basada sobre el reconocimiento de las
especificidades de este sector. |
Contexto
La
inteligencia artificial (IA) figura en el primer plano de las preocupaciones de
la Unión Europea. Las discusiones sobre su eventual regulación han cobrado un
relieve particular desde que Úrsula von der Leyen anunció, incluso antes de su
nombramiento como presidenta de la Comisión Europea, su determinación de hacer
de la IA una de las principales prioridades de la Comisión Europea. El
reconocimiento de la IA como prioridad estratégica a tratar a nivel de la Unión
se ha acompañado de una reflexión sobre la manera de cómo aumentar la confianza
en las tecnologías de IA y de garantizar que los sistemas de IA no comprometan,
durante su desarrollo o despliegue, los derechos fundamentales en el seno de la
Unión. En realidad, esta reflexión específica no es del todo nueva, sino se centró
durante mucho tiempo en los debates legislativos y políticos preliminares orientados
sobre cuestiones de derechos fundamentales relacionadas en particular a los Macrodatos(«Big Data»), y más aún, de manera general, a la regulación del
tratamiento de los datos personales y no personales.
Objetivo
Este
estudio tiene como objetivo analizar la
incidencia sobre los derechos fundamentales de la Unión del recurso a la IA en
el ámbito de los servicios represivos y de la justicia penal. Este estudio
aborda el tema desde la perspectiva del derecho y las políticas de la Unión.
Después de una rápida visión general de los principales aspectos del marco legislativo
aplicable, el estudio presenta las evoluciones recientes y en curso en este
campo, poniendo el énfasis en la "vigilancia policial predictiva", el
reconocimiento facial, el recurso de IA en el marco de la justicia penal, así
como sobre el uso de la IA en las fronteras. El estudio examina el impacto de
estas tendencias sobre los derechos fundamentales y revisa los debates estratégicos
alrededor de la regulación de la IA. Después de explorar estas diferentes pistas,
el estudio ofrece algunas recomendaciones concretas.
Conclusiones
Los
servicios represivos y la justicia penal son ámbitos particularmente sensibles, que plantean cuestiones esenciales ligadas
a las relaciones entre el individuo y el Estado. Existe un amplio consenso en
que el recurso a los sistemas de IA en la materia puede tener importantes
consecuencias sobre los derechos fundamentales en la Unión y, en general, sobre
la propia democracia. Esta cuestión merece, por lo tanto, una atención especial
cuando se habla del futuro de una IA en la que podamos confiar.
El
presente estudio:
• muestra que el desarrollo de la IA en el ámbito de los
servicios represivos y de la justicia penal ya es una realidad, ya que la implementación de los sistemas de IA es
cada vez más frecuentemente realizada o prevista; tales sistemas son
susceptibles de adoptar múltiples formas y resultan de la conjunción de un
cierto número de tendencias durables hacia un mayor uso de los datos, de los
algoritmos y la potencia de cálculo; estas evoluciones están vinculadas a
tendencias preexistentes, algunas de las cuales habían sido previamente
subsumidas esquemáticamente bajo otros conceptos o prioridades estratégicas
como "Big Data" ("Macrodatos");
• pone en evidencia que las evoluciones de este tipo ya han dado lugar a importantes controversias, en
particular, respecto a la "vigilancia policial predictiva", el
reconocimiento facial, la inteligencia artificial y la justicia penal, así como
el uso de la inteligencia artificial en las fronteras (incluida una reflexión
sobre el Sistema Europeo de Información y Autorización de Viajes, ETIAS) - bajo
la forma, por ejemplo, de procedimientos contenciosos o invocaciones a la
sociedad civil para prevenir o mitigar mejor los riesgos asociados en la Unión
como en cualquier otro lugar;
• subraya que los debates alrededor de la regulación de
la IA en el seno de la Unión han sido integrados profundamente en el programa de la Unión para un mercado único
digital; ahora bien, en general, síi bien estas discusiones estratégicas a
veces mencionan la necesidad de tener en cuenta aspectos específicos
relacionados con la aplicación de la ley y la justicia penal, generalmente no
se basan en un examen detallado ni en la toma en consideración de las normas concretamente
aplicables (y particularmente en las restricciones y exenciones aplicables);
• advierte contra el hecho de que estas discusiones
políticas adolecen de ambivalencias
persistentes cuanto al rol de la
“ética” en materia de protección de los derechos fundamentales, lo que engendra
no solo una falta de precisión conceptual, sino también, y sobre todo,
incertidumbre sobre si se garantizará la protección efectiva de los derechos
fundamentales;
• subraya que no se puede considerar que el actual marco jurídico de la UE para la
protección de datos ofrezca garantías suficientemente sólidas a los ciudadanos,
dado el mayor uso de la toma de decisiones automatizadas y la elaboración de
perfiles con fines policiales y de justicia penal, ya que:
o
las garantías generales previstas por el
Reglamento General de Protección de Datos (RGPD) no se aplican necesariamente
cuando el tratamiento se lleva a cabo para tales fines, ya que pueden aplicarse
restricciones y excepciones;
• examina una serie de consideraciones relativas a los
derechos fundamentales atinentes a la IA en el ámbito de los servicios
represivos y de la justicia penal, y destaca el hecho de que ellas plantean cuestiones
relativas a la protección de la vida privada y de los datos, pero también otros
problemas, en particular relacionados con la no discriminación;
• describe una ausencia
problemática de normas mínimas de transparencia con respecto al apoyo de los
fondos de la UE para la investigación en el campo de la IA, que tiene una
incidencia notable a la posibilidad de evaluar en qué medida la investigación
financiada respeta los derechos fundamentales de la Unión y la legislación de
la Unión en general, sino también sobre la continuación de los trabajos
científicos con miras a soluciones de IA dignas de confianza;
• advierte que las respuestas
a la pandemia de COVID-19 han llevado a la proliferación rápida de medidas
tecnológicas e iniciativas basadas sobre los datos, que conviene de examinar
cuidadosamente, especialmente cuando ellas tienen por ambición proceder a
una recopilación generalizada y sin precedentes de datos sobre las personas
(las "aplicaciones de rastreo de contactos"), o cuando ellas se basan
en la frágil distinción entre datos "personales" y datos "anonimizados"
para facilitar un tratamiento de datos de gran amplitud;
• recomienda que se tenga debidamente cuenta de la necesidad de una intervención legislativa
para garantizar los derechos fundamentales de la Unión en el ámbito de los
servicios represivos y de la justicia penal; de precisar y de justificar en
detalle cualquier posible función asignada a la "ética" en el marco
de una tal intervención; de debidamente examinar, específicamente en lo relativo
a la aplicación de la ley y la justicia penal, las lagunas e insuficiencias de
la legislación de la Unión en materia de protección de datos, así como las legislaciones
nacionales que aplican el derecho de la Unión, en materia de protección de
datos; de enmarcar mejor la investigación financiada por la Unión en el ámbito
de la IA; finalmente, de llevar a cabo un seguimiento extremadamente cuidadoso
de las evoluciones relacionadas con la pandemia de COVID-19.
[1] Versión integral del estudio en inglés:
https://www.europarl.europa.eu/RegData/etudes/STUD/2020/656295/IPOL_STU(2020)656295_EN.pdf
No hay comentarios:
Publicar un comentario