lunes, 5 de octubre de 2020

LA INTELIGENCIA ARTIFICIAL Y SU USO POR LOS SERVICIOS REPRESIVOS: INCIDENCIAS SOBRE LOS DERECHOS FUNDAMENTALES.

 

Por: Carlos A. FERREYROS SOTO

Doctor en Derecho

Université de Montpellier I Francia.

cferreyros@hotmail.com

PROLOGO

El presente artículo examina las incidencias sobre los derechos fundamentales del uso de la Inteligencia Artificial en el ámbito de los servicios represivos y de la justicia penal desde la óptica de la Unión Europea.

La traducción del artículo del francés al castellano ha sido realizada por el suscrito, con el auxilio del aplicativo Google Traduction y se estructura en cuatro partes:

Abstract

Contexto

Objetivo

Conclusiones

 

El enlace al resumen del artículo original en francés es:

https://op.europa.eu/es/publication-detail/-/publication/97fcdc04-01a3-11eb-974f-01aa75ed71a1/language-en?WT.mc_id=Selectedpublications&WT.ria_c=41957&WT.ria_f=5961&WT.ria_ev=search.

_________________________________________________________________________

Departamento Temático de Derechos Ciudadanos y Asuntos Constitucionales

Dirección General de Políticas Internas

PE 656.295 - Julio de 2020

SÍNTESIS

Estudio para la comisión LIBE                                                                       Parlamento Europeo

 

La inteligencia artificial y su uso por los servicios represivos: incidencias sobre los derechos fundamentales[1]

 

ABSTRACT

El presente estudio, encargado por el Departamento Temático de Políticas de los Derechos de los Ciudadanos y Asuntos Constitucionales del Parlamento Europeo a solicitud de la Comisión LIBE, examina las incidencias sobre los derechos fundamentales del uso a la inteligencia artificial en el ámbito de los servicios represivos y de la justicia penal, desde el punto de vista de la Unión Europea. El estudio presenta el marco legal aplicable (en particular en materia de protección de datos) y analiza las grandes tendencias y los principales debates políticos en este ámbito. El estudio también examina las evoluciones que ha entrañado la epidemia de COVID-19. Este sostiene que la gravedad y la amplitud de los desafíos pueden justificar una intervención a nivel de la Unión, basada sobre el reconocimiento de las especificidades de este sector.

 

 

Contexto

La inteligencia artificial (IA) figura en el primer plano de las preocupaciones de la Unión Europea. Las discusiones sobre su eventual regulación han cobrado un relieve particular desde que Úrsula von der Leyen anunció, incluso antes de su nombramiento como presidenta de la Comisión Europea, su determinación de hacer de la IA una de las principales prioridades de la Comisión Europea. El reconocimiento de la IA como prioridad estratégica a tratar a nivel de la Unión se ha acompañado de una reflexión sobre la manera de cómo aumentar la confianza en las tecnologías de IA y de garantizar que los sistemas de IA no comprometan, durante su desarrollo o despliegue, los derechos fundamentales en el seno de la Unión. En realidad, esta reflexión específica no es del todo nueva, sino se centró durante mucho tiempo en los debates legislativos y políticos preliminares orientados sobre cuestiones de derechos fundamentales relacionadas en particular a los Macrodatos(«Big Data»), y más aún, de manera general, a la regulación del tratamiento de los datos personales y no personales.

 

Objetivo

Este estudio tiene como objetivo analizar la incidencia sobre los derechos fundamentales de la Unión del recurso a la IA en el ámbito de los servicios represivos y de la justicia penal. Este estudio aborda el tema desde la perspectiva del derecho y las políticas de la Unión. Después de una rápida visión general de los principales aspectos del marco legislativo aplicable, el estudio presenta las evoluciones recientes y en curso en este campo, poniendo el énfasis en la "vigilancia policial predictiva", el reconocimiento facial, el recurso de IA en el marco de la justicia penal, así como sobre el uso de la IA en las fronteras. El estudio examina el impacto de estas tendencias sobre los derechos fundamentales y revisa los debates estratégicos alrededor de la regulación de la IA. Después de explorar estas diferentes pistas, el estudio ofrece algunas recomendaciones concretas.

 

Conclusiones

Los servicios represivos y la justicia penal son ámbitos particularmente sensibles, que plantean cuestiones esenciales ligadas a las relaciones entre el individuo y el Estado. Existe un amplio consenso en que el recurso a los sistemas de IA en la materia puede tener importantes consecuencias sobre los derechos fundamentales en la Unión y, en general, sobre la propia democracia. Esta cuestión merece, por lo tanto, una atención especial cuando se habla del futuro de una IA en la que podamos confiar.

El presente estudio:

• muestra que el desarrollo de la IA en el ámbito de los servicios represivos y de la justicia penal ya es una realidad, ya que la implementación de los sistemas de IA es cada vez más frecuentemente realizada o prevista; tales sistemas son susceptibles de adoptar múltiples formas y resultan de la conjunción de un cierto número de tendencias durables hacia un mayor uso de los datos, de los algoritmos y la potencia de cálculo; estas evoluciones están vinculadas a tendencias preexistentes, algunas de las cuales habían sido previamente subsumidas esquemáticamente bajo otros conceptos o prioridades estratégicas como "Big Data" ("Macrodatos");

• pone en evidencia que las evoluciones  de este tipo ya han dado lugar a importantes controversias, en particular, respecto a la "vigilancia policial predictiva", el reconocimiento facial, la inteligencia artificial y la justicia penal, así como el uso de la inteligencia artificial en las fronteras (incluida una reflexión sobre el Sistema Europeo de Información y Autorización de Viajes, ETIAS) - bajo la forma, por ejemplo, de procedimientos contenciosos o invocaciones a la sociedad civil para prevenir o mitigar mejor los riesgos asociados en la Unión como en cualquier otro lugar;

• subraya que los debates alrededor de la regulación de la IA en el seno de la Unión han sido integrados profundamente en el programa de la Unión para un mercado único digital; ahora bien, en general, síi bien estas discusiones estratégicas a veces mencionan la necesidad de tener en cuenta aspectos específicos relacionados con la aplicación de la ley y la justicia penal, generalmente no se basan en un examen detallado ni en la toma en consideración de las normas concretamente aplicables (y particularmente en las restricciones y exenciones aplicables);

• advierte contra el hecho de que estas discusiones políticas adolecen de ambivalencias persistentes cuanto al rol de la “ética” en materia de protección de los derechos fundamentales, lo que engendra no solo una falta de precisión conceptual, sino también, y sobre todo, incertidumbre sobre si se garantizará la protección efectiva de los derechos fundamentales;

• subraya que no se puede considerar que el actual marco jurídico de la UE para la protección de datos ofrezca garantías suficientemente sólidas a los ciudadanos, dado el mayor uso de la toma de decisiones automatizadas y la elaboración de perfiles con fines policiales y de justicia penal, ya que:

     o las garantías generales previstas por el Reglamento General de Protección de Datos (RGPD) no se aplican necesariamente cuando el tratamiento se lleva a cabo para tales fines, ya que pueden aplicarse restricciones y excepciones;

     o la directiva de protección de datos en el ámbito represivo, que podría ser el instrumento pertinente aplicable, incluye garantías similares a las del RGPD, pero no estrictamente equivalentes, al mismo tiempo que prevé eventuales restricciones y excepciones;

• examina una serie de consideraciones relativas a los derechos fundamentales atinentes a la IA en el ámbito de los servicios represivos y de la justicia penal, y destaca el hecho de que ellas plantean cuestiones relativas a la protección de la vida privada y de los datos, pero también otros problemas, en particular relacionados con la no discriminación;

• describe una ausencia problemática de normas mínimas de transparencia con respecto al apoyo de los fondos de la UE para la investigación en el campo de la IA, que tiene una incidencia notable a la posibilidad de evaluar en qué medida la investigación financiada respeta los derechos fundamentales de la Unión y la legislación de la Unión en general, sino también sobre la continuación de los trabajos científicos con miras a soluciones de IA dignas de confianza;

• advierte que las respuestas a la pandemia de COVID-19 han llevado a la proliferación rápida de medidas tecnológicas e iniciativas basadas sobre los datos, que conviene de examinar cuidadosamente, especialmente cuando ellas tienen por ambición proceder a una recopilación generalizada y sin precedentes de datos sobre las personas (las "aplicaciones de rastreo de contactos"), o cuando ellas se basan en la frágil distinción entre datos "personales" y datos "anonimizados" para facilitar un tratamiento de datos de gran amplitud;

• recomienda que se tenga debidamente cuenta de la necesidad de una intervención legislativa para garantizar los derechos fundamentales de la Unión en el ámbito de los servicios represivos y de la justicia penal; de precisar y de justificar en detalle cualquier posible función asignada a la "ética" en el marco de una tal intervención; de debidamente examinar, específicamente en lo relativo a la aplicación de la ley y la justicia penal, las lagunas e insuficiencias de la legislación de la Unión en materia de protección de datos, así como las legislaciones nacionales que aplican el derecho de la Unión, en materia de protección de datos; de enmarcar mejor la investigación financiada por la Unión en el ámbito de la IA; finalmente, de llevar a cabo un seguimiento extremadamente cuidadoso de las evoluciones relacionadas con la pandemia de COVID-19.


No hay comentarios:

Publicar un comentario