lunes, 28 de octubre de 2024

ESTUDIO SOBRE INTELIGENCIA ARTIFICIAL (IA) Y DERECHOS HUMANOS - PARLAMENTO EUROPEO.

 Por: Carlos A. FERREYROS SOTO

Doctor en Derecho

Universidad de Montpellier I Francia.

 

cferreyros@hotmail.com

RESUMEN

Este análisis profundo (IDA) explora los actores, casos y técnicas más destacados del autoritarismo algorítmico junto con el marco legal, regulatorio y diplomático relacionado con los prejuicios basados ​​en IA, así como los malos usos deliberados. Con el mundo inclinado fuertemente hacia la transformación digital, el uso de la IA en la toma de decisiones políticas y sociales ha introducido tendencias alarmantes en agendas represivas y autoritarias. Tal mal uso se vuelve cada vez más relevante para el Parlamento Europeo, resonando con su compromiso de salvaguardar los derechos humanos en el contexto de la transformación digital. Al arrojar luz sobre los patrones globales y las tecnologías en rápido desarrollo del autoritarismo algorítmico, este IDA tiene como objetivo producir una comprensión más amplia de la compleja política, los desafíos regulatorios y diplomáticos en la intersección de l tecnología, democracia y derechos humanos. Las ideas sobre el rol de la IA en el refuerzo de las tácticas autoritarias ofrecen una base para la defensa del Parlamento y las intervenciones de políticas, subrayando la urgencia de un marco internacional robusto para regular el uso de la IA, al tiempo que garantiza que el progreso tecnológico no debilite las libertades fundamentales. Los estudios de casos detallados y las recomendaciones de políticas sirven como un recurso estratégico para las iniciativas del Parlamento: ellos destacan la necesidad de vigilancia y medidas proactivas mediante la combinación de asociaciones (asistencia técnica), prosperidad industrial (AI Act), influencia (convergencia regulatoria) y fortalezas (sanciones, exportación de controles) para desarrollar enfoques de políticas estratégicas para contrarrestar las invasiones de control algorítmico.

El presente Resumen es la traducción del ABSTRACT, del inglés al castellano realizada por el suscrito con la ayuda de Google Traductor sobre el Estudio "Inteligencia artificial (IA) y derechoshumanos: el uso de la IA como arma de represión y su impacto en los derechoshumanos". Este artículo incluye la INTRODUCCION y el INDICE, de la obra perteneciente a los autores colectivos e individuales  (Parlamento Europeo) y  El Estudio de 119 págs fue publicado en mayo de 2024.

A fin de acceder a normas similares y estándares europeos, las empresas, organizaciones públicas y privados interesados en asesorías, consultorías, capacitaciones, estudios, evaluaciones, auditorías sobre el tema, sírvanse comunicar al correo electrónico:cferreyros@hotmail.com

 ____________________________________________________________


INTRODUCCION

Los rápidos avances en la inteligencia artificial (IA) están presentando desafíos únicos para las relaciones democracia y sociedad estatal con las que la naturaleza del control político está experimentando una transformación significativa. La IA es una tecnología de uso general que afecta a casi todos los sectores tecnológicos, financieros y de comunicación. Por lo tanto, la naturaleza misma de la IA también está alterando cómo se ejerce y mantiene el poder al influir en las palancas sociales y psicológicas que mantienen y refuerzan tal poder. Tales cambios afectan directamente la gobernanza en todo el mundo, creando formas más nuevas de estrés en los derechos humanos y las libertades fundamentales a medida que más Estados dependen de las tecnologías emergentes para amplificar el control sobre sus sociedades y datos. Este análisis profundo (IDA) ahonda un aspecto preocupante de la gobernanza moderna: el uso de herramientas y técnicas basadas en IA para formas visibles y cada vez más invisibles de control y manipulación. Esencialmente, esto implica el empleo de sistemas de IA para monitorear, influir y suprimir la oposición o la disidencia, así como los respectivos flujos de información y datos, a menudo con altos grados de eficiencia y transparencia mínima. Estos métodos de control aparecen en varias formas, que van desde redes de vigilancia expansivas o manipulación electoral hasta métodos más sutiles para administrar la información y la propagación de propaganda en línea. El impacto de tales tecnologías es profundo, afectando los derechos individuales y el funcionamiento crítico de las sociedades democráticas, las cuales se espera que se vuelvan más complicadas y matizadas técnicamente en la próxima década.

Este IDA tiene como objetivo diseccionar el papel cada vez más complicado que juega la IA en la represión y las limitaciones impuestas a la expresión democrática en los Estados autoritarios. También examina cómo dicha tecnología se está utilizando contra el público por un número creciente de países. La evolución del control ha cambiado de las barreras físicas a vías digitales menos visibles, pero más invasivas, utilizando técnicas avanzadas como el aprendizaje profundo para la vigilancia, el procesamiento del lenguaje natural para la censura y el análisis predictivo para anticipar las acciones grupales disidentes. En las siguientes secciones, este análisis desglosará los aspectos teóricos, metodológicos y relevantes de la represión, identificará las tendencias en el uso indebido de IA por regímenes autoritarios y los estudios de casos presentes que demuestran los efectos de la vida real de estas tecnologías. Además, este análisis brindará apoyo al Subcomité de Derechos Humanos del Parlamento Europeo (EP) (DROI) para cumplir con su amplia gama de responsabilidades: 

• Ofrecer ideas críticas sobre cómo las tecnologías emergentes como la IA pueden ser una valiosa herramienta para una amenaza de los derechos humanos y la democracia. Con una identificación mejorada de las vías que conducen a un uso más saludable de la IA en las democracias y las condiciones previas para el mal uso a través del autoritarismo algorítmico, DROI puede evaluar mejor la efectividad de los instrumentos de la Unión Europea existente (UE) en salvaguardar contra tales amenazas, asegurando que sean lo suficientemente sólidos como para abordar los desafíos planteados por AI. 

• Mapear opciones para facilitar diálogos más informados y efectivos con organizaciones internacionales de derechos humanos. Alinear el enfoque de la UE con los estándares globales y las discusiones sobre la IA y los derechos humanos puede ayudar a la contribución de DROI a un enfoque internacional consistente y unificado al abordar los desafíos planteados por la IA en el ámbito de los derechos humanos. 

• Servir como documento de referencia para el análisis de DROI de cuestiones de derechos humanos en regiones o sujetos específicos. Puede proporcionar datos y perspectivas cruciales para los informes del Subcomité, particularmente en lo que respecta a los países donde el autoritarismo algorítmico podría ser motivo de preocupación. 

• Asistir en la integración del lenguaje y el léxico de los derechos humanos específicos de la IA en los diferentes órganos del EP, particularmente con respecto al uso y regulación de las tecnologías de IA. Este asegura un enfoque holístico de los derechos humanos en todas las políticas y acciones de la UE, guiando a los responsables políticos y funcionarios hacia un lenguaje, definiciones y conceptos comunes en el análisis del impacto de los derechos humanos de las tecnologías emergentes. 

Además, el análisis proporcionará una visión general crucial de los desafíos políticos impulsados ​​por la IA sobre los derechos humanos dentro de la UE, tanto a través de la participación de las empresas de tecnología occidental dentro del mercado de la UE como el uso de tecnologías de IA originadas en la UE en los países autoritarios, enfatizando el punto que no siempre son los 'sospechosos habituales' los que participan en la represión sistemática de IA. Esto permitirá que el EP mejore su concepción de los ecosistemas de asociación internacional y colaboración, empleando un conjunto de criterios más completo para detectar y observar injusticias algorítmicas más allá de los Estados autoritarios conocidos.

___________________________________

INDICE

List of abbreviations

1 Introduction

2 Defining repression  

2.1 Scientific definitions

2.2 Policy definitions

3 Case studies on algorithmic authoritarianism and surveillance

3.1 Case and time selection criteria

3.2 Advanced algorithmic control at scale: The case of China

3.2.1 Xinjiang region and the persecution of Uighur minority

3.2.2 China’s social credit system: A technical examination

3.2.3 Key actors and entities involved in Chinese algorithmic authoritarianism

3.2.4 Transnational involvement of China’s AI policy and misuse

3.3 Russian algorithmic authoritarianism: The Yarovaya Law  of 2016 and evolution after the 2022 Ukraine invasion

3.3.1 Evolution and current state after Russia’s 2022 war on Ukraine

3.3.2 Russian state actors and algorithmic authoritarianism practices

3.4 Iranian AI-based repression systems: Silencing dissent  and suppressing opposition

3.4.1 Key actors in Iranian algorithmic authoritarianism

3.4.2 Transnational surveillance and control

3.5 Egypt or the quest to prevent another Tahrir

3.6 Algorithmic authoritarianism in Sub-Saharan Africa:  The case of Ethiopia and beyond

 4 The role of democracies: Algorithmic bias and technology exports  

4.1 US AI-based systems: Concerns over surveillance and privacy

4.1.1 Private companies in US domestic AI-based monitoring  systems and American AI Systems Exports

4.1.2 Legislative and judicial check in the USA  

4.2 European high-technology exports

5 Assessing the effectiveness of the current international regulatory framework and governance initiatives on AI

5.1 The EU  

5.1.1 The AI Act

5.1.2 The Ethics Guidelines for Trustworthy AI

5.1.3 Other EU initiatives  

5.2 The Council of Europe

5.3 Non-binding international initiatives

5.3.1 The United Nations and the UNESCO Guideline Evaluation

5.3.2 The OECD, non-binding AI principles  and the Global Partnership on AI

5.3.3 Expert forums

5.4 State-led initiatives outside the EU

5.4.1 The USA

5.4.2 China

5.4.3 India

6 Key recommendations

6.1 Recommendations for the EU

6.2 Recommendations for the EP

6.3 Final conclusions

7 References

8 Annexes

8.1 Techniques, tactics and procedures of algorithmic authoritarianism and bias: An overview of technical  repertoires

8.1.1 Automated Content Filtering (ACF)

8.1.2 Sentiment analysis

8.1.3 Deep packet inspection

8.1.4 Facial recognition and surveillance

8.1.5 Predictive policing

8.1.6 Deepfake technology

8.1.7 Gait detection

8.2 Current trends in AI abuse for repression

8.2.1 Outcomes and motivations: Why do governments engage in algorithmic authoritarianism?

 8.2.2 Not all algorithmic authoritarianism plans succeed:  Intended vs real effects of AI authoritarianism

8.2.3 Impact of AI technologies on freedoms and rights 

Cómo Citar:

Parlamento Europeo, Dirección General de Políticas Interiores de la Unión and Ünver, A., Artificial intelligence (AI) and human rights : using AI as a weapon of repression and its impact on human rights : in-depth analysis, Oficina de Publicaciones de la Unión Europea, 2024, https://data.europa.eu/doi/10.2861/52162

No hay comentarios:

Publicar un comentario