viernes, 14 de octubre de 2022

NO HABRÁ ÉTICA DE LA INTELIGENCIA ARTIFICIAL: QUEDAN EL DERECHO Y LAS SANCIONES.

 Por: Carlos A. FERREYROS SOTO

Doctor en Derecho
Universidad de Montpellier I Francia.

cferreyros@hotmail.com   

Resumen 

Este viernes 14 de octubre, Bernard Fallery Profesor de la Université de Montpellier, disertó en la Sala Petrarca de la Université de Tiers Temps de Montpellier, a la cual asistí, sobre " Il n'y aura pas d'éthique de l'Intelligence Artificielle: il reste le droit et les sanctions" cuya traducción al castellano pudiera ser: "No habrá ética de la Inteligencia Artificial: quedan el Derecho y las sanciones". 

Según B. Fallery, hoy en día las situaciones en las cuales nos sitúa la Inteligencia Artificial no pueden caer más bajo el principio de prudencia crítica (Aristóteles), ni el principio ético de racionalidad (E. Kant), ni el principio de utilitarismo (J. Bentham). Para limitar un peligroso "solucionismo" en la carrera por las innovaciones, sólo quedan la ley, los tribunales y las sanciones. Pero este derecho digital se construye sobre la base de numerosas relaciones de fuerza, en las cuales los ciudadanos también pueden participar: la lucha jurídica contra la plataforma de datos de Health Data Hub es un ejemplo real sobre cómo detener un proyecto de centralización de datos médicos en el que participa Microsoft.

Se incluye el texto original compartido en francés y traducido al castellano por el suscrito con la ayuda de la aplicación Google Translation.  El texto contiene, además, una serie de enlaces a diferentes recursos, incluyendo diversos Principios Fundamentales, base de diferentes Comités de Ética en el mundo. Este articulo puede concordarse con uno anterior sobre: Acceso a Internet: Derecho Constitucional o Mito?

Si desea mayor información sobre este tema, consúltenos al correo electrónico:  cferreyros@hotmail.com

_______________________________________________________

Todos hemos comenzamos a darnos cuenta que el rápido desarrollo de la IA realmente iba a cambiar el mundo en el que vivimos. La IA ya no es solo una rama de las ciencias informática, ella se ha escapado de los laboratorios de investigación con el desarrollo de "sistemas de IA", "programas informáticos que, para fines definidos por los hombres, genera contenido, predicciones, recomendaciones o decisiones que influyen en los entornos con los que interactúan” (definición de la Unión Europea ).

Los desafíos de la gobernanza de estos sistemas de IA - con todos los matices de ética, control, regulación y reglamentación - se han vuelto cruciales, ya que su desarrollo hoy está en manos de unos pocos imperios digitales como los Gafa - Natu - Batx ... quienes han devenido los verdaderos amos de los verdaderos elecciones sociales sobre la automatización y la "racionalización" del mundo.

El tejido complejo creciente de la IA, la ética y la ley se construye entonces en relaciones de fuerza - y connivencia - entre los Estados y los gigantes tecnológicos. Haciendo necesario el compromiso de los ciudadanos, para hacer valer otros imperativos que un solucionismo tecnológico  donde “todo lo que se pueda conectar se conectará y se racionalizará”.

¿Una ética de la IA? Los principios fundamentales en el impasse.

Cierto los tres grandes principios éticos permiten de comprender cómo se ha construido una verdadera bioética desde Hipócrates: la virtud personal de "prudencia crítica", o la racionalidad de reglas que deben poder ser universales, o la evaluación de las consecuencias de nuestros actos a la felicidad general.

Para los sistemas de IA, estos principios fundamentales también han sido la base de cientos de comités de ética: el juramento de Holberton -Turing , la declaración de Montreal , la declaración de Toronto , el programa de la Unesco … ¡e incluso Facebook ! Pero las Declaraciones de ética de la IA nunca han dado lugar aún a un mecanismo de sanción, ni siquiera a la más mínima reprobación.

Por un lado, la carrera por las innovaciones digitales es fundamental para que el capitalismo supere las contradicciones en la acumulación de ganancias y es fundamental para que los estados desarrollen una gubernamentalidad algorítmica y un control social inesperado .

Pero, por otro lado, los sistemas de IA son siempre a la vez un remedio y un veneno (un pharmakon en el sentido de Bernard Stiegler ) y, por lo tanto, crean continuamente diferentes situaciones éticas que no caen bajo los principios sino que requieren un " pensamiento complejo"; una dialógica en el sentido de Edgar Morin, como muestra el análisis de los conflictos éticos en torno a la plataforma de datos de salud Health data hub .

Un derecho de la IA ? Una construcción entre regulación y reglamentación

Incluso si los principales principios éticos nunca serán operativos, es a partir de su discusión crítica que puede surgir la ley de IA. La ley tropieza aquí con obstáculos específicos, en particular la inestabilidad científica de la definición de IA, el aspecto extraterritorial de la tecnología digital, pero también la velocidad con la que las plataformas están desarrollando nuevos servicios .

En un desarrollo de la ley de IA, podemos ver entonces dos movimientos paralelos . Por un lado, la regulación mediante simples directivas o recomendaciones para una progresiva integración jurídica de los estándares (de la tecnología a la ley, como la certificación de ciberseguridad ). Por otro lado, reglamentación real a través de legislación vinculante (del derecho positivo a la tecnología, como la reglamentación GDPR sobre datos personales).

Relaciones de fuerza… y connivencia

Los datos personales a menudo se describen como un nuevo oro negro codiciado , ya que los sistemas de IA tienen una necesidad crítica de grandes datos para impulsar el aprendizaje estadístico.

En 2018, el RGPD se convirtió en una auténtica regulación europea de estos datos que había podido beneficiarse de dos grandes escándalos , el programa de espionaje Prims de la NSA y el de los datos de Facebook desviados a Cambridge Analytica . El RGPD incluso permitió al abogado activista Max Schrems en 2020 invalidar todas las transferencias de datos personales a los Estados Unidos por parte del Tribunal de Justicia de la Unión Europea. Pero los informes de colusión entre Estados y gigantes digitales siguen siendo numerosos: Joe Biden y Ursula von der Leyen están reorganizando constantemente estas transferencias de datos impugnadas por una nueva regulación .

Los monopolios Gafa - Natu - Batx orientan hoy en día el desarrollo de sistemas de IA: controlan los futuros posibles por las "máquinas predictivas" y la manipulación de la atención , imponen la complementariedad de sus servicios y próximamente la integración de sus sistemas en el Internet de las Cosas. Los Estados reaccionan a esta concentración.

En Estados Unidos, una demanda para obligar a Facebook para revender Instagram y WhatsApp se abrirá en 2023, y se votará una modificación de la legislación antimonopolio .


Leáse también: Europa propone reglas para la inteligencia artificial


En Europa a partir de 2024, la regulación de los mercados digitales, la ley DMA , regulará las adquisiciones y prohibirá a los "grandes controladores de acceso" el autoreferenciamientor o las ofertas grupales entre sus diversos servicios. En cuanto a la regulación de los servicios digitales, la ley DSA , obligará a las "grandes plataformas" a una transparencia sobre sus algoritmos, a una gestión rápida de los contenidos ilegales y prohibirá la publicidad dirigida sobre características sensibles.

Pero la connivencia sigue siendo fuerte, porque cada cual también protegen a "sus" gigantes blandiendo la amenaza china. Así, bajo amenazas de la administración Trump , el gobierno francés había suspendido el pago de su " impuesto Gafa " aún cuando fue votado por el parlamento en 2019 y las transacciones fiscales continúan en el marco de la OCDE.

Una nueva y original reglamentación europea sobre los riesgos específicos de los sistemas de IA

Los progresos espectacular en el reconocimiento de formas (tanto sobre imágenes, textos, voces o localizaciones) crean sistemas de predicción que presentan riesgos crecientes para la salud, la seguridad o los derechos fundamentales: manipulación, discriminación, control social, armas autónomas… Después de la reglamentación china sobre la transparencia de los algoritmos de recomendación en marzo de 2022, la adopción de la ley AIA , reglamento europeo sobre inteligencia artificial, será un nueva etapa en 2023.



Clasificación europea de riesgos de los sistemas de IA. Yves Meneceur , 2021, Cedido por el autor

 

Esta legislación original se basa en el grado de riesgo de los sistemas de IA, en un enfoque piramidal similar a los riesgos nucleares: inaceptable, alto riesgo, bajo riesgo, mínimo riesgo. A cada nivel de riesgo se asocian prohibiciones, obligaciones o requisitos, que se especifican en los anexos y que aún son objeto de negociación entre el Parlamento y la Comisión. La conformidad y las sanciones serán supervisados por las autoridades nacionales competentes y el Comité Europeo de Inteligencia Artificial.

Un compromiso de los ciudadanos para un derecho de la IA

A aquellos que consideran una utopía el compromiso de los ciudadanos en la construcción de un derecho de la IA, podemos recordar primero la estrategia de un movimiento como Amnistía Internacional: hacer avanzar el derecho internacional (tratados, convenciones, reglamentos, tribunales de derechos humanos) y luego utilizar en situaciones concretas como la del spyware Pegasus o la prohibición de las armas autónomas.

Un otro ejemplo exitoso es el del movimiento None of your Business (No es asunto tuyo): hacer avanzar la legislación europea (GDPR, Tribunal de Justicia de la Unión Europea, etc.) presentando cientos de denuncias cada año contra prácticas de violación de la privacidad por parte de empresas digitales .


Leáse también: Reconocimiento facial, del desbloqueo de teléfonos a la vigilancia masiva


Todos estos colectivos de ciudadanos, que trabajan para construir y hacer uso de los derechos de la IA, tienen formas y enfoques muy diversos. Desde las asociaciones de consumidores europeos que presentan una denuncia conjunta contra la gestión de las cuentas de Google, a los saboteadores de las antenas 5G que se niegan a la digitalización total del mundo, a los habitantes de Toronto que están descarrilando el gran proyecto de Smart City  de Google o los médicos militantes  del software libre que quieren proteger los datos de salud…

Este realce de diferentes imperativos éticos, a la vez opuestos como complementarios, corresponde bien al pensamiento complejo de la ética propuesto por Edgar Morin, al aceptar las resistencias y las perturbaciones como inherentes al cambio.

Palabras Claves:

Ética Europa Derecho Inteligencia artificial (IA) Ciudades inteligentes GAFAM Democracia ciudadana


No hay comentarios:

Publicar un comentario