Por: Carlos A. FERREYROS SOTO
Doctor en Derecho
Universidad de Montpellier I Francia.
Resumen
Este viernes 14 de octubre, Bernard Fallery
Profesor de la Université de Montpellier, disertó en la Sala Petrarca de la Université de Tiers Temps de Montpellier, a la
cual asistí, sobre " Il n'y aura pas d'éthique de l'Intelligence
Artificielle: il reste le droit et les sanctions" cuya traducción al
castellano pudiera ser: "No habrá ética de la Inteligencia Artificial:
quedan el Derecho y las sanciones".
Según B. Fallery, hoy en día las
situaciones en las cuales nos sitúa la Inteligencia Artificial no pueden caer
más bajo el principio de prudencia crítica (Aristóteles), ni el principio ético
de racionalidad (E. Kant), ni el principio de utilitarismo (J. Bentham). Para
limitar un peligroso "solucionismo" en la carrera por las
innovaciones, sólo quedan la ley, los tribunales y las sanciones. Pero este
derecho digital se construye sobre la base de numerosas relaciones de fuerza,
en las cuales los ciudadanos también pueden participar: la lucha jurídica
contra la plataforma de datos de Health Data Hub es un ejemplo real sobre cómo
detener un proyecto de centralización de datos médicos en el que participa
Microsoft.
Se incluye el texto original compartido en francés y traducido
al castellano por el suscrito con la ayuda de la aplicación Google
Translation. El texto contiene,
además, una serie de enlaces a diferentes recursos, incluyendo diversos
Principios Fundamentales, base de diferentes Comités de Ética en el mundo. Este
articulo puede concordarse con uno anterior sobre: Acceso a Internet: Derecho Constitucional o Mito?
Si desea mayor
información sobre este tema, consúltenos al correo electrónico: cferreyros@hotmail.com
_______________________________________________________
Todos hemos comenzamos a darnos cuenta que el
rápido desarrollo de la IA realmente iba a cambiar el mundo en el que vivimos.
La IA ya no es solo una rama de las ciencias informática, ella se ha escapado
de los laboratorios de investigación con el desarrollo de "sistemas de
IA", "programas informáticos que, para fines definidos por los
hombres, genera contenido, predicciones, recomendaciones o decisiones que
influyen en los entornos con los que interactúan” (definición de la Unión Europea ).
Los desafíos de la gobernanza de estos sistemas de
IA - con todos los matices de ética, control, regulación y reglamentación - se
han vuelto cruciales, ya que su desarrollo hoy está en manos de unos pocos
imperios digitales como los Gafa - Natu - Batx ... quienes han devenido los verdaderos amos de los
verdaderos elecciones sociales sobre la automatización y la "racionalización" del mundo.
El tejido complejo creciente de la IA, la ética y
la ley se construye entonces en relaciones de fuerza - y connivencia - entre
los Estados y los gigantes tecnológicos. Haciendo necesario el compromiso de los
ciudadanos, para hacer valer otros imperativos que un solucionismo
tecnológico donde “todo lo que se pueda conectar se
conectará y se racionalizará”.
¿Una ética de la IA? Los
principios fundamentales en el impasse.
Cierto los tres grandes principios éticos permiten de comprender cómo se ha construido una verdadera
bioética desde Hipócrates: la virtud personal de "prudencia crítica",
o la racionalidad de reglas que deben poder ser universales, o la evaluación de
las consecuencias de nuestros actos a la felicidad general.
Para los sistemas de IA, estos principios
fundamentales también han sido la base de cientos de comités de ética: el
juramento de Holberton -Turing , la declaración de Montreal , la declaración de Toronto , el programa
de la Unesco … ¡e incluso Facebook ! Pero las Declaraciones de ética de la IA nunca
han dado lugar aún a un mecanismo de sanción, ni siquiera a la más mínima
reprobación.
Por un lado, la carrera por las innovaciones
digitales es fundamental para que el
capitalismo supere las contradicciones en la acumulación de
ganancias y es fundamental para que los estados desarrollen una gubernamentalidad
algorítmica y un control social inesperado .
Pero, por otro lado, los sistemas de IA son siempre a la vez un remedio y un veneno (un pharmakon en el sentido de Bernard Stiegler ) y, por lo tanto, crean continuamente diferentes situaciones éticas que no caen bajo los principios sino que requieren un " pensamiento complejo"; una dialógica en el sentido de Edgar Morin, como muestra el análisis de los conflictos éticos en torno a la plataforma de datos de salud Health data hub .
Un derecho de la IA ? Una
construcción entre regulación y reglamentación
Incluso si los principales principios éticos nunca
serán operativos, es a partir de su discusión crítica que puede surgir la ley
de IA. La ley tropieza aquí con obstáculos específicos, en particular la inestabilidad científica de la definición de IA, el aspecto extraterritorial
de la tecnología digital, pero también la velocidad con la que las plataformas
están desarrollando nuevos servicios .
En un desarrollo de la ley de IA, podemos ver
entonces dos movimientos paralelos . Por un lado,
la regulación mediante simples directivas o recomendaciones para una progresiva
integración jurídica de los estándares (de la tecnología a la ley, como la certificación de ciberseguridad ). Por otro lado, reglamentación real a través de
legislación vinculante (del derecho positivo a la tecnología, como la reglamentación GDPR sobre datos personales).
Relaciones de fuerza… y connivencia
Los datos personales a menudo se describen como un nuevo oro negro codiciado , ya que los sistemas de IA tienen una necesidad
crítica de grandes datos para impulsar el aprendizaje estadístico.
En 2018, el RGPD se convirtió en una auténtica
regulación europea de estos datos que había
podido beneficiarse de dos grandes escándalos , el programa de espionaje
Prims de la NSA y el de los datos de Facebook desviados a Cambridge Analytica .
El RGPD incluso permitió al abogado activista Max Schrems en 2020 invalidar todas las transferencias de datos
personales a los Estados Unidos por parte del Tribunal de Justicia de la Unión
Europea. Pero los informes de colusión entre Estados y gigantes
digitales siguen siendo numerosos: Joe Biden y Ursula von der
Leyen están reorganizando constantemente estas transferencias de datos
impugnadas por una nueva regulación .
Los monopolios Gafa - Natu - Batx orientan hoy en
día el desarrollo de sistemas de IA: controlan los futuros posibles por las "máquinas
predictivas" y la manipulación de la atención , imponen la
complementariedad de sus servicios y próximamente la integración de
sus sistemas en el Internet de las Cosas. Los Estados reaccionan a esta concentración.
En Estados Unidos, una demanda para obligar a
Facebook para revender Instagram y WhatsApp se abrirá en 2023, y se votará una modificación de
la legislación antimonopolio .
Leáse también: Europa propone reglas para la
inteligencia artificial
En Europa a partir de 2024, la regulación de los
mercados digitales, la ley DMA , regulará las adquisiciones y prohibirá a los
"grandes controladores de acceso" el autoreferenciamientor o las ofertas
grupales entre sus diversos servicios. En cuanto a la regulación de los
servicios digitales, la ley DSA , obligará a las "grandes plataformas" a una
transparencia sobre sus algoritmos, a una gestión rápida de los contenidos
ilegales y prohibirá la publicidad dirigida sobre características sensibles.
Pero la connivencia sigue siendo fuerte, porque cada
cual también protegen a "sus" gigantes blandiendo la amenaza china.
Así, bajo amenazas de la administración Trump , el gobierno francés había suspendido el pago de su
" impuesto Gafa " aún cuando fue votado por el parlamento en 2019 y las transacciones fiscales continúan en el marco de la OCDE.
Una nueva y original
reglamentación europea sobre los riesgos específicos de los sistemas de IA
Los progresos espectacular en el reconocimiento de formas
(tanto sobre imágenes, textos, voces o localizaciones) crean sistemas de
predicción que presentan riesgos crecientes para la salud, la seguridad o los
derechos fundamentales: manipulación, discriminación, control social, armas
autónomas… Después de la reglamentación china sobre la transparencia de los algoritmos
de recomendación en marzo de 2022, la adopción de la ley AIA , reglamento europeo sobre inteligencia artificial,
será un nueva etapa en 2023.
Esta legislación original se basa en el grado de riesgo de los sistemas de IA, en un enfoque piramidal
similar a los riesgos nucleares: inaceptable, alto riesgo, bajo riesgo, mínimo
riesgo. A cada nivel de riesgo se asocian prohibiciones, obligaciones o
requisitos, que se especifican en los anexos y que aún son objeto de
negociación entre el Parlamento y la Comisión. La conformidad y las sanciones serán supervisados
por las autoridades nacionales competentes y el Comité Europeo de Inteligencia
Artificial.
Un compromiso de los ciudadanos para
un derecho de la IA
A aquellos que consideran una utopía el compromiso de los ciudadanos en la construcción de un derecho de la IA, podemos recordar primero la estrategia de un movimiento como Amnistía Internacional: hacer avanzar el derecho internacional (tratados, convenciones, reglamentos, tribunales de derechos humanos) y luego utilizar en situaciones concretas como la del spyware Pegasus o la prohibición de las armas autónomas.
Un otro ejemplo exitoso es el del movimiento None of your Business (No es asunto tuyo): hacer avanzar la legislación
europea (GDPR, Tribunal de Justicia de la
Unión Europea, etc.) presentando cientos de
denuncias cada año contra
prácticas de violación de la privacidad por parte de empresas digitales .
Leáse también: Reconocimiento facial, del
desbloqueo de teléfonos a la vigilancia masiva
Todos estos colectivos de ciudadanos, que trabajan para construir y hacer uso de los derechos de la IA, tienen formas y enfoques muy diversos. Desde las asociaciones de consumidores europeos que presentan una denuncia conjunta contra la gestión de las cuentas de Google, a los saboteadores de las antenas 5G que se niegan a la digitalización total del mundo, a los habitantes de Toronto que están descarrilando el gran proyecto de Smart City de Google o los médicos militantes del software libre que quieren proteger los datos de salud…
Este realce de diferentes imperativos éticos, a la
vez opuestos como complementarios, corresponde bien al pensamiento complejo de la ética propuesto por Edgar Morin, al aceptar
las resistencias y las perturbaciones como inherentes al cambio.
Palabras
Claves:
Ética Europa Derecho Inteligencia artificial (IA)
Ciudades inteligentes
GAFAM Democracia ciudadana
No hay comentarios:
Publicar un comentario