Por: Carlos A. FERREYROS SOTO
Doctor en Derecho
Universidad de Montpellier I Francia.
Resumen
En las páginas 34-35
del número 3043 de la Revista "Le Nouvel Observateur", correspondiente
al 02-08 de febrero de 2023, la periodista Dominique Nora, se pregunta sobre sí
es posible la regulación de la Inteligencia Artificial.
Nora, alude al riesgo
y a las posibles fallas de la IA, a la complejidad por los usos y las formas
y propone como referencia de regulación la propuesta de reglamento de la “Artificial
Intelligence Act” por la Unión Europea de 2021, la misma que hemos enlazado
en el texto original en francés traducido por el suscrito, incluyendo, al final,
el texto origunal en francés.
La Junta Europea de Protección de Datos,
EDPB, y el Supervisor Europeo de Protección de Datos, SEPD opinaron sobre la propuesta
de Ley de Inteligencia artificial en 2021 Este es el enlace https://derecho-ntic.blogspot.com/2021/06/ley-europea-de-inteligencia-artificial.html
A fin de acceder a similares
normas y estándares europeos, las empresas, organizaciones públicas y privadas interesadas
en asesorías, consultorías, capacitaciones, estudios, evaluaciones, auditorías sobre
el tema, sírvanse comunicar al correo electrónico: cferreyros@hotmail.com
______________________________________________________
IA : Regulación imposible?
Los investigadores de inteligencia artificial (IA) han encontrado los medios de dotar sus redes neuronales de una impresionante variedad de funcionalidades. Pero nadie sabe realmente cómo garantizar que estos sistemas, cuyos propios diseñadores no entienden el funcionamiento interno, no se equivoquen a nivel ético. ¡Porque la calidad de los datos en los que están entrenados, las intenciones de sus diseñadores y el propósito de sus usuarios pueden transformarlos en máquinas infernales! ¿Cómo evitar que IA invada todos los aspectos de nuestra vida cotidiana con los sesgos, errores, discriminaciones y manipulaciones que ya hemos observado?
Nadie tiene la respuesta todavía. Aunque el uso de la IA vaya acompañándose paulatinamente de códigos éticos, sería inútil contar con la autorregulación por parte de las grandes plataformas digitales y sus clientes. Ya hemos tenido pruebas, a través del “diseño adictivo”, de que el único objetivo de Google y otros Facebook era mantenernos cautivos de sus servicios para maximizar sus ingresos publicitarios. “Debido a la globalización, una falla en un sistema de IA a gran escala podría potencialmente causar daño a millones de personas”, subraya en una nota sobre el tema Chaouki Boutharouite, a cargo de la gobernanza de IA, en la división de tecnologías emergentes de AXA[1].
Si bien diversas jurisdicciones o grupos de expertos internacionales y
nacionales han tomado iniciativas sobre el tema, no existe un organismo global
similar a las COP[2]
para el clima. El tema es todavía mucho más complejo. Por su propia naturaleza:
sería necesario en efecto, regular tanto la forma en que se diseñan los
sistemas de IA (transparencia, ausencia de sesgos, etc.) como los usos que se
hacen de ellos. Pero también por profundas diferencias culturales en la
definición misma de la ética. “Mientras que algunos países, como China o
Estados Unidos, se centran en acelerar la innovación y la competitividad, otros
ven la regulación principalmente como un medio para garantizar la protección
del consumidor y de los derechos humanos”, subraya Chaouki Boutharouite. Así,
en Estados Unidos, Eric Schmidt, presidente de la Comisión de Seguridad
Nacional estadounidense sobre IA y exjefe de Google, declaró que “el futuro de la
IA no se construirá con regulaciones sino con inversiones”. Comprender: los principios
fundamentales no debe en ningún caso frenar la innovación. En la Unión Europea,
por el contrario, la propuesta de reglamento “Artificial
Intelligence Act”, publicada en abril de 2021, adopta un enfoque basado en
el riesgo de los usos de la IA para la salud, la seguridad o los derechos
fundamentales de los ciudadanos. Este texto impondría que los sistemas de alto
riesgo sean transparentes, rastreables y garantizados por supervisión humana.
El proyecto también prevé prohibir las aplicaciones que representen riesgos inaceptables, con sanciones de hasta el 6% del volumen de negocios del infractor.
Dominique Nora
[1] Grupo internacional francés especializado en seguros y en gestión de activos
[2] La Conferencia de las Partes (Conference of the Parties) comúnmente se refiere a la reunión anual de Estados para establecer objetivos climáticos globales
Les chercheurs en intelligence artificielle
(IA) ont trouvé les moyens de doter leurs réseaux neuronaux d’une gamme
impressionnante de fonctionnalités. Mais personne ne sait vraiment comment
faire en sorte que ces systèmes, dont les concepteurs eux- mêmes ne comprennent
pas le fonctionnement intime, ne dérapent pas sur un plan éthique. Car la qualité
des données sur lesquelles ils sont entraînés, les intentions de leurs
concepteurs comme le dessein de leurs utilisateurs peuvent les transformer en
machines infernales ! Comment éviter que l’LA envahisse tous les pans de notre
quotidien avec les biais, erreurs, discriminations et manipulations que l’on a
déjà observés? Personne n’a encore la réponse. Même si l’utilisation des IA
s’accompagne progressivement de codes éthiques, il serait vain de compter sur
une autorégulation des grandes plateformes du numérique et de leurs clients. On
a déjà eu la preuve, par le « design addictif », que le seul objectif des
Google et autre Facebook était de nous garder captifs de leurs services pour
maximiser leurs revenus publicitaires. « En raison de la globalisation, une
faille dans un système d’IA à grande échelle pourrait potentiellement entraîner
des préjudices pour des millions de gens », souligne, dans une note consacrée
au sujet, Chaouki Boutharouite, chargé de la gouvernance de l’IA au sein de la
division technologies émergentes d’Axa. Si diverses juridictions ou groupes
d’experts internationaux et nationaux ont pris des initiatives sur le sujet, il
n’existe aucune instance mondiale similaire aux COP pour le climat. Le sujet
est encore beaucoup plus complexe. Par sa nature même : il faudrait en effet
réguler à la fois la manière dont on conçoit les systèmes d’IA (transparence,
absence de biais, etc.) et les usages qui en sont faits. Mais aussi en raison
de profondes divergences culturelles sur la définition même de l’éthique. «Alors que certains
pays, comme la Chine ou les Etats-Unis, mettent l’accent sur l’accélération de l’innovation
et la compétitivité, d’autres considèrent avant tout la réglementation comme un
moyen d’assurer la protection des consommateurs et des droits de l’homme », remarque Chaouki
Boutharouite. Ainsi aux Etats-Unis, Eric Schmidt, le président de la Commission
de Sécurité nationale américaine sur l’IA et ancien patron de Google, a déclaré
que « l’avenir
de la IA ne sera pas construit par des réglementations mais par des
investissements ».
Comprenez: les grands principes ne doivent en aucun cas brider l’innovation.
Dans l’Union européenne, au contraire, la proposition de règlement « Artificial
Intelligence Act » (Législation sur l’intelligence artificielle), publiée en
avril 2021, adopte une approche fondée sur le risque des usages de l’IA pour la
santé, la sécurité ou les droits fondamentaux des citoyens. Ce texte imposerait
que les systèmes à hauts risques soient transparents, traçables et qu’ils
soient garantis par une surveillance humaine.
Le projet prévoit aussi d’interdire les
applications représentant des risques inacceptables, avec à la clé des
sanctions pouvant aller jusqu’à 6 % du chiffre d’affaires du contrevenant.
Dominique Nora.
No hay comentarios:
Publicar un comentario