lunes, 13 de febrero de 2023

INTELIGENCIA ARTIFICIAL: REGULACION IMPOSIBLE?

 Por: Carlos A. FERREYROS SOTO

Doctor en Derecho
Universidad de Montpellier I Francia.

cferreyros@hotmail.com   

Resumen

En las páginas 34-35 del número 3043 de la Revista "Le Nouvel Observateur", correspondiente al 02-08 de febrero de 2023, la periodista Dominique Nora, se pregunta sobre sí es posible la regulación de la Inteligencia Artificial.

Nora, alude al riesgo y a las posibles fallas de la IA, a la complejidad por los usos y las formas y propone como referencia de regulación la propuesta de reglamento de la “Artificial Intelligence Act” por la Unión Europea de 2021, la misma que hemos enlazado en el texto original en francés traducido por el suscrito, incluyendo, al final, el texto origunal en francés.

La Junta Europea de Protección de Datos, EDPB, y el Supervisor Europeo de Protección de Datos, SEPD opinaron sobre la propuesta de Ley de Inteligencia artificial en 2021 Este es el enlace https://derecho-ntic.blogspot.com/2021/06/ley-europea-de-inteligencia-artificial.html

A fin de acceder a similares normas y estándares europeos, las empresas, organizaciones públicas y privadas interesadas en asesorías, consultorías, capacitaciones, estudios, evaluaciones, auditorías sobre el tema, sírvanse comunicar al correo electrónico: cferreyros@hotmail.com

______________________________________________________

IA : Regulación imposible?

Los investigadores de inteligencia artificial (IA) han encontrado los medios de dotar sus redes neuronales de una impresionante variedad de funcionalidades. Pero nadie sabe realmente cómo garantizar que estos sistemas, cuyos propios diseñadores no entienden el funcionamiento interno, no se equivoquen a nivel ético. ¡Porque la calidad de los datos en los que están entrenados, las intenciones de sus diseñadores y el propósito de sus usuarios pueden transformarlos en máquinas infernales! ¿Cómo evitar que IA invada todos los aspectos de nuestra vida cotidiana con los sesgos, errores, discriminaciones y manipulaciones que ya hemos observado? 

Nadie tiene la respuesta todavía. Aunque el uso de la IA vaya acompañándose paulatinamente de códigos éticos, sería inútil contar con la autorregulación por parte de las grandes plataformas digitales y sus clientes. Ya hemos tenido pruebas, a través del “diseño adictivo”, de que el único objetivo de Google y otros Facebook era mantenernos cautivos de sus servicios para maximizar sus ingresos publicitarios.Debido a la globalización, una falla en un sistema de IA a gran escala podría potencialmente causar daño a millones de personas”, subraya en una nota sobre el tema Chaouki Boutharouite, a cargo de la gobernanza de IA, en la división de tecnologías emergentes de AXA[1]

Si bien diversas jurisdicciones o grupos de expertos internacionales y nacionales han tomado iniciativas sobre el tema, no existe un organismo global similar a las COP[2] para el clima. El tema es todavía mucho más complejo. Por su propia naturaleza: sería necesario en efecto, regular tanto la forma en que se diseñan los sistemas de IA (transparencia, ausencia de sesgos, etc.) como los usos que se hacen de ellos. Pero también por profundas diferencias culturales en la definición misma de la ética. “Mientras que algunos países, como China o Estados Unidos, se centran en acelerar la innovación y la competitividad, otros ven la regulación principalmente como un medio para garantizar la protección del consumidor y de los derechos humanos”, subraya Chaouki Boutharouite. Así, en Estados Unidos, Eric Schmidt, presidente de la Comisión de Seguridad Nacional estadounidense sobre IA y exjefe de Google, declaró que “el futuro de la IA no se construirá con regulaciones sino con inversiones”. Comprender: los principios fundamentales no debe en ningún caso frenar la innovación. En la Unión Europea, por el contrario, la propuesta de reglamento “Artificial Intelligence Act”, publicada en abril de 2021, adopta un enfoque basado en el riesgo de los usos de la IA para la salud, la seguridad o los derechos fundamentales de los ciudadanos. Este texto impondría que los sistemas de alto riesgo sean transparentes, rastreables y garantizados por supervisión humana.

El proyecto también prevé prohibir las aplicaciones que representen riesgos inaceptables, con sanciones de hasta el 6% del volumen de negocios del infractor.

Dominique Nora


[1] Grupo internacional francés especializado en seguros y en gestión de activos

[2] La Conferencia de las Partes (Conference of the Parties) comúnmente se refiere a la reunión anual de Estados para establecer objetivos climáticos globales


______________________°°°°°°°°°°°°°°°______________________

 Versión original en francés

Les chercheurs en intelligence artificielle (IA) ont trouvé les moyens de doter leurs réseaux neuronaux d’une gamme impressionnante de fonctionnalités. Mais personne ne sait vraiment comment faire en sorte que ces systèmes, dont les concepteurs eux- mêmes ne comprennent pas le fonctionnement intime, ne dérapent pas sur un plan éthique. Car la qualité des données sur lesquelles ils sont entraînés, les intentions de leurs concepteurs comme le dessein de leurs utilisateurs peuvent les transformer en machines infernales ! Comment éviter que l’LA envahisse tous les pans de notre quotidien avec les biais, erreurs, discriminations et manipulations que l’on a déjà observés? Personne n’a encore la réponse. Même si l’utilisation des IA s’accompagne progressivement de codes éthiques, il serait vain de compter sur une autorégulation des grandes plateformes du numérique et de leurs clients. On a déjà eu la preuve, par le « design addictif », que le seul objectif des Google et autre Facebook était de nous garder captifs de leurs services pour maximiser leurs revenus publicitaires. « En raison de la globalisation, une faille dans un système d’IA à grande échelle pourrait potentiellement entraîner des préjudices pour des millions de gens », souligne, dans une note consacrée au sujet, Chaouki Boutharouite, chargé de la gouvernance de l’IA au sein de la division technologies émergentes d’Axa. Si diverses juridictions ou groupes d’experts internationaux et nationaux ont pris des initiatives sur le sujet, il n’existe aucune instance mondiale similaire aux COP pour le climat. Le sujet est encore beaucoup plus complexe. Par sa nature même : il faudrait en effet réguler à la fois la manière dont on conçoit les systèmes d’IA (transparence, absence de biais, etc.) et les usages qui en sont faits. Mais aussi en raison de profondes divergences culturelles sur la définition même de l’éthique. «Alors que certains pays, comme la Chine ou les Etats-Unis, mettent l’accent sur l’accélération de l’innovation et la compétitivité, d’autres considèrent avant tout la réglementation comme un moyen d’assurer la protection des consommateurs et des droits de l’homme », remarque Chaouki Boutharouite. Ainsi aux Etats-Unis, Eric Schmidt, le président de la Commission de Sécurité nationale américaine sur l’IA et ancien patron de Google, a déclaré que « l’avenir de la IA ne sera pas construit par des réglementations mais par des investissements ». Comprenez: les grands principes ne doivent en aucun cas brider l’innovation. Dans l’Union européenne, au contraire, la proposition de règlement « Artificial Intelligence Act » (Législation sur l’intelligence artificielle), publiée en avril 2021, adopte une approche fondée sur le risque des usages de l’IA pour la santé, la sécurité ou les droits fondamentaux des citoyens. Ce texte imposerait que les systèmes à hauts risques soient transparents, traçables et qu’ils soient garantis par une surveillance humaine.

Le projet prévoit aussi d’interdire les applications représentant des risques inacceptables, avec à la clé des sanctions pouvant aller jusqu’à 6 % du chiffre d’affaires du contrevenant.

Dominique Nora.



No hay comentarios:

Publicar un comentario