martes, 19 de enero de 2021

DIRECTRICES ÉTICAS PARA UNA INTELIGENCIA ARTIFICIAL FIABLE - GRUPO INDEPENDIENTE DE EXPERTOS EUROPEOS DE ALTO NIVEL

 

 Por: Carlos A. FERREYROS SOTO

        Doctor en Derecho
        Université de Montpellier I Francia.
        M. Sc. Institut Agronomique Méditerranéen

        cferreyros@hotmail.com

 PROLOGO 

El Grupo Independiente de Expertos de Alto Nivel, creado por la Comisión Europea en 2018, elaboró un primer borrador de estas Directrices Éticas, las mismas que fueron sometidas a consulta pública habiendo recibido mas de quinientas observaciones, las que fueron tomadas en cuenta en la edición revisada.

El texto íntegro de estas Directrices se encuentra, en el siguiente enlace: https://ec.europa.eu/futurium/en/ai-alliance-consultation/guidelines

El Resumen adjunto forma parte de ese documento.

 ______________________________________________________________________

RESUMEN

1)    El objetivo de las presentes directrices es promover una inteligencia artificial fiable. La fiabilidad de la inteligencia artificial (IA) se apoya en tres componentes que deben satisfacerse a lo largo de todo el ciclo de vida del sistema: a) la IA debe ser lícita, es decir, cumplir todas las leyes y reglamentos aplicables; b) ha de ser ética, de modo que se garantice el respeto de los principios y valores éticos; y c) debe ser robusta, tanto desde el punto de vista técnico como social, puesto que los sistemas de IA, incluso si las intenciones son buenas, pueden provocar daños accidentales. Cada uno de estos componentes es en sí mismo necesario pero no suficiente para el logro de una IA fiable. Lo ideal es que todos ellos actúen en armonía y de manera simultánea. En el caso de que surjan tensiones entre ellos en la práctica, la sociedad deberá esforzarse por resolverlas.

2)   Estas directrices establecen un marco para conseguir una IA fiable. Dicho marco no aborda explícitamente el primero de los tres componentes expuestos de la inteligencia artificial (IA lícita)[1] . En lugar de ello, pretende ofrecer orientaciones sobre el fomento y la garantía de una IA ética y robusta (los componentes segundo y tercero). Las directrices, que van dirigidas a todas las partes interesadas, buscan ofrecer algo más que una simple lista de principios éticos; para ello, proporcionan orientación sobre cómo poner en práctica esos principios en los sistemas sociotécnicos. Las orientaciones se ofrecen en tres niveles de abstracción, desde el capítulo I (el más abstracto) al III (el más concreto). Concluyen con ejemplos de las oportunidades y preocupaciones fundamentales que plantean los sistemas de IA.

I. Partiendo de un enfoque basado en los derechos fundamentales, en el capítulo I se identifican los principios éticos y sus valores conexos que deben respetarse en el desarrollo, despliegue y utilización de los sistemas de IA.

 

Orientaciones clave derivadas del capítulo I:

ü  Desarrollar, desplegar y utilizar los sistemas de IA respetando los principios éticos de: respeto de la autonomía humana, prevención del daño, equidad y explicabilidad. Reconocer y abordar las tensiones que pueden surgir entre estos principios.

ü  Prestar una atención especial a las situaciones que afecten a los grupos más vulnerables, como los niños, las personas con discapacidad y otras que se hayan visto históricamente desfavorecidas o que se encuentren en riesgo de exclusión, así como a las situaciones caracterizadas por asimetrías de poder o de información, como las que pueden producirse entre empresarios y trabajadores o entre empresas y consumidores[2].

ü  Reconocer y tener presente que, pese a que aportan beneficios sustanciales a las personas y a la sociedad, los sistemas de IA también entrañan determinados riesgos y pueden tener efectos negativos, algunos de los cuales pueden resultar difíciles de prever, identificar o medir (por ejemplo, sobre la democracia, el estado de Derecho y la justicia distributiva, o sobre la propia mente humana). Adoptar medidas adecuadas para mitigar estos riesgos cuando proceda; dichas medidas deberán ser proporcionales a la magnitud del riesgo.

 

II. A partir de lo expuesto en el capítulo I, el capítulo II ofrece orientaciones sobre cómo lograr una IA fiable, enumerando siete requisitos que deben cumplir los sistemas de IA para ello. Para aplicar estas orientaciones se pueden utilizar tanto métodos técnicos como de otro tipo.

 

Orientaciones clave derivadas del capítulo II:

ü  Garantizar que el desarrollo, despliegue y utilización de los sistemas de IA cumpla los requisitos para una IA fiable: 1) acción y supervisión humanas, 2) solidez técnica y seguridad, 3) gestión de la privacidad y de los datos, 4) transparencia, 5) diversidad, no discriminación y equidad, 6) bienestar ambiental y social, y 7) rendición de cuentas.

ü  Para garantizar el cumplimiento de estos requisitos, se deberá estudiar la posibilidad de emplear tanto métodos técnicos como no técnicos.

ü  Impulsar la investigación y la innovación para ayudar a evaluar los sistemas de IA y a promover el cumplimiento de los requisitos; divulgar los resultados y las preguntas de interpretación abierta al público en general, y formar sistemáticamente a una nueva generación de especialistas en ética de la IA.

ü  Comunicar información a las partes interesadas, de un modo claro y proactivo, sobre las capacidades y limitaciones de los sistemas de IA, posibilitando el establecimiento de expectativas realistas, así como sobre el modo en que se cumplen los requisitos. Ser transparentes acerca del hecho de que se está trabajando con un sistema de IA.

ü  Facilitar la trazabilidad y la auditabilidad de los sistemas de IA, especialmente en contextos o situaciones críticos.

ü  Implicar a las partes interesadas en todo el ciclo de vida de los sistemas de IA. Promover la formación y la educación, de manera que todas las partes interesadas sean conocedoras de la IA fiable y reciban formación en la materia.

ü  Ser conscientes de que pueden existir tensiones fundamentales entre los diferentes principios y requisitos. Identificar, evaluar, documentar y comunicar constantemente este tipo de tensiones y sus soluciones.

III. El capítulo III ofrece una lista concreta y no exhaustiva para la evaluación de la fiabilidad de la IA, con el objetivo de poner en práctica los requisitos descritos en el capítulo II. Dicha lista de evaluación deberá adaptarse al caso específico de utilización del sistema de IA[3]

.

Orientaciones clave derivadas del capítulo III:

ü  Adoptar una evaluación de la fiabilidad de la IA al desarrollar, desplegar o utilizar sistemas de IA, y adaptarla al caso de uso específico en el que se aplique dicho sistema.

ü  Tener presente que este tipo de listas de evaluación nunca pueden ser exhaustivas. Garantizar la fiabilidad de la IA no consiste en marcar casillas de verificación, sino en identificar y aplicar constantemente requisitos, evaluar soluciones y asegurar mejores resultados a lo largo de todo el ciclo de vida del sistema de IA, implicando a las partes interesadas en el proceso.

 

3) La sección final del documento tiene por objetivo concretar algunas de las cuestiones abordadas a lo largo del marco expuesto, ofreciendo ejemplos de oportunidades beneficiosas que se deberían perseguir y de preocupaciones cruciales que plantean los sistemas de IA y que deberían ser objeto de un estudio pormenorizado.

4) Pese a que estas directrices pretenden ofrecer orientaciones sobre las aplicaciones de la IA en general y establecer una base horizontal para lograr una IA fiable, las diferentes situaciones plantean desafíos distintos. Por lo tanto, se debería explorar si, además de este marco horizontal, puede ser necesario un enfoque sectorial dado que la aplicación de los sistemas de AI depende del contexto.

5) Estas directrices no aspiran a reemplazar ninguna política o reglamento actual o futuro, ni a impedir su introducción. Deben considerarse un documento vivo, que habrá de revisarse y actualizarse a lo largo del tiempo para garantizar que sigan siendo pertinentes a medida que evolucionen la tecnología, el entorno social y nuestros propios conocimientos. Este documento ha sido concebido como un punto de partida para el debate sobre «Una IA fiable para Europa[4] . Más allá de Europa, las directrices también buscan estimular la investigación, la reflexión y el debate sobre un marco ético para los sistemas de IA a escala mundial.



[1] Todas las declaraciones normativas recogidas en este documento tienen la finalidad de brindar orientaciones de cara al logro de los componentes segundo y tercero de una IA fiable (IA ética y robusta). Por lo tanto, dichas declaraciones no pretenden ofrecer asesoramiento jurídico ni orientaciones sobre el cumplimiento de las leyes aplicables, aunque se reconoce que muchas de ellas figuran recogidas en cierta medida en las leyes existentes. Véanse, en ese sentido, los puntos 21 y ss.

 [2] Véanse los artículos 24 a 27 de la Carta de los Derechos Fundamentales de la Unión Europea (Carta de la UE), que tratan sobre los derechos de los niños y de las personas mayores, la integración de las personas con discapacidad y los derechos de los trabajadores. Véase también el artículo 38 relativo a la protección de los consumidores.

 [3] En consonancia con el ámbito de aplicación del marco expuesto en el punto 2, esta lista de evaluación no proporciona consejo alguno sobre cómo garantizar el cumplimiento de la normativa (IA lícita), sino que se limita a ofrecer orientaciones de cara al cumplimiento de los componentes segundo y tercero de la IA fiable (IA ética y robusta).

[4] Se pretende aplicar este ideal a los sistemas de IA desarrollados, desplegados y utilizados en los Estados miembros de la UE, así como a los sistemas desarrollados o producidos en otros lugares pero que se desplieguen y utilicen en la UE. Las referencias a «Europa» en este documento se entenderán hechas a los Estados miembros de la UE. No obstante, la aspiración es que estas directrices también resulten pertinentes fuera de la Unión. En este sentido, cabe señalar que tanto Noruega como Suiza participan en el plan coordinado sobre la inteligencia artificial aprobado y publicado en diciembre de 2018 por la Comisión y los Estados miembros.

 


No hay comentarios:

Publicar un comentario