Université de Montpellier I Francia.
M. Sc. Institut Agronomique Méditerranéen
cferreyros@hotmail.com
PROLOGO
El Grupo Independiente de Expertos de Alto Nivel, creado por la Comisión Europea en 2018, elaboró un primer borrador de estas Directrices Éticas, las mismas que fueron sometidas a consulta pública habiendo recibido mas de quinientas observaciones, las que fueron tomadas en cuenta en la edición revisada.
El texto íntegro de estas Directrices se encuentra, en el siguiente enlace: https://ec.europa.eu/futurium/en/ai-alliance-consultation/guidelines
El Resumen adjunto forma parte de ese documento.
______________________________________________________________________
RESUMEN
1) El objetivo de las presentes directrices es
promover una inteligencia artificial fiable. La fiabilidad de la inteligencia
artificial (IA) se apoya en tres
componentes que deben satisfacerse a lo largo de todo el ciclo de vida del
sistema: a) la IA debe ser lícita,
es decir, cumplir todas las leyes y reglamentos aplicables; b) ha de ser ética, de modo que se garantice el
respeto de los principios y valores éticos; y c) debe ser robusta, tanto desde el punto de vista técnico como social, puesto
que los sistemas de IA, incluso si las intenciones son buenas, pueden provocar
daños accidentales. Cada uno de estos componentes es en sí mismo necesario pero
no suficiente para el logro de una IA fiable. Lo ideal es que todos ellos
actúen en armonía y de manera simultánea. En el caso de que surjan tensiones
entre ellos en la práctica, la sociedad deberá esforzarse por resolverlas.
2) Estas directrices establecen un marco para conseguir una IA fiable.
Dicho marco no aborda explícitamente el primero de los tres componentes
expuestos de la inteligencia artificial (IA lícita)[1] . En lugar de ello,
pretende ofrecer orientaciones sobre el fomento y la garantía de una IA ética y
robusta (los componentes segundo y tercero). Las directrices, que van dirigidas
a todas las partes interesadas, buscan ofrecer algo más que una simple lista de
principios éticos; para ello, proporcionan orientación sobre cómo poner en
práctica esos principios en los sistemas sociotécnicos. Las orientaciones se
ofrecen en tres niveles de abstracción, desde el capítulo I (el más abstracto)
al III (el más concreto). Concluyen con ejemplos de las oportunidades y preocupaciones
fundamentales que plantean los sistemas de IA.
I. Partiendo de un enfoque basado
en los derechos fundamentales, en el capítulo I se identifican los principios éticos y sus valores conexos
que deben respetarse en el desarrollo, despliegue y utilización de los sistemas
de IA.
Orientaciones
clave derivadas del capítulo I: ü Desarrollar, desplegar
y utilizar los sistemas de IA respetando los principios éticos de: respeto de la autonomía humana, prevención del daño, equidad y
explicabilidad. Reconocer y abordar las tensiones que pueden surgir entre
estos principios. ü Prestar una atención
especial a las situaciones que afecten a los grupos más vulnerables, como los
niños, las personas con discapacidad y otras que se hayan visto
históricamente desfavorecidas o que se encuentren en riesgo de exclusión, así
como a las situaciones caracterizadas por asimetrías de poder o de
información, como las que pueden producirse entre empresarios y trabajadores
o entre empresas y consumidores[2]. ü Reconocer y tener
presente que, pese a que aportan beneficios sustanciales a las personas y a
la sociedad, los sistemas de IA también entrañan determinados riesgos y
pueden tener efectos negativos, algunos de los cuales pueden resultar
difíciles de prever, identificar o medir (por ejemplo, sobre la democracia,
el estado de Derecho y la justicia distributiva, o sobre la propia mente
humana). Adoptar medidas adecuadas para mitigar estos riesgos cuando proceda;
dichas medidas deberán ser proporcionales a la magnitud del riesgo. |
II. A partir de lo
expuesto en el capítulo I, el capítulo II ofrece orientaciones sobre cómo
lograr una IA fiable, enumerando siete
requisitos que deben cumplir los sistemas de IA para ello. Para aplicar
estas orientaciones se pueden utilizar tanto métodos técnicos como de otro
tipo.
Orientaciones clave derivadas del capítulo II: ü Garantizar que el
desarrollo, despliegue y utilización de los sistemas de IA cumpla los
requisitos para una IA fiable: 1) acción y supervisión humanas, 2) solidez
técnica y seguridad, 3) gestión de la privacidad y de los datos, 4)
transparencia, 5) diversidad, no discriminación y equidad, 6) bienestar ambiental
y social, y 7) rendición de cuentas. ü Para garantizar el
cumplimiento de estos requisitos, se deberá estudiar la posibilidad de
emplear tanto métodos técnicos como no técnicos. ü Impulsar la
investigación y la innovación para ayudar a evaluar los sistemas de IA y a
promover el cumplimiento de los requisitos; divulgar los resultados y las
preguntas de interpretación abierta al público en general, y formar sistemáticamente
a una nueva generación de especialistas en ética de la IA. ü Comunicar información a
las partes interesadas, de un modo claro y proactivo, sobre las capacidades y
limitaciones de los sistemas de IA, posibilitando el establecimiento de
expectativas realistas, así como sobre el modo en que se cumplen los
requisitos. Ser transparentes acerca del hecho de que se está trabajando con
un sistema de IA. ü Facilitar la
trazabilidad y la auditabilidad de los sistemas de IA, especialmente en contextos
o situaciones críticos. ü Implicar a las partes
interesadas en todo el ciclo de vida de los sistemas de IA. Promover la
formación y la educación, de manera que todas las partes interesadas sean
conocedoras de la IA fiable y reciban formación en la materia. ü Ser conscientes de que
pueden existir tensiones fundamentales entre los diferentes principios y requisitos.
Identificar, evaluar, documentar y comunicar constantemente este tipo de
tensiones y sus soluciones. |
III.
El capítulo III ofrece una lista concreta y no exhaustiva para la evaluación de
la fiabilidad de la IA, con el objetivo de poner en práctica los requisitos
descritos en el capítulo II. Dicha lista
de evaluación deberá adaptarse al caso específico de utilización del
sistema de IA[3]
.
Orientaciones
clave derivadas del capítulo III: ü Adoptar una evaluación
de la fiabilidad de la IA al desarrollar, desplegar o utilizar sistemas de
IA, y adaptarla al caso de uso específico en el que se aplique dicho sistema.
ü Tener presente que este
tipo de listas de evaluación nunca pueden ser exhaustivas. Garantizar la fiabilidad
de la IA no consiste en marcar casillas de verificación, sino en identificar
y aplicar constantemente requisitos, evaluar soluciones y asegurar mejores
resultados a lo largo de todo el ciclo de vida del sistema de IA, implicando
a las partes interesadas en el proceso. |
3) La sección final del documento
tiene por objetivo concretar algunas de las cuestiones abordadas a lo largo del
marco expuesto, ofreciendo ejemplos de oportunidades beneficiosas que se
deberían perseguir y de preocupaciones cruciales que plantean los sistemas de
IA y que deberían ser objeto de un estudio pormenorizado.
4) Pese a que estas directrices
pretenden ofrecer orientaciones sobre las aplicaciones de la IA en general y establecer
una base horizontal para lograr una IA fiable, las diferentes situaciones
plantean desafíos distintos. Por lo tanto, se debería explorar si, además de
este marco horizontal, puede ser necesario un enfoque sectorial dado que la
aplicación de los sistemas de AI depende del contexto.
5) Estas directrices no aspiran a
reemplazar ninguna política o reglamento actual o futuro, ni a impedir su introducción.
Deben considerarse un documento vivo, que habrá de revisarse y actualizarse a
lo largo del tiempo para garantizar que sigan siendo pertinentes a medida que
evolucionen la tecnología, el entorno social y nuestros propios conocimientos.
Este documento ha sido concebido como un punto de partida para el debate sobre
«Una IA fiable para Europa[4] . Más allá de Europa, las
directrices también buscan estimular la investigación, la reflexión y el debate
sobre un marco ético para los sistemas de IA a escala mundial.
[1] Todas las declaraciones normativas recogidas en este
documento tienen la finalidad de brindar orientaciones de cara al logro de los
componentes segundo y tercero de una IA fiable (IA ética y robusta). Por lo
tanto, dichas declaraciones no pretenden ofrecer asesoramiento jurídico ni
orientaciones sobre el cumplimiento de las leyes aplicables, aunque se reconoce
que muchas de ellas figuran recogidas en cierta medida en las leyes existentes.
Véanse, en ese sentido, los puntos 21 y ss.
[4] Se pretende aplicar este ideal a los sistemas de IA
desarrollados, desplegados y utilizados en los Estados miembros de la UE, así como
a los sistemas desarrollados o producidos en otros lugares pero que se
desplieguen y utilicen en la UE. Las referencias a «Europa» en este documento
se entenderán hechas a los Estados miembros de la UE. No obstante, la
aspiración es que estas directrices también resulten pertinentes fuera de la
Unión. En este sentido, cabe señalar que tanto Noruega como Suiza participan en
el plan coordinado sobre la inteligencia artificial aprobado y publicado en
diciembre de 2018 por la Comisión y los Estados miembros.
No hay comentarios:
Publicar un comentario