COMUNICACIÓN DE LA COMISIÓN AL PARLAMENTO EUROPEO, AL CONSEJO, AL COMITÉ ECONÓMICO Y SOCIAL EUROPEO Y AL COMITÉ DE LAS REGIONES
COMISIÓN EUROPEA
Bruselas, 8.4.2019 COM(2019) 168 final
Prólogo.
La Inteligencia Artificial (IA) es un
concepto univoco, integrado por el vocablo Inteligencia, que supone
la facultad de la mente, particularmente, de la persona humana, de aprender,
entender, razonar, tomar decisiones y aprehender la realidad. Este concepto
puede incluir, ademas, la conducta o el comportamiento humano: emociones, sensaciones,... El segundo
vocablo Artificial, denota la probabilidad que aparatos,
instrumentos, máquinas puedan simular y reproducir algunos de estos procesos mentales.
El
principal vector en la simulación y reproducción de la inteligencia artificial
es la informática, basada en las ciencias cognitivas, ciencias del lenguaje, la
lógica, la programación, la electrónica, y recientemente, la telemática.
La IA entraña
que algunos de los procesos productivos realizados por el hombre puedan ser
beneficiosos en términos de tiempo, energía, normalización, productividad,
rendimiento, efectuados por los aparatos, instrumentos o maquinas. Pero
igualmente, pueden modificar sustancialmente la forma de organización, de
producción, de apropiación y de redistribución de los beneficios del trabajo y
del capital en los diferentes modelos sociales.
Dos otros
conceptos son aludidos en este Documento Preparatorio: la Generación de Confianza en la IA y que ésta se Centre en el Ser humano, de todos aquellos que participan, no en conflicto sino de colaboración entre estos. En Conclusión, se trata de un
documento orientado a establecer la Directrices Éticas de la legislación
europea sobre los requerimientos, concepción, uso y - esperemos - distribución de los beneficios de esta tecnología.
Carlos FERREYROS
Montpellier, Francia, Primavera 2019
Estudio Jurídico Ferreyros&Ferreyros
Calle Cuarenta 190 – San Isidro
Teléfono: 226 0325
La inteligencia artificial tiene potencial para transformar nuestro mundo para mejor: puede mejorar
la asistencia sanitaria, reducir el consumo de energía, hacer que los vehículos
sean más seguros y permitir a los agricultores utilizar el agua y los recursos
de forma más eficiente. La IA puede utilizarse para predecir el cambio
climático y medioambiental, mejorar la gestión del riesgo financiero y
proporcionar las herramientas para fabricar, con menos residuos, productos a la
medida de nuestras necesidades. La IA también puede ayudar a detectar el fraude
y las amenazas de ciberseguridad y permite a los organismos encargados de hacer
cumplir la ley luchar contra la delincuencia con más eficacia.
La IA puede beneficiar a la
sociedad y a la economía en su conjunto. Es una tecnología estratégica que se
está desarrollando y utilizando a buen ritmo en todo el mundo. No obstante,
también trae consigo nuevos retos para el futuro del trabajo y plantea
cuestiones jurídicas y éticas.
Para abordar estos retos y aprovechar al máximo las
oportunidades que ofrece la IA, en abril de 2018 la Comisión publicó una
estrategia europea[1]. La estrategia coloca a la persona en el centro del desarrollo
de la IA — es una IA centrada en el ser
humano. Adopta un planteamiento triple para potenciar la capacidad
tecnológica e industrial de la UE e impulsar la adopción de la IA en todos los
ámbitos de la economía, prepararse para las transformaciones socioeconómicas y
garantizar el establecimiento de un marco ético y jurídico apropiado.
Para concretizar la estrategia
en materia de IA, la Comisión desarrolló
junto con los Estados miembros un plan coordinado sobre la inteligencia
artificial[2], que presentó en diciembre de 2018, para crear sinergias,
reunir datos —la materia prima de numerosas aplicaciones de IA— e incrementar
las inversiones conjuntas. El objetivo es fomentar la cooperación transfronteriza
y movilizar a todos los agentes con el fin de aumentar las inversiones públicas
y privadas hasta un mínimo de
20 000 millones EUR anuales durante la próxima década[3]. La Comisión ha duplicado sus inversiones en IA en Horizonte
2020 y tiene previsto invertir cada año 1 000 millones EUR de Horizonte
Europa y del programa Europa Digital, especialmente para espacios comunes de
datos en salud, transporte y fabricación, y grandes instalaciones de
experimentación, como hospitales inteligentes e infraestructuras para vehículos
automatizados y una agenda de investigación estratégica.
Para implementar esta agenda
estratégica común de investigación, innovación y despliegue, la Comisión ha
intensificado su diálogo con todas las
partes interesadas relevantes de la industria, institutos de investigación
y autoridades públicas. El nuevo programa Europa Digital será también
determinante para contribuir a que la IA esté a disposición de las pequeñas y
medianas empresas en todos los Estados miembros a través de polos de innovación
digital, instalaciones de ensayo y experimentación reforzadas, espacios de
datos y programas de formación.
Sobre la base de su reputación de productos seguros y de calidad, el
enfoque ético de Europa con respecto a la IA refuerza la confianza de los
ciudadanos en el desarrollo digital y pretende
generar una ventaja competitiva para las empresas europeas de IA. El objetivo
de la presente Comunicación es poner en marcha una fase piloto global en la que
participen las partes interesadas a la escala más amplia posible con el fin de
ensayar la implementación práctica de la orientación ética para el desarrollo y
el uso de la IA.
* Los Documentos Preparatorios son documentos utilizados por la Unión Europea para elaborar legislación, los mismos que son presentados en las distintas fases del procedimiento legislativo y presupuestarios. Los principales tipos de documentos son: Propuestas legislativas de la Comisión Europea, Posiciones comunes del Consejo Europeo, Resoluciones e iniciativas legislativas y presupuestarias del Parlamento Europeo, Dictámenes del Comité Económico y Social Europeo, y Dictámenes del Comité de las Regiones.
2.
GENERAR CONFIANZA EN LA IA CENTRADA EN EL SER HUMANO
La Estrategia europea de IA y
el plan coordinado dejan claro que la
confianza es un requisito previo para garantizar un enfoque de la IA centrado
en el ser humano: la IA no es un fin en sí mismo, sino un medio que debe
servir a las personas con el objetivo último de aumentar su bienestar. Para
ello, la fiabilidad de la IA debe estar
garantizada. Los valores en los que se basan nuestras sociedades han de
estar plenamente integrados en la evolución de la IA.
La Unión se fundamenta en los valores de respeto de la dignidad
humana, la libertad, la democracia, la igualdad, el Estado de Derecho y el
respeto de los derechos humanos, incluidos los derechos de las personas
pertenecientes a minorías[4]. Estos valores son comunes a
las sociedades de todos los Estados miembros, en las que prevalecen el
pluralismo, la no discriminación, la tolerancia, la justicia, la solidaridad y
la igualdad. Además, la Carta de los
Derechos Fundamentales de la UE reúne, en un único texto, los derechos
individuales, civiles, políticos, económicos y sociales de que gozan los
ciudadanos de la UE.
La UE se asienta sobre un sólido marco normativo, que constituirá
la referencia mundial para la IA centrada en el ser humano. El Reglamento
general de protección de datos garantiza un elevado nivel de protección de los
datos personales y requiere la implementación de medidas que garanticen la
protección de datos desde la fase de diseño y por defecto[5]. El Reglamento relativo a la
libre circulación de datos no personales suprime barreras a la libre
circulación de este tipo de datos y garantiza el tratamiento de todas las
categorías de datos en cualquier lugar de Europa. El recientemente adoptado Reglamento de Ciberseguridad
contribuirá a reforzar la confianza en el mundo digital; el Reglamento sobre la
privacidad y las comunicaciones electrónicas propuesto[6] persigue también este mismo
objetivo.
No obstante, la IA conlleva
nuevos retos, ya que permite a las máquinas «aprender» y tomar decisiones y
ejecutarlas sin intervención humana. No falta mucho para que este tipo de
funcionalidad sea lo habitual en muchos tipos de bienes y servicios, desde los
teléfonos inteligentes hasta los vehículos automatizados, los robots y las
aplicaciones en línea. Ahora bien, las decisiones adoptadas mediante algoritmos
pueden dar datos incompletos y, por tanto, no fiables, que pueden ser manipulados
por ciberataques, pueden ser sesgados o simplemente estar equivocados. Aplicar
de forma irreflexiva la tecnología a medida que se desarrolla produciría, por
tanto, resultados problemáticos, así como la renuencia de los ciudadanos a
aceptarla o utilizarla.
La tecnología de IA debería,
más bien, desarrollarse de manera que las personas sean su centro y se gane así
la confianza del público. Esto implica que las aplicaciones de IA no solo deben
ajustarse a la ley, sino también respetar unos principios éticos y garantizar
que su implementación evite daños involuntarios. En cada una de las fases de
desarrollo de la IA debe estar garantizada la diversidad en cuanto al género,
el origen racial o étnico, la religión o las creencias, la discapacidad
y la edad. Las aplicaciones de IA deben empoderar a los ciudadanos y respetar
sus derechos fundamentales. Su objetivo debe ser mejorar las capacidades de las
personas, no sustituirlas, y permitir también el acceso de las personas con
discapacidad.
Por consiguiente, son
necesarias unas directrices éticas
que se basen en el marco regulador existente y que sean aplicadas por
desarrolladores, proveedores y usuarios de la IA en el mercado interior,
estableciendo unas condiciones de competencia éticas en todos los Estados
miembros. Por esta razón, la Comisión ha creado un grupo de expertos de alto nivel sobre la IA[7]
que representa a toda una serie de partes interesadas, al que ha encomendado la
elaboración de unas directrices éticas en materia de IA, así como la preparación
de una serie de recomendaciones para una política más amplia en este ámbito. Al
mismo tiempo, se ha creado la Alianza
europea de la IA[8], una plataforma multilateral
abierta con más de 2 700 miembros, para aportar una contribución más
amplia a la labor del grupo de expertos de alto nivel sobre la IA.
El grupo de expertos de alto
nivel sobre la IA publicó un primer borrador de las directrices éticas en
diciembre de 2018. Tras una consulta a
las partes interesadas[9]y reuniones con
representantes de los Estados miembros[10], el grupo de expertos sobre la IA presentó un documento
revisado a la Comisión en marzo de 2019. En sus reacciones hasta la fecha, los
interesados en general se han mostrado satisfechos con la naturaleza práctica
de las directrices y la orientación concreta que ofrecen a desarrolladores,
proveedores y usuarios de la IA sobre cómo garantizar la fiabilidad.
2.1.
Directrices para una IA fiable elaboradas por el grupo de expertos de alto
nivel sobre la IA
Las directrices elaboradas por
el grupo de expertos de alto nivel sobre la IA, a las que se refiere la
presente Comunicación[11], se basan en particular en
el trabajo realizado por el Grupo europeo de ética de la ciencia y de las
nuevas tecnologías y la Agencia de los Derechos Fundamentales.
Las directrices propugnan que,
para lograr una «IA fiable», son necesarios tres componentes: 1) debe ser
conforme a la ley, 2) debe respetar los principios éticos y 3) debe ser sólida.
Sobre estos tres componentes y
los valores europeos expuestos en la sección 2, las directrices señalan siete
requisitos esenciales que deben respetar las aplicaciones de IA para ser
consideradas fiables. Las directrices también incluyen una lista para ayudar a
comprobar si se cumplen estos requisitos.
Los siete requisitos
esenciales son los siguientes:
·
Intervención
y supervisión humanas
·
Solidez y
seguridad técnicas
·
Privacidad y
gestión de datos
·
Transparencia
·
Diversidad,
no discriminación y equidad
·
Bienestar
social y medioambiental
·
Rendición de
cuentas
Aunque estos requisitos están
pensados para ser aplicados a todos los sistemas de IA en diferentes entornos y
sectores, el contexto específico en el que se apliquen debe tenerse en cuenta
para su implementación concreta y proporcionada, adoptando un enfoque basado en
el impacto. A modo de ejemplo, una aplicación de IA que sugiere un libro de
lectura inadecuado es mucho menos peligrosa que otra que diagnostique
erróneamente un cáncer y, por tanto, puede estar sujeta a una supervisión menos
estricta.
Las directrices elaboradas por
el grupo de expertos de alto nivel sobre la IA no son vinculantes y, como
tales, no crean nuevas obligaciones legales. No obstante, muchas disposiciones
vigentes del Derecho de la Unión (y a menudo de uso o ámbito específico) ya reflejan
uno o varios de estos requisitos esenciales, por ejemplo, las normas de
seguridad, de protección de los datos personales, de privacidad o de protección
del medio ambiente.
La Comisión se congratula del
trabajo del grupo de expertos de alto nivel sobre la IA y lo considera una
valiosa aportación para su elaboración de políticas.
2.2. Requisitos esenciales para una IA fiable
La Comisión apoya los siguientes requisitos esenciales para
una IA fiable, que están basados en valores
europeos. Anima a las partes interesadas a aplicarlos y a comprobar la lista
que los lleva a la práctica con el fin de crear el entorno adecuado de
confianza para un desarrollo y un uso provechosos de la IA. La Comisión acoge
favorablemente las reacciones de las partes interesadas para evaluar si esta
lista facilitada en las directrices requiere de otros ajustes.
I.
Intervención
y supervisión humanas
Los sistemas de IA deben ayudar a las personas a
elegir mejor y con más conocimiento de causa en función de sus objetivos. Deben
actuar como facilitadores de una sociedad floreciente y equitativa, apoyando la
intervención humana y los derechos
fundamentales, y no disminuir, limitar o desorientar la autonomía humana.
El bienestar global del usuario debe
ser primordial en la funcionalidad del sistema.
La supervisión humana ayuda a
garantizar que un sistema de IA no socave la autonomía humana ni cause otros efectos
adversos. Dependiendo del sistema específico de IA y de su ámbito de
aplicación, deben garantizarse los grados adecuados de medidas de control, incluida la adaptabilidad, la
exactitud y la explicabilidad de los sistemas de IA[12]. La supervisión debe lograrse a través de mecanismos de gobernanza, tales
como el enfoque de la participación humana (human-in-the-loop),
la supervisión humana (human-on-the-loop),
o el control humano (human-in-command).[13]
Hay que garantizar que las autoridades públicas tengan la capacidad de ejercer
sus competencias de supervisión conforme a sus mandatos. En igualdad de
condiciones, cuanto menor sea la supervisión que puede ejercer un ser humano
sobre un sistema de IA, más extensas tendrán que ser las pruebas y más estricta
la gobernanza.
II.
Solidez y
seguridad técnicas
La fiabilidad de la IA requiere que los algoritmos sean
suficientemente seguros, fiables y sólidos para resolver errores o
incoherencias durante todas las fases del ciclo vital del sistema de IA y hacer
frente adecuadamente a los resultados erróneos. Los sistemas de IA deben ser fiables, lo bastante seguros para ser resilientes, tanto frente alos ataques
abiertos como a tentativas más sutiles de manipular datos o los propios
algoritmos, y deben garantizar un plan
de contingencia en caso de problemas. Sus decisiones deben ser acertadas o, como mínimo, reflejar su
nivel de acierto, y sus resultados, reproducibles.
Además, los sistemas de IA deben integrar mecanismos de
seguridad y de seguridad desde el diseño para garantizar que sean verificablemente seguros en cada fase,
teniendo muy presente la seguridad física y psicológica de todos los afectados.
Esto incluye la minimización y, cuando sea posible, la reversibilidad de las
consecuencias no deseadas o errores en el funcionamiento del sistema. Deben
instaurarse procesos para aclarar y evaluar los riesgos potenciales asociados
al uso de los sistemas de IA, en diversos ámbitos de aplicación.
III. Privacidad y gestión de datos
Deben garantizarse la privacidad y la protección de datos en todas las fases del ciclo vital del
sistema de IA. Los registros digitales del comportamiento humano pueden
permitir que los sistemas de IA infieran no solo las preferencias, la edad y el
sexo de las personas, sino también su orientación sexual o sus opiniones
religiosas o políticas. Para que las personas puedan confiar en el tratamiento
de datos, debe garantizarse que tienen el pleno control sobre sus propios
datos, y que los datos que les conciernen no se utilizarán para perjudicarles o
discriminarles.
Además de salvaguardar la privacidad y los datos
personales, deben cumplirse requisitos en cuanto a garantizar la calidad de los
sistemas de IA. La calidad de los conjuntos de datos utilizados es primordial
para el funcionamiento de los sistemas de IA. Cuando se recopilan datos, pueden
reflejar sesgos sociales, o contener inexactitudes o errores. Esto debe
resolverse antes de entrenar un sistema de IA con un conjunto de datos. Además, debe garantizarse la integridad de los datos. Los procesos y
conjuntos de datos utilizados deben ponerse a prueba y documentarse en cada
fase, como la planificación, el entrenamiento, el ensayo y el despliegue. Esto
debe aplicarse también a los sistemas de IA que no han sido desarrollados
internamente, sino que se han adquirido fuera. Por último, el acceso a los datos debe estar
adecuadamente regulado y controlado.
IV. Transparencia
Debe garantizarse la trazabilidad
de los sistemas de IA; es importante registrar y documentar tanto las decisiones
tomadas por los sistemas como la totalidad del proceso (incluida una
descripción de la recogida y el etiquetado de datos, y una descripción del
algoritmo utilizado) que dio lugar a las decisiones. A este respecto, en la
medida de lo posible debe aportarse la explicabilidad
del proceso de toma de decisiones algorítmico, adaptada a las personas
afectadas. Debe proseguirse la investigación en curso para desarrollar
mecanismos de explicabilidad. Además, deben estar disponibles las explicaciones
sobre el grado en que un sistema de IA influye y configura el proceso
organizativo de toma de decisiones, las opciones de diseño del sistema, así
como la justificación de su despliegue (garantizando, por tanto, no solo la
transparencia de los datos y del sistema, sino también la transparencia del
modelo de negocio).
Por último, es importante comunicar adecuadamente las capacidades y limitaciones del sistema
de IA a las distintas partes interesadas afectadas de una manera adecuada al
caso de que se trate. Por otra parte, los sistemas de IA deben ser
identificables como tales, garantizando que los usuarios sepan que están
interactuando con un sistema de IA y qué personas son responsables del mismo.
V.
Diversidad,
no discriminación y equidad
Los conjuntos de datos utilizados por los sistemas de
IA (tanto para el entrenamiento como para el funcionamiento) pueden verse
afectados por la inclusión de sesgos históricos involuntarios, por no estar
completos o por modelos de gobernanza deficientes. La persistencia en estos sesgos
podría dar lugar a una discriminación (in)directa. También pueden producirse
daños por la explotación intencionada de sesgos (del consumidor) o por una
competencia desleal. Por otra parte, la forma en la que se desarrollan los
sistemas de IA (por ejemplo, la forma en que está escrito el código de
programación de un algoritmo) también puede estar sesgada. Estos problemas
deben abordarse desde el inicio del desarrollo del sistema.
También puede ayudar a resolver estos problemas
establecer equipos de diseño
diversificados y crear mecanismos que garanticen la participación, en particular de los ciudadanos,en el desarrollo de
la IA. Es conveniente consultar a las partes interesadas que puedan verse
afectadas directa o indirectamente por el sistema a lo largo de su ciclo de
vida. Los sistemas de IA deberían tener en cuenta toda la gama de capacidades,
habilidades y necesidades humanas y garantizar la accesibilidad mediante un
enfoque de diseño universal para tratar de lograr la igualdad de acceso para
las personas con discapacidades.
VI. Bienestar social y medioambiental
Para que la IA sea fiable, debe tomarse en cuenta su
impacto sobre el medio ambiente y sobre
otros seres sensibles. Idealmente, todos los seres humanos, incluso las
generaciones futuras, deberían beneficiarse de la biodiversidad y de un entorno
habitable. Debe, por tanto, fomentarse la sostenibilidad y la responsabilidad ecológica de los
sistemas de IA. Lo mismo puede decirse de las soluciones de IA que abordan
ámbitos de interés mundial, como por ejemplo los objetivos de desarrollo
sostenible de las Naciones Unidas.
Por otra parte, el impacto de los sistemas de IA debe
considerarse no solo desde una perspectiva individual, sino también desde la
perspectiva de la sociedad en su
conjunto. Debe prestarse especial
atención al uso de los sistemas de IA, particularmente en situaciones
relacionadas con el proceso democrático, incluida la formación de opinión, la
toma de decisiones políticas o en el contexto electoral. También debe tenerse
en cuenta el impacto social de la
IA. Si bien los sistemas de IA pueden utilizarse para mejorar las habilidades
sociales, de la misma manera pueden contribuir a su deterioro.
VII. Rendición de cuentas
Deben instaurarse mecanismos que garanticen la
responsabilidad y la rendición de cuentas de los sistemas de IA y de sus
resultados, tanto antes como después de su implementación. La posibilidad de auditar los sistemas de
IA es fundamental, puesto que la evaluación de los sistemas de IA por parte de
auditores internos y externos, y la disponibilidad de los informes de
evaluación, contribuye en gran medida a la fiabilidad de la tecnología. La
posibilidad de realizar auditorías externas debe garantizarse especialmente en
aplicaciones que afecten a los derechos fundamentales, por ejemplo las
aplicaciones críticas para la seguridad.
Los potencialesimpactos negativos de los sistemas de IA deben señalarse, evaluarse,
documentarse y reducirse al mínimo. El uso de las evaluaciones de impacto
facilita este proceso. Estas evaluaciones deben ser proporcionales a la
magnitud de los riesgos que plantean los sistemas de IA. Los compromisos entre los requisitos —que a
menudo son inevitables— deben abordarse de una manera racional y metodológica,
y ser tenidos en cuenta. Por último, cuando se produzcan efectos adversos
injustos, deben estar previstos mecanismos accesibles que garanticen una reparación adecuada.
2.3. Próximas etapas: una fase piloto global en la que
participen las partes interesadas a la escala más amplia posible
Alcanzar un consenso sobre
estos requisitos esenciales para un sistema de IA es un primer hito importante
en el camino hacia las directrices para una IA ética. Como siguiente paso, la
Comisión garantizará que esta orientación pueda probarse e implementarse en la
práctica.
Para ello, la Comisión pondrá
en marcha una fase piloto específica concebida para obtener respuestas
estructuradas de las partes interesadas. Este ejercicio se centrará, en
particular, en la lista elaborada por el grupo de expertos de alto nivel para
cada uno de los requisitos esenciales.
Este trabajo seguirá dos
líneas: i) una fase piloto para las directrices en la que participen las partes
interesadas que desarrollan o utilizan IA, incluidas las administraciones
públicas, y ii) un proceso permanente de consulta a las partes interesadas y de
sensibilización entre los Estados miembros y diferentes grupos de partes
interesadas, entre otras el sector de la industria y los servicios:
i)
A partir de
junio de 2019, se pedirá a todas las partes interesadas y los particulares que
prueben la lista y den su opinión sobre cómo mejorarla. Además, el grupo de
expertos de alto nivel sobre la IA realizará un examen exhaustivo con las
partes interesadas del sector público y privado para recopilar puntos de vista
más detallados sobre cómo pueden implementarse las directrices en una amplia
gama de ámbitos de aplicación. Todas las respuestas sobre la viabilidad de las
directrices se evaluarán para finales de 2019.
ii)
Al mismo
tiempo, la Comisión organizará otras actividades de divulgación, dando la
oportunidad a los representantes del grupo de expertos de alto nivel sobre la
IA de presentar las directrices a las partes interesadas relevantes en los
Estados miembros, incluida la industria y el sector servicios, y brindando a
estas partes interesadas la oportunidad adicional de formular observaciones
sobre las directrices de IA y de contribuir a ellas.
La Comisión tendrá en cuenta
el trabajo del grupo de expertos sobre ética para la conducción conectada y
automatizada[14]
y el trabajo con proyectos de investigación financiados por la UE y con
asociaciones relevantes público-privadas sobre la implementación de los
requisitos esenciales[15]. Por ejemplo, la Comisión
apoyará, en coordinación con los Estados miembros, el desarrollo de una base de
datos común de imaginería médica inicialmente dedicada a las formas más comunes
de cáncer, de manera que puedan entrenarse los algoritmos para diagnosticar
síntomas con gran precisión. De forma similar, la cooperación de la Comisión y
los Estados miembros permite multiplicar los corredores transfronterizos para
probar vehículos conectados y automatizados. Las directrices deben aplicarse en
estos proyectos y someterse a ensayo y los resultados alimentarán el proceso de
evaluación.
La fase piloto y la consulta a
las partes interesadas se beneficiarán de la contribución de la Alianza europea
de la IA y de la AI4EU, la plataforma de IA a la demanda. El proyecto AI4EU[16], puesto en marcha en enero
de 2019, reúne algoritmos, herramientas, conjuntos de datos y servicios para
ayudar a las organizaciones, en particular a las pequeñas y medianas empresas,
a implementar soluciones de IA. La Alianza europea de la IA, junto con la
AI4EU, continuará movilizando el ecosistema de IA en toda Europa, también con
vistas a poner a prueba las directrices éticas en materia de IA y fomentar el
respeto de la IA centrada en el ser humano.
A comienzos de 2020, a partir de la evaluación de las reacciones recibidas
durante la fase piloto, el grupo de
expertos de alto nivel sobre la IA revisará y actualizará las directrices.
Sobre la base de la revisión y de la experiencia adquirida, la Comisión evaluará los resultados y
propondrá las próximas etapas.
Con la propuesta de
directrices éticas para la IA todos salen ganando. Garantizar el respeto de los
valores y derechos fundamentales no solo es esencial en sí mismo, sino que
también facilita la aceptación por parte del público y aumenta la ventaja
competitiva de las empresas europeas de IA al establecer un planteamiento de IA
centrada en el ser humano, fiable, reconocida por sus productos éticos y
seguros. Más en general, esto se basa en la sólida reputación de las empresas
europeas por sus productos seguros y de gran calidad. La fase piloto
contribuirá a garantizar que los productos de IA cumplan esta promesa.
2.4. Hacia unas directrices éticas en materia de IA internacionales
Las conversaciones
internacionales sobre la ética en materia de IA se han intensificado después de
que la presidencia japonesa del G7 diera gran importancia al tema en la agenda
de 2016. Dadas las interrelaciones internacionales en el desarrollo de la IA en
cuanto a circulación de datos, desarrollo de algoritmos e inversiones en
investigación, la Comisión seguirá
esforzándose por llevar el enfoque de la Unión a la escena mundial y establecer
un consenso sobre una IA centrada en el ser humano[17].
El trabajo realizado por el
grupo de expertos de alto nivel sobre la IA, y más en concreto la lista de
requisitos y el proceso de participación con las partes interesadas, ofrece a
la Comisión una valiosa aportación adicional para contribuir a los debates
internacionales. La Unión Europea puede desempeñar un papel de liderazgo en el
desarrollo de directrices internacionales sobre IA y, si es posible, un
mecanismo de evaluación al respecto.
Por consiguiente, la Comisión:
Estrechará la cooperación con socios de ideas afines:
·
explorando
hasta qué punto puede lograrse la convergencia con los proyectos de directrices
éticas de terceros países (por ejemplo, Japón, Canadá, Singapur) y, apoyándose
en este grupo de países de ideas afines, preparar un debate más amplio,
respaldado por acciones que implementen el Instrumento de Colaboración para la
cooperación con terceros países[18]; y
·
explorando
cómo pueden contribuir las empresas de países no pertenecientes a la UE y las
organizaciones internacionales a la fase piloto de las directrices mediante la
realización de ensayos y validaciones.
Continuará desempeñando un papel activo en las conversaciones
e iniciativas internacionales:
·
contribuyendo
a foros multilaterales como el G7 y el G20;
·
participando
en diálogos con países no pertenecientes a la UE y organizando reuniones
bilaterales y multilaterales para llegar a un consenso sobre la IA centrada en
el ser humano;
·
contribuyendo
a actividades de normalización relevantes en organizaciones de desarrollo de
normas internacionales para promover esta visión; y
·
reforzando
la recogida y difusión de puntos de vista sobre políticas públicas, trabajando
conjuntamente con organizaciones internacionales relevantes.
3.
CONCLUSIONES
La UE reposa sobre un conjunto
de valores fundamentales y ha construido un marco regulatorio sólido y
equilibrado sobre estos cimientos. A partir de este marco regulatorio
existente, son necesarias unas directrices éticas para el desarrollo y la
utilización de la IA, dado lo novedoso de esta tecnología y los retos
específicos que trae consigo. La IA solo podrá considerarse fiable si se
desarrolla y utiliza de forma que respete unos valores éticos ampliamente
compartidos.
Teniendo presente este
objetivo, la Comisión acoge favorablemente la aportación preparada por el grupo
de expertos de alto nivel sobre la IA. Sobre la base de los requisitos
esenciales para que la IA se considere fiable, ahora la Comisión pondrá en
marcha una fase piloto específica para garantizar que las directrices éticas
derivadas para el desarrollo y la utilización de la IA puedan ser aplicadas en
la práctica. La Comisión también trabajará para forjar un amplio consenso
social sobre la IA centrada en el ser humano, incluyendo en ello a todas las
partes interesadas y a nuestros socios internacionales.
La dimensión ética de la IA no
es un lujo ni un algo accesorio: ha de ser parte integrante del desarrollo de
la IA. Al tratar de lograr una IA centrada en el ser humano basada en la
confianza, salvaguardamos el respeto de los valores esenciales de nuestra
sociedad y forjamos una marca distintiva para Europa y su industria como líder
de la IA de vanguardia en la que se puede confiar en todo el mundo.
Para garantizar el desarrollo
ético de la IA en Europa en su contexto más amplio, la Comisión aplica un
enfoque global que incluye, en particular, las siguientes líneas de acción para
ser implementadas antes del tercer trimestre de 2019:
·
Comenzará a
poner en marcha un conjunto de redes de
centros de excelencia especializados en investigación sobre IA a través de
Horizonte 2020. Seleccionará un máximo de cuatro redes, centrándose en retos
científicos o tecnológicos importantes, como la explicabilidad y la interacción
avanzada entre los seres humanos y las máquinas, que son elementos clave para
una IA fiable.
·
Empezará a
crear redes de polos de innovación
digital[19]
centrándose en la IA en la fabricación y en los macrodatos.
·
Junto con
los Estados miembros y las partes interesadas, la Comisión entablará
conversaciones preparatorias para desarrollar y aplicar un modelo para el intercambio de datos y para hacer el mejor uso de los
espacios comunes de datos, haciendo hincapié en el transporte, la atención
sanitaria y la fabricación industrial[20].
Además, la Comisión está
elaborando un informe sobre los retos que plantea la IA en relación con los
marcos de seguridad y responsabilidad y un documento de orientación sobre la
implementación de la Directiva sobre responsabilidad por los daños causados por
productos defectuosos[21]. Al mismo tiempo, la
Empresa Común de Informática de Alto Rendimiento Europea (EuroHPC)[22] desarrollará la próxima
generación de superordenadores, ya que la capacidad de computación es esencial
para el tratamiento de datos y la formación en IA, y Europa necesita dominar la
totalidad de la cadena de valor digital. La asociación en curso con los Estados
miembros y la industria sobre componentes y sistemas microelectrónicos (ECSEL)[23], así como la iniciativa
europea en materia de procesadores[24], contribuirán al desarrollo
de una tecnología de procesadores de bajo consumo para una computación en el
borde (edge computing) de alto
rendimiento, fiable y segura.
Al igual que el trabajo sobre
directrices éticas para la IA, todas estas iniciativas parten de la estrecha cooperación con todas las partes
afectadas, Estados miembros, industria, agentes sociales y ciudadanos. En
conjunto, el enfoque de Europa con respecto a la IA muestra cómo la
competitividad económica y la confianza de la sociedad deben partir de los
mismos valores fundamentales y reforzarse mutuamente.
[3] Para contribuir a alcanzar este objetivo, la
Comisión propuso, en el próximo período de programación 2021-2027, que la Unión
asigne al menos 1 000 millones EUR anuales de los fondos de los programas
Horizonte Europa y Europa Digital para invertir en IA.
[4] La UE ha ratificado así mismo la Convención de
las Naciones Unidas sobre los derechos de las personas con discapacidad.
[5] Reglamento (UE) 2016/679.
El Reglamento general de protección de datos (RGPD) garantiza la libre
circulación de datos personales dentro de la Unión. Contiene disposiciones
sobre la adopción de decisiones basada únicamente en el tratamiento
automatizado, lo que abarca la elaboración de perfiles. Las personas afectadas
tienen derecho a ser informadas de la existencia de toma de decisiones
automatizada y a recibir información significativa sobre la lógica aplicada en
la misma, así como sobre la importancia y las consecuencias previstas de este
tratamiento para ellas. En tales casos, también tienen derecho a obtener
intervención humana, a expresar su punto de vista y a impugnar la decisión.
[9] A la consulta respondieron
511 organizaciones, asociaciones, empresas, institutos de investigación,
particulares y otros.Puede consultarse un resumen de las respuestas en: https://ec.europa.eu/futurium/en/system/files/ged/consultation_feedback_on_draft_ai_ethics_guidelines_4.pdf
[10] El trabajo del grupo de
expertos fue acogido favorablemente por los Estados miembros, y el Consejo, en
sus conclusiones adoptadas el 18 de febrero de 2019, tomó nota, inter alia, de la próxima publicación de
las directrices éticas y apoyó el esfuerzo de la Comisión de llevar el enfoque
ético de la UE a la escena mundial:https://data.consilium.europa.eu/doc/document/ST-6177-2019-INIT/es/pdf
[12] El Reglamento general de protección de datos da
a las personas el derecho a no ser objeto de una decisión basada únicamente en
el tratamiento automatizado cuando produzca efectos jurídicos en los usuarios o
les afecte significativamente de modo similar (artículo 22 del RGPD).
[13] Human-in-the-loop (HITL) se refiere a
la intervención humana en cada ciclo de decisión del sistema, lo que en muchos
casos no es posible ni deseable. Human-on-the-loop
(HOTL) se refiere a la capacidad de la intervención humana durante el ciclo de
diseño del sistema y a la supervisión del funcionamiento del sistema. Human-in-command (HIC) se refiere a la
capacidad de supervisar la actividad global del sistema de IA (incluido su
impacto más amplio económico, social, jurídico y ético) y a la capacidad de
decidir cuándo y cómo utilizar el sistema en cada situación determinada. Esto
puede incluir la decisión de no utilizar un sistema de IA en una situación
concreta, establecer niveles de discreción humana durante el uso del sistema o
garantizar la capacidad de imponerse a una decisión tomada por el sistema.
[14] Véase la Comunicación de la Comisión sobre la
movilidad conectada y automatizada, COM(2018) 283.
[15] En el marco del Fondo Europeo de Defensa, la
Comisión desarrollará también orientaciones éticas específicas para la evaluación de propuestas de
proyectos en el ámbito de la IA para la defensa.
[17] La alta
representante de la Unión para Asuntos Exteriores y Política de Seguridad, con
el apoyo de la Comisión, se basará en consultas con las Naciones Unidas, el
Panel de Tecnología Global y otros organismos multilaterales, y en particular,
coordinará propuestas para hacer frente a los complejos desafíos de seguridad
que se plantean.
[18] Reglamento (UE) n.º 234/2014
del Parlamento Europeo y del Consejo, de 11 de marzo de 2014, por el
que se establece un Instrumento de Colaboración para la cooperación con
terceros países (DO L 77 de 15.3.2014, p. 77). Por ejemplo, el proyecto
previsto sobre «Una alianza internacional para un enfoque centrado en el ser
humano para la IA» facilitará iniciativas conjuntas con socios de ideas afines,
con el fin de promover unas directrices éticas y adoptar principios comunes y
conclusiones operativas. Permitirá a la UE y países de ideas afines debatir
conclusiones operativas derivadas de las directrices éticas sobre la IA
propuestas por el grupo de expertos de alto nivel para alcanzar un enfoque
común. Además, permitirá seguir el despliegue de la tecnología en materia de IA
a nivel mundial. Por último, el proyecto prevé organizar actividades de
diplomacia pública durante actos internacionales, por ejemplo, del G7, G20 y la
Organización para la Cooperación y el Desarrollo Económicos.
[20] Los recursos necesarios procederán de Horizonte
2020 (en virtud del cual cerca de 1 500 millones EUR están asignados a la
IA durante el periodo 2018-2020) y su sucesor previsto Horizonte Europa, la
parte digital del Mecanismo «Conectar Europa» y especialmente el futuro
Programa Europa Digital. Los proyectos también utilizarán recursos del sector
privado y de los programas de los Estados miembros.
[21] Véase la Comunicación de la Comisión sobre la
Inteligencia artificial para Europa, COM(2018) 237.
No hay comentarios:
Publicar un comentario