Por: Carlos A. FERREYROS SOTO
Doctor en Derecho
Universidad de Montpellier I Francia.
Resumen
La Decisión establece que con vistas a la aplicación la Unión Europea de la «Estrategia global para la política exterior y de seguridad de la Unión Europea», la Estrategia de la Unión contra las armas de fuego, las armas pequeñas y ligeras ilícitas y sus municiones titulada «Seguridad de las armas, protección de los ciudadanos» además de la Comunicación de la Comisión titulada «Inteligencia artificial para Europa» la Unión apoyará la ejecución de un proyecto, «Fomento de la innovación responsable en inteligencia artificial para la paz y la seguridad».
Las actividades del proyecto que recibirá el apoyo de la Unión tendrán el objetivo específico de apoyar una mayor participación de la comunidad de inteligencia artificial (IA) civil en la mitigación de los riesgos que la desviación y el uso indebido de la investigación e innovación de la IA civil por parte de actores irresponsables pueden suponer para la paz y la seguridad internacionales, por:
— generar una mayor comprensión sobre cómo las decisiones en el desarrollo y la difusión de la investigación y la innovación en IA pueden afectar los riesgos de desviación y uso indebido y, a su vez, generar riesgos u oportunidades para la paz y la seguridad;
— promover procesos, métodos y herramientas de innovación responsable que puedan ayudar a garantizar la aplicación pacífica de las innovaciones civiles y la difusión responsable del conocimiento de la IA. Con ese fin, el proyecto apoyará actividades de creación de capacidad, investigación y participación que: mejoren la capacidad dentro de la comunidad global de inteligencia artificial civil para incluir y abordar los riesgos para la paz y la seguridad que presenta el desvío y el uso indebido de la inteligencia artificial civil por parte de actores irresponsables a través de procesos de innovación; y fortalecer la conexión entre los esfuerzos de mitigación de riesgos en AI responsable en la esfera civil con los que ya están en marcha en la comunidad de desarme, control de armas y no proliferación a nivel intergubernamental.
La Decisión comporta un Anexo sobre los Antecedentes, Objetivos, Proyectos y Duración.
A fin de acceder a normas similares y estándares europeos, las empresas, organizaciones públicas y privados ayudados en asesorías, consultorías, capacitaciones, estudios, evaluaciones, auditorías sobre el tema, sírvanse comunicar al correo electrónico : cferreyros@hotmail.com
___________________________________________________________
DECISIÓN
DEL CONSEJO (PESC) 2022/2269
del 18 de
noviembre de 2022
sobre el
apoyo de la Unión a la ejecución de un proyecto «Fomento de la innovación
responsable en inteligencia artificial para la paz y la seguridad»
EL CONSEJO DE LA UNIÓN EUROPEA,
Visto el Tratado de la Unión Europea y, en particular, su
artículo 28, apartado 1, y su artículo 31, apartado 1,
Vista la propuesta del Alto Representante de la Unión
para Asuntos Exteriores y Política de Seguridad,
Mientras:
(1) La
'Estrategia global para la política exterior y de seguridad de la Unión
Europea' de 2016 hace hincapié en que la Unión intensificará su contribución a
la seguridad colectiva.
(2) La
Estrategia de la Unión para 2018 contra las armas de fuego, las armas pequeñas
y las armas ligeras ilícitas (APAL) y sus municiones, titulada "Seguridad
de las armas, protección de los ciudadanos", señaló que la Unión hará uso
de los instrumentos pertinentes para apoyar la investigación y el desarrollo en
el ámbito de la tecnología rentable para proteger las APAL y sus municiones y
mitigar los riesgos de desvío. Además, el Consejo, en sus conclusiones sobre la
adopción de esa estrategia, señaló la evolución del contexto de seguridad,
incluida la amenaza del terrorismo dentro de la Unión y los avances en el
diseño y la tecnología de las armas pequeñas y ligeras que afectan a la
capacidad de los gobiernos para hacer frente a esa amenaza.
(3) La
Comunicación de la Comisión de 2018 titulada "Inteligencia artificial para
Europa" señala que el principio rector de todo apoyo a la investigación
relacionada con la inteligencia artificial (IA) será el desarrollo de una
"IA responsable". Señala además que, dado que la IA es fácilmente
comercializable a través de las fronteras, solo las soluciones globales serán
sostenibles en ese ámbito, y que la Unión promoverá el uso de la IA y las
tecnologías en general para ayudar a resolver los desafíos globales, apoyar la
implementación del Acuerdo de París Acuerdo Climático y alcanzar los Objetivos
de Desarrollo Sostenible de las Naciones Unidas (ONU).
(4) El
Secretario General de la ONU señaló en la Cumbre Mundial 'AI for Good' de 2019
que si queremos aprovechar los beneficios de la IA y abordar los riesgos,
debemos trabajar todos juntos (gobiernos, industria, academia y sociedad civil)
para desarrollar los marcos. y sistemas que permitan la innovación responsable.
(5) La Unión
desea contribuir al desarrollo de la 'IA responsable', la seguridad colectiva y
el potencial para beneficiarse de las oportunidades que presenta la IA para el
logro de los Objetivos de Desarrollo Sostenible de la ONU, así como para
abordar los desafíos que la IA representa para la paz y la seguridad.
(6) La Unión
debería apoyar la ejecución de un proyecto, "Fomento de la innovación
responsable en inteligencia artificial para la paz y la seguridad",
HA ADOPTADO ESTA DECISIÓN:
Articulo 1
1. Con vistas a la aplicación de la «Estrategia global
para la política exterior y de seguridad de la Unión Europea», y teniendo en
cuenta la Estrategia de la Unión contra las armas de fuego, las armas pequeñas
y ligeras ilícitas y sus municiones titulada «Seguridad de las armas,
protección de los ciudadanos» además de la Comunicación de la Comisión titulada
«Inteligencia artificial para Europa», la Unión apoyará la ejecución de un
proyecto, «Fomento de la innovación responsable en inteligencia artificial para
la paz y la seguridad».
2. Las actividades del proyecto que recibirá el apoyo de
la Unión tendrán el objetivo específico de apoyar una mayor participación de la
comunidad de inteligencia artificial (IA) civil en la mitigación de los riesgos
que la desviación y el uso indebido de la investigación e innovación de la IA
civil por parte de actores irresponsables pueden suponer para la paz y la
seguridad internacionales, por:
— generar una
mayor comprensión de cómo las decisiones en el desarrollo y la difusión de la
investigación y la innovación en IA pueden afectar los riesgos de desviación y
uso indebido y, a su vez, generar riesgos u oportunidades para la paz y la
seguridad;
— promover
procesos, métodos y herramientas de innovación responsable que puedan ayudar a
garantizar la aplicación pacífica de las innovaciones civiles y la difusión
responsable del conocimiento de la IA. Con ese fin, el proyecto apoyará
actividades de creación de capacidad, investigación y participación que:
mejoren la capacidad dentro de la comunidad global de inteligencia artificial
civil para incluir y abordar los riesgos para la paz y la seguridad que
presenta el desvío y el uso indebido de la inteligencia artificial civil por
parte de actores irresponsables a través de procesos de innovación; y
fortalecer la conexión entre los esfuerzos de mitigación de riesgos en AI
responsable en la esfera civil con los que ya están en marcha en la comunidad
de desarme, control de armas y no proliferación a nivel intergubernamental.
3. El proyecto y las actividades mencionadas en los
apartados 1 y 2 no tienen por objeto establecer nuevas normas, principios o
reglamentos, ni entrar en áreas de competencia de los Estados miembros. En
cambio, la intención es desarrollar esfuerzos de innovación civil responsable
para incluir los riesgos de paz y seguridad presentados por el desvío y el uso
indebido de la IA civil por parte de actores irresponsables, y brindar
educación sobre los esfuerzos intergubernamentales relevantes existentes.
4. En el Anexo se incluye una descripción detallada del
proyecto.
Artículo 2
1. El Alto Representante de la Unión para Asuntos
Exteriores y Política de Seguridad (el «Alto Representante») será responsable
de la ejecución de la presente Decisión.
2. La ejecución técnica del proyecto a que se refiere el
artículo 1 estará a cargo de la Oficina de Asuntos de Desarme de las Naciones
Unidas (UNODA), con el apoyo del Instituto Internacional de Investigación para
la Paz de Estocolmo (SIPRI).
3. La UNODA, con el apoyo del SIPRI, desempeñará sus
funciones bajo la responsabilidad del Alto Representante. A tal fin, el Alto
Representante suscribirá los acuerdos necesarios con la UNODA y el SIPRI.
Artículo 3
1. El importe de referencia financiera para la ejecución
del proyecto financiado por la Unión a que se refiere el artículo 1 será de 1
782 285,71 EUR.
2. Los gastos financiados por el importe de referencia
establecido en el apartado 1 se gestionarán de conformidad con los
procedimientos y normas aplicables al presupuesto de la Unión.
3. La Comisión supervisará la correcta gestión de los
gastos financiados por el importe de referencia establecido en el apartado 1. A
tal fin, celebrará un acuerdo de contribución con la UNODA. Dicho acuerdo de
contribución estipulará que la UNODA debe garantizar la visibilidad de la
contribución de la Unión, adecuada a su tamaño.
4. La Comisión se esforzará por celebrar el acuerdo de
contribución a que se refiere el apartado 3 lo antes posible tras la entrada en
vigor de la presente Decisión. Informará al Consejo de cualquier dificultad en
ese proceso y de la fecha de celebración de dicho acuerdo.
Artículo 4
1. El Alto Representante informará al Consejo sobre la
aplicación de la presente Decisión sobre la base de informes conjuntos
trimestrales de la UNODA y el SIPRI. Dichos informes constituirán la base de la
evaluación realizada por el Consejo.
2. La Comisión facilitará información sobre los aspectos
financieros de la ejecución del proyecto a que se refiere el artículo 1.
Artículo 5
La presente Decisión entrará en vigor en la fecha de su
adopción.
Expirará 36 meses después de la celebración del acuerdo
de contribución a que se refiere el artículo 3, apartado 3. No obstante, la
presente Decisión expirará seis meses después de la fecha de su entrada en
vigor si dicho acuerdo no se ha celebrado dentro de ese plazo.
Hecho en Bruselas, el 18 de noviembre de 2022.
para el Consejo
El presidente
M.BEK
ANEXO
DOCUMENTO DE PROYECTO
Promoción de la innovación responsable en IA para la paz
y la seguridad
1. ANTECEDENTES
Los avances recientes en inteligencia artificial (IA) han
desbloqueado nuevas posibilidades para apoyar y mantener la paz y la seguridad,
por ejemplo, a través de mejoras tecnológicas en áreas como la alerta temprana
de conflictos y la verificación del control de armas y exportaciones. Por otro
lado, estos avances han permitido nuevos medios para generar, o agravar,
tensiones, conflictos e inseguridad entre y dentro de los estados. Los riesgos
que plantean ciertas aplicaciones de la IA, como los sistemas de armas
autónomos letales, se han convertido en un tema de gran preocupación para la
comunidad de control de armas. Una vía de riesgo que merece mayor atención, y a
la que los esfuerzos diplomáticos y de control de armas actuales pueden ser
insuficientes para responder, es el desvío y el uso indebido de la
investigación e innovación de IA civil por parte de actores irresponsables,
incluidos actores no estatales maliciosos,
La IA es una tecnología habilitadora con un gran
potencial de uso general. Ciertos actores podrían acceder (con relativa
facilidad) a la investigación e innovación de IA que se desarrollan para
aplicaciones civiles y reutilizarlas para usos dañinos o disruptivos que
podrían tener implicaciones para la paz y la seguridad internacionales. El
desvío y el mal uso de la tecnología civil no son fenómenos nuevos ni
exclusivos de la IA. En el campo relacionado de la robótica, esto fue
ejemplificado recientemente por el armamento y el uso de drones recreativos por
parte de Daesh/ISIS en Siria. Pero en el caso de la IA, el problema se complica
por múltiples factores: la naturaleza intangible y cambiante de los algoritmos
y datos de la IA, lo que hace que la transferencia/proliferación de estos sea
difícil de controlar; el protagonismo del sector privado en el ecosistema de
investigación, desarrollo e innovación, y su consiguiente necesidad de proteger
los algoritmos propietarios; y la disponibilidad global de la experiencia
humana y los recursos materiales capaces de reutilizar las tecnologías de IA. Mientras
tanto, aquellos que trabajan en IA en el sector civil siguen ignorando con
demasiada frecuencia las posibles implicaciones que la desviación y el uso
indebido de su trabajo podrían tener para la paz y la seguridad internacionales
o dudan en participar en las discusiones existentes sobre los riesgos de IA en
el control de armas y círculos de no proliferación.
Existe la necesidad de apoyar una mayor participación de
la comunidad de IA civil en la comprensión y mitigación de los riesgos para la
paz y la seguridad asociados con el desvío y el uso indebido de la tecnología
de IA civil por parte de actores irresponsables. Para el Instituto
Internacional de Investigación para la Paz de Estocolmo (SIPRI) y la Oficina de
Asuntos de Desarme de las Naciones Unidas (UNODA), esto podría lograrse
mediante una mayor promoción de la innovación responsable en la comunidad civil
global de IA. El trabajo anterior de SIPRI y UNODA ha demostrado que la
innovación responsable, como mecanismo de autogobierno, podría proporcionar a
la comunidad global de IA civil herramientas y métodos prácticos para
identificar, ayudar a prevenir y mitigar los riesgos que el desvío y el uso
indebido de la IA civil la investigación y la innovación podrían representar
para la paz y la seguridad. ( 1 ) De manera crítica, este trabajo anterior
ha identificado claramente el compromiso con los estudiantes de Ciencias,
Tecnología, Ingeniería y Matemáticas (STEM), que aún se involucran con la IA en
un formato educativo, como fundamental para cualquier esfuerzo de innovación
responsable eficaz.
2. OBJETIVOS
Estos proyectos tienen como objetivo apoyar una mayor
participación de la comunidad civil de IA en la mitigación de los riesgos que
el desvío y el uso indebido de la investigación e innovación de IA civil por
parte de actores irresponsables pueden representar para la paz y la seguridad
internacionales. Su objetivo es hacerlo, en primer lugar, generando una mayor
comprensión de cómo las decisiones en el desarrollo y la difusión de la
investigación y la innovación en IA pueden afectar los riesgos de desviación y
uso indebido y, a su vez, generar riesgos u oportunidades para la paz y la
seguridad, y en segundo lugar, mediante promover procesos, métodos y
herramientas de innovación responsable que puedan ayudar a garantizar la
aplicación pacífica de las innovaciones civiles y la difusión responsable del
conocimiento de la IA. Con este fin, apoyan actividades de creación de
capacidad, investigación y participación que i)
mejorar la capacidad dentro de la comunidad global de IA civil para incluir y
abordar los riesgos para la paz y la seguridad que presenta el desvío y el uso
indebido de la IA civil por parte de actores irresponsables a través de
procesos de innovación responsables; y yo)
fortalecer la conexión entre los esfuerzos de mitigación de riesgos en la IA responsable
en la esfera civil con los que ya están en marcha en la comunidad de desarme,
control de armas y no proliferación a nivel intergubernamental. Fundamentalmente,
no tienen la intención de establecer nuevos estándares, principios o
regulaciones, o de otro modo entrar en áreas dentro de la competencia de los
Estados. En cambio, tienen la intención de desarrollar esfuerzos de innovación
responsables civiles para incluir los riesgos de paz y seguridad presentados
por el desvío y el uso indebido de la IA civil por parte de actores
irresponsables, y brindar educación sobre los esfuerzos intergubernamentales
relevantes existentes.
Para llegar e impactar de manera efectiva a la comunidad
civil de IA, los proyectos implementan un enfoque triple, que busca
(a) comprometerse con educadores : trabajar
con educadores seleccionados y desarrolladores de planes de estudios académicos
en el desarrollo y la promoción de materiales educativos que se pueden usar
para incorporar la consideración de los riesgos para la paz y la seguridad que
se derivan de la desviación y el uso indebido de la investigación e innovación
de IA civil por parte de actores irresponsables en la formación de futuros
profesionales de la IA (p. ej., en cursos sobre ética de la IA e innovación
responsable);
(b) Comprometerse con los estudiantes :
presentar a estudiantes seleccionados de Ciencias, Tecnología, Ingeniería y
Matemáticas (STEM) de todo el mundo cómo se pueden identificar, prevenir o
mitigar en el proceso de investigación e innovación o a través de otros
procesos de gobernanza; y
(C) comprometerse con la industria de la IA :
trabajar con asociaciones profesionales y organismos de estándares como el
Instituto de Ingenieros Eléctricos y Electrónicos (IEEE) para i) difundir
materiales educativos personalizados y actividades de participación para
profesionales técnicos; ii) apoyar los usos positivos de la IA para la paz y la
seguridad; y iii) facilitar el diálogo y el intercambio de información entre
expertos de la academia, el sector privado y el gobierno sobre cómo se puede
mitigar el riesgo de desvío y uso indebido de la investigación e innovación de
IA civil por parte de actores irresponsables.
Este enfoque permite que los proyectos lleguen a la
comunidad de IA en todos los niveles, incluidos no solo los profesionales
actuales sino también las generaciones futuras. También permite el compromiso
entre académicos, industriales y otros silos, y apoya la sostenibilidad de los
esfuerzos futuros mediante el establecimiento de redes que cruzan estos
límites.
Los proyectos también buscan emplear el poder de
convocatoria y la experiencia de SIPRI y UNODA para impactar a la comunidad de
IA a nivel mundial, no solo a las partes interesadas de la UE. SIPRI y UNODA
están en una posición única para alcanzar y facilitar el compromiso entre los
actores de IA de África, Asia-Pacífico, Europa y América del Norte y del Sur. Ambas
entidades también tienen experiencia trabajando en otros campos de la ciencia y
la tecnología que enfrentan desafíos similares de doble uso y proliferación,
incluida la biotecnología. Los proyectos también buscan aprovechar las
condiciones presentes dentro de la Unión Europea, tales como a) la existencia
de procesos avanzados de múltiples partes interesadas sobre IA responsable; b)
el alto nivel de compromiso y experiencia en temas de desarme, control de armas
y no proliferación en la UE; c) la diversidad de conexiones que los académicos,
organizaciones de investigación y del sector privado en la UE tienen con otras
regiones, especialmente en el Sur Global, que también será un objetivo
importante para el compromiso; yd) la diversidad de nacionalidades de
estudiantes, educadores e ingenieros en universidades, instituciones de
investigación y el sector privado.
La inclusión será una consideración fundamental para la
realización de las actividades de los proyectos. Para apoyar eficazmente a la
comunidad de IA, los proyectos reconocen que la comunidad de IA se compone de
una diversa gama de actores y, en particular, que
(a) el género
es un factor muy relevante. Por este motivo, se incorporará la perspectiva de
género de acuerdo con las estrategias de paridad y de incorporación de la
perspectiva de género en todo el sistema de las Naciones Unidas. Se fomentará y
exigirá la participación de mujeres en todas las actividades del proyecto; y
(b) en todo
momento se llevará a cabo la inclusión de las personas con discapacidad y el
ajuste razonable de las necesidades. Esto incluirá abordar los obstáculos a la
participación de las personas con discapacidad, así como garantizar que se
tomen medidas para involucrar y facilitar la representación de las opiniones y
experiencias sustantivas de las personas con discapacidad.
3. PROYECTOS
Los tres proyectos que se describen a continuación tienen
la intención de ser complementarios y de apoyo mutuo, con elementos que se
ejecutan a lo largo de los 36 meses.
3.1. Proyecto 1: producción de material educativo y de desarrollo de
capacidades para la comunidad civil de IA
3.1.1. Propósito del proyecto
El Proyecto 1 se enfoca en proporcionar el conocimiento y
los medios para que los actores civiles de IA evalúen y mitiguen los riesgos
que el desvío y el uso indebido de la investigación e innovación de IA civil
por parte de actores irresponsables pueden representar para la paz y la
seguridad internacionales. Su objetivo es producir material educativo y de
creación de capacidad que proporcione a los profesionales de la IA de todas las
regiones, niveles y sectores (incluidos los educadores centrados en la IA, los
desarrolladores de planes de estudios, los estudiantes de STEM y los ingenieros
e investigadores de la IA en el mundo académico y el sector privado) la
información y herramientas necesarias para
(a) comprender
cómo la investigación y la innovación de la IA civil pueden desviarse y
utilizarse indebidamente de manera que puedan presentar riesgos para la paz y
la seguridad internacionales y cómo las decisiones en el desarrollo y la
difusión de la investigación y la innovación pueden aumentar o disminuir el
riesgo de desviación y uso indebido;
(b) comprender
los esfuerzos ya realizados por la comunidad de desarme, control de armas y no
proliferación para mitigar los riesgos de desviación y uso indebido de la
investigación y la innovación civiles; y
(C) practicar
la innovación responsable de una manera que mitigue el riesgo de desviación y
mal uso en el desarrollo y difusión de la investigación y la innovación.
3.1.2. Descripción del Proyecto
Este proyecto producirá tres conjuntos separados de
materiales educativos y de desarrollo de capacidades.
(a) Manual (1)– El manual recopilará
conocimientos y medios básicos para que los actores de IA evalúen y mitiguen,
en el proceso de investigación e innovación, los riesgos de desviación y uso
indebido de la tecnología civil de IA por parte de actores irresponsables. Discutirá
por qué y cómo las decisiones sobre el desarrollo y la difusión de la
investigación y la innovación pueden afectar los riesgos de desviación y uso
indebido y, a su vez, generar riesgos u oportunidades para la paz y la
seguridad. También introducirá leyes internacionales relevantes y obligaciones
de control de exportaciones, además de las consideraciones de seguridad y
protección que se están discutiendo en los círculos militares, así como de
desarme, control de armas y no proliferación; y presentar ejemplos de procesos
y herramientas para practicar la innovación responsable, como metodologías de
evaluación del impacto tecnológico y plantillas de evaluación de riesgos.
(b) Serie de podcasts (~10)– Estos podcasts
actuarán como un medio accesible y atractivo para que los actores de IA
aprendan por qué y cómo los procesos de innovación de IA responsables pueden
apoyar la paz y la seguridad internacionales a través de la mitigación de los
riesgos presentados por el desvío y el uso indebido por parte de actores
irresponsables. La serie revisará temas importantes (p. ej., el patrón de
desvío y uso indebido de la investigación y la innovación de uso dual/general;
desafíos humanitarios, estratégicos y políticos asociados con el uso indebido
potencial de la innovación en la investigación de IA civil; desafíos que el
desarme, el control de armas, y los círculos de no proliferación se enfrentan
en los esfuerzos de mitigación de riesgos, cómo hacer una innovación
responsable a través de la evaluación de riesgos, el cumplimiento del control
de exportaciones, la reducción de riesgos por diseño, la publicación
responsable, conocer a sus clientes, y el conocimiento de sus clientes.
(C) Serie de blogs (9-10) : el equipo
desarrollará una serie de publicaciones de blog seleccionadas destinadas a
elevar el perfil de los esfuerzos que intentan cruzar los límites entre la 'IA
responsable' centrada en los civiles y las comunidades de control de armas y no
proliferación. La serie de blogs proporcionará una plataforma para difundir
conocimientos, ideas y soluciones con respecto a la identificación y el
tratamiento de los riesgos asociados con el desvío y el uso indebido de la IA
civil en el proceso de investigación e innovación. El blog buscará representar
la diversidad de pensamiento y perspectivas presentes en el sector de la IA.
Estos materiales se difundirán públicamente a través de
los sitios web de los actores implementadores, su presencia en las redes
sociales y a través de la comunicación directa con entidades académicas
relevantes, asociaciones profesionales civiles de IA y otros grupos apropiados.
3.1.3. Resultados esperados del proyecto.
Se espera que este proyecto establezca un nuevo conjunto
de materiales mediante los cuales los profesionales civiles de la IA puedan
sensibilizarse sobre a) cómo la investigación y la innovación de la IA civil
pueden desviarse y utilizarse indebidamente de manera que puedan presentar
riesgos para la paz y la seguridad internacionales, b) cómo dichos riesgos
están siendo abordados por la comunidad de desarme, control de armas y no
proliferación, y c) cómo los profesionales de la IA podrían contribuir aún más
a la mitigación de tales riesgos a través de procesos de innovación
responsable.
Se espera que esto promueva el compromiso del sector de
la IA civil para mitigar los riesgos que el desvío y el uso indebido de la IA
civil pueden representar para la paz y la seguridad internacionales; mejorar la
capacidad de los profesionales técnicos para participar en procesos relevantes
en la comunidad de desarme, control de armas y no proliferación, así como
apoyar la participación de nuevas audiencias no incluidas tradicionalmente en
los esfuerzos de educación para el desarme y la no proliferación.
También se espera que el material apoye la implementación
de los otros proyectos y sirva como base para las actividades educativas y de
desarrollo de capacidades en el Proyecto 2, así como para las actividades de
diálogo y participación en el Proyecto 3. Se espera que estas actividades, a su
vez, sirvan de retroalimentación. en la producción y refinamiento del material.
Se espera que un enfoque iterativo de este tipo ayude a abordar los posibles
obstáculos para su promoción, difusión y uso dentro de la comunidad de IA,
incluidos los problemas relacionados con el idioma, el contenido, el contexto y
la disponibilidad, lo que podría impedir su impacto a nivel mundial,
particularmente en el Sur Global. .
3.2. Proyecto 2: actividades de educación y desarrollo de capacidades
para futuros profesionales de la IA
3.2.1. Propósito del proyecto
El propósito del Proyecto 2 es apoyar la integración del
problema de la desviación y el uso indebido de la investigación civil de IA por
parte de actores irresponsables en la educación de futuras generaciones de
profesionales de IA. A largo plazo, esto garantizará que los estudiantes de
Ciencias, Tecnología, Ingeniería y Matemáticas (STEM) que dan forma al futuro
de la IA sean conscientes de los impactos negativos que la desviación y el mal
uso de su trabajo por parte de actores irresponsables podría tener en la paz y
la seguridad internacionales. y que contarán con las herramientas básicas necesarias
para identificar y mitigar dicho riesgo en el proceso de investigación e
innovación.
Este proyecto llevará a cabo una serie de talleres
educativos y de desarrollo de capacidades con educadores y estudiantes en
colaboración con universidades internacionales seleccionadas y actores de la
industria. Por lo tanto, el proyecto busca desarrollar actividades de
desarrollo de capacidades que los educadores y desarrolladores de planes de
estudios académicos podrían usar para incluir en la capacitación de futuros
profesionales de la IA (por ejemplo, cursos sobre ética de la IA e innovación
responsable) y consideraciones sobre los riesgos de desviación y uso indebido
de la IA civil. investigación e innovación por parte de actores irresponsables
y conectarlos con el contexto más amplio de paz y seguridad. A través de estos
talleres, el proyecto también buscará identificar una red de educadores
interesados, desarrolladores de planes de estudios y estudiantes que apoyarían
la difusión y promoción del material educativo del proyecto y las actividades
de desarrollo de capacidades en la comunidad educativa de IA y la comunidad de
profesionales de IA. Este componente de creación de redes busca garantizar la
sostenibilidad de los proyectos más allá de su duración inmediata y permitir la
construcción de vínculos más fuertes en apoyo del compromiso técnico civil
hacia objetivos más amplios de paz, seguridad, desarme y control de armas.
3.2.2. Descripción del Proyecto
Este proyecto llevará a cabo una serie de talleres
educativos y de desarrollo de capacidades con educadores y estudiantes de
universidades seleccionadas de todo el mundo. Estos consistirían en una
combinación de conferencias y actividades interactivas que brindarán a los
educadores y estudiantes la oportunidad de reflexionar sobre cómo la
investigación y la innovación de la IA civil podrían desviarse y abusarse de
formas que pueden presentar riesgos para la paz y la seguridad internacionales
y cómo esos riesgos pueden identificarse, prevenirse o mitigarse en el proceso
de investigación e innovación, o a través de otros procesos de gobernanza. Estas
actividades se basarán en un trabajo piloto anterior a menor escala realizado
por UNODA, que experimentó con métodos para involucrar y sensibilizar a los
estudiantes de STEM sobre la importancia de considerar el impacto más amplio de
su trabajo, así como involucrarse con experiencia fuera de sus campos de
origen. Concretamente, estos consistirían en
(a) talleres regionales de desarrollo de capacidades para
educadores y estudiantes (4)– los talleres regionales
llevarán a cabo y promoverán actividades que los educadores pueden usar para
desarrollar la capacidad de los estudiantes de STEM en la innovación responsable
de IA con un enfoque particular en cómo evaluar y mitigar los riesgos de la
desviación y el uso indebido de la tecnología civil de IA por parte de actores
irresponsables. Cada taller se organizará con una universidad con sede en la UE
y una universidad de alto perfil de una región global diferente, conectando así
siempre un conjunto diverso de participantes con sede en la UE con un conjunto
diverso con sede fuera de la UE. Luego, los talleres cubrirán América Latina y
el Caribe, América del Norte, África y Asia y el Pacífico. Esto permitirá la
participación de estudiantes (a nivel de maestría y doctorado) de todo el
mundo, incluso del Sur Global. El taller se llevaría a cabo principalmente en
inglés, pero cuando sea factible, los participantes tendrían la oportunidad de
participar en actividades basadas en grupos de idiomas alternativos; y
(b) taller internacional sobre creación de capacidad sostenible
(1) : el taller se basará en las lecciones aprendidas de los
talleres regionales y facilitará el intercambio de información y experiencias
entre educadores y estudiantes seleccionados de las universidades involucradas
en el proyecto. El taller discutiría cómo refinar las actividades y
herramientas elaboradas a lo largo del proyecto, y difundirlas más allá del
grupo de universidades participantes. También discutirá cómo apoyar la
participación de los estudiantes en una IA responsable que aborde los riesgos
de desviación y uso indebido para la paz y la seguridad internacionales una vez
que hayan ingresado a la fuerza laboral.
Las redes y la presencia de SIPRI y UNODA en África,
Asia-Pacífico, Europa, América del Norte y del Sur se utilizarán para facilitar
y apoyar aspectos de las actividades según corresponda.
3.2.3. Resultados esperados del proyecto.
Se espera que el proyecto cree modelos de desarrollo de
capacidades y actividades de participación que los educadores y desarrolladores
de planes de estudios académicos podrían replicar para sensibilizar a los
futuros profesionales de la IA sobre los problemas del desvío y el uso indebido
de la IA civil por parte de actores irresponsables y cómo pueden ayudar a
mitigar estos problemas a través de procesos de innovación responsable. Después
de completar las actividades del proyecto, se espera que los participantes
(educadores, pero también estudiantes de STEM) sean capaces de utilizar y
promover herramientas, métodos y conceptos de innovación responsable para
identificar y mitigar los riesgos de desviación y uso indebido en el desarrollo
y la difusión de información civil. Investigación e innovación en IA.
También se espera que las actividades del proyecto
generen una red de educadores, desarrolladores de currículos y estudiantes que
no solo promuevan las actividades del proyecto dentro de las comunidades
educativas y profesionales de IA (por ejemplo, durante las conferencias de la
Sociedad de Inteligencia Computacional IEEE), sino que también estén
disponibles para contribuir con capacidad técnica para los procesos de gobernanza
internacional dirigidos por los estados (por ejemplo, el proceso de la
Convención sobre Ciertas Armas Convencionales sobre tecnologías emergentes en
el área de los Sistemas de Armas Autónomos Letales).
El valor a corto y largo plazo de estas actividades se
demostrará a través de encuestas previas y posteriores a la actividad.
3.3. Proyecto 3: Facilitar el desarrollo sostenible a largo plazo, la
difusión y el impacto de la innovación responsable en IA para la paz y la
seguridad
3.3.1. Propósito del proyecto
El propósito del Proyecto 3 es facilitar el desarrollo
sostenible a largo plazo, la difusión y el impacto de la innovación responsable
en IA como un medio para mitigar los riesgos que la desviación y el uso
indebido de la investigación e innovación de IA civil pueden representar para
la paz y la seguridad. Su objetivo es hacerlo a través de mesas redondas con la
industria de la IA, diálogos de múltiples partes interesadas, la creación de un
informe público y actividades de difusión específicas. El proyecto tiene como
objetivo garantizar que el trabajo generado, en particular las actividades de
educación, desarrollo de capacidades y participación, alcance e impacte a la
comunidad de IA en general, en todos los niveles (desde estudiantes hasta
ingenieros y otros profesionales de IA) y a través de zonas geográficas,
sectoriales y otros límites. Para aumentar la posibilidad de tener un impacto
amplio y profundo, es esencial cooperar con organizaciones profesionales en
este espacio, como el IEEE, y realizar compromisos multidimensionales en la
academia, la industria y otros silos. Dichos esfuerzos brindarán la oportunidad
a los representantes interesados de diferentes comunidades de IA de hacerse
cargo del problema y brindar sus propios puntos de vista sobre cómo se pueden
llevar a cabo y promover los esfuerzos de mitigación de riesgos de manera
sostenible dentro y en toda la comunidad global de IA. También es importante
para el valor a largo plazo del proyecto para los estados, las organizaciones
intergubernamentales y otros que los profesionales de la IA puedan aprender de
los expertos gubernamentales dedicados a la mitigación de riesgos en el
contexto del desarme, el control de armas y la no proliferación y colaborar con
ellos.
3.3.2. Descripción del Proyecto
Este proyecto consta de estos hilos clave:
(a) Diálogos
de múltiples partes interesadas sobre 'innovación responsable de IA para la paz
y la seguridad' (hasta 9): esta serie de reuniones de diálogo
virtual reuniría a expertos de la academia, la investigación, el sector privado
y el control de armas tradicionales de la UE y más allá para discutir
i. tendencias tecnológicas que pueden
generar riesgos de difusión, desvío y uso indebido con impactos para la paz y
la seguridad internacionales;
ii. cómo participar en la mitigación de riesgos a
través de procesos, métodos y medios de innovación responsables, y
oportunidades y desafíos para el diálogo y el intercambio de conocimientos
entre las comunidades de partes interesadas, incluidas aquellas que operan en
otros sectores, como las industrias biológica y química; y
iii. el valor potencial, el propósito y el formato
de una red autosuficiente de expertos y actividades de diálogo. El grupo de
expertos se reunirá varias veces al año y trabajará en la organización de dos
eventos públicos para la comunidad en general.
De las nueve reuniones virtuales, dos están destinadas a
ser abiertas al público, para facilitar una consulta más amplia.
(b) mesas
redondas del sector privado (hasta 6) : esta serie de mesas
redondas virtuales iniciará un diálogo con los actores que trabajan con
procesos de innovación de IA responsables en el sector privado (por ejemplo,
Asociación en IA) sobre cómo pueden contribuir a minimizar los riesgos de la
desviación y uso indebido de las tecnologías civiles de IA por parte de actores
irresponsables, así como explorar posibles incentivos dentro del desarrollo del
sector privado para hacerlo. Los temas incluirán
i. la relevancia del contexto de seguridad internacional
y desarme para el sector privado;
ii. los entornos legales en los que se desarrolla,
implementa y opera la IA en todo el mundo;
iii. cómo aprovechar los mecanismos de evaluación de
riesgos y otras medidas que forman parte de los procesos de innovación
responsable y los programas de cumplimiento empresarial, o podrían integrarse
en ellos; y
IV. lecciones que se pueden aprender de otras
industrias, procesos y marcos relacionados con el control de armas (por
ejemplo, industrias biológicas y químicas).
(C) informe sobre las perspectivas de la comunidad de IA sobre
el control de armas y la mitigación de riesgos en IA, dirigido a las
comunidades de IA y control de armas (1) : el desarrollo de
este informe capturará y consolidará los hallazgos y recomendaciones del
proyecto en un solo documento de referencia dirigido tanto a la AI civilmente
responsable y las comunidades de control de armas. El informe discutiría cómo
se pueden identificar, evaluar y abordar los riesgos para la paz y la seguridad
internacionales asociados con el desvío y el uso indebido de la investigación e
innovación de la IA civil.
(d) eventos de difusión dirigidos a la consulta y el compromiso
con la IA y las comunidades de control de armas (tbd) : el equipo buscará oportunidades para
comunicar el trabajo y sus hallazgos y recomendaciones a lo largo del proyecto.
El formato de los eventos y el contenido de las presentaciones se adaptarían a
las necesidades de los grupos destinatarios. Estos pueden incluir reuniones de
CONOP, la Asamblea de la Alianza Europea de IA; el Grupo de Expertos
Gubernamentales sobre tecnologías emergentes en el área de Sistemas de Armas
Autónomas Letales; el Grupo de trabajo interinstitucional sobre IA (IAWG-AI); la
iniciativa AI for Good de la UIT; el Diálogo Anual de Innovación de UNIDIR; y
el Instituto de Ingenieros Eléctricos y Electrónicos. El equipo también
buscaría involucrarse bilateralmente con las partes interesadas relevantes del
gobierno, la academia y el sector privado.
3.3.3. Resultados esperados del proyecto.
Se espera que este proyecto establezca las bases para el
desarrollo sostenible, la difusión y el impacto de la innovación responsable de
los procesos de IA que abordan los riesgos de difusión, desviación y uso
indebido y sus implicaciones para la paz y la seguridad más allá de la duración
inmediata de la decisión del consejo.
Se espera que el diálogo de múltiples partes interesadas
proporcione un modelo para el intercambio de información y la colaboración en
la mitigación de riesgos no solo dentro de la comunidad global de IA, sino
también entre la comunidad de IA responsable civil y las comunidades de
desarme, control de armas y no proliferación. Dicho modelo podría utilizarse
para familiarizar a los responsables de la formulación de políticas con los
avances tecnológicos y científicos clave relevantes para la innovación
responsable de la IA y también para familiarizar a las audiencias técnicas con
el entorno en el que se encuentran actualmente los responsables de la
formulación de políticas. Se espera que el proyecto facilite las relaciones
sostenibles y el compromiso entre los actores interesados dentro y entre
estas diferentes comunidades.
Se espera que el diálogo del sector privado permita una
participación mayor y más profunda del sector privado de la IA en la
identificación, prevención y mitigación de los riesgos para la paz y la
seguridad derivados del desvío y el uso indebido de la investigación y la
innovación de la IA civil. Se espera que el proyecto brinde a los actores clave
en los procesos del sector privado una mayor comprensión y apropiación de los
problemas que busca abordar. Además, tiene como objetivo facilitar la adopción
e implementación (más amplia) de procesos, métodos y medios de innovación
responsable en los mecanismos y procedimientos existentes de gestión de riesgos
corporativos.
También se espera que el diálogo de múltiples partes
interesadas y la mesa redonda del sector privado generen ideas sobre una serie
de cuestiones importantes, que incluyen a) cómo los métodos y medios de
innovación responsable pueden refinarse e implementarse para identificar,
prevenir y mitigar los riesgos planteados por el desvío y mal uso de la
investigación e innovación de la IA civil; b) cómo la investigación y la
innovación en IA pueden utilizarse positivamente para apoyar los objetivos de
paz y seguridad (p. ej., aplicaciones para alerta temprana de conflictos y
asistencia humanitaria); y c) cómo facilitar un mayor diálogo e intercambio de
información entre los esfuerzos de mitigación de riesgos emprendidos en la
comunidad de IA con responsabilidad civil (es decir, varias iniciativas
dirigidas por IEEE) con los que ya están en curso en la comunidad de desarme,
control de armas y no proliferación a nivel intergubernamental. .
Las actividades de informe y difusión analizarán,
consolidarán y difundirán los conocimientos generados a través de los Proyectos
1, 2 y 3 y, por lo tanto, respaldarán la promoción de los hallazgos y
recomendaciones de las actividades del proyecto dentro de la comunidad global
de IA, así como dentro de la comunidad política. También se espera que ayuden a
garantizar la sostenibilidad del impacto más allá del marco temporal de los
proyectos.
4. DURACIÓN
La duración total estimada de la ejecución de los
proyectos es de 36 meses.
( 1 ) Las metodologías incluyen, por ejemplo, las
prácticas recomendadas por el Instituto de Ingenieros Eléctricos y Electrónicos
(IEEE) para evaluar el impacto de los sistemas autónomos e inteligentes en el
bienestar humano (IEEE Std 7010-2020), el Grupo de Expertos de Alto Nivel sobre
Inteligencia Artificial ' Lista de evaluación para Inteligencia Artificial
Confiable (ALTAI). Las iniciativas incluyen: El IEEE La iniciativa global sobre
ética para sistemas autónomos e inteligentes; la Asociación sobre IA; la
Alianza Global sobre IA.
No hay comentarios:
Publicar un comentario