martes, 22 de noviembre de 2022

FOMENTO DE LA INNOVACION RESPONSABLE EN INTELIGENCIA ARTIFICIAL PARA LA PAZ Y LA SEGURIDAD. PROYECTO DE LA UNION EUROPEA

 Por: Carlos A. FERREYROS SOTO

Doctor en Derecho
Universidad de Montpellier I Francia.

cferreyros@hotmail.com   

Resumen  

La Decisión establece que con vistas a la aplicación la Unión Europea de la «Estrategia global para la política exterior y de seguridad de la Unión Europea», la Estrategia de la Unión contra las armas de fuego, las armas pequeñas y ligeras ilícitas y sus municiones titulada «Seguridad de las armas, protección de los ciudadanos» además de la Comunicación de la Comisión titulada «Inteligencia artificial para Europa» la Unión apoyará la ejecución de un proyecto, «Fomento de la innovación responsable en inteligencia artificial para la paz y la seguridad». 

Las actividades del proyecto que recibirá el apoyo de la Unión tendrán el objetivo específico de apoyar una mayor participación de la comunidad de inteligencia artificial (IA) civil en la mitigación de los riesgos que la desviación y el uso indebido de la investigación e innovación de la IA civil por parte de actores irresponsables pueden suponer para la paz y la seguridad internacionales, por:

    —  generar una mayor comprensión sobre cómo las decisiones en el desarrollo y la difusión de la investigación y la innovación en IA pueden afectar los riesgos de desviación y uso indebido y, a su vez, generar riesgos u oportunidades para la paz y la seguridad;

   —  promover procesos, métodos y herramientas de innovación responsable que puedan ayudar a garantizar la aplicación pacífica de las innovaciones civiles y la difusión responsable del conocimiento de la IA. Con ese fin, el proyecto apoyará actividades de creación de capacidad, investigación y participación que: mejoren la capacidad dentro de la comunidad global de inteligencia artificial civil para incluir y abordar los riesgos para la paz y la seguridad que presenta el desvío y el uso indebido de la inteligencia artificial civil por parte de actores irresponsables a través de procesos de innovación; y fortalecer la conexión entre los esfuerzos de mitigación de riesgos en AI responsable en la esfera civil con los que ya están en marcha en la comunidad de desarme, control de armas y no proliferación a nivel intergubernamental.

La Decisión comporta un Anexo sobre los Antecedentes, Objetivos, Proyectos y Duración.

A fin de acceder a normas similares y estándares europeos, las empresas, organizaciones públicas y privados ayudados en asesorías, consultorías, capacitaciones, estudios, evaluaciones, auditorías sobre el tema, sírvanse comunicar al correo electrónico  : cferreyros@hotmail.com  

___________________________________________________________

DECISIÓN DEL CONSEJO (PESC) 2022/2269

del 18 de noviembre de 2022

sobre el apoyo de la Unión a la ejecución de un proyecto «Fomento de la innovación responsable en inteligencia artificial para la paz y la seguridad»

EL CONSEJO DE LA UNIÓN EUROPEA,

Visto el Tratado de la Unión Europea y, en particular, su artículo 28, apartado 1, y su artículo 31, apartado 1,

Vista la propuesta del Alto Representante de la Unión para Asuntos Exteriores y Política de Seguridad,

Mientras:

(1)       La 'Estrategia global para la política exterior y de seguridad de la Unión Europea' de 2016 hace hincapié en que la Unión intensificará su contribución a la seguridad colectiva.

 

(2)       La Estrategia de la Unión para 2018 contra las armas de fuego, las armas pequeñas y las armas ligeras ilícitas (APAL) y sus municiones, titulada "Seguridad de las armas, protección de los ciudadanos", señaló que la Unión hará uso de los instrumentos pertinentes para apoyar la investigación y el desarrollo en el ámbito de la tecnología rentable para proteger las APAL y sus municiones y mitigar los riesgos de desvío. Además, el Consejo, en sus conclusiones sobre la adopción de esa estrategia, señaló la evolución del contexto de seguridad, incluida la amenaza del terrorismo dentro de la Unión y los avances en el diseño y la tecnología de las armas pequeñas y ligeras que afectan a la capacidad de los gobiernos para hacer frente a esa amenaza.

 

(3)       La Comunicación de la Comisión de 2018 titulada "Inteligencia artificial para Europa" señala que el principio rector de todo apoyo a la investigación relacionada con la inteligencia artificial (IA) será el desarrollo de una "IA responsable". Señala además que, dado que la IA es fácilmente comercializable a través de las fronteras, solo las soluciones globales serán sostenibles en ese ámbito, y que la Unión promoverá el uso de la IA y las tecnologías en general para ayudar a resolver los desafíos globales, apoyar la implementación del Acuerdo de París Acuerdo Climático y alcanzar los Objetivos de Desarrollo Sostenible de las Naciones Unidas (ONU).

 

(4)       El Secretario General de la ONU señaló en la Cumbre Mundial 'AI for Good' de 2019 que si queremos aprovechar los beneficios de la IA y abordar los riesgos, debemos trabajar todos juntos (gobiernos, industria, academia y sociedad civil) para desarrollar los marcos. y sistemas que permitan la innovación responsable.

 

(5)       La Unión desea contribuir al desarrollo de la 'IA responsable', la seguridad colectiva y el potencial para beneficiarse de las oportunidades que presenta la IA para el logro de los Objetivos de Desarrollo Sostenible de la ONU, así como para abordar los desafíos que la IA representa para la paz y la seguridad.

 

(6)       La Unión debería apoyar la ejecución de un proyecto, "Fomento de la innovación responsable en inteligencia artificial para la paz y la seguridad",

HA ADOPTADO ESTA DECISIÓN:

Articulo 1

1. Con vistas a la aplicación de la «Estrategia global para la política exterior y de seguridad de la Unión Europea», y teniendo en cuenta la Estrategia de la Unión contra las armas de fuego, las armas pequeñas y ligeras ilícitas y sus municiones titulada «Seguridad de las armas, protección de los ciudadanos» además de la Comunicación de la Comisión titulada «Inteligencia artificial para Europa», la Unión apoyará la ejecución de un proyecto, «Fomento de la innovación responsable en inteligencia artificial para la paz y la seguridad».

2. Las actividades del proyecto que recibirá el apoyo de la Unión tendrán el objetivo específico de apoyar una mayor participación de la comunidad de inteligencia artificial (IA) civil en la mitigación de los riesgos que la desviación y el uso indebido de la investigación e innovación de la IA civil por parte de actores irresponsables pueden suponer para la paz y la seguridad internacionales, por:

        generar una mayor comprensión de cómo las decisiones en el desarrollo y la difusión de la investigación y la innovación en IA pueden afectar los riesgos de desviación y uso indebido y, a su vez, generar riesgos u oportunidades para la paz y la seguridad;

 

        promover procesos, métodos y herramientas de innovación responsable que puedan ayudar a garantizar la aplicación pacífica de las innovaciones civiles y la difusión responsable del conocimiento de la IA. Con ese fin, el proyecto apoyará actividades de creación de capacidad, investigación y participación que: mejoren la capacidad dentro de la comunidad global de inteligencia artificial civil para incluir y abordar los riesgos para la paz y la seguridad que presenta el desvío y el uso indebido de la inteligencia artificial civil por parte de actores irresponsables a través de procesos de innovación; y fortalecer la conexión entre los esfuerzos de mitigación de riesgos en AI responsable en la esfera civil con los que ya están en marcha en la comunidad de desarme, control de armas y no proliferación a nivel intergubernamental.

3. El proyecto y las actividades mencionadas en los apartados 1 y 2 no tienen por objeto establecer nuevas normas, principios o reglamentos, ni entrar en áreas de competencia de los Estados miembros. En cambio, la intención es desarrollar esfuerzos de innovación civil responsable para incluir los riesgos de paz y seguridad presentados por el desvío y el uso indebido de la IA civil por parte de actores irresponsables, y brindar educación sobre los esfuerzos intergubernamentales relevantes existentes.

4. En el Anexo se incluye una descripción detallada del proyecto.

Artículo 2

1. El Alto Representante de la Unión para Asuntos Exteriores y Política de Seguridad (el «Alto Representante») será responsable de la ejecución de la presente Decisión.

2. La ejecución técnica del proyecto a que se refiere el artículo 1 estará a cargo de la Oficina de Asuntos de Desarme de las Naciones Unidas (UNODA), con el apoyo del Instituto Internacional de Investigación para la Paz de Estocolmo (SIPRI).

3. La UNODA, con el apoyo del SIPRI, desempeñará sus funciones bajo la responsabilidad del Alto Representante. A tal fin, el Alto Representante suscribirá los acuerdos necesarios con la UNODA y el SIPRI.

Artículo 3

1. El importe de referencia financiera para la ejecución del proyecto financiado por la Unión a que se refiere el artículo 1 será de 1 782 285,71 EUR.

2. Los gastos financiados por el importe de referencia establecido en el apartado 1 se gestionarán de conformidad con los procedimientos y normas aplicables al presupuesto de la Unión.

3. La Comisión supervisará la correcta gestión de los gastos financiados por el importe de referencia establecido en el apartado 1. A tal fin, celebrará un acuerdo de contribución con la UNODA. Dicho acuerdo de contribución estipulará que la UNODA debe garantizar la visibilidad de la contribución de la Unión, adecuada a su tamaño.

4. La Comisión se esforzará por celebrar el acuerdo de contribución a que se refiere el apartado 3 lo antes posible tras la entrada en vigor de la presente Decisión. Informará al Consejo de cualquier dificultad en ese proceso y de la fecha de celebración de dicho acuerdo.

Artículo 4

1. El Alto Representante informará al Consejo sobre la aplicación de la presente Decisión sobre la base de informes conjuntos trimestrales de la UNODA y el SIPRI. Dichos informes constituirán la base de la evaluación realizada por el Consejo.

2. La Comisión facilitará información sobre los aspectos financieros de la ejecución del proyecto a que se refiere el artículo 1.

Artículo 5

La presente Decisión entrará en vigor en la fecha de su adopción.

Expirará 36 meses después de la celebración del acuerdo de contribución a que se refiere el artículo 3, apartado 3. No obstante, la presente Decisión expirará seis meses después de la fecha de su entrada en vigor si dicho acuerdo no se ha celebrado dentro de ese plazo.

Hecho en Bruselas, el 18 de noviembre de 2022.

para el Consejo

El presidente

M.BEK


ANEXO

DOCUMENTO DE PROYECTO

Promoción de la innovación responsable en IA para la paz y la seguridad

1.    ANTECEDENTES

Los avances recientes en inteligencia artificial (IA) han desbloqueado nuevas posibilidades para apoyar y mantener la paz y la seguridad, por ejemplo, a través de mejoras tecnológicas en áreas como la alerta temprana de conflictos y la verificación del control de armas y exportaciones. Por otro lado, estos avances han permitido nuevos medios para generar, o agravar, tensiones, conflictos e inseguridad entre y dentro de los estados. Los riesgos que plantean ciertas aplicaciones de la IA, como los sistemas de armas autónomos letales, se han convertido en un tema de gran preocupación para la comunidad de control de armas. Una vía de riesgo que merece mayor atención, y a la que los esfuerzos diplomáticos y de control de armas actuales pueden ser insuficientes para responder, es el desvío y el uso indebido de la investigación e innovación de IA civil por parte de actores irresponsables, incluidos actores no estatales maliciosos,

La IA es una tecnología habilitadora con un gran potencial de uso general. Ciertos actores podrían acceder (con relativa facilidad) a la investigación e innovación de IA que se desarrollan para aplicaciones civiles y reutilizarlas para usos dañinos o disruptivos que podrían tener implicaciones para la paz y la seguridad internacionales. El desvío y el mal uso de la tecnología civil no son fenómenos nuevos ni exclusivos de la IA. En el campo relacionado de la robótica, esto fue ejemplificado recientemente por el armamento y el uso de drones recreativos por parte de Daesh/ISIS en Siria. Pero en el caso de la IA, el problema se complica por múltiples factores: la naturaleza intangible y cambiante de los algoritmos y datos de la IA, lo que hace que la transferencia/proliferación de estos sea difícil de controlar; el protagonismo del sector privado en el ecosistema de investigación, desarrollo e innovación, y su consiguiente necesidad de proteger los algoritmos propietarios; y la disponibilidad global de la experiencia humana y los recursos materiales capaces de reutilizar las tecnologías de IA. Mientras tanto, aquellos que trabajan en IA en el sector civil siguen ignorando con demasiada frecuencia las posibles implicaciones que la desviación y el uso indebido de su trabajo podrían tener para la paz y la seguridad internacionales o dudan en participar en las discusiones existentes sobre los riesgos de IA en el control de armas y círculos de no proliferación.

Existe la necesidad de apoyar una mayor participación de la comunidad de IA civil en la comprensión y mitigación de los riesgos para la paz y la seguridad asociados con el desvío y el uso indebido de la tecnología de IA civil por parte de actores irresponsables. Para el Instituto Internacional de Investigación para la Paz de Estocolmo (SIPRI) y la Oficina de Asuntos de Desarme de las Naciones Unidas (UNODA), esto podría lograrse mediante una mayor promoción de la innovación responsable en la comunidad civil global de IA. El trabajo anterior de SIPRI y UNODA ha demostrado que la innovación responsable, como mecanismo de autogobierno, podría proporcionar a la comunidad global de IA civil herramientas y métodos prácticos para identificar, ayudar a prevenir y mitigar los riesgos que el desvío y el uso indebido de la IA civil la investigación y la innovación podrían representar para la paz y la seguridad. ( 1 ) De manera crítica, este trabajo anterior ha identificado claramente el compromiso con los estudiantes de Ciencias, Tecnología, Ingeniería y Matemáticas (STEM), que aún se involucran con la IA en un formato educativo, como fundamental para cualquier esfuerzo de innovación responsable eficaz.

2.    OBJETIVOS

Estos proyectos tienen como objetivo apoyar una mayor participación de la comunidad civil de IA en la mitigación de los riesgos que el desvío y el uso indebido de la investigación e innovación de IA civil por parte de actores irresponsables pueden representar para la paz y la seguridad internacionales. Su objetivo es hacerlo, en primer lugar, generando una mayor comprensión de cómo las decisiones en el desarrollo y la difusión de la investigación y la innovación en IA pueden afectar los riesgos de desviación y uso indebido y, a su vez, generar riesgos u oportunidades para la paz y la seguridad, y en segundo lugar, mediante promover procesos, métodos y herramientas de innovación responsable que puedan ayudar a garantizar la aplicación pacífica de las innovaciones civiles y la difusión responsable del conocimiento de la IA. Con este fin, apoyan actividades de creación de capacidad, investigación y participación que i) mejorar la capacidad dentro de la comunidad global de IA civil para incluir y abordar los riesgos para la paz y la seguridad que presenta el desvío y el uso indebido de la IA civil por parte de actores irresponsables a través de procesos de innovación responsables; y yo) fortalecer la conexión entre los esfuerzos de mitigación de riesgos en la IA responsable en la esfera civil con los que ya están en marcha en la comunidad de desarme, control de armas y no proliferación a nivel intergubernamental. Fundamentalmente, no tienen la intención de establecer nuevos estándares, principios o regulaciones, o de otro modo entrar en áreas dentro de la competencia de los Estados. En cambio, tienen la intención de desarrollar esfuerzos de innovación responsables civiles para incluir los riesgos de paz y seguridad presentados por el desvío y el uso indebido de la IA civil por parte de actores irresponsables, y brindar educación sobre los esfuerzos intergubernamentales relevantes existentes.

Para llegar e impactar de manera efectiva a la comunidad civil de IA, los proyectos implementan un enfoque triple, que busca

(a)       comprometerse con educadores : trabajar con educadores seleccionados y desarrolladores de planes de estudios académicos en el desarrollo y la promoción de materiales educativos que se pueden usar para incorporar la consideración de los riesgos para la paz y la seguridad que se derivan de la desviación y el uso indebido de la investigación e innovación de IA civil por parte de actores irresponsables en la formación de futuros profesionales de la IA (p. ej., en cursos sobre ética de la IA e innovación responsable);

 

(b)       Comprometerse con los estudiantes : presentar a estudiantes seleccionados de Ciencias, Tecnología, Ingeniería y Matemáticas (STEM) de todo el mundo cómo se pueden identificar, prevenir o mitigar en el proceso de investigación e innovación o a través de otros procesos de gobernanza; y

 

(C)       comprometerse con la industria de la IA : trabajar con asociaciones profesionales y organismos de estándares como el Instituto de Ingenieros Eléctricos y Electrónicos (IEEE) para i) difundir materiales educativos personalizados y actividades de participación para profesionales técnicos; ii) apoyar los usos positivos de la IA para la paz y la seguridad; y iii) facilitar el diálogo y el intercambio de información entre expertos de la academia, el sector privado y el gobierno sobre cómo se puede mitigar el riesgo de desvío y uso indebido de la investigación e innovación de IA civil por parte de actores irresponsables.

Este enfoque permite que los proyectos lleguen a la comunidad de IA en todos los niveles, incluidos no solo los profesionales actuales sino también las generaciones futuras. También permite el compromiso entre académicos, industriales y otros silos, y apoya la sostenibilidad de los esfuerzos futuros mediante el establecimiento de redes que cruzan estos límites.

Los proyectos también buscan emplear el poder de convocatoria y la experiencia de SIPRI y UNODA para impactar a la comunidad de IA a nivel mundial, no solo a las partes interesadas de la UE. SIPRI y UNODA están en una posición única para alcanzar y facilitar el compromiso entre los actores de IA de África, Asia-Pacífico, Europa y América del Norte y del Sur. Ambas entidades también tienen experiencia trabajando en otros campos de la ciencia y la tecnología que enfrentan desafíos similares de doble uso y proliferación, incluida la biotecnología. Los proyectos también buscan aprovechar las condiciones presentes dentro de la Unión Europea, tales como a) la existencia de procesos avanzados de múltiples partes interesadas sobre IA responsable; b) el alto nivel de compromiso y experiencia en temas de desarme, control de armas y no proliferación en la UE; c) la diversidad de conexiones que los académicos, organizaciones de investigación y del sector privado en la UE tienen con otras regiones, especialmente en el Sur Global, que también será un objetivo importante para el compromiso; yd) la diversidad de nacionalidades de estudiantes, educadores e ingenieros en universidades, instituciones de investigación y el sector privado.

La inclusión será una consideración fundamental para la realización de las actividades de los proyectos. Para apoyar eficazmente a la comunidad de IA, los proyectos reconocen que la comunidad de IA se compone de una diversa gama de actores y, en particular, que

(a)       el género es un factor muy relevante. Por este motivo, se incorporará la perspectiva de género de acuerdo con las estrategias de paridad y de incorporación de la perspectiva de género en todo el sistema de las Naciones Unidas. Se fomentará y exigirá la participación de mujeres en todas las actividades del proyecto; y

 

(b)       en todo momento se llevará a cabo la inclusión de las personas con discapacidad y el ajuste razonable de las necesidades. Esto incluirá abordar los obstáculos a la participación de las personas con discapacidad, así como garantizar que se tomen medidas para involucrar y facilitar la representación de las opiniones y experiencias sustantivas de las personas con discapacidad.

3.    PROYECTOS

Los tres proyectos que se describen a continuación tienen la intención de ser complementarios y de apoyo mutuo, con elementos que se ejecutan a lo largo de los 36 meses.

3.1.   Proyecto 1: producción de material educativo y de desarrollo de capacidades para la comunidad civil de IA

3.1.1.   Propósito del proyecto

El Proyecto 1 se enfoca en proporcionar el conocimiento y los medios para que los actores civiles de IA evalúen y mitiguen los riesgos que el desvío y el uso indebido de la investigación e innovación de IA civil por parte de actores irresponsables pueden representar para la paz y la seguridad internacionales. Su objetivo es producir material educativo y de creación de capacidad que proporcione a los profesionales de la IA de todas las regiones, niveles y sectores (incluidos los educadores centrados en la IA, los desarrolladores de planes de estudios, los estudiantes de STEM y los ingenieros e investigadores de la IA en el mundo académico y el sector privado) la información y herramientas necesarias para

(a)       comprender cómo la investigación y la innovación de la IA civil pueden desviarse y utilizarse indebidamente de manera que puedan presentar riesgos para la paz y la seguridad internacionales y cómo las decisiones en el desarrollo y la difusión de la investigación y la innovación pueden aumentar o disminuir el riesgo de desviación y uso indebido;

 

(b)       comprender los esfuerzos ya realizados por la comunidad de desarme, control de armas y no proliferación para mitigar los riesgos de desviación y uso indebido de la investigación y la innovación civiles; y

 

(C)       practicar la innovación responsable de una manera que mitigue el riesgo de desviación y mal uso en el desarrollo y difusión de la investigación y la innovación.

3.1.2.   Descripción del Proyecto

Este proyecto producirá tres conjuntos separados de materiales educativos y de desarrollo de capacidades.

(a)       Manual (1)– El manual recopilará conocimientos y medios básicos para que los actores de IA evalúen y mitiguen, en el proceso de investigación e innovación, los riesgos de desviación y uso indebido de la tecnología civil de IA por parte de actores irresponsables. Discutirá por qué y cómo las decisiones sobre el desarrollo y la difusión de la investigación y la innovación pueden afectar los riesgos de desviación y uso indebido y, a su vez, generar riesgos u oportunidades para la paz y la seguridad. También introducirá leyes internacionales relevantes y obligaciones de control de exportaciones, además de las consideraciones de seguridad y protección que se están discutiendo en los círculos militares, así como de desarme, control de armas y no proliferación; y presentar ejemplos de procesos y herramientas para practicar la innovación responsable, como metodologías de evaluación del impacto tecnológico y plantillas de evaluación de riesgos.

 

(b)       Serie de podcasts (~10)– Estos podcasts actuarán como un medio accesible y atractivo para que los actores de IA aprendan por qué y cómo los procesos de innovación de IA responsables pueden apoyar la paz y la seguridad internacionales a través de la mitigación de los riesgos presentados por el desvío y el uso indebido por parte de actores irresponsables. La serie revisará temas importantes (p. ej., el patrón de desvío y uso indebido de la investigación y la innovación de uso dual/general; desafíos humanitarios, estratégicos y políticos asociados con el uso indebido potencial de la innovación en la investigación de IA civil; desafíos que el desarme, el control de armas, y los círculos de no proliferación se enfrentan en los esfuerzos de mitigación de riesgos, cómo hacer una innovación responsable a través de la evaluación de riesgos, el cumplimiento del control de exportaciones, la reducción de riesgos por diseño, la publicación responsable, conocer a sus clientes, y el conocimiento de sus clientes.

 

(C)       Serie de blogs (9-10) : el equipo desarrollará una serie de publicaciones de blog seleccionadas destinadas a elevar el perfil de los esfuerzos que intentan cruzar los límites entre la 'IA responsable' centrada en los civiles y las comunidades de control de armas y no proliferación. La serie de blogs proporcionará una plataforma para difundir conocimientos, ideas y soluciones con respecto a la identificación y el tratamiento de los riesgos asociados con el desvío y el uso indebido de la IA civil en el proceso de investigación e innovación. El blog buscará representar la diversidad de pensamiento y perspectivas presentes en el sector de la IA.

Estos materiales se difundirán públicamente a través de los sitios web de los actores implementadores, su presencia en las redes sociales y a través de la comunicación directa con entidades académicas relevantes, asociaciones profesionales civiles de IA y otros grupos apropiados.

3.1.3.   Resultados esperados del proyecto.

Se espera que este proyecto establezca un nuevo conjunto de materiales mediante los cuales los profesionales civiles de la IA puedan sensibilizarse sobre a) cómo la investigación y la innovación de la IA civil pueden desviarse y utilizarse indebidamente de manera que puedan presentar riesgos para la paz y la seguridad internacionales, b) cómo dichos riesgos están siendo abordados por la comunidad de desarme, control de armas y no proliferación, y c) cómo los profesionales de la IA podrían contribuir aún más a la mitigación de tales riesgos a través de procesos de innovación responsable.

Se espera que esto promueva el compromiso del sector de la IA civil para mitigar los riesgos que el desvío y el uso indebido de la IA civil pueden representar para la paz y la seguridad internacionales; mejorar la capacidad de los profesionales técnicos para participar en procesos relevantes en la comunidad de desarme, control de armas y no proliferación, así como apoyar la participación de nuevas audiencias no incluidas tradicionalmente en los esfuerzos de educación para el desarme y la no proliferación.

También se espera que el material apoye la implementación de los otros proyectos y sirva como base para las actividades educativas y de desarrollo de capacidades en el Proyecto 2, así como para las actividades de diálogo y participación en el Proyecto 3. Se espera que estas actividades, a su vez, sirvan de retroalimentación. en la producción y refinamiento del material. Se espera que un enfoque iterativo de este tipo ayude a abordar los posibles obstáculos para su promoción, difusión y uso dentro de la comunidad de IA, incluidos los problemas relacionados con el idioma, el contenido, el contexto y la disponibilidad, lo que podría impedir su impacto a nivel mundial, particularmente en el Sur Global. .

3.2.   Proyecto 2: actividades de educación y desarrollo de capacidades para futuros profesionales de la IA

3.2.1.   Propósito del proyecto

El propósito del Proyecto 2 es apoyar la integración del problema de la desviación y el uso indebido de la investigación civil de IA por parte de actores irresponsables en la educación de futuras generaciones de profesionales de IA. A largo plazo, esto garantizará que los estudiantes de Ciencias, Tecnología, Ingeniería y Matemáticas (STEM) que dan forma al futuro de la IA sean conscientes de los impactos negativos que la desviación y el mal uso de su trabajo por parte de actores irresponsables podría tener en la paz y la seguridad internacionales. y que contarán con las herramientas básicas necesarias para identificar y mitigar dicho riesgo en el proceso de investigación e innovación.

Este proyecto llevará a cabo una serie de talleres educativos y de desarrollo de capacidades con educadores y estudiantes en colaboración con universidades internacionales seleccionadas y actores de la industria. Por lo tanto, el proyecto busca desarrollar actividades de desarrollo de capacidades que los educadores y desarrolladores de planes de estudios académicos podrían usar para incluir en la capacitación de futuros profesionales de la IA (por ejemplo, cursos sobre ética de la IA e innovación responsable) y consideraciones sobre los riesgos de desviación y uso indebido de la IA civil. investigación e innovación por parte de actores irresponsables y conectarlos con el contexto más amplio de paz y seguridad. A través de estos talleres, el proyecto también buscará identificar una red de educadores interesados, desarrolladores de planes de estudios y estudiantes que apoyarían la difusión y promoción del material educativo del proyecto y las actividades de desarrollo de capacidades en la comunidad educativa de IA y la comunidad de profesionales de IA. Este componente de creación de redes busca garantizar la sostenibilidad de los proyectos más allá de su duración inmediata y permitir la construcción de vínculos más fuertes en apoyo del compromiso técnico civil hacia objetivos más amplios de paz, seguridad, desarme y control de armas.

3.2.2.   Descripción del Proyecto

Este proyecto llevará a cabo una serie de talleres educativos y de desarrollo de capacidades con educadores y estudiantes de universidades seleccionadas de todo el mundo. Estos consistirían en una combinación de conferencias y actividades interactivas que brindarán a los educadores y estudiantes la oportunidad de reflexionar sobre cómo la investigación y la innovación de la IA civil podrían desviarse y abusarse de formas que pueden presentar riesgos para la paz y la seguridad internacionales y cómo esos riesgos pueden identificarse, prevenirse o mitigarse en el proceso de investigación e innovación, o a través de otros procesos de gobernanza. Estas actividades se basarán en un trabajo piloto anterior a menor escala realizado por UNODA, que experimentó con métodos para involucrar y sensibilizar a los estudiantes de STEM sobre la importancia de considerar el impacto más amplio de su trabajo, así como involucrarse con experiencia fuera de sus campos de origen. Concretamente, estos consistirían en

(a)       talleres regionales de desarrollo de capacidades para educadores y estudiantes (4)– los talleres regionales llevarán a cabo y promoverán actividades que los educadores pueden usar para desarrollar la capacidad de los estudiantes de STEM en la innovación responsable de IA con un enfoque particular en cómo evaluar y mitigar los riesgos de la desviación y el uso indebido de la tecnología civil de IA por parte de actores irresponsables. Cada taller se organizará con una universidad con sede en la UE y una universidad de alto perfil de una región global diferente, conectando así siempre un conjunto diverso de participantes con sede en la UE con un conjunto diverso con sede fuera de la UE. Luego, los talleres cubrirán América Latina y el Caribe, América del Norte, África y Asia y el Pacífico. Esto permitirá la participación de estudiantes (a nivel de maestría y doctorado) de todo el mundo, incluso del Sur Global. El taller se llevaría a cabo principalmente en inglés, pero cuando sea factible, los participantes tendrían la oportunidad de participar en actividades basadas en grupos de idiomas alternativos; y

 

(b)       taller internacional sobre creación de capacidad sostenible (1) : el taller se basará en las lecciones aprendidas de los talleres regionales y facilitará el intercambio de información y experiencias entre educadores y estudiantes seleccionados de las universidades involucradas en el proyecto. El taller discutiría cómo refinar las actividades y herramientas elaboradas a lo largo del proyecto, y difundirlas más allá del grupo de universidades participantes. También discutirá cómo apoyar la participación de los estudiantes en una IA responsable que aborde los riesgos de desviación y uso indebido para la paz y la seguridad internacionales una vez que hayan ingresado a la fuerza laboral.

Las redes y la presencia de SIPRI y UNODA en África, Asia-Pacífico, Europa, América del Norte y del Sur se utilizarán para facilitar y apoyar aspectos de las actividades según corresponda.

3.2.3.   Resultados esperados del proyecto.

Se espera que el proyecto cree modelos de desarrollo de capacidades y actividades de participación que los educadores y desarrolladores de planes de estudios académicos podrían replicar para sensibilizar a los futuros profesionales de la IA sobre los problemas del desvío y el uso indebido de la IA civil por parte de actores irresponsables y cómo pueden ayudar a mitigar estos problemas a través de procesos de innovación responsable. Después de completar las actividades del proyecto, se espera que los participantes (educadores, pero también estudiantes de STEM) sean capaces de utilizar y promover herramientas, métodos y conceptos de innovación responsable para identificar y mitigar los riesgos de desviación y uso indebido en el desarrollo y la difusión de información civil. Investigación e innovación en IA.

También se espera que las actividades del proyecto generen una red de educadores, desarrolladores de currículos y estudiantes que no solo promuevan las actividades del proyecto dentro de las comunidades educativas y profesionales de IA (por ejemplo, durante las conferencias de la Sociedad de Inteligencia Computacional IEEE), sino que también estén disponibles para contribuir con capacidad técnica para los procesos de gobernanza internacional dirigidos por los estados (por ejemplo, el proceso de la Convención sobre Ciertas Armas Convencionales sobre tecnologías emergentes en el área de los Sistemas de Armas Autónomos Letales).

El valor a corto y largo plazo de estas actividades se demostrará a través de encuestas previas y posteriores a la actividad.

3.3.   Proyecto 3: Facilitar el desarrollo sostenible a largo plazo, la difusión y el impacto de la innovación responsable en IA para la paz y la seguridad

3.3.1.   Propósito del proyecto

El propósito del Proyecto 3 es facilitar el desarrollo sostenible a largo plazo, la difusión y el impacto de la innovación responsable en IA como un medio para mitigar los riesgos que la desviación y el uso indebido de la investigación e innovación de IA civil pueden representar para la paz y la seguridad. Su objetivo es hacerlo a través de mesas redondas con la industria de la IA, diálogos de múltiples partes interesadas, la creación de un informe público y actividades de difusión específicas. El proyecto tiene como objetivo garantizar que el trabajo generado, en particular las actividades de educación, desarrollo de capacidades y participación, alcance e impacte a la comunidad de IA en general, en todos los niveles (desde estudiantes hasta ingenieros y otros profesionales de IA) y a través de zonas geográficas, sectoriales y otros límites. Para aumentar la posibilidad de tener un impacto amplio y profundo, es esencial cooperar con organizaciones profesionales en este espacio, como el IEEE, y realizar compromisos multidimensionales en la academia, la industria y otros silos. Dichos esfuerzos brindarán la oportunidad a los representantes interesados ​​de diferentes comunidades de IA de hacerse cargo del problema y brindar sus propios puntos de vista sobre cómo se pueden llevar a cabo y promover los esfuerzos de mitigación de riesgos de manera sostenible dentro y en toda la comunidad global de IA. También es importante para el valor a largo plazo del proyecto para los estados, las organizaciones intergubernamentales y otros que los profesionales de la IA puedan aprender de los expertos gubernamentales dedicados a la mitigación de riesgos en el contexto del desarme, el control de armas y la no proliferación y colaborar con ellos.

3.3.2.   Descripción del Proyecto

Este proyecto consta de estos hilos clave:

(a)       Diálogos de múltiples partes interesadas sobre 'innovación responsable de IA para la paz y la seguridad' (hasta 9): esta serie de reuniones de diálogo virtual reuniría a expertos de la academia, la investigación, el sector privado y el control de armas tradicionales de la UE y más allá para discutir

i.          tendencias tecnológicas que pueden generar riesgos de difusión, desvío y uso indebido con impactos para la paz y la seguridad internacionales;

 

ii. cómo participar en la mitigación de riesgos a través de procesos, métodos y medios de innovación responsables, y oportunidades y desafíos para el diálogo y el intercambio de conocimientos entre las comunidades de partes interesadas, incluidas aquellas que operan en otros sectores, como las industrias biológica y química; y

 

iii. el valor potencial, el propósito y el formato de una red autosuficiente de expertos y actividades de diálogo. El grupo de expertos se reunirá varias veces al año y trabajará en la organización de dos eventos públicos para la comunidad en general.

 

De las nueve reuniones virtuales, dos están destinadas a ser abiertas al público, para facilitar una consulta más amplia.

(b)       mesas redondas del sector privado (hasta 6) : esta serie de mesas redondas virtuales iniciará un diálogo con los actores que trabajan con procesos de innovación de IA responsables en el sector privado (por ejemplo, Asociación en IA) sobre cómo pueden contribuir a minimizar los riesgos de la desviación y uso indebido de las tecnologías civiles de IA por parte de actores irresponsables, así como explorar posibles incentivos dentro del desarrollo del sector privado para hacerlo. Los temas incluirán

i. la relevancia del contexto de seguridad internacional y desarme para el sector privado;

 

ii. los entornos legales en los que se desarrolla, implementa y opera la IA en todo el mundo;

 

iii. cómo aprovechar los mecanismos de evaluación de riesgos y otras medidas que forman parte de los procesos de innovación responsable y los programas de cumplimiento empresarial, o podrían integrarse en ellos; y

 

IV. lecciones que se pueden aprender de otras industrias, procesos y marcos relacionados con el control de armas (por ejemplo, industrias biológicas y químicas).

 

 

(C)       informe sobre las perspectivas de la comunidad de IA sobre el control de armas y la mitigación de riesgos en IA, dirigido a las comunidades de IA y control de armas (1) : el desarrollo de este informe capturará y consolidará los hallazgos y recomendaciones del proyecto en un solo documento de referencia dirigido tanto a la AI civilmente responsable y las comunidades de control de armas. El informe discutiría cómo se pueden identificar, evaluar y abordar los riesgos para la paz y la seguridad internacionales asociados con el desvío y el uso indebido de la investigación e innovación de la IA civil.

 

(d)       eventos de difusión dirigidos a la consulta y el compromiso con la IA y las comunidades de control de armas (tbd)  : el equipo buscará oportunidades para comunicar el trabajo y sus hallazgos y recomendaciones a lo largo del proyecto. El formato de los eventos y el contenido de las presentaciones se adaptarían a las necesidades de los grupos destinatarios. Estos pueden incluir reuniones de CONOP, la Asamblea de la Alianza Europea de IA; el Grupo de Expertos Gubernamentales sobre tecnologías emergentes en el área de Sistemas de Armas Autónomas Letales; el Grupo de trabajo interinstitucional sobre IA (IAWG-AI); la iniciativa AI for Good de la UIT; el Diálogo Anual de Innovación de UNIDIR; y el Instituto de Ingenieros Eléctricos y Electrónicos. El equipo también buscaría involucrarse bilateralmente con las partes interesadas relevantes del gobierno, la academia y el sector privado.

3.3.3.   Resultados esperados del proyecto.

Se espera que este proyecto establezca las bases para el desarrollo sostenible, la difusión y el impacto de la innovación responsable de los procesos de IA que abordan los riesgos de difusión, desviación y uso indebido y sus implicaciones para la paz y la seguridad más allá de la duración inmediata de la decisión del consejo.

Se espera que el diálogo de múltiples partes interesadas proporcione un modelo para el intercambio de información y la colaboración en la mitigación de riesgos no solo dentro de la comunidad global de IA, sino también entre la comunidad de IA responsable civil y las comunidades de desarme, control de armas y no proliferación. Dicho modelo podría utilizarse para familiarizar a los responsables de la formulación de políticas con los avances tecnológicos y científicos clave relevantes para la innovación responsable de la IA y también para familiarizar a las audiencias técnicas con el entorno en el que se encuentran actualmente los responsables de la formulación de políticas. Se espera que el proyecto facilite las relaciones sostenibles y el compromiso entre los actores interesados ​​dentro y entre estas diferentes comunidades.

Se espera que el diálogo del sector privado permita una participación mayor y más profunda del sector privado de la IA en la identificación, prevención y mitigación de los riesgos para la paz y la seguridad derivados del desvío y el uso indebido de la investigación y la innovación de la IA civil. Se espera que el proyecto brinde a los actores clave en los procesos del sector privado una mayor comprensión y apropiación de los problemas que busca abordar. Además, tiene como objetivo facilitar la adopción e implementación (más amplia) de procesos, métodos y medios de innovación responsable en los mecanismos y procedimientos existentes de gestión de riesgos corporativos.

También se espera que el diálogo de múltiples partes interesadas y la mesa redonda del sector privado generen ideas sobre una serie de cuestiones importantes, que incluyen a) cómo los métodos y medios de innovación responsable pueden refinarse e implementarse para identificar, prevenir y mitigar los riesgos planteados por el desvío y mal uso de la investigación e innovación de la IA civil; b) cómo la investigación y la innovación en IA pueden utilizarse positivamente para apoyar los objetivos de paz y seguridad (p. ej., aplicaciones para alerta temprana de conflictos y asistencia humanitaria); y c) cómo facilitar un mayor diálogo e intercambio de información entre los esfuerzos de mitigación de riesgos emprendidos en la comunidad de IA con responsabilidad civil (es decir, varias iniciativas dirigidas por IEEE) con los que ya están en curso en la comunidad de desarme, control de armas y no proliferación a nivel intergubernamental. .

Las actividades de informe y difusión analizarán, consolidarán y difundirán los conocimientos generados a través de los Proyectos 1, 2 y 3 y, por lo tanto, respaldarán la promoción de los hallazgos y recomendaciones de las actividades del proyecto dentro de la comunidad global de IA, así como dentro de la comunidad política. También se espera que ayuden a garantizar la sostenibilidad del impacto más allá del marco temporal de los proyectos.

4.    DURACIÓN

La duración total estimada de la ejecución de los proyectos es de 36 meses.


( 1 )   Las metodologías incluyen, por ejemplo, las prácticas recomendadas por el Instituto de Ingenieros Eléctricos y Electrónicos (IEEE) para evaluar el impacto de los sistemas autónomos e inteligentes en el bienestar humano (IEEE Std 7010-2020), el Grupo de Expertos de Alto Nivel sobre Inteligencia Artificial ' Lista de evaluación para Inteligencia Artificial Confiable (ALTAI). Las iniciativas incluyen: El IEEE La iniciativa global sobre ética para sistemas autónomos e inteligentes; la Asociación sobre IA; la Alianza Global sobre IA.


No hay comentarios:

Publicar un comentario