martes, 22 de noviembre de 2022

FOMENTO DE LA INNOVACION RESPONSABLE EN INTELIGENCIA ARTIFICIAL PARA LA PAZ Y LA SEGURIDAD. PROYECTO DE LA UNION EUROPEA

 Por: Carlos A. FERREYROS SOTO

Doctor en Derecho
Universidad de Montpellier I Francia.

cferreyros@hotmail.com   

Resumen  

La Decisión establece que con vistas a la aplicación la Unión Europea de la «Estrategia global para la política exterior y de seguridad de la Unión Europea», la Estrategia de la Unión contra las armas de fuego, las armas pequeñas y ligeras ilícitas y sus municiones titulada «Seguridad de las armas, protección de los ciudadanos» además de la Comunicación de la Comisión titulada «Inteligencia artificial para Europa» la Unión apoyará la ejecución de un proyecto, «Fomento de la innovación responsable en inteligencia artificial para la paz y la seguridad». 

Las actividades del proyecto que recibirá el apoyo de la Unión tendrán el objetivo específico de apoyar una mayor participación de la comunidad de inteligencia artificial (IA) civil en la mitigación de los riesgos que la desviación y el uso indebido de la investigación e innovación de la IA civil por parte de actores irresponsables pueden suponer para la paz y la seguridad internacionales, por:

    —  generar una mayor comprensión sobre cómo las decisiones en el desarrollo y la difusión de la investigación y la innovación en IA pueden afectar los riesgos de desviación y uso indebido y, a su vez, generar riesgos u oportunidades para la paz y la seguridad;

   —  promover procesos, métodos y herramientas de innovación responsable que puedan ayudar a garantizar la aplicación pacífica de las innovaciones civiles y la difusión responsable del conocimiento de la IA. Con ese fin, el proyecto apoyará actividades de creación de capacidad, investigación y participación que: mejoren la capacidad dentro de la comunidad global de inteligencia artificial civil para incluir y abordar los riesgos para la paz y la seguridad que presenta el desvío y el uso indebido de la inteligencia artificial civil por parte de actores irresponsables a través de procesos de innovación; y fortalecer la conexión entre los esfuerzos de mitigación de riesgos en AI responsable en la esfera civil con los que ya están en marcha en la comunidad de desarme, control de armas y no proliferación a nivel intergubernamental.

La Decisión comporta un Anexo sobre los Antecedentes, Objetivos, Proyectos y Duración.

A fin de acceder a normas similares y estándares europeos, las empresas, organizaciones públicas y privados ayudados en asesorías, consultorías, capacitaciones, estudios, evaluaciones, auditorías sobre el tema, sírvanse comunicar al correo electrónico  : cferreyros@hotmail.com  

___________________________________________________________

DECISIÓN DEL CONSEJO (PESC) 2022/2269

del 18 de noviembre de 2022

sobre el apoyo de la Unión a la ejecución de un proyecto «Fomento de la innovación responsable en inteligencia artificial para la paz y la seguridad»

EL CONSEJO DE LA UNIÓN EUROPEA,

Visto el Tratado de la Unión Europea y, en particular, su artículo 28, apartado 1, y su artículo 31, apartado 1,

Vista la propuesta del Alto Representante de la Unión para Asuntos Exteriores y Política de Seguridad,

Mientras:

(1)       La 'Estrategia global para la política exterior y de seguridad de la Unión Europea' de 2016 hace hincapié en que la Unión intensificará su contribución a la seguridad colectiva.

 

(2)       La Estrategia de la Unión para 2018 contra las armas de fuego, las armas pequeñas y las armas ligeras ilícitas (APAL) y sus municiones, titulada "Seguridad de las armas, protección de los ciudadanos", señaló que la Unión hará uso de los instrumentos pertinentes para apoyar la investigación y el desarrollo en el ámbito de la tecnología rentable para proteger las APAL y sus municiones y mitigar los riesgos de desvío. Además, el Consejo, en sus conclusiones sobre la adopción de esa estrategia, señaló la evolución del contexto de seguridad, incluida la amenaza del terrorismo dentro de la Unión y los avances en el diseño y la tecnología de las armas pequeñas y ligeras que afectan a la capacidad de los gobiernos para hacer frente a esa amenaza.

 

(3)       La Comunicación de la Comisión de 2018 titulada "Inteligencia artificial para Europa" señala que el principio rector de todo apoyo a la investigación relacionada con la inteligencia artificial (IA) será el desarrollo de una "IA responsable". Señala además que, dado que la IA es fácilmente comercializable a través de las fronteras, solo las soluciones globales serán sostenibles en ese ámbito, y que la Unión promoverá el uso de la IA y las tecnologías en general para ayudar a resolver los desafíos globales, apoyar la implementación del Acuerdo de París Acuerdo Climático y alcanzar los Objetivos de Desarrollo Sostenible de las Naciones Unidas (ONU).

 

(4)       El Secretario General de la ONU señaló en la Cumbre Mundial 'AI for Good' de 2019 que si queremos aprovechar los beneficios de la IA y abordar los riesgos, debemos trabajar todos juntos (gobiernos, industria, academia y sociedad civil) para desarrollar los marcos. y sistemas que permitan la innovación responsable.

 

(5)       La Unión desea contribuir al desarrollo de la 'IA responsable', la seguridad colectiva y el potencial para beneficiarse de las oportunidades que presenta la IA para el logro de los Objetivos de Desarrollo Sostenible de la ONU, así como para abordar los desafíos que la IA representa para la paz y la seguridad.

 

(6)       La Unión debería apoyar la ejecución de un proyecto, "Fomento de la innovación responsable en inteligencia artificial para la paz y la seguridad",

HA ADOPTADO ESTA DECISIÓN:

Articulo 1

1. Con vistas a la aplicación de la «Estrategia global para la política exterior y de seguridad de la Unión Europea», y teniendo en cuenta la Estrategia de la Unión contra las armas de fuego, las armas pequeñas y ligeras ilícitas y sus municiones titulada «Seguridad de las armas, protección de los ciudadanos» además de la Comunicación de la Comisión titulada «Inteligencia artificial para Europa», la Unión apoyará la ejecución de un proyecto, «Fomento de la innovación responsable en inteligencia artificial para la paz y la seguridad».

2. Las actividades del proyecto que recibirá el apoyo de la Unión tendrán el objetivo específico de apoyar una mayor participación de la comunidad de inteligencia artificial (IA) civil en la mitigación de los riesgos que la desviación y el uso indebido de la investigación e innovación de la IA civil por parte de actores irresponsables pueden suponer para la paz y la seguridad internacionales, por:

        generar una mayor comprensión de cómo las decisiones en el desarrollo y la difusión de la investigación y la innovación en IA pueden afectar los riesgos de desviación y uso indebido y, a su vez, generar riesgos u oportunidades para la paz y la seguridad;

 

        promover procesos, métodos y herramientas de innovación responsable que puedan ayudar a garantizar la aplicación pacífica de las innovaciones civiles y la difusión responsable del conocimiento de la IA. Con ese fin, el proyecto apoyará actividades de creación de capacidad, investigación y participación que: mejoren la capacidad dentro de la comunidad global de inteligencia artificial civil para incluir y abordar los riesgos para la paz y la seguridad que presenta el desvío y el uso indebido de la inteligencia artificial civil por parte de actores irresponsables a través de procesos de innovación; y fortalecer la conexión entre los esfuerzos de mitigación de riesgos en AI responsable en la esfera civil con los que ya están en marcha en la comunidad de desarme, control de armas y no proliferación a nivel intergubernamental.

3. El proyecto y las actividades mencionadas en los apartados 1 y 2 no tienen por objeto establecer nuevas normas, principios o reglamentos, ni entrar en áreas de competencia de los Estados miembros. En cambio, la intención es desarrollar esfuerzos de innovación civil responsable para incluir los riesgos de paz y seguridad presentados por el desvío y el uso indebido de la IA civil por parte de actores irresponsables, y brindar educación sobre los esfuerzos intergubernamentales relevantes existentes.

4. En el Anexo se incluye una descripción detallada del proyecto.

Artículo 2

1. El Alto Representante de la Unión para Asuntos Exteriores y Política de Seguridad (el «Alto Representante») será responsable de la ejecución de la presente Decisión.

2. La ejecución técnica del proyecto a que se refiere el artículo 1 estará a cargo de la Oficina de Asuntos de Desarme de las Naciones Unidas (UNODA), con el apoyo del Instituto Internacional de Investigación para la Paz de Estocolmo (SIPRI).

3. La UNODA, con el apoyo del SIPRI, desempeñará sus funciones bajo la responsabilidad del Alto Representante. A tal fin, el Alto Representante suscribirá los acuerdos necesarios con la UNODA y el SIPRI.

Artículo 3

1. El importe de referencia financiera para la ejecución del proyecto financiado por la Unión a que se refiere el artículo 1 será de 1 782 285,71 EUR.

2. Los gastos financiados por el importe de referencia establecido en el apartado 1 se gestionarán de conformidad con los procedimientos y normas aplicables al presupuesto de la Unión.

3. La Comisión supervisará la correcta gestión de los gastos financiados por el importe de referencia establecido en el apartado 1. A tal fin, celebrará un acuerdo de contribución con la UNODA. Dicho acuerdo de contribución estipulará que la UNODA debe garantizar la visibilidad de la contribución de la Unión, adecuada a su tamaño.

4. La Comisión se esforzará por celebrar el acuerdo de contribución a que se refiere el apartado 3 lo antes posible tras la entrada en vigor de la presente Decisión. Informará al Consejo de cualquier dificultad en ese proceso y de la fecha de celebración de dicho acuerdo.

Artículo 4

1. El Alto Representante informará al Consejo sobre la aplicación de la presente Decisión sobre la base de informes conjuntos trimestrales de la UNODA y el SIPRI. Dichos informes constituirán la base de la evaluación realizada por el Consejo.

2. La Comisión facilitará información sobre los aspectos financieros de la ejecución del proyecto a que se refiere el artículo 1.

Artículo 5

La presente Decisión entrará en vigor en la fecha de su adopción.

Expirará 36 meses después de la celebración del acuerdo de contribución a que se refiere el artículo 3, apartado 3. No obstante, la presente Decisión expirará seis meses después de la fecha de su entrada en vigor si dicho acuerdo no se ha celebrado dentro de ese plazo.

Hecho en Bruselas, el 18 de noviembre de 2022.

para el Consejo

El presidente

M.BEK


ANEXO

DOCUMENTO DE PROYECTO

Promoción de la innovación responsable en IA para la paz y la seguridad

1.    ANTECEDENTES

Los avances recientes en inteligencia artificial (IA) han desbloqueado nuevas posibilidades para apoyar y mantener la paz y la seguridad, por ejemplo, a través de mejoras tecnológicas en áreas como la alerta temprana de conflictos y la verificación del control de armas y exportaciones. Por otro lado, estos avances han permitido nuevos medios para generar, o agravar, tensiones, conflictos e inseguridad entre y dentro de los estados. Los riesgos que plantean ciertas aplicaciones de la IA, como los sistemas de armas autónomos letales, se han convertido en un tema de gran preocupación para la comunidad de control de armas. Una vía de riesgo que merece mayor atención, y a la que los esfuerzos diplomáticos y de control de armas actuales pueden ser insuficientes para responder, es el desvío y el uso indebido de la investigación e innovación de IA civil por parte de actores irresponsables, incluidos actores no estatales maliciosos,

La IA es una tecnología habilitadora con un gran potencial de uso general. Ciertos actores podrían acceder (con relativa facilidad) a la investigación e innovación de IA que se desarrollan para aplicaciones civiles y reutilizarlas para usos dañinos o disruptivos que podrían tener implicaciones para la paz y la seguridad internacionales. El desvío y el mal uso de la tecnología civil no son fenómenos nuevos ni exclusivos de la IA. En el campo relacionado de la robótica, esto fue ejemplificado recientemente por el armamento y el uso de drones recreativos por parte de Daesh/ISIS en Siria. Pero en el caso de la IA, el problema se complica por múltiples factores: la naturaleza intangible y cambiante de los algoritmos y datos de la IA, lo que hace que la transferencia/proliferación de estos sea difícil de controlar; el protagonismo del sector privado en el ecosistema de investigación, desarrollo e innovación, y su consiguiente necesidad de proteger los algoritmos propietarios; y la disponibilidad global de la experiencia humana y los recursos materiales capaces de reutilizar las tecnologías de IA. Mientras tanto, aquellos que trabajan en IA en el sector civil siguen ignorando con demasiada frecuencia las posibles implicaciones que la desviación y el uso indebido de su trabajo podrían tener para la paz y la seguridad internacionales o dudan en participar en las discusiones existentes sobre los riesgos de IA en el control de armas y círculos de no proliferación.

Existe la necesidad de apoyar una mayor participación de la comunidad de IA civil en la comprensión y mitigación de los riesgos para la paz y la seguridad asociados con el desvío y el uso indebido de la tecnología de IA civil por parte de actores irresponsables. Para el Instituto Internacional de Investigación para la Paz de Estocolmo (SIPRI) y la Oficina de Asuntos de Desarme de las Naciones Unidas (UNODA), esto podría lograrse mediante una mayor promoción de la innovación responsable en la comunidad civil global de IA. El trabajo anterior de SIPRI y UNODA ha demostrado que la innovación responsable, como mecanismo de autogobierno, podría proporcionar a la comunidad global de IA civil herramientas y métodos prácticos para identificar, ayudar a prevenir y mitigar los riesgos que el desvío y el uso indebido de la IA civil la investigación y la innovación podrían representar para la paz y la seguridad. ( 1 ) De manera crítica, este trabajo anterior ha identificado claramente el compromiso con los estudiantes de Ciencias, Tecnología, Ingeniería y Matemáticas (STEM), que aún se involucran con la IA en un formato educativo, como fundamental para cualquier esfuerzo de innovación responsable eficaz.

2.    OBJETIVOS

Estos proyectos tienen como objetivo apoyar una mayor participación de la comunidad civil de IA en la mitigación de los riesgos que el desvío y el uso indebido de la investigación e innovación de IA civil por parte de actores irresponsables pueden representar para la paz y la seguridad internacionales. Su objetivo es hacerlo, en primer lugar, generando una mayor comprensión de cómo las decisiones en el desarrollo y la difusión de la investigación y la innovación en IA pueden afectar los riesgos de desviación y uso indebido y, a su vez, generar riesgos u oportunidades para la paz y la seguridad, y en segundo lugar, mediante promover procesos, métodos y herramientas de innovación responsable que puedan ayudar a garantizar la aplicación pacífica de las innovaciones civiles y la difusión responsable del conocimiento de la IA. Con este fin, apoyan actividades de creación de capacidad, investigación y participación que i) mejorar la capacidad dentro de la comunidad global de IA civil para incluir y abordar los riesgos para la paz y la seguridad que presenta el desvío y el uso indebido de la IA civil por parte de actores irresponsables a través de procesos de innovación responsables; y yo) fortalecer la conexión entre los esfuerzos de mitigación de riesgos en la IA responsable en la esfera civil con los que ya están en marcha en la comunidad de desarme, control de armas y no proliferación a nivel intergubernamental. Fundamentalmente, no tienen la intención de establecer nuevos estándares, principios o regulaciones, o de otro modo entrar en áreas dentro de la competencia de los Estados. En cambio, tienen la intención de desarrollar esfuerzos de innovación responsables civiles para incluir los riesgos de paz y seguridad presentados por el desvío y el uso indebido de la IA civil por parte de actores irresponsables, y brindar educación sobre los esfuerzos intergubernamentales relevantes existentes.

Para llegar e impactar de manera efectiva a la comunidad civil de IA, los proyectos implementan un enfoque triple, que busca

(a)       comprometerse con educadores : trabajar con educadores seleccionados y desarrolladores de planes de estudios académicos en el desarrollo y la promoción de materiales educativos que se pueden usar para incorporar la consideración de los riesgos para la paz y la seguridad que se derivan de la desviación y el uso indebido de la investigación e innovación de IA civil por parte de actores irresponsables en la formación de futuros profesionales de la IA (p. ej., en cursos sobre ética de la IA e innovación responsable);

 

(b)       Comprometerse con los estudiantes : presentar a estudiantes seleccionados de Ciencias, Tecnología, Ingeniería y Matemáticas (STEM) de todo el mundo cómo se pueden identificar, prevenir o mitigar en el proceso de investigación e innovación o a través de otros procesos de gobernanza; y

 

(C)       comprometerse con la industria de la IA : trabajar con asociaciones profesionales y organismos de estándares como el Instituto de Ingenieros Eléctricos y Electrónicos (IEEE) para i) difundir materiales educativos personalizados y actividades de participación para profesionales técnicos; ii) apoyar los usos positivos de la IA para la paz y la seguridad; y iii) facilitar el diálogo y el intercambio de información entre expertos de la academia, el sector privado y el gobierno sobre cómo se puede mitigar el riesgo de desvío y uso indebido de la investigación e innovación de IA civil por parte de actores irresponsables.

Este enfoque permite que los proyectos lleguen a la comunidad de IA en todos los niveles, incluidos no solo los profesionales actuales sino también las generaciones futuras. También permite el compromiso entre académicos, industriales y otros silos, y apoya la sostenibilidad de los esfuerzos futuros mediante el establecimiento de redes que cruzan estos límites.

Los proyectos también buscan emplear el poder de convocatoria y la experiencia de SIPRI y UNODA para impactar a la comunidad de IA a nivel mundial, no solo a las partes interesadas de la UE. SIPRI y UNODA están en una posición única para alcanzar y facilitar el compromiso entre los actores de IA de África, Asia-Pacífico, Europa y América del Norte y del Sur. Ambas entidades también tienen experiencia trabajando en otros campos de la ciencia y la tecnología que enfrentan desafíos similares de doble uso y proliferación, incluida la biotecnología. Los proyectos también buscan aprovechar las condiciones presentes dentro de la Unión Europea, tales como a) la existencia de procesos avanzados de múltiples partes interesadas sobre IA responsable; b) el alto nivel de compromiso y experiencia en temas de desarme, control de armas y no proliferación en la UE; c) la diversidad de conexiones que los académicos, organizaciones de investigación y del sector privado en la UE tienen con otras regiones, especialmente en el Sur Global, que también será un objetivo importante para el compromiso; yd) la diversidad de nacionalidades de estudiantes, educadores e ingenieros en universidades, instituciones de investigación y el sector privado.

La inclusión será una consideración fundamental para la realización de las actividades de los proyectos. Para apoyar eficazmente a la comunidad de IA, los proyectos reconocen que la comunidad de IA se compone de una diversa gama de actores y, en particular, que

(a)       el género es un factor muy relevante. Por este motivo, se incorporará la perspectiva de género de acuerdo con las estrategias de paridad y de incorporación de la perspectiva de género en todo el sistema de las Naciones Unidas. Se fomentará y exigirá la participación de mujeres en todas las actividades del proyecto; y

 

(b)       en todo momento se llevará a cabo la inclusión de las personas con discapacidad y el ajuste razonable de las necesidades. Esto incluirá abordar los obstáculos a la participación de las personas con discapacidad, así como garantizar que se tomen medidas para involucrar y facilitar la representación de las opiniones y experiencias sustantivas de las personas con discapacidad.

3.    PROYECTOS

Los tres proyectos que se describen a continuación tienen la intención de ser complementarios y de apoyo mutuo, con elementos que se ejecutan a lo largo de los 36 meses.

3.1.   Proyecto 1: producción de material educativo y de desarrollo de capacidades para la comunidad civil de IA

3.1.1.   Propósito del proyecto

El Proyecto 1 se enfoca en proporcionar el conocimiento y los medios para que los actores civiles de IA evalúen y mitiguen los riesgos que el desvío y el uso indebido de la investigación e innovación de IA civil por parte de actores irresponsables pueden representar para la paz y la seguridad internacionales. Su objetivo es producir material educativo y de creación de capacidad que proporcione a los profesionales de la IA de todas las regiones, niveles y sectores (incluidos los educadores centrados en la IA, los desarrolladores de planes de estudios, los estudiantes de STEM y los ingenieros e investigadores de la IA en el mundo académico y el sector privado) la información y herramientas necesarias para

(a)       comprender cómo la investigación y la innovación de la IA civil pueden desviarse y utilizarse indebidamente de manera que puedan presentar riesgos para la paz y la seguridad internacionales y cómo las decisiones en el desarrollo y la difusión de la investigación y la innovación pueden aumentar o disminuir el riesgo de desviación y uso indebido;

 

(b)       comprender los esfuerzos ya realizados por la comunidad de desarme, control de armas y no proliferación para mitigar los riesgos de desviación y uso indebido de la investigación y la innovación civiles; y

 

(C)       practicar la innovación responsable de una manera que mitigue el riesgo de desviación y mal uso en el desarrollo y difusión de la investigación y la innovación.

3.1.2.   Descripción del Proyecto

Este proyecto producirá tres conjuntos separados de materiales educativos y de desarrollo de capacidades.

(a)       Manual (1)– El manual recopilará conocimientos y medios básicos para que los actores de IA evalúen y mitiguen, en el proceso de investigación e innovación, los riesgos de desviación y uso indebido de la tecnología civil de IA por parte de actores irresponsables. Discutirá por qué y cómo las decisiones sobre el desarrollo y la difusión de la investigación y la innovación pueden afectar los riesgos de desviación y uso indebido y, a su vez, generar riesgos u oportunidades para la paz y la seguridad. También introducirá leyes internacionales relevantes y obligaciones de control de exportaciones, además de las consideraciones de seguridad y protección que se están discutiendo en los círculos militares, así como de desarme, control de armas y no proliferación; y presentar ejemplos de procesos y herramientas para practicar la innovación responsable, como metodologías de evaluación del impacto tecnológico y plantillas de evaluación de riesgos.

 

(b)       Serie de podcasts (~10)– Estos podcasts actuarán como un medio accesible y atractivo para que los actores de IA aprendan por qué y cómo los procesos de innovación de IA responsables pueden apoyar la paz y la seguridad internacionales a través de la mitigación de los riesgos presentados por el desvío y el uso indebido por parte de actores irresponsables. La serie revisará temas importantes (p. ej., el patrón de desvío y uso indebido de la investigación y la innovación de uso dual/general; desafíos humanitarios, estratégicos y políticos asociados con el uso indebido potencial de la innovación en la investigación de IA civil; desafíos que el desarme, el control de armas, y los círculos de no proliferación se enfrentan en los esfuerzos de mitigación de riesgos, cómo hacer una innovación responsable a través de la evaluación de riesgos, el cumplimiento del control de exportaciones, la reducción de riesgos por diseño, la publicación responsable, conocer a sus clientes, y el conocimiento de sus clientes.

 

(C)       Serie de blogs (9-10) : el equipo desarrollará una serie de publicaciones de blog seleccionadas destinadas a elevar el perfil de los esfuerzos que intentan cruzar los límites entre la 'IA responsable' centrada en los civiles y las comunidades de control de armas y no proliferación. La serie de blogs proporcionará una plataforma para difundir conocimientos, ideas y soluciones con respecto a la identificación y el tratamiento de los riesgos asociados con el desvío y el uso indebido de la IA civil en el proceso de investigación e innovación. El blog buscará representar la diversidad de pensamiento y perspectivas presentes en el sector de la IA.

Estos materiales se difundirán públicamente a través de los sitios web de los actores implementadores, su presencia en las redes sociales y a través de la comunicación directa con entidades académicas relevantes, asociaciones profesionales civiles de IA y otros grupos apropiados.

3.1.3.   Resultados esperados del proyecto.

Se espera que este proyecto establezca un nuevo conjunto de materiales mediante los cuales los profesionales civiles de la IA puedan sensibilizarse sobre a) cómo la investigación y la innovación de la IA civil pueden desviarse y utilizarse indebidamente de manera que puedan presentar riesgos para la paz y la seguridad internacionales, b) cómo dichos riesgos están siendo abordados por la comunidad de desarme, control de armas y no proliferación, y c) cómo los profesionales de la IA podrían contribuir aún más a la mitigación de tales riesgos a través de procesos de innovación responsable.

Se espera que esto promueva el compromiso del sector de la IA civil para mitigar los riesgos que el desvío y el uso indebido de la IA civil pueden representar para la paz y la seguridad internacionales; mejorar la capacidad de los profesionales técnicos para participar en procesos relevantes en la comunidad de desarme, control de armas y no proliferación, así como apoyar la participación de nuevas audiencias no incluidas tradicionalmente en los esfuerzos de educación para el desarme y la no proliferación.

También se espera que el material apoye la implementación de los otros proyectos y sirva como base para las actividades educativas y de desarrollo de capacidades en el Proyecto 2, así como para las actividades de diálogo y participación en el Proyecto 3. Se espera que estas actividades, a su vez, sirvan de retroalimentación. en la producción y refinamiento del material. Se espera que un enfoque iterativo de este tipo ayude a abordar los posibles obstáculos para su promoción, difusión y uso dentro de la comunidad de IA, incluidos los problemas relacionados con el idioma, el contenido, el contexto y la disponibilidad, lo que podría impedir su impacto a nivel mundial, particularmente en el Sur Global. .

3.2.   Proyecto 2: actividades de educación y desarrollo de capacidades para futuros profesionales de la IA

3.2.1.   Propósito del proyecto

El propósito del Proyecto 2 es apoyar la integración del problema de la desviación y el uso indebido de la investigación civil de IA por parte de actores irresponsables en la educación de futuras generaciones de profesionales de IA. A largo plazo, esto garantizará que los estudiantes de Ciencias, Tecnología, Ingeniería y Matemáticas (STEM) que dan forma al futuro de la IA sean conscientes de los impactos negativos que la desviación y el mal uso de su trabajo por parte de actores irresponsables podría tener en la paz y la seguridad internacionales. y que contarán con las herramientas básicas necesarias para identificar y mitigar dicho riesgo en el proceso de investigación e innovación.

Este proyecto llevará a cabo una serie de talleres educativos y de desarrollo de capacidades con educadores y estudiantes en colaboración con universidades internacionales seleccionadas y actores de la industria. Por lo tanto, el proyecto busca desarrollar actividades de desarrollo de capacidades que los educadores y desarrolladores de planes de estudios académicos podrían usar para incluir en la capacitación de futuros profesionales de la IA (por ejemplo, cursos sobre ética de la IA e innovación responsable) y consideraciones sobre los riesgos de desviación y uso indebido de la IA civil. investigación e innovación por parte de actores irresponsables y conectarlos con el contexto más amplio de paz y seguridad. A través de estos talleres, el proyecto también buscará identificar una red de educadores interesados, desarrolladores de planes de estudios y estudiantes que apoyarían la difusión y promoción del material educativo del proyecto y las actividades de desarrollo de capacidades en la comunidad educativa de IA y la comunidad de profesionales de IA. Este componente de creación de redes busca garantizar la sostenibilidad de los proyectos más allá de su duración inmediata y permitir la construcción de vínculos más fuertes en apoyo del compromiso técnico civil hacia objetivos más amplios de paz, seguridad, desarme y control de armas.

3.2.2.   Descripción del Proyecto

Este proyecto llevará a cabo una serie de talleres educativos y de desarrollo de capacidades con educadores y estudiantes de universidades seleccionadas de todo el mundo. Estos consistirían en una combinación de conferencias y actividades interactivas que brindarán a los educadores y estudiantes la oportunidad de reflexionar sobre cómo la investigación y la innovación de la IA civil podrían desviarse y abusarse de formas que pueden presentar riesgos para la paz y la seguridad internacionales y cómo esos riesgos pueden identificarse, prevenirse o mitigarse en el proceso de investigación e innovación, o a través de otros procesos de gobernanza. Estas actividades se basarán en un trabajo piloto anterior a menor escala realizado por UNODA, que experimentó con métodos para involucrar y sensibilizar a los estudiantes de STEM sobre la importancia de considerar el impacto más amplio de su trabajo, así como involucrarse con experiencia fuera de sus campos de origen. Concretamente, estos consistirían en

(a)       talleres regionales de desarrollo de capacidades para educadores y estudiantes (4)– los talleres regionales llevarán a cabo y promoverán actividades que los educadores pueden usar para desarrollar la capacidad de los estudiantes de STEM en la innovación responsable de IA con un enfoque particular en cómo evaluar y mitigar los riesgos de la desviación y el uso indebido de la tecnología civil de IA por parte de actores irresponsables. Cada taller se organizará con una universidad con sede en la UE y una universidad de alto perfil de una región global diferente, conectando así siempre un conjunto diverso de participantes con sede en la UE con un conjunto diverso con sede fuera de la UE. Luego, los talleres cubrirán América Latina y el Caribe, América del Norte, África y Asia y el Pacífico. Esto permitirá la participación de estudiantes (a nivel de maestría y doctorado) de todo el mundo, incluso del Sur Global. El taller se llevaría a cabo principalmente en inglés, pero cuando sea factible, los participantes tendrían la oportunidad de participar en actividades basadas en grupos de idiomas alternativos; y

 

(b)       taller internacional sobre creación de capacidad sostenible (1) : el taller se basará en las lecciones aprendidas de los talleres regionales y facilitará el intercambio de información y experiencias entre educadores y estudiantes seleccionados de las universidades involucradas en el proyecto. El taller discutiría cómo refinar las actividades y herramientas elaboradas a lo largo del proyecto, y difundirlas más allá del grupo de universidades participantes. También discutirá cómo apoyar la participación de los estudiantes en una IA responsable que aborde los riesgos de desviación y uso indebido para la paz y la seguridad internacionales una vez que hayan ingresado a la fuerza laboral.

Las redes y la presencia de SIPRI y UNODA en África, Asia-Pacífico, Europa, América del Norte y del Sur se utilizarán para facilitar y apoyar aspectos de las actividades según corresponda.

3.2.3.   Resultados esperados del proyecto.

Se espera que el proyecto cree modelos de desarrollo de capacidades y actividades de participación que los educadores y desarrolladores de planes de estudios académicos podrían replicar para sensibilizar a los futuros profesionales de la IA sobre los problemas del desvío y el uso indebido de la IA civil por parte de actores irresponsables y cómo pueden ayudar a mitigar estos problemas a través de procesos de innovación responsable. Después de completar las actividades del proyecto, se espera que los participantes (educadores, pero también estudiantes de STEM) sean capaces de utilizar y promover herramientas, métodos y conceptos de innovación responsable para identificar y mitigar los riesgos de desviación y uso indebido en el desarrollo y la difusión de información civil. Investigación e innovación en IA.

También se espera que las actividades del proyecto generen una red de educadores, desarrolladores de currículos y estudiantes que no solo promuevan las actividades del proyecto dentro de las comunidades educativas y profesionales de IA (por ejemplo, durante las conferencias de la Sociedad de Inteligencia Computacional IEEE), sino que también estén disponibles para contribuir con capacidad técnica para los procesos de gobernanza internacional dirigidos por los estados (por ejemplo, el proceso de la Convención sobre Ciertas Armas Convencionales sobre tecnologías emergentes en el área de los Sistemas de Armas Autónomos Letales).

El valor a corto y largo plazo de estas actividades se demostrará a través de encuestas previas y posteriores a la actividad.

3.3.   Proyecto 3: Facilitar el desarrollo sostenible a largo plazo, la difusión y el impacto de la innovación responsable en IA para la paz y la seguridad

3.3.1.   Propósito del proyecto

El propósito del Proyecto 3 es facilitar el desarrollo sostenible a largo plazo, la difusión y el impacto de la innovación responsable en IA como un medio para mitigar los riesgos que la desviación y el uso indebido de la investigación e innovación de IA civil pueden representar para la paz y la seguridad. Su objetivo es hacerlo a través de mesas redondas con la industria de la IA, diálogos de múltiples partes interesadas, la creación de un informe público y actividades de difusión específicas. El proyecto tiene como objetivo garantizar que el trabajo generado, en particular las actividades de educación, desarrollo de capacidades y participación, alcance e impacte a la comunidad de IA en general, en todos los niveles (desde estudiantes hasta ingenieros y otros profesionales de IA) y a través de zonas geográficas, sectoriales y otros límites. Para aumentar la posibilidad de tener un impacto amplio y profundo, es esencial cooperar con organizaciones profesionales en este espacio, como el IEEE, y realizar compromisos multidimensionales en la academia, la industria y otros silos. Dichos esfuerzos brindarán la oportunidad a los representantes interesados ​​de diferentes comunidades de IA de hacerse cargo del problema y brindar sus propios puntos de vista sobre cómo se pueden llevar a cabo y promover los esfuerzos de mitigación de riesgos de manera sostenible dentro y en toda la comunidad global de IA. También es importante para el valor a largo plazo del proyecto para los estados, las organizaciones intergubernamentales y otros que los profesionales de la IA puedan aprender de los expertos gubernamentales dedicados a la mitigación de riesgos en el contexto del desarme, el control de armas y la no proliferación y colaborar con ellos.

3.3.2.   Descripción del Proyecto

Este proyecto consta de estos hilos clave:

(a)       Diálogos de múltiples partes interesadas sobre 'innovación responsable de IA para la paz y la seguridad' (hasta 9): esta serie de reuniones de diálogo virtual reuniría a expertos de la academia, la investigación, el sector privado y el control de armas tradicionales de la UE y más allá para discutir

i.          tendencias tecnológicas que pueden generar riesgos de difusión, desvío y uso indebido con impactos para la paz y la seguridad internacionales;

 

ii. cómo participar en la mitigación de riesgos a través de procesos, métodos y medios de innovación responsables, y oportunidades y desafíos para el diálogo y el intercambio de conocimientos entre las comunidades de partes interesadas, incluidas aquellas que operan en otros sectores, como las industrias biológica y química; y

 

iii. el valor potencial, el propósito y el formato de una red autosuficiente de expertos y actividades de diálogo. El grupo de expertos se reunirá varias veces al año y trabajará en la organización de dos eventos públicos para la comunidad en general.

 

De las nueve reuniones virtuales, dos están destinadas a ser abiertas al público, para facilitar una consulta más amplia.

(b)       mesas redondas del sector privado (hasta 6) : esta serie de mesas redondas virtuales iniciará un diálogo con los actores que trabajan con procesos de innovación de IA responsables en el sector privado (por ejemplo, Asociación en IA) sobre cómo pueden contribuir a minimizar los riesgos de la desviación y uso indebido de las tecnologías civiles de IA por parte de actores irresponsables, así como explorar posibles incentivos dentro del desarrollo del sector privado para hacerlo. Los temas incluirán

i. la relevancia del contexto de seguridad internacional y desarme para el sector privado;

 

ii. los entornos legales en los que se desarrolla, implementa y opera la IA en todo el mundo;

 

iii. cómo aprovechar los mecanismos de evaluación de riesgos y otras medidas que forman parte de los procesos de innovación responsable y los programas de cumplimiento empresarial, o podrían integrarse en ellos; y

 

IV. lecciones que se pueden aprender de otras industrias, procesos y marcos relacionados con el control de armas (por ejemplo, industrias biológicas y químicas).

 

 

(C)       informe sobre las perspectivas de la comunidad de IA sobre el control de armas y la mitigación de riesgos en IA, dirigido a las comunidades de IA y control de armas (1) : el desarrollo de este informe capturará y consolidará los hallazgos y recomendaciones del proyecto en un solo documento de referencia dirigido tanto a la AI civilmente responsable y las comunidades de control de armas. El informe discutiría cómo se pueden identificar, evaluar y abordar los riesgos para la paz y la seguridad internacionales asociados con el desvío y el uso indebido de la investigación e innovación de la IA civil.

 

(d)       eventos de difusión dirigidos a la consulta y el compromiso con la IA y las comunidades de control de armas (tbd)  : el equipo buscará oportunidades para comunicar el trabajo y sus hallazgos y recomendaciones a lo largo del proyecto. El formato de los eventos y el contenido de las presentaciones se adaptarían a las necesidades de los grupos destinatarios. Estos pueden incluir reuniones de CONOP, la Asamblea de la Alianza Europea de IA; el Grupo de Expertos Gubernamentales sobre tecnologías emergentes en el área de Sistemas de Armas Autónomas Letales; el Grupo de trabajo interinstitucional sobre IA (IAWG-AI); la iniciativa AI for Good de la UIT; el Diálogo Anual de Innovación de UNIDIR; y el Instituto de Ingenieros Eléctricos y Electrónicos. El equipo también buscaría involucrarse bilateralmente con las partes interesadas relevantes del gobierno, la academia y el sector privado.

3.3.3.   Resultados esperados del proyecto.

Se espera que este proyecto establezca las bases para el desarrollo sostenible, la difusión y el impacto de la innovación responsable de los procesos de IA que abordan los riesgos de difusión, desviación y uso indebido y sus implicaciones para la paz y la seguridad más allá de la duración inmediata de la decisión del consejo.

Se espera que el diálogo de múltiples partes interesadas proporcione un modelo para el intercambio de información y la colaboración en la mitigación de riesgos no solo dentro de la comunidad global de IA, sino también entre la comunidad de IA responsable civil y las comunidades de desarme, control de armas y no proliferación. Dicho modelo podría utilizarse para familiarizar a los responsables de la formulación de políticas con los avances tecnológicos y científicos clave relevantes para la innovación responsable de la IA y también para familiarizar a las audiencias técnicas con el entorno en el que se encuentran actualmente los responsables de la formulación de políticas. Se espera que el proyecto facilite las relaciones sostenibles y el compromiso entre los actores interesados ​​dentro y entre estas diferentes comunidades.

Se espera que el diálogo del sector privado permita una participación mayor y más profunda del sector privado de la IA en la identificación, prevención y mitigación de los riesgos para la paz y la seguridad derivados del desvío y el uso indebido de la investigación y la innovación de la IA civil. Se espera que el proyecto brinde a los actores clave en los procesos del sector privado una mayor comprensión y apropiación de los problemas que busca abordar. Además, tiene como objetivo facilitar la adopción e implementación (más amplia) de procesos, métodos y medios de innovación responsable en los mecanismos y procedimientos existentes de gestión de riesgos corporativos.

También se espera que el diálogo de múltiples partes interesadas y la mesa redonda del sector privado generen ideas sobre una serie de cuestiones importantes, que incluyen a) cómo los métodos y medios de innovación responsable pueden refinarse e implementarse para identificar, prevenir y mitigar los riesgos planteados por el desvío y mal uso de la investigación e innovación de la IA civil; b) cómo la investigación y la innovación en IA pueden utilizarse positivamente para apoyar los objetivos de paz y seguridad (p. ej., aplicaciones para alerta temprana de conflictos y asistencia humanitaria); y c) cómo facilitar un mayor diálogo e intercambio de información entre los esfuerzos de mitigación de riesgos emprendidos en la comunidad de IA con responsabilidad civil (es decir, varias iniciativas dirigidas por IEEE) con los que ya están en curso en la comunidad de desarme, control de armas y no proliferación a nivel intergubernamental. .

Las actividades de informe y difusión analizarán, consolidarán y difundirán los conocimientos generados a través de los Proyectos 1, 2 y 3 y, por lo tanto, respaldarán la promoción de los hallazgos y recomendaciones de las actividades del proyecto dentro de la comunidad global de IA, así como dentro de la comunidad política. También se espera que ayuden a garantizar la sostenibilidad del impacto más allá del marco temporal de los proyectos.

4.    DURACIÓN

La duración total estimada de la ejecución de los proyectos es de 36 meses.


( 1 )   Las metodologías incluyen, por ejemplo, las prácticas recomendadas por el Instituto de Ingenieros Eléctricos y Electrónicos (IEEE) para evaluar el impacto de los sistemas autónomos e inteligentes en el bienestar humano (IEEE Std 7010-2020), el Grupo de Expertos de Alto Nivel sobre Inteligencia Artificial ' Lista de evaluación para Inteligencia Artificial Confiable (ALTAI). Las iniciativas incluyen: El IEEE La iniciativa global sobre ética para sistemas autónomos e inteligentes; la Asociación sobre IA; la Alianza Global sobre IA.


jueves, 17 de noviembre de 2022

INFORME CONJUNTO DE LAS AUTORIDADES EUROPEAS DE SUPERVISIÓN, ESA, SOBRE FINANZAS DIGITALES.

Por: Carlos A. FERREYROS SOTO

Doctor en Derecho
Universidad de Montpellier I Francia.

cferreyros@hotmail.com   

Resumen  

Este informe establece los hallazgos y el asesoramiento de las ESA en respuesta a la Llamada a opinión de la Comisión Europea sobre finanzas digitales y cuestiones relacionadas. Cubre los desarrollos de mercado intersectoriales y específicos del sector en las tres áreas clave identificadas en la Solicitud de asesoramiento, y los riesgos y oportunidades que plantea la digitalización en las finanzas. El Informe presenta diez recomendaciones intersectoriales y dos recomendaciones específicas de seguros para acciones dirigidas a garantizar que el marco normativo y de supervisión de la UE sigue siendo el adecuado para la era digital.

El Resumen Ejecutivo ha sido traducido del inglés al castellano por el suscrito con la ayuda del aplicativo Google Translation. Algunas de las siglas utilizadas en el Resumen pueden ser identificadas en el Informe. El texto integro al documento original publicado en febrero de 2022 se encuentra en el siguiente enlace: https://www.eiopa.europa.eu/document-library/report/joint-esas-report-digital-finance Igualmente se incluyen otros enlaces relacionados con algunos recursos propuestos en el Informe.

A fin de acceder a normas similares y estándares europeos, las empresas, organizaciones públicas y privados ayudados en asesorías, consultorías, capacitaciones, estudios, evaluaciones, auditorías sobre el tema, sírvanse comunicar al correo electrónico  : cferreyros@hotmail.com  

__________________________________________________________________

Informe Conjunto de las Autoridades Europeas de Supervisión, ESA, sobre finanzas digitales.

 Resumen Ejecutivo

1. En febrero de 2021, la Comisión Europea (Comisión) publicó su Llamada  a opinión sobre finanzas digitales y asuntos relacionados,[1] entre otras cosas, solicitando a las Autoridades Europeas de Supervisión (ESAs) para llevar a cabo un análisis de (i) la fragmentación de la cadena de valor de los servicios financieros, (ii) el crecimiento de las plataformas digitales, y (iii) grupos de actividad mixtos, y establecer dichas recomendaciones según proceda, a fin de garantizar que el marco de regulación y supervisión de los servicios financieros de la UE sigue siendo apto para este propósito. 

2. Este informe establece las conclusiones y el punto de vista de las ESA en respuesta a la solicitud de la Comisión. Este cubre desarrollos de mercado intersectoriales y específicos del sector en las tres áreas clave identificadas en la Llamada  a opinión, y los riesgos y oportunidades que plantea la digitalización en las finanzas. Ello presenta diez recomendaciones intersectoriales y dos recomendaciones específicas de seguros para acciones dirigidas a garantizar que el marco normativo y de supervisión de la UE sigue siendo el adecuado para la era digital. 

3. En resumen, estas recomendaciones se relacionan con: (i) la necesidad de un enfoque holístico de la regulación y supervisión de la cadena de valor de los servicios financieros; (ii) fortalecer la protección del consumidor en un contexto digital, incluso a través de divulgaciones mejoradas, manejo de mecanismos de quejas, mitigantes para evitar la venta indebida de productos vinculados/empaquetados, y mejoras digitales y educación financiera; (iii) promover la convergencia en la clasificación de los servicios transfronterizos; (iv) promover una mayor convergencia para abordar los riesgos ALD/CFT en un contexto digital; (v) garantizar la regulación y supervisión efectivas de los grupos mixtos de actividad; y (vi) fortalecer la supervisión recursos y cooperación entre las autoridades financieras y otras autoridades pertinentes, incluso sobre una base transfronteriza y multidisciplinaria; y (vii) la necesidad de un seguimiento activo del uso de las redes sociales en los servicios financieros. 

4. Con la digitalización, las instituciones financieras confían cada vez más en proveedores externos para la prestación de servicios a través de la subcontratación y otros acuerdos, lo que crea desafíos de supervisión específicos, ya que las Autoridades Nacionales Competentes (NCA) pueden verse limitadas en su evaluación de los riesgos y/o ejercicio de facultades de supervisión sobre la totalidad de las cadenas de valor. También pueden surgir riesgos de concentración y, por lo tanto, riesgos para la estabilidad financiera, en el caso de proveedores externos críticos. La Ley de resiliencia operativa digital [2] (DORA) es una importante iniciativa que abordará los riesgos de las tecnologías de la información y la comunicación (TIC) en la cadena de valor de los servicios financieros. Sin embargo, DORA no pretende abordar otros riesgos que puedan surgir de la dependencia de las instituciones sobre terceros proveedores. La Recomendación 1 propone que la Comisión adopte una enfoque holístico para la regulación y supervisión de cadenas de valor fragmentadas, como se describe más adelante bajo las Recomendaciones 2, 3, 7 y 8 (incluso en relación con las plataformas digitales y la actividad mixta de grupos) y realizar evaluaciones periódicas para determinar si las instituciones financieras exhiben dependencia de ciertos proveedores que pueden no ser captados por DORA y representan un riesgo para la estabilidad financiera.

5. Los nuevos modelos de negocios de servicios financieros pueden perjudicar a los consumidores, especialmente a aquellos de niveles más bajos de conocimientos financieros y/o digitales. La  Recomendación 2 destaca los principales puntos de atención para la Comisión para garantizar que los requisitos de divulgación en la legislación de la UE se ajusten a la era digital y presenta recomendaciones para la revisión de la Directiva de comercialización a distancia de servicios financieros de consumo[3], teniendo en cuenta que las ESA pueden proporcionar recomendaciones sectoriales más específicas sobre esos asuntos como parte de otras llamadas de opinión en curso de la Comisión. Además, la  Recomendación 2 pide a la Comisión que mejore la protección de los consumidores para abordar los riesgos de venta indebida (en particular para productos vinculados y empaquetados) y superar posibles deficiencias en los procesos de tramitación de reclamaciones a nivel de la UE. La  Recomendación 3 destaca la necesidad para prevenir la exclusión financiera y promover un mayor nivel de conocimiento digital y financiero para ayudar a los consumidores a hacer un uso eficaz de los servicios financieros prestados a través de medios digitales y elecciones responsables que satisfagan sus expectativas, aumentando la confianza en el sistema digital financiero, así como su perspectiva financiera personal. Esto podría incluir un mayor análisis del uso de datos en modelos de IA/Machine Learning y el sesgo potencial que conduce a la discriminación y exclusión. 

6. Los servicios financieros digitales son inherentemente sin fronteras, lo que plantea interrogantes sobre cuándo es necesaria la obligación de notificar la "prestación transfronteriza de servicios" y, en caso afirmativo, cómo clasificar estos servicios bajo el 'derecho de establecimiento' o 'libertad de servicios'. Esto a su vez crea desafíos de supervisión, pero también dificultades para que los consumidores establezcan qué autoridad es la autoridad pertinente, por ejemplo, en el caso de una queja o necesidad de reparación. La  Recomendación 4 se basa en recomendaciones previas preparadas por el Comité Conjunto (JC), y el conjunto de las ESA y la EBA propuestas para abordar este problema, y pide de nuevo a la Comisión que proporcione mayor orientación sobre la definición de servicios transfronterizos en un contexto digital. 

7. Debido al rápido ritmo de cambio y complejidad que se observa en los mercados financieros digitales, las NCA puede carecer de la experiencia y los recursos necesarios para monitorear efectivamente el mercado. En la  Recomendación 5, las ESA aconsejan a la Comisión que considere posibles formas de fortalecer habilidades y recursos disponibles para las autoridades pertinentes. En ese sentido, las ESA dan la bienvenida a los Trabajos de la Comisión sobre la Academia de Supervisión de Finanzas Digitales [4], que ayudará a los reguladores y supervisores para comprender, identificar y abordar mejor los riesgos y desafíos que surgen de digitalización a través de mejores habilidades y recursos. 

8. A pesar de los posibles beneficios, la fragmentación de los servicios financieros podría complicar el cumplimiento de ALD/CFT para instituciones financieras, especialmente cuando subcontratan parte o la totalidad de sus tareas de cumplimiento a proveedores de servicios externos. Algunos participantes en el mercado de los servicios financieros digitales también podrían carecer de sistemas y controles ALD/CFT adecuados. La  Recomendación 6 destaca la necesidad de aclarar las obligaciones de protección de datos en la debida diligencia al cliente (DDC) y más ampliamente en el contexto de ALD/CFT y evaluar con carácter prioritario si someter todas las plataformas de crowdfunding a la legislación ALD/CFT de la UE.  También pide a la Autoridad contra el Lavado de Dinero (AMLA) que emita lineamientos sobre subcontratación y arreglos de gobernanza en estrecha cooperación con el ESA, y llevar a cabo una revisión temática de las mejores prácticas. 

9. Las finanzas digitales han desbloqueado nuevas sinergias entre las actividades financieras y no financieras que introducen potencialmente riesgos sistémicos en el mercado de servicios financieros. Para gestionar prudenciales riesgos que plantean los grupos mixtos de actividades que prestan servicios financieros y otros, las AES en  la  Recomendación 7 sugiere actualizaciones y la posible expansión de las reglas de consolidación para garantizar una cobertura efectiva. Además, las ESA recomiendan que se tenga en cuenta la creación de nuevas estructuras de supervisión complementaria, inspirándose en el Directiva sobre Conglomerados Financieros[5]. 

10. La creciente digitalización y datificación de los servicios financieros exige una cooperación más estrecha entre las autoridades financieras y no financieras pertinentes. Las AES ven mérito en la Comisión de explorar posibles formas de fomentar un marco de cooperación mejorado entre los datos financieros, autoridades cibernéticas, de protección al consumidor y de competencia. La  Recomendación 8 propone tres marcos complementarios para la cooperación estructurada que podría promover el intercambio de información sobre la evolución de las políticas en el sector respectivo de cada autoridad y fortalecer la cobertura del seguimiento del mercado.

11. Finalmente, las Recomendaciones 9 y 10 están dirigidas a las ESA. Considerando el rol de las ESA en apoyo a la convergencia de la supervisión, la  Recomendación 9 prevé que las ESA analicen formas posibles de mejorar la cooperación entre las autoridades naturales y huéspedes, por ejemplo, mediante orientación adicional sobre los requisitos de notificación, discusiones de casos prácticos en foros de supervisión o procedimientos a seguir en situaciones en las que una empresa financiera infrinja las normas de otros Estados miembros. También puede ser necesaria una mayor coordinación con las autoridades de terceros países. Necesario bajo la forma de una revisión de los Memorandos de Entendimiento (MoU) existentes para asegurar que reflejen cuestiones específicas relacionadas con las finanzas digitales.

12. La  Recomendación 10 reconoce el uso creciente de las redes sociales en relación con servicios y la necesidad de monitorear activamente este fenómeno. En los mercados de valores en particular, el crecimiento de las plataformas de comercio digital ha coincidido con nuevas tendencias, como el 'comercio social', o consejos de inversión compartidos en las redes sociales, lo que trae nuevas oportunidades pero también riesgos. ESMA aclaró recientemente ciertos aspectos de las normas aplicables al fenómeno[6]. Las ESA continuarán monitoreando estos desarrollos y evaluarán dónde se pueden tomar medidas regulatorias justificadas, incluso como parte de las solicitudes de asesoramiento de la Comisión con respecto a ciertos aspectos relacionados a la protección del inversor minorista. [7] Esto incluye considerar la necesidad de comunicar de manera más efectiva con los consumidores que buscan información predominantemente a través de canales digitales, incluidas las redes sociales medios de comunicación.

13. El informe incluye también dos recomendaciones específicas de seguros. Seguro específico La  Recomendación 1 cubre Solvencia II [8] restricción en el alcance de las actividades de (rea)seguro, una tema que ha surgido a menudo a la luz de la digitalización y que puede verse relacionado con todos partes de la llamada a opinión. EIOPA considerará un análisis más detallado de lo que se considera y lo que no se considera como "actividades directamente relacionadas con los seguros" en diferentes Estados miembros para aportar mayor claridad (por ejemplo, mediante la emisión de directrices para mejorar la convergencia de la supervisión) en este tema, teniendo en cuenta el impacto potencial para los consumidores, el sector asegurador y su supervisión, y cualquier consecuencias no deseadas y riesgos adicionales. Lo más probable es que no sea necesario un cambio de legislación. Sin embargo, esto también dependerá del resultado del análisis posterior. Seguro específico La  Recomendación 2 cubre el seguro peer-to-peer (P2P). EIOPA ha analizado el seguro P2P en su trabajo previo. Debido a la actual penetración de mercado relativamente baja del negocio de seguros P2P modelos, y el hecho de que la mayoría de los modelos de negocio parecen caer bajo la regulación existente, EIOPA no ve una necesidad apremiante de enfoques regulatorios especiales o cambios en relación con seguro P2P, pero seguirá de cerca la evolución del mercado.

14. Las ESA quedan a disposición de la Comisión, incluso para asistencia sobre cómo introducir las propuestas de ley y la elaboración de las orientaciones necesarias. Además, las ESA observan que los servicios financieros y los modelos de negocio continúan evolucionando rápidamente con la digitalización y el uso de tecnologías innovadoras y que puede ser necesario reevaluar los problemas que estos desarrollos plantean a su debido tiempo.



[1] European Commission (2021a), Request to EBA, EIOPA and ESMA for technical advice on digital finance and related issues, Ref. Ares (2021)898555, 02 February.

[2] Propuesta de Reglamento del Parlamento Europeo y del Consejo sobre resiliencia operativa digital para el sector financiero y por el que se modifican los Reglamentos (CE) nº 1060/2009, (UE) nº 648/2012, (UE) nº 600/2014 y (UE) n.º 909/2014, COM/2020/595, 24/09/2020. 

[3] Directiva 2002/65/CE del Parlamento Europeo y del Consejo, de 23 de septiembre de 2002, relativa a la comercialización a distancia de servicios financieros de consumo y por la que se modifica la Directiva 90/619/CEE del Consejo y las Directivas 97/7/CE y 98/27/CE, DO L 271, 09/10/2002.

[5]  Directiva 2002/87/CE del Parlamento Europeo y del Consejo, de 16 de diciembre de 2002, sobre la supervisión adicional de las entidades de crédito, empresas de seguros y empresas de inversión en un conglomerado y modifica las Directivas del Consejo 73/239/EEC, 79/267/EEC, 92/49/EEC, 92/96/EEC, 93/6/EEC y 93/22/CEE, y Directivas 98/78/CE y 2000/12/CE del Parlamento Europeo y del Consejo, DO L 35, 02/11/2003.

[6] Ver ESMA (2021): Directrices sobre comunicaciones de marketing bajo el Reglamento sobre distribución transfronteriza de fondos, ESMA34-45-1272, 02 de agosto, y Declaración sobre recomendaciones de inversión en redes sociales, ESMA70-154-2780, 28 de octubre.

[8] Directiva 2009/138/CE del Parlamento Europeo y del Consejo, de 25 de noviembre de 2009, relativa a la asimilación y ejercicio de la actividad de Seguros y Reaseguros (Solvencia II), DO L 335, 17/12/2009.   

 


miércoles, 16 de noviembre de 2022

SEGURIDAD Y SALUD EN LA DIGITALIZACION DEL TRABAJO - AGENCIA EUROPEA PARA LA SEGURIDAD Y LA SALUD EN EL TRABAJO.

 Por: Carlos A. FERREYROS SOTO

Doctor en Derecho
Universidad de Montpellier I Francia.

cferreyros@hotmail.com   

Resumen 

La Agencia Europea para la Seguridad y la Salud en el Trabajo (OSHA) está analizando el impacto en el trabajo de los rápidos avances en las tecnologías digitales, incluidas la inteligencia artificial y la robótica, y el posible impacto resultante en la seguridad y salud en el trabajo (SST). Este proyecto tiene como objetivo proporcionar a los responsables de la toma de decisiones de la UE, los gobiernos de los Estados miembros, los sindicatos y los empleadores la información que necesitan sobre los cambios en las tecnologías digitales, su impacto en la naturaleza y la organización del trabajo, y los desafíos emergentes para la SST que pueden traer. Le sigue un  proyecto de investigación (2020-2023) sobre la digitalización y la SST

El presente artículo es una sinópsis previa sobre Seguridad y Salud en la Digitalización del Trabajo en cada una de las cinco áreas enfocadas, las mismas que dirigen a enlaces de Informes y Publicaciones relacionados que amplian el alcance de la reflexión de la OSHA. Particularmente interesante resulta el area del Trabajo remoto, el mismo que incluye el teletrabajo con vinculo laboral o no, en instituciones y empresas públicas y privadas. En el caso de Perú, la Ley sobre Teletrabajo viene de ser modificada.

A fin de acceder a normas similares y estándares europeos, las empresas, organizaciones públicas y privados ayudados en asesorías, consultorías, capacitaciones, estudios, evaluaciones, auditorías sobre el tema, sírvanse comunicar al correo electrónico  : cferreyros@hotmail.com  

______________________________________________________

La digitalización está cambiando rápidamente el mundo del trabajo y requiere soluciones nuevas y actualizadas de seguridad y salud en el trabajo (SST). El programa de investigación de la Agencia Europea para la Seguridad y la Salud (EU-OSHA) tiene como objetivo proporcionar a los responsables políticos, investigadores y lugares de trabajo información fiable sobre los posibles impactos de la digitalización en la SST para que puedan tomar medidas oportunas y eficaces para garantizar la seguridad de los trabajadores. y saludable.

El surgimiento de tecnologías como la inteligencia artificial (IA), el big data, la robótica colaborativa, el internet de las cosas, los algoritmos, las plataformas laborales digitales y, al mismo tiempo, un aumento importante de la población que trabaja de forma remota trae oportunidades para trabajadores y empleadores pero también nuevos desafíos y riesgos para la SST. Abordar los desafíos y riesgos y maximizar las oportunidades depende de cómo se aplican, gestionan y regulan las tecnologías en el contexto de las tendencias sociales, políticas y económicas.

Sobre la base de su estudio prospectivo sobre digitalización y SST, la EU-OSHA está ejecutando un proyecto de investigación "Visión general de SST" (2020-2023) para proporcionar información detallada para la política, la prevención y la práctica en relación con los desafíos y oportunidades de la digitalización en el contexto de la SST.

El estudio se enfoca en las siguientes áreas:

Los sistemas basados ​​en IA y la robótica avanzada están transformando la forma en que se diseña y realiza el trabajo humano. Dichos sistemas que están incorporados (por ejemplo, robótica) o no incorporados (por ejemplo, aplicaciones inteligentes) están habilitados para llevar a cabo acciones, con cierto grado de autonomía, para realizar tareas físicas o cognitivas y lograr objetivos específicos.

Esto tiene importantes implicaciones positivas, no solo en términos de productividad empresarial sino también para la SST. Por ejemplo, los trabajadores pueden retirarse de entornos y tareas peligrosos, y la carga de trabajo puede optimizarse. Dichos sistemas pueden realizar tareas repetitivas de alto riesgo o no creativas, que están asociadas con una serie de riesgos de SST tradicionales y emergentes, dejando las tareas de bajo riesgo y el contenido del trabajo productivo o incluso creativo a los trabajadores.

Sin embargo, una serie de desafíos para la SST en relación con el uso de estos sistemas basados ​​en IA en el lugar de trabajo, principalmente derivados de la interacción de dichos sistemas con los trabajadores, como colisiones inesperadas, exceso de confianza, etc., pero también relacionados con problemas psicosociales y aspectos organizacionales, existen y necesitan ser abordados.

La investigación en esta área identifica y analiza las oportunidades, así como los desafíos y los riesgos asociados con el uso de robótica avanzada y sistemas basados ​​en IA para la automatización de tareas, tanto físicas como cognitivas, destacando una serie de problemas adicionales, incluido el hombre-máquina. interacción y confianza.

Ver principales informes y publicaciones relacionados

La IA y las tecnologías digitales han dado lugar a nuevas formas de gestionar a los trabajadores. A diferencia de las formas anteriores de gestión que dependen en gran medida de supervisores humanos, la gestión de trabajadores que utiliza IA se refiere a nuevos sistemas y herramientas de gestión que recopilan datos en tiempo real sobre el comportamiento de los trabajadores de diversas fuentes con el fin de informar a la gestión y respaldar decisiones automatizadas o semi-automatizadas. basado en algoritmos o formas más avanzadas de IA.

La investigación en esta área identifica y analiza las oportunidades que brindan estos nuevos sistemas para la gestión basada en IA, ya que pueden respaldar las decisiones destinadas a mejorar la SST en el lugar de trabajo cuando se construyen e implementan de manera transparente y se informa y consulta a los trabajadores.

La investigación también mapea y discute los desafíos y riesgos legales, regulatorios, éticos y de privacidad, así como las preocupaciones para la SST, particularmente en términos de factores de riesgo psicosocial que también dan lugar a estas nuevas formas de monitorear y administrar a los trabajadores.

Ver principales informes y publicaciones relacionados

Trabajo en plataformas digitales 

El trabajo de plataforma digital es todo trabajo remunerado proporcionado a través de una plataforma en línea o mediado por ella, es decir, un mercado en línea que opera con tecnologías digitales que facilitan la conciliación de la demanda y la oferta de trabajo. El trabajo que se brinda a través de las plataformas puede ser muy diverso: puede involucrar tareas complejas o simples, tareas cognitivas o manuales, y puede brindarse en línea y ser completamente virtual, o presencial y brindarse de manera presencial.

El trabajo en plataformas digitales brinda oportunidades de empleo a los trabajadores en áreas geográficas donde tales oportunidades no existen o a grupos de trabajadores marginados, pero también implica una serie de desafíos y riesgos para la SST de los trabajadores que deben abordarse.

Los proyectos de investigación en el área de la plataforma de trabajo tienen como objetivo:

· analizar y discutir oportunidades, desafíos y riesgos del trabajo en plataforma;

· mapeo de tipos de trabajo de plataforma y riesgos y oportunidades relacionados;

· identificar ejemplos de políticas para prevenir los riesgos de SST para los trabajadores de la plataforma; y 

· apoyar el desarrollo de herramientas prácticas para la prevención de la SST.

Ver principales informes y publicaciones relacionados

Se desarrollan nuevos sistemas de monitoreo para la seguridad y la salud de los trabajadores, como aplicaciones para teléfonos inteligentes, dispositivos portátiles, cámaras o drones de monitoreo móvil, gafas inteligentes, aplicaciones basadas en TIC y equipos de protección personal inteligentes con el objetivo de monitorear y mejorar la SST. Se pueden utilizar, por ejemplo, con el objetivo de controlar el estado fisiológico o mental de los trabajadores, como el nivel de estrés, la fatiga, el estado de alerta y la frecuencia cardíaca, así como la postura y el movimiento corporal, para controlar la ubicación de los trabajadores en áreas peligrosas, instruir a los trabajadores, o alertar a los gerentes de los trabajadores o incluso a los servicios de emergencia. Además de sus oportunidades para la SST, también existen preocupaciones, por ejemplo, relacionadas con la privacidad de los datos, los problemas de propiedad, la eficacia y la estandarización.

En este estudio evaluamos sus implicaciones mediante el análisis de tipos de nuevos sistemas de seguimiento (tecnologías), su uso (por ejemplo, apoyo al cumplimiento de la SST, cumplimiento efectivo o capacitación) y los desafíos y oportunidades de SST asociados con su implementación y diseño. También se proporciona una descripción general de los recursos del lugar de trabajo (por ejemplo, códigos de práctica, políticas a nivel de empresa, recomendaciones, orientación, protocolos y capacitación).

El estudio consta de un estudio de gabinete, entrevistas y estudios de campo. En 2023, se organiza un taller de alto nivel para consolidar los hallazgos.

Ver principales informes y publicaciones relacionados

El trabajo a distancia es cualquier tipo de acuerdo de trabajo que implique el uso de tecnologías digitales para trabajar desde casa o, en general, fuera de las instalaciones del empleador o en una ubicación fija. El trabajo remoto trae consigo oportunidades, desafíos y riesgos, que vale la pena tener en cuenta al pensar en desarrollos futuros, incluidas las implicaciones para las dimensiones de género y diversidad de la fuerza laboral, y el impacto diferente entre sectores y ocupaciones, además de los nuevos y emergentes. tecnologías, incluidas la realidad aumentada y la realidad virtual, que se espera que desempeñen un papel en hacer que el trabajo remoto esté disponible para un mayor número de empresas y trabajadores.

Una serie de proyectos en esta área, que también se basan en investigaciones previas de EU-OSHA, mapean las oportunidades, los desafíos y los riesgos del trabajo remoto, y tienen como objetivo aumentar la concienciación entre los trabajadores remotos, los empleadores y otras partes interesadas relevantes.

Ver principales informes y publicaciones relacionados

La campaña Lugares de trabajo saludables de EU-OSHA Trabajo seguro y saludable en la era digital , que se desarrollará de 2023 a 2025, crea conciencia sobre la digitalización y la SST y proporciona más recursos prácticos.