martes, 22 de julio de 2025

RECOMENDACIONES SOBRE EL DESARROLLO DE SISTEMAS DE IA - CNIL.

 Por: Carlos A. FERREYROS SOTO

Doctor en Derecho

Universidad de Montpellier I Francia.

cferreyros@ferreyros-ferreyros.com

Resumen

La CNIL (Autoridad Nacional de Protección de Datos) de Francia ha publicado recientes fichas informativas sobre inteligencia artificial (IA), como parte de su labor para promover un desarrollo responsable de conformidad con el RGPD (Reglamento General de Protección de Datos).

La CNIL subraya entre los temas abordados: 

1. La aplicabilidad del RGPD a los modelos de IA. El RGPD se aplica siempre que se procesen datos personales, incluso durante el entrenamiento o el uso de un modelo de IA. Si los datos de entrenamiento, las entradas o las salidas permiten identificar a una persona, el tratamiento queda sujeto al RGPD. Incluso los modelos entrenados, cuando pueden restituir datos personales, pueden considerarse sujetos al RGPD. 

2. La seguridad de los modelos. Los responsables/encargados del tratamiento de datos deben garantizar la confidencialidad, integridad y disponibilidad de los sistemas de IA. Ello incluye:

  • Protección contra ataques de infiltración de datos.
  • Control de acceso a los modelos.
  • Procedimientos de supervisión y actualización continua.
  • Se presta especial atención al riesgo de fuga de datos personales a través de los resultados de la IA generativa.

3. La anotación de datos de entrenamiento. La anotación es un paso crucial que puede implicar el procesamiento de datos personales si las personas etiquetan información identificable. Debiéndose cumplir con el principio de minimización de datos, el cumplimiento del marco legal para el uso de subcontratistas, la información a los interesados, de ser necesario y de las obligaciones de confidencialidad.

Las fichas informativas están dirigidas a desarrolladores, responsables/encargados del tratamiento de datos, delegados de protección de datos (DPO) y ciudadanos, a fin de garantizar el respeto de los derechos fundamentales por la IA.

A fin de acceder a normas similares y estándares europeos, las empresas, organizaciones públicas y privados interesados en asesorías, consultorías, capacitaciones, estudios, evaluaciones, auditorías sobre el tema, sírvanse comunicar al correo electrónico:cferreyros@ferreyros-ferreyros.com

____________________________________________

IA: La CNIL finaliza sus recomendaciones sobre el desarrollo de sistemas de IA y anuncia sus trabajos futuros

22 de julio de 2025


La CNIL ha publicado sus últimas fichas informativas sobre IA, precisando las condiciones de aplicabilidad del RGPD a los modelos, los requisitos de seguridad y las condiciones para la anotación de los datos de entrenamiento. La CNIL continuará sus trabajos con análisis sectoriales y herramientas de evaluación del cumplimiento.


Las nuevas recomendaciones de la CNIL

Los modelos de IA entrenados con datos personales pueden estar sujetos al RGPD

El dictamen adoptado por el Comité Europeo de Protección de Datos (CEPD) en diciembre de 2024 recuerda que el RGPD se aplica, en muchos casos, a los modelos de IA entrenados con datos personales debido a sus capacidades de memorización.

En sus nuevas recomendaciones, la CNIL orienta a las partes interesadas en la realización y documentación del análisis necesario para determinar si el uso de su modelo está sujeto al RGPD. También propone soluciones concretas para garantizar que este uso no implique el tratamiento de datos personales, como la implementación de filtros robustos a nivel de sistema que encapsulen el modelo.

Se debe asegurar el cumplimiento del proceso de anotación y la seguridad del desarrollo de un sistema de IA.

Dos fichas prácticas se encuentran a disposición de los profesionales:

· Anotar los datos

 La fase de anotación de datos de entrenamiento es determinante para garantizar la calidad del modelo entrenado y la protección de los derechos de las personas, al mismo tiempo que se desarrollan sistemas de IA más confiables y eficientes.

· Garantizar la seguridad del desarrollo de un sistema de IA

 La CNIL detalla los riesgos y las medidas que deben tenerse en cuenta durante el desarrollo de un sistema de IA para permitir el desarrollo de sistemas de IA en un entorno seguro.

Consultar las recomendaciones

Un trabajo elaborado en concertación con las partes interesadas

Las tres nuevas recomendaciones, al igual que las anteriores, se elaboraron tras una consulta pública. Empresas, investigadores, académicos, asociaciones, asesores jurídicos y técnicos, sindicatos, federaciones, etc., pudieron expresarse y ayudar a la CNIL a proponer recomendaciones lo más ajustadas posibles a sus preguntas y a la realidad de los usos de la IA.

· Ver el resumen de las respuestas al cuestionario

· Ver el resumen de contribuciones

Una ficha síntesis y una lista de puntos a verificar

Para que todos los profesionales interesados puedan adoptar fácilmente estas recomendaciones, la CNIL pone a su disposición dos herramientas prácticas:

· Un resumen de las recomendaciones

· Una lista de puntos a verificar

Ellas permiten garantizar rápidamente que los desafíos de protección de datos se tengan en cuenta en el desarrollo de un sistema de IA.

La IA bajo el prisma del RGPD: la CNIL revela sus futuros trabajos.

La publicación de estas nuevas recomendaciones supone un paso importante para la CNIL. Ellas forman parte de su compromiso de enmarcar el desarrollo de sistemas de IA que respeten la protección de datos y favorezcan la innovación.

En el marco de su plan estratégico 2025-2028, la CNIL proseguirá su trabajo en torno a varios ejes complementarios.

· Recomendaciones sectoriales

Frente a la diversidad de contextos en los que se utiliza la IA, la CNIL está elaborando recomendaciones sectoriales, con el fin de aportar seguridad jurídica a las partes interesadas y promover una IA respetuosa de los derechos.

IA y educación

La CNIL publicó recientemente dos preguntas frecuentes (FAQ) para docentes y responsables del tratamiento de datos (directores de centros educativos, ministerios y autoridades académicas). Estas preguntas ofrecen orientación sobre el uso de sistemas de IA en la formación docente, ofrecen consejos prácticos y aclaran las obligaciones legales y los requisitos de cumplimiento.

IA y salud

En el sector de la salud, la CNIL busca promover la inter-regulación y mantiene intercambios regulares con las autoridades sanitarias para formular recomendaciones interdisciplinarias. Participa activamente en la labor de la Autoridad Nacional de Salud (HAS) francesa sobre el uso de sistemas de IA (SIA) en entornos sanitarios. Próximamente se publicará una ficha informativa que resume las normas aplicables al desarrollo de sistemas de IA en el sector sanitario, con ejemplos concretos provenientes de solicitudes de autorización, el entorno de pruebas y un soporte mejorado.

IA y trabajo

Si bien el despliegue de la IA en un contexto profesional es prometedor, también plantea importantes desafíos para los derechos y libertades fundamentales de las personas afectadas: empleados, clientes, usuarios y proveedores de servicios. La CNIL ha iniciado un debate con las partes interesadas del sector (desarrolladores de soluciones, empleadores que utilizan IA, sindicatos, federaciones profesionales, instituciones públicas y científicas, etc.) para aclarar el marco de estos usos.

Próximas recomendaciones sobre las responsabilidades de las partes interesadas en la cadena de valor de la IA

En el segundo semestre de 2025, la CNIL publicará nuevas recomendaciones para informar a los actores de la cadena de creación de sistemas de IA (diseñadores de modelos, alojadores, reutilizadores, integradores, etc.) sobre sus responsabilidades con respecto al RGPD.

El objetivo será en particular:

· Precisar las consecuencias de la aplicación del RGPD a los modelos que no serían anónimos;

· Estudiar el caso del código abierto, una práctica esencial para el desarrollo de tecnologías de IA.

Estas recomendaciones serán objeto de una consulta pública con el fin de involucrar a toda la comunidad en las discusiones.

·        Herramientas técnicas para profesionales

Para facilitar la aplicación práctica de sus recomendaciones, la CNIL está desarrollando herramientas técnicas adecuadas.

Por ello, ha puesto en marcha el proyecto PANAME (Auditoría de Privacidad de Modelos de IA) en colaboración con la Agencia Nacional de Seguridad de los Sistemas de Información (ANSSI), el programa y equipo de investigación prioritario iPoP (Proyecto Interdisciplinario sobre Privacidad ) y el Centro de Expertos en Regulación Digital (PEReN) . Este proyecto tiene como objetivo desarrollar una biblioteca de programas informáticos para evaluar si un modelo realiza tratamiento de datos personales. Esta herramienta proporcionará soluciones técnicas concretas y operativas a los desarrolladores y usuarios de modelos de IA, vinculando las recomendaciones de la CNIL con su aplicación práctica sobre el terreno.

· Investigaciones sobre la explicabilidad en el ámbito de la IA (xAI)

Iniciada en el verano de 2024, la investigación sobre la explicabilidad de los modelos de IA (xAI) está en marcha. La CNIL publicará próximamente los primeros resultados de este proyecto en el sitio web de su laboratorio LINC. Estos se basan en análisis matemáticos de las técnicas empleadas, combinados con elementos cuantitativos y cualitativos de las ciencias sociales, realizados en colaboración con investigadores de Ciencias Políticas y el Centro de Investigación en Economía y Estadística (CREST).

Estos trabajos permitirán de aportar seguridad jurídica a las partes interesadas que deseen implementar estas tecnologías en estos sectores y apoyar así el desarrollo de una IA innovadora y respetuosa de los derechos.

 e

 Para profundizar

·           Fichas prácticas de IA

·  Desarrollo de sistemas de IA: recomendaciones de la CNIL para el cumplimiento del RGPD

A descargar

Consulta pública - Cuestionario sobre la aplicación del RGPD a los modelos de IA: Resumen de las contribuciones [PDF-417,93 KB]

Consulta pública - Hojas informativas sobre anotación de datos y seguridad en el desarrollo de sistemas de IA: Resumen de contribuciones [PDF-253,57 KB]

Desarrollo de sistemas de IA: ¿Qué debes comprobar? [PDF-152,33 KB]

 #Inteligencia Artificial (IA)                  #Desarrollo de sistemas de IA

 


No hay comentarios:

Publicar un comentario