Por: Carlos A. FERREYROS SOTO
Doctor en Derecho
Universidad de Montpellier I Francia.
cferreyros@ferreyros-ferreyros.com
Resumen
La CNIL (Autoridad Nacional de Protección de Datos) de Francia ha publicado recientes fichas informativas sobre inteligencia artificial (IA), como parte de su labor para promover un desarrollo responsable de conformidad con el RGPD (Reglamento General de Protección de Datos).
La CNIL subraya entre los temas abordados:
1. La aplicabilidad del RGPD a los modelos de IA. El RGPD se aplica siempre que se procesen datos personales, incluso durante el entrenamiento o el uso de un modelo de IA. Si los datos de entrenamiento, las entradas o las salidas permiten identificar a una persona, el tratamiento queda sujeto al RGPD. Incluso los modelos entrenados, cuando pueden restituir datos personales, pueden considerarse sujetos al RGPD.
2. La seguridad de los modelos. Los responsables/encargados del tratamiento de datos deben garantizar la confidencialidad, integridad y disponibilidad de los sistemas de IA. Ello incluye:
- Protección contra ataques de
infiltración de datos.
- Control de acceso a los modelos.
- Procedimientos de supervisión y
actualización continua.
- Se presta especial atención al riesgo de fuga de datos personales a través de los resultados de la IA generativa.
3. La anotación de datos de entrenamiento. La anotación es un paso crucial que puede implicar el procesamiento de datos personales si las personas etiquetan información identificable. Debiéndose cumplir con el principio de minimización de datos, el cumplimiento del marco legal para el uso de subcontratistas, la información a los interesados, de ser necesario y de las obligaciones de confidencialidad.
Las fichas informativas están dirigidas a desarrolladores, responsables/encargados del tratamiento de datos, delegados de protección de datos (DPO) y ciudadanos, a fin de garantizar el respeto de los derechos fundamentales por la IA.
A fin de acceder a normas similares y estándares
europeos, las empresas, organizaciones públicas y privados interesados en
asesorías, consultorías, capacitaciones, estudios, evaluaciones, auditorías
sobre el tema, sírvanse comunicar al correo electrónico:cferreyros@ferreyros-ferreyros.com
____________________________________________
IA: La CNIL
finaliza sus recomendaciones sobre el desarrollo de sistemas de IA y anuncia
sus trabajos futuros
22 de julio de 2025
La CNIL ha publicado sus
últimas fichas informativas sobre IA, precisando las condiciones de
aplicabilidad del RGPD a los modelos, los requisitos de seguridad y las
condiciones para la anotación de los datos de entrenamiento. La CNIL continuará
sus trabajos con análisis sectoriales y herramientas de evaluación del
cumplimiento.
Las nuevas recomendaciones de la CNIL
Los modelos de IA entrenados con datos personales
pueden estar sujetos al RGPD
El dictamen adoptado por el Comité Europeo de Protección de Datos
(CEPD) en diciembre de 2024 recuerda que el RGPD se aplica, en muchos casos, a los
modelos de IA entrenados con datos personales debido a sus capacidades de memorización.
En sus nuevas recomendaciones, la CNIL orienta
a las partes interesadas en la realización y documentación del análisis necesario
para determinar si el uso de su modelo está sujeto al RGPD. También propone
soluciones concretas para garantizar que este uso no implique el tratamiento de datos personales, como la implementación de filtros robustos a nivel
de sistema que encapsulen el modelo.
Se debe asegurar el cumplimiento del proceso
de anotación y la seguridad del desarrollo de un sistema de IA.
Dos fichas prácticas se encuentran a disposición
de los profesionales:
· Anotar los datos
La fase
de anotación de datos de entrenamiento es determinante para garantizar la calidad
del modelo entrenado y la protección de los derechos de las personas, al mismo tiempo
que se desarrollan sistemas de IA más confiables y eficientes.
· Garantizar la seguridad del desarrollo
de un sistema de IA
La CNIL detalla los riesgos y las medidas que deben tenerse
en cuenta durante el desarrollo de un sistema de IA para permitir el desarrollo
de sistemas de IA en un entorno seguro.
Un trabajo elaborado en concertación con
las partes interesadas
Las tres nuevas recomendaciones, al igual que
las anteriores, se elaboraron tras una consulta pública. Empresas, investigadores,
académicos, asociaciones, asesores jurídicos y técnicos, sindicatos, federaciones,
etc., pudieron expresarse y ayudar a la CNIL a proponer recomendaciones lo más ajustadas
posibles a sus preguntas y a la realidad de los usos de la IA.
· Ver el resumen de las respuestas al cuestionario
· Ver el resumen de contribuciones
Una ficha síntesis y una lista de puntos a
verificar
Para que todos los profesionales interesados
puedan adoptar fácilmente estas recomendaciones, la CNIL pone a su disposición dos
herramientas prácticas:
· Un resumen de las recomendaciones
· Una lista de puntos a verificar
Ellas permiten garantizar rápidamente que los
desafíos de protección de datos se tengan en cuenta en el desarrollo de un sistema
de IA.
La IA bajo el prisma del RGPD: la CNIL revela
sus futuros trabajos.
La publicación de estas nuevas recomendaciones
supone un paso importante para la CNIL. Ellas forman parte de su compromiso de enmarcar
el desarrollo de sistemas de IA que respeten la protección de datos y favorezcan
la innovación.
En el marco de su plan estratégico 2025-2028, la CNIL proseguirá
su trabajo en torno a varios ejes complementarios.
· Recomendaciones sectoriales
Frente a la diversidad de contextos en los
que se utiliza la IA, la CNIL está elaborando recomendaciones sectoriales, con el
fin de aportar seguridad jurídica a las partes interesadas y promover una IA respetuosa
de los derechos.
IA y educación
La CNIL publicó recientemente dos preguntas frecuentes (FAQ) para docentes y responsables
del tratamiento de datos (directores de centros educativos, ministerios
y autoridades académicas). Estas preguntas ofrecen orientación sobre el uso de sistemas
de IA en la formación docente, ofrecen consejos prácticos y aclaran las obligaciones
legales y los requisitos de cumplimiento.
IA y salud
En el sector de la salud, la CNIL busca promover
la inter-regulación y mantiene intercambios regulares con las autoridades sanitarias
para formular recomendaciones interdisciplinarias. Participa activamente en la labor
de la Autoridad
Nacional de Salud (HAS) francesa sobre el uso de sistemas de IA (SIA) en entornos
sanitarios. Próximamente se publicará una ficha informativa que resume las normas
aplicables al desarrollo de sistemas de IA en el sector sanitario, con ejemplos
concretos provenientes de solicitudes de autorización, el entorno de pruebas y un
soporte mejorado.
IA y trabajo
Si bien el despliegue de la IA en un contexto
profesional es prometedor, también plantea importantes desafíos para los derechos
y libertades fundamentales de las personas afectadas: empleados, clientes, usuarios
y proveedores de servicios. La CNIL ha iniciado un debate con las partes interesadas
del sector (desarrolladores de soluciones, empleadores que utilizan IA, sindicatos,
federaciones profesionales, instituciones públicas y científicas, etc.) para aclarar
el marco de estos usos.
Próximas recomendaciones
sobre las responsabilidades de las partes interesadas en la cadena de valor de la
IA
En el segundo semestre de 2025, la CNIL publicará
nuevas recomendaciones para informar a los actores de la cadena de creación de sistemas
de IA (diseñadores de modelos, alojadores, reutilizadores, integradores, etc.) sobre
sus responsabilidades con respecto al RGPD.
El objetivo será en particular:
· Precisar las consecuencias de la aplicación del RGPD
a los modelos que no serían anónimos;
· Estudiar el caso del código abierto, una práctica esencial
para el desarrollo de tecnologías de IA.
Estas recomendaciones serán objeto de una consulta
pública con el fin de involucrar a toda la comunidad en las discusiones.
·
Herramientas técnicas para profesionales
Para facilitar la aplicación práctica de sus
recomendaciones, la CNIL está desarrollando herramientas técnicas adecuadas.
Por ello, ha puesto en marcha el proyecto PANAME (Auditoría de Privacidad de
Modelos de IA) en colaboración con la Agencia Nacional de Seguridad de los Sistemas
de Información (ANSSI), el programa y equipo de investigación prioritario iPoP (Proyecto
Interdisciplinario sobre Privacidad ) y el Centro de Expertos en Regulación
Digital (PEReN) . Este proyecto tiene como objetivo desarrollar una biblioteca de
programas informáticos para evaluar si un modelo realiza tratamiento de datos personales.
Esta herramienta proporcionará soluciones técnicas concretas y operativas a los
desarrolladores y usuarios de modelos de IA, vinculando las recomendaciones de la
CNIL con su aplicación práctica sobre el terreno.
· Investigaciones sobre la
explicabilidad en el ámbito de la IA (xAI)
Iniciada en el verano de 2024, la investigación sobre la explicabilidad
de los modelos de IA (xAI) está en marcha. La CNIL publicará próximamente
los primeros resultados de este proyecto en el sitio web de su laboratorio LINC.
Estos se basan en análisis matemáticos de las técnicas empleadas, combinados con
elementos cuantitativos y cualitativos de las ciencias sociales, realizados en colaboración
con investigadores de Ciencias Políticas y el Centro de Investigación en Economía y Estadística
(CREST).
Estos trabajos permitirán de aportar seguridad
jurídica a las partes interesadas que deseen implementar estas tecnologías en estos
sectores y apoyar así el desarrollo de una IA innovadora y respetuosa de los derechos.
e
Para profundizar
· Desarrollo de sistemas de IA: recomendaciones de la CNIL para
el cumplimiento del RGPD
A descargar
Consulta pública - Cuestionario
sobre la aplicación del RGPD a los modelos de IA: Resumen de las contribuciones
[PDF-417,93 KB]
Consulta pública - Hojas informativas
sobre anotación de datos y seguridad en el desarrollo de sistemas de IA: Resumen
de contribuciones [PDF-253,57 KB]
Desarrollo de sistemas de IA:
¿Qué debes comprobar? [PDF-152,33 KB]
#Inteligencia Artificial (IA) #Desarrollo de sistemas de IA
No hay comentarios:
Publicar un comentario