viernes, 6 de marzo de 2026

IA GENERATIVA Y DERECHOS DE AUTOR - ESTUDIO ENCARGADO POR LA COMISION DE ASUNTOS JURIDICOS DE LA UE.

 Por: Carlos A. FERREYROS SOTO

Doctor en Derecho

Universidad de Montpellier I Francia.

cferreyros@ferreyros-ferreyros.com

RESUMEN

 El presente documento expone el Abstract y el Resumen Ejecutivo del estudio técnico del Parlamento Europeo sobre "IA Generativa y Derechos de Autor: Entrenamiento, Creación y Regulación", encargado por la Comisión de Asuntos Jurídicos (JURI) de la Unión Europea.​

El documento analiza cómo la IA generativa afronta la legislación de derechos de autor de la UE, destacando el desajuste de la excepción de minería de textos y datos (TDM, art. 4 Directiva CDSM), la incertidumbre en la protección de contenidos generados por IA y los riesgos que ello implica para la creatividad europea.

Identifica cinco hallazgos claves: (1) actual excepción de minería de texto y datos, TDM no cubre adecuadamente el entrenamiento generativo; (2) obras generadas íntegramente por IA deben permanecer desprotegidas; pero las híbridas necesitan criterios armonizados; (3) urge un sistema de remuneración legal para cerrar la brecha de valor entre los creadores y los desarrolladores de IA; (4) el panorama de gobernanza fragmentado requiere gobernanza intersectorial; (5) sin reforma oportuna, riesgo de inseguridad jurídica, concentración del mercado y homogeneización cultural. 

Finalmente, el estudio propone una "Prueba de Rendición de Cuentas de Tres Pilares" para evaluar opciones políticas, con tres criterios: rendición de cuentas epistémica (transparencia); rendición de cuentas normativa (asignación justa de derechos e ingresos);  y rendición de cuentas sistémica (supervisión institucional efectiva). Y aventura  tres escenarios futuros: optimista (reglas armonizadas), intermedio (litigios) o regresivo (erosión creativa).

El Abstract y el Resumen Ejecutivo han sido traducidos del inglés al castellano por el suscrito con el auxilio del aplicativo Google Translator; el enlace al texto íntegro y original de 175 págs.; se encuentra en: https://www.europeanrights.eu/public/atti/Studio_del_PE_su_Generative-AI-and-copyright.pdf

 A fin de acceder a normas similares y estándares europeos, las empresas, organizaciones públicas y privadas interesadas en asesorías, consultorías, capacitaciones, estudios, evaluaciones, auditorías sobre el tema, sírvanse comunicar al correo electrónico:cferreyros@ferreyros-ferreyros.com

__________________________________________________________

Generative  AI and Copyright

IA GENERATIVA Y DERECHOS DE AUTOR. Entrenamiento, Creación y Regulación.

Abstract

Este estudio examina cómo la IA generativa desafía los principios fundamentales de la legislación sobre derechos de autor de la UE. Destaca el desajuste legal entre las prácticas de entrenamiento de la IA y las excepciones actuales en materia de minería de textos y datos, así como la incertidumbre sobre el estado del contenido generado por IA. Estos avances plantean riesgos estructurales para el futuro de la creatividad en Europa, cuyo rico y diverso patrimonio cultural depende de la protección continua y la remuneración justa de los autores. El informe exige normas claras sobre las distinciones entre insumos y productos, mecanismos armonizados de exclusión voluntaria, obligaciones de transparencia y modelos de licencia equitativos. Para equilibrar la innovación y los derechos de los autores, se espera que el Parlamento Europeo lidere reformas que reflejen las realidades cambiantes de la creatividad, la autoría y la expresión generada por máquinas. Este estudio fue encargado por el Departamento de Política de Justicia, Libertades Civiles y Asuntos Institucionales del Parlamento Europeo a petición de la Comisión de Asuntos Jurídicos.

RESUMEN EJECUTIVO

La integración de los sistemas de Inteligencia Artificial Generativa (GenAI) en los flujos de trabajo creativos está transformando la forma en que los contenidos son procesados, distribuidos y accedidos en toda la Unión Europea. Estos modelos computacionales de propósito general y a gran escala habilitan nuevas formas de automatización y de síntesis, pero su implementación también altera el equilibrio establecido de derechos y responsabilidades dentro del marco de los derechos de autor. Si bien la innovación no es nada nuevo en la legislación sobre derechos de autor, la IA generativa presenta una prueba sin precedentes de escala, opacidad e impacto económico.

Este estudio identifica cinco hallazgos clave:

(1) La actual excepción de minería de texto y datos (TDM) de la UE no fue diseñada para dar cabida a la naturaleza expresiva y sintética del entrenamiento de la IA generativa, y su aplicación a dichos sistemas corre el riesgo de distorsionar el propósito y los límites de las excepciones de derechos de autor de la UE.

(2) Los productos generados íntegramente por máquinas deben permanecer desprotegidos; las obras asistidas por IA requieren criterios de protección armonizados.

(3) Un sistema de remuneración legal es esencial para cerrar la creciente brecha de valor entre los creadores y los desarrolladores de IA.

(4) El panorama de gobernanza fragmentado subraya la necesidad de respuestas institucionales más coherentes e intersectoriales.

(5) Sin una reforma oportuna, la UE corre el riesgo de inseguridad jurídica, concentración del mercado y homogeneización cultural.

El principal desafío hoy en día no es la innovación tecnológica, sino la reinterpretación instrumental de los principios legales que socavan su coherencia. La respuesta adecuada no es hacer que la ley de derechos de autor se ajuste a la IA, sino garantizar que el desarrollo de la IA respete los principios legales y políticos básicos de los derechos de autor de la UE, incluida la autoría, la originalidad y la remuneración justa.

En este contexto, este estudio - encargado por la Comisión de Asuntos Jurídicos del Parlamento Europeo (JURI) - examina las implicaciones de los sistemas de IA generativa para la ley de derechos de autor de la UE[1] y propone opciones políticas para garantizar la equidad, la transparencia y la claridad legal frente al rápido cambio tecnológico.

Datos de derechos de autor y Entrenamiento: Vacíos Legales y Soluciones alternativas de la Industria.

Un enfoque central de este estudio es el uso del contenido protegido por los derechos de autor como datos de entrenamiento para sistemas de IA generativa. El artículo 4 de la Directiva sobre Derechos de Autor en el Mercado Único Digital (CDSM) establece una excepción de minería de texto y datos (TDM) que permite el uso de dicho contenido a menos que el titular de los derechos haya optado por no hacerlo

Sin embargo, el mecanismo para reservar derechos carece de un estándar armonizado y legible por máquina y presenta importantes desafíos de escalabilidad. Ningún protocolo de etiquetado actual puede rastrear duplicados de forma fiable ni responder a las técnicas de extracción en evolución, lo que socava una implementación efectiva. En este contexto, el estudio considera si restablecer la autorización previa para el entrenamiento de la IA generativa puede ofrecer un marco más sostenible y ejecutable. Los principales desarrolladores ya están avanzando hacia acuerdos de licencia directa con editores, bancos de imágenes y otros titulares de derechos, lo que refleja un creciente reconocimiento de las limitaciones de la excepción actual. Estos avances plantean importantes cuestiones sobre la seguridad jurídica, la equidad y la transparencia.

Resultados generados por IA: Autoría, Protección e Incertidumbre jurídica.

Los resultados de los modelos generativos de IA desafían las nociones tradicionales de autoría y originalidad[2]. Según la legislación de la UE, las obras generadas íntegramente por máquinas sin intervención humana no benefician de la protección de los derechos de autor. Sin embargo, muchos resultados emergen del uso iterativo de herramientas algorítmicas por humanos, lo que plantea interrogantes sobre los límites de la autoría. Los Estados miembros difieren en cómo interpretan dicha autoría híbrida, lo que genera inseguridad jurídica y fragmentación en el mercado interior.

El estudio argumenta que se necesita urgentemente de claridad. El contenido generado íntegramente por máquinas debería permanecer en el dominio público, mientras que los criterios para proteger las obras asistidas por IA deben codificarse en la legislación de la UE. No se recomienda la introducción de nuevos derechos sui generis para el contenido generado por máquinas, ya que corre el riesgo de socavar la coherencia del sistema de derechos de autor. Además de la incertidumbre legal en torno a la autoría híbrida, los resultados generados por IA a partir del procesamiento automatizado plantean importantes desafíos económicos: introducen riesgos de desplazamiento del mercado, socavan las estructuras tradicionales de licencias y corren el riesgo de concentrar el valor en manos de unas pocas plataformas dominantes, desestabilizando así los incentivos para los creadores profesionales. Además, el estudio advierte que la protección de los derechos morales (atribución e integridad) está fragmentada entre los Estados miembros; sin una alineación mínima con la UE, los autores pueden recurrir a la búsqueda del foro más conveniente para detener las distorsiones de la reputación en los resultados de IA. El estudio también identifica dos riesgos estructurales: la erosión de las condiciones de negociación justas para los autores y el desplazamiento de la creatividad humana a través de la saturación automatizada de contenido. Ambos representan fallas del mercado que deben abordarse para preservar una economía creativa diversa y sostenible.

Remuneración Justa: Abordar la Brecha de Valor.

Una preocupación política clave es la ausencia de algún mecanismo que garantice que los creadores sean remunerados cuando sus obras se utilizan para entrenar modelos de IA. Tal como están las cosas, los beneficios económicos generados por el entrenamiento de IA no están acompañados actualmente por mecanismos claros para compensar a los titulares de derechos. Esto socava la estructura de incentivos en la que se basa el derecho de autor.

El estudio explora posibles respuestas, incluyendo el establecimiento de un esquema de remuneración legal. Dicho esquema podría tomar la forma de una licencia colectiva o impuesto sobre los resultados de IA, administrados por organizaciones de gestión colectiva y basados en datos de uso transparentes y auditables. Sin embargo, dicha solución requeriría fuertes salvaguardas, incluyendo obligaciones de divulgación exigibles y supervisión pública. Paralelamente, el estudio también considera si ciertas formas de resultados generados por IA, particularmente cuando desplazan contenido creado por humanos, podrían justificar esquemas de remuneración vinculados a los resultados como un medio para preservar condiciones de mercado justas.

Gobernanza y Aplicación: Responsabilidades Fragmentadas

El panorama institucional de los derechos de autor y la IA está actualmente fragmentado. La responsabilidad se comparte entre los tribunales y las autoridades nacionales, las organizaciones de gestión colectiva (OGC), el Parlamento Europeo (PE), la Comisión Europea, la Oficina de Propiedad Intelectual de la Unión Europea (EUIPO) y la Oficina de IA. Esta difusión de competencias contribuye a una aplicación lenta, lagunas jurisdiccionales e incertidumbre regulatoria.

A fin de abordar las deficiencias de coordinación inmediatas, el estudio recomienda que el Comité JURI establezca un Grupo de trabajo específico sobre IA y derechos de autor para garantizar el seguimiento político y el diálogo estructurado entre comisiones. Paralelamente, se podría convocar un Grupo de expertos de alto nivel (GEAN) por un período de seis meses de duración para elaborar normas técnicas ejecutables y prototipos piloto de remuneración, incluida la evaluación de si una etiqueta de exclusión provisional legible por máquina es una solución viable. En conjunto, estos dos mecanismos ofrecerían una doble vía de aportaciones de expertos y supervisión parlamentaria, allanando el camino hacia un marco institucional más sólido.

Para una gobernanza a largo plazo, el estudio propone crear una Unidad especializada en IA y derechos de autor dentro de la Oficina de IA de la UE, que opere en coordinación con la EUIPO, el Parlamento Europeo, la Comisión Europea y las OGC. Esta unidad apoyaría las auditorías relacionadas con los derechos de autor, la verificación del cumplimiento y la alineación de políticas, lo que garantizaría la coherencia legal y minimizaría los costos administrativos.

Un marco para la rendición de cuentas

El estudio propone una "Prueba de Rendición de Cuentas de Tres Pilares" para evaluar las opciones políticas, con tres criterios: rendición de cuentas epistémica (transparencia sobre sí se usa contenido con derechos de autor en el entrenamiento de IA y cómo se usa), rendición de cuentas normativa (asignación justa de derechos e ingresos) y rendición de cuentas sistémica (supervisión institucional efectiva).

El capítulo 4 mapea cada reforma contra estos criterios para verificar su solidez legal y viabilidad práctica.

Perspectiva de políticas

El estudio describe una vía de reforma centrada en los derechos destinada a fortalecer el control de la autoría y mejorar la claridad legal en el panorama cambiante de la IA generativa. Entre las medidas propuestas se encuentra la recalibración del Artículo 4 de la Directiva CDSM, explorando una transición hacia un sistema predeterminado de autorización previa, respaldado por un registro de permisos unificado y legible por máquina, potencialmente supervisado por la EUIPO. Paralelamente, se esperaría que los desarrolladores de modelos de IA mantengan registros de conjuntos de datos estandarizados e implementen herramientas de trazabilidad (como marcas de agua o huellas dactilares), lo que permitirá una auditoría de extremo a extremo del uso de contenido protegido. Para abordar la brecha de valor, el estudio también propone un mecanismo de remuneración legal que asignaría una parte justa del valor generado por la IA a los titulares de derechos, con un cumplimiento monitoreado a través de auditorías de corpus aleatorias realizadas por la Oficina de IA de la UE. Además, un marco de derechos morales proporcionado tendría como objetivo proteger a los autores contra el daño a la reputación. Una estructura de cumplimiento escalonada garantizaría que los proyectos GPAI sin fines de lucro y de código abierto no se vean indebidamente sobrecargados. Este alivio de "etiqueta amarilla" (hasta ciertos umbrales de cómputo o ingresos) ayudaría a mantener la apertura y la innovación más allá de los actores comerciales dominantes.

Dependiendo del nivel de acción regulatoria tomada por la UE, este estudio describe tres escenarios estratégicos para el sector creativo para 2030. En el resultado más favorable (Escenario optimista - Progreso guiado), reglas de transparencia armonizadas, mecanismos de remuneración ejecutables y participación activa de la UE en el desarrollo de modelos fomentan la seguridad jurídica y una economía creativa próspera. Un escenario de término medio (Intermedio - Statu quo litigioso) surge de la implementación fragmentada o parcial, lo que lleva a ambigüedad legal, aplicación desigual y estancamiento de los ingresos. En el peor escenario (Regresivo - Erosión creativa), la inacción continua permite el uso descontrolado de la IA, erosionando los derechos, socavando los ingresos de los creadores y aplanando la diversidad cultural. Estos escenarios ilustran lo que está en juego y por qué la intervención oportuna y coordinada es esencial.

Conclusión

Explorar una transición hacia un modelo estructurado basado en permisos puede representar un paso necesario para restaurar la coherencia y la seguridad jurídica dentro del marco de derechos de autor de la UE. Los sistemas de IA generativa operan a una escala y una opacidad que la legislación de derechos de autor de la UE nunca fue diseñada para abordar. Para defender los valores fundamentales de los derechos de autor, la UE debería emprender reformas específicas y proporcionadas que refuercen su arquitectura jurídica existente. Un enfoque por fases podría respaldar esta evolución: primero, reforzando los derechos existentes de los autores y deteniendo la erosión de los principios fundamentales de los derechos de autor; y luego, introduciendo mecanismos legales que promuevan la seguridad jurídica, la trazabilidad y una remuneración justa sin imponer cargas transaccionales inviables.

Este estudio describe una ruta hacia dicha reforma, basada en la transparencia, la proporcionalidad y la coherencia sistémica, para que Europa pueda seguir siendo al mismo tiempo favorable a la innovación y protectora de los creadores. Si bien habrá un desacuerdo razonable sobre la ruta regulatoria óptima, las propuestas pretenden ofrecer una respuesta equilibrada que alinee el desarrollo tecnológico con la sostenibilidad cultural y legal. Al reintroducir un enfoque basado en permisos, garantizar una remuneración justa y fortalecer la supervisión, la UE puede posicionarse como líder mundial en el fomento de un régimen de IA y derechos de autor que sea responsable y resiliente de cara al futuro.



[1] En sentido estricto  "La legislación europea sobre derechos de autor" es una expresión abreviada, ya que no existe un sistema unificado de derechos de autor a nivel de la Unión Europea. Más bien, cada uno de los veintisiete Estados miembros de la UE mantiene su propia legislación nacional sobre derechos de autor. El papel de la UE ha sido principalmente armonizar aspectos específicos de estas leyes nacionales a través de una serie de directivas, lo que ha dado lugar a un marco jurídico parcialmente convergente en toda la Unión.

[2] En aras de la legibilidad, este estudio ocasionalmente utiliza expresiones como 'contenido generado por IA' o 'resultados generativos'. Estos deben entenderse como una abreviatura de 'resultados resultantes generados de procesos computacionales automatizados que utilizan modelos de IA' y no implican autoría, intencionalidad o agencia.


jueves, 5 de marzo de 2026

NUESTROS DATOS DESPUES DE NOSOTROS. - CUADERNOS DE INNOVACION DE LA CNIL.

 

Por: Carlos A. FERREYROS SOTO

Doctor en Derecho

Universidad de Montpellier I Francia.

cferreyros@ferreyros-ferreyros.com

RESUMEN

El CAHIERS IP N° 10 de la Comisión Nacional de Informática y Libertades, CNIL de Francia, sobre « Nuestros datos después de nosotros: De la muerte a la inmortalidad digital, usos y desafíos de los datos post mortem » (Nos  données  après nous De la mort à l’immortalité numérique, usages et enjeux des données post mortem) analiza el destino de los datos personales después de la muerte (perfiles en línea, mensajes, fotos, historial), mostrando que el Reglamento General de Protección de Datos Europeos, RGPD no se aplica a las personas fallecidas, pero que estos datos no expresan un vacío legal, sino se rigen por las leyes nacionales (privacidad, herencia, patrimonio, salud, etc.).

De hecho, existe ya un marco jurídico esencial en algunos países de la Union Europea, Francia y otros Estados).

El RGPD excluye los datos de personas fallecidas pero permite a los Estados miembros establecer normas nacionales en el Considerando 27:

El presente Reglamento no se aplica a la protección de datos personales de personas fallecidas. Los Estados miembros son competentes para establecer normas relativas al tratamiento de los datos personales de estas.

La DeclaraciónEuropea sobre Derechos y Principios Digitales de 2022 presenta una visión de la UE para la transformación digital situando a las personas en el centro del objeto, en consonancia con los valores y derechos fundamentales de la UE, estableciendo, de forma no vinculante, que toda persona debe poder definir sus activos digitales y el destino de sus cuentas tras su fallecimiento.

El Grupo de Trabajo del Artículo 29 (Dictamen 4/2007) reconoce protecciones indirectas (por ejemplo, datos médicos heredados u otros regímenes jurídicos aplicables).

Finalmente, en Francia, la Ley para una República Digital introdujo un régimen específico en la Ley de Protección de Datos (artículo 85)[1]

En América Latina los enfoques sobre el tema, según países, son fragmentados (Ecuador, México…) y avanzados (Perú, Chile, Brasil) alineados con derechos ampliados para los titulares de derechos.

El enlace original al Cahiers IP N° 10 de la CNIL, en francés se encuentra en  https://www.cnil.fr/sites/default/files/2025-10/cahier_ip_10.pdf Ver también sobre el tema “Datos Personales y Derecho Sucesorio Europeo”.

A fin de acceder a normas similares y estándares europeos, las empresas, organizaciones públicas y privadas interesadas en asesorías, consultorías, capacitaciones, estudios, evaluaciones, auditorías sobre el tema, sírvanse comunicar al correo electrónico:cferreyros@ferreyros-ferreyros.com

__________________________________________________________



[1] Las personas pueden definir directivas específicas (por servicio) o generales (globales, a través de un tercero de confianza) sobre la conservación, la supresión o la divulgación de sus datos tras su fallecimiento.

En ausencia de instrucciones, los herederos podrán, en particular: acceder a determinados datos relevantes para la herencia, recibir "activos digitales" similares a recuerdos familiares, solicitar el cierre de cuentas u oponerse al tratamiento de determinados datos.

En cuanto a los datos de salud, el beneficiario podrá acceder a la información necesaria para determinar la causa del fallecimiento, defender la memoria del fallecido o hacer valer sus derechos, salvo que el fallecido haya expresado su voluntad contraria.

 

miércoles, 4 de marzo de 2026

DECLARACIÓN CONJUNTA SOBRE RIESGOS GENERADOS DE IMÁGENES Y VÍDEOS REALISTAS POR SISTEMAS DE IA.

Por: Carlos A. FERREYROS SOTO

Doctor en Derecho

Universidad de Montpellier I Francia.

cferreyros@ferreyros-ferreyros.com

RESUMEN

La Declaración conjunta alerta sobre los riesgos generados de imágenes y vídeos realistas por sistemas de IA de personas identificables sin su conocimiento ni consentimiento? especialmente cuando se integran en redes sociales de amplio acceso, proponiendo medidas mínimas  para desarrolladores y usuarios de estos sistemas y una respuesta regulatoria coordinada a nivel global.

El principal problema es la proliferación de imágenes íntimas no consentidas, contenidos difamatorios y otras imágenes dañinas representando a personas reales, Dañando particularmente a niños y grupos vulnerables (pedofilia, ciberacoso, explotación, etc.).

La Declaración política conjunta anexa no es vinculante per se, pero ha sido adoptada por más de sesenta autoridades de protección de datos y privacidad de múltiples Estados – entre ellos Perú - y entidades geopolíticas como la Union Europea y coordinada por la Asamblea Global de Privacidad (GPA) y su Grupo de Trabajo sobre Cooperación Internacional en Materia de Cumplimiento (IEWG).

Los cosignatarios recuerdan las principales obligaciones y expectativas de las organizaciones en el desarrollo de contenido y uso de sistemas generados por IA y su ajuste a los marcos legales aplicables, en particular, las normas de protección de la identidad, intimidad, privacidad, derecho a/sobre la imagen, y, extensivamente al derecho penal.

Sobre esa base, fija algunos principios rectores:

  • Medidas de seguridad sólidas.
  • Transparencia significativa.
  • Mecanismos de reparación.
  • Protección reforzada de la infancia.

Los cosignatarios, autoridades de protección de datos y privacidad de todos los continentes, así como organismos supranacionales como el Comité Europeo de Protección de Datos y el Supervisor Europeo de Protección de Datos se comprometen en la Declaración a compartir información sobre sus estrategias para enfrentar estos riesgos (aplicación de la ley, formulación de políticas, actividades educativas), en la medida en que lo permita su legislación interna. Se pretende así el fomento sistemas de IA innovadores pero respetuosos de los derechos de la persona, y un esfuerzo conjunto ante un riesgo considerado global.

A fin de acceder a normas similares y estándares europeos, las empresas, organizaciones públicas y privadas interesadas en asesorías, consultorías, capacitaciones, estudios, evaluaciones, auditorías sobre el tema, sírvanse comunicar al correo electrónico:cferreyros@ferreyros-ferreyros.com

__________________________________________________________



 Declaración conjunta sobre las imágenes generadas por IA y la protección de la privacidad 23 de febrero de 2026[1]

Los co-signatarios a continuación emiten esta Declaración Conjunta en respuesta a serias preocupaciones sobre los sistemas de inteligencia artificial (IA) que generan imágenes y vídeos realistas que representan a individuos identificables sin su conocimiento y consentimiento.

Si bien la IA puede aportar beneficios significativos para las personas y la sociedad, los avances recientes, en particular, la generación de imágenes y vídeos mediante IA, integrada en plataformas de redes sociales de amplio acceso, ha permitido la creación de imágenes íntimas no consensuadas, representaciones difamatorias y otros contenidos dañinos que representan a personas reales. Preocupan especialmente los posibles daños a los niños y otros grupos vulnerables, como el cíberacoso o la explotación.

Expectativas para las organizaciones

Los cosignatarios recuerdan a todas las organizaciones que desarrollan y utilizan sistemas de generación de contenido de IA que dichos sistemas deben desarrollarse y utilizarse de conformidad con los marcos legales aplicables, incluidas las normas de protección de datos y privacidad.

También destacamos que la creación de imágenes íntimas no consensuadas puede constituir un delito penal en muchas jurisdicciones.

Si bien los requisitos legales específicos varían según la jurisdicción, los principios fundamentales deben guiar a todas las organizaciones que desarrollan y utilizan sistemas de generación de contenido de IA, incluidos:

• Implementar medidas de seguridad sólidas para prevenir el uso indebido de información personal y la generación de imágenes íntimas no consensuadas y otros materiales dañinos, en particular cuando se representan niños.

• Garantizar una transparencia significativa sobre las capacidades del sistema de IA, las salvaguardas, los usos aceptables y las consecuencias del mal uso.

• Proporcionar mecanismos eficaces y accesibles para que las personas soliciten la eliminación de contenido dañino que involucre información personal y responder rápidamente a dichas solicitudes.

• Abordar los riesgos específicos que enfrentan los niños mediante la implementación de medidas de protección mejoradas y brindando información clara y apropiada para su edad a niños, padres, tutores y educadores.

Respuesta coordinada

Los daños que surgen de la generación no consentida de contenido íntimo, difamatorio o de otro modo dañino que representa a personas reales son significativos y exigen atención regulatoria urgente.

Para fomentar el desarrollo de una IA innovadora y que proteja la privacidad, los firmantes de esta declaración se unen para expresar su preocupación por los posibles daños derivados del uso indebido de los sistemas de generación de contenido de IA. Los firmantes se proponen compartir información sobre sus estrategias para abordar estas preocupaciones, que pueden incluir la aplicación de la ley, la formulación de políticas y la educación, según corresponda y en la medida en que dicho intercambio sea coherente con la legislación aplicable. Esto refleja nuestro compromiso compartido y esfuerzo conjunto para abordar un riesgo global.

Conclusión

Hacemos un llamamiento a las organizaciones para que colaboren de forma proactiva con los reguladores, implementen salvaguardas sólidas desde el principio y garanticen que el avance tecnológico no se produzca a expensas de la privacidad, la dignidad, la seguridad y otros derechos fundamentales, en particular de los más vulnerables de nuestra sociedad global.

Firmantes

Esta Declaración Conjunta ha sido coordinada por la Asamblea Global de Privacidad (GPA) Grupo de Trabajo sobre Cooperación Internacional en Materia de Cumplimiento (IEWG) y está firmado por los siguientes cosignatarios:

Albania

Information and Data Protection Office of the Republic of Albania

Besnik Dervishi, Information and Data Protection Commissioner

 

Andorra

Andorran Data Protection

Agency Agència Andorrana de Protecció de Dades

Jèssica Obiols, Head of the Andorran Data Protection Agency Argentina Agency of Access to Public Information – DPA

 

Argentina

Agencia de Acceso a la Información Pública

Mg. Beatriz de Anchorena, Commissioner of the Agency to Access to Public Information

Autonomous City of Buenos Aires (Argentina)

Ombudsman’s Office of the Autonomous City of Buenos Aires

 

Defensoría del Pueblo de la Ciudad Autónoma de Buenos Aires

María Rosa Muiños, Defensora del Pueblo / Ombudsman

 

State of Queensland (Australia)

 

Office of the Information Commissioner, Queensland

Joanne Kummrow, Information Commissioner Alexander White, Privacy Commissioner

 

Basque (Spain)

 

Basque Data Protection Authority Autoridad Vasca de Protección de Datos

Unai Aberasturi Gorriño, President

 

Belgium

Data Protection Authority Autorité de la protection des données –Gegevensbeschermingsautoriteit

Koen Gorissen, Chairman of the Board

Alexandra Jaspar, Member of the Board

Peter Van den Eynde, Member of the Board

 

Bermuda

Office of the Privacy Commissioner of Bermuda

E. Angie Farquharson, Acting Privacy Commissioner  

 

Brazil

National Data Protection Agency Agência Nacional de Proteção de Dados

Waldemar Gonçalves Ortunho Junior, Director-President

 

Bulgaria

Commission for Personal Data Protection of the Republic of Bulgaria

Комисия за защита на личните данни

Borislav Bozhinov, Chairman

 

Burkina Faso

Commission for Information Technology and Freedoms Commission de l’Informatique et des Libertés Kouliga

Désiré Yameogo, Director of Legal Affairs and Litigation

 

Canada

Office of the Privacy Commissioner of Canada

Philippe Dufresne, Commissioner

 

Province of Alberta (Canada)

Office of the Information and Privacy Commissioner of Alberta

Diane McLeod, Information and Privacy Commissioner

 

Province of British Columbia (Canada)

Office of the Information and Privacy Commissioner for British Columbia

Michael Harvey, Information and Privacy Commissioner for British Columbia

 

Province of Newfoundland and Labrador (Canada)

Office of the Information and Privacy Commissioner for Newfoundland and Labrador

Kerry Hatfield, Commissioner

 

Province of Quebec (Canada)

Commission on Access to Information of Quebec Commission d’accès à l’information du Québec

Me Lise Girard, President and Member

Me Naomi Ayotte, Vice-President, Supervision Section and Administrative Judge

Me Steeven Plante, Member, Supervision Section and Administrative Judge

 

Republic of Cabo Verde

National Commission of Data Protection Comissão Nacional de Proteção de Dados

Faustino Varela Monteiro, President

Catalonia (Spain) Catalan Data Protection Authority Autoritat Catalana de Protecció de Dades Meritxell Borràs i Solé, Director

Colombia

Superintendence of Industry and Commerce of Colombia Superintendencia de Industria y Comercio

Juan Carlos Upegui, Deputy Superintendent for the Protection of Personal Data Croatia

 

Croatian

Personal Data Protection Agency Agencija za zaštitu osobnih podataka

Zdravko Vukić, Director Cyprus Commissioner for Personal Data Protection,

 

Cyprus

Γραφείο Επιτρόπου Προστασίας Δεδομένων Προσωπικού Χαρακτήρα

Maria Christofides, Commissioner for Personal Data Protection

 

Ecuador

Superintendence of Personal Data Protection of Ecuador Superintendencia de Protección de Datos Personales del Ecuador

Fabrizio Roberto Peralta Díaz, Superintendent of Data Protection European Data Protection Board

 

European Data Protection Board

Anu Talus, Chair of the European Data Protection Board

European Data Protection Supervisor

European Data Protection Supervisor

Wojciech Wiewiórowski, European Data Protection Supervisor

 

France

National Commission for Information Technology and Civil Liberties Commission Nationale de l’Informatique et des Libertés

Marie-Laure Denis, President

 

Germany

Federal Commissioner for Data Protection and Freedom of Information Bundesbeauftragte für den Datenschutz und die Informationsfreiheit

Andreas Hartl, Deputy Commissioner

 

Ghana

Data Protection Commission Ghana

Dr Arnold Kavaarpuo, Executive Director / Commissioner

Quintin Akrobotu, Director, Regulatory & Compliance

Abigail Tibuah Yeboah, Head of Administration

Gibraltar Gibraltar Regulatory Authority John Paul Rodriguez, Chief Executive Officer

Bailiwick of Guernsey

Office of the Data Protection Authority

Brent Homan, Data Protection Commissioner

 

Hong Kong (SAR), China

Office of the Privacy Commissioner for Personal Data

個人資料私隱專員公署

Ada Chung Lai-Ling, Privacy Commissioner

 

Iceland

The Icelandic Data Protection Authority

Persónuvernd

Helga Þórisdóttir, Data Protection Commissioner

Helga Sigríður Þórhallsdóttir, Head of International Affairs & Guidance

 

Ireland

Data Protection Commission Coimisiún um Chosaint Sonaí

Dr. Des Hogan, Commissioner for Data Protection and Chairperson

Dale Sunderland, Commissioner for Data Protection

Niamh Sweeney, Commissioner for Data Protection

 

Isle of Man

Isle of Man Information Commissioner

Alexandra Delaney-Bhattacharya, Information Commissioner

 

Israel

Israeli Privacy Protection Authority

תויטרפה תנגהל תושרה

Gilad Semama, Commissioner  

 

Italy

Italian Data Protection Authority Garante per la Protezione dei dati Personali

Pasquale Stanzione, President

Ginevra Cerrina Feroni, Vice-President

Agostino Ghiglia, Board Member

 

Bailiwick of Jersey

Jersey Office of the Information Commissioner

Paul Vane, Information Commissioner

 

Kenya

Office of the Data Protection Commissioner

Oscar Otieno, Deputy Data Commissioner

 

Kosovo

Information and Privacy Agency

Krenare Sogojeva Dërmaku, Commissioner for Information and Privacy

Malta Office of the Information and Data Protection Commissioner of Malta Ian Deguara, Information and Data Protection Commissioner

Mauritius

Mauritius Data Protection Office

Drudeisha Madhub, Data Protection Commissioner

 

State of Mexico and Municipalities (Mexico)

Institute for Transparency, Access to Public Information and Personal Data Protection of the State of Mexico and Municipalities

Instituto de Transparencia, Acceso a la Información Pública y Protección de Datos Personales del Estado de México y Municipios

Dr. José Martínez Vilchis, President Commissioner

Rosario Mejía Ayala, Commissioner

Sharon Cristina Morales Martínez, Commissioner

Luis Gustavo Parra Noriega, Commissioner

Guadalupe Ramírez Peña, Commissioner

 

State of Nuevo León (Mexico)

Institute for Transparency, Access to Public Information and Personal Data Protection of Nuevo León

Instituto de Transparencia, Acceso a la Información Pública y Protección de Datos Personales del Estado de Nuevo León

Brenda Lizeth González Lara, President Commissioner

Félix Fernando Ramírez Bustillos, Commissioner

María Teresa Treviño Fernández, Commissioner

 

Mexico

Personal Data Protection Unit of the Anti-Corruption and Good Government Secretariat Unidad de Protección de Datos Personales de la Secretaría Anticorrupción y del Buen Gobierno

Monaco

Personal Data Protection Authority

Autorité de Protection des Données Personnelles

Agnès Lepaulmier, Secretary General

 

Netherlands

Dutch Data Protection Authority

Autoriteit Persoonsgegevens

Monique Verdier, Deputy Chair

 

New Zealand

Office of the Privacy Commissioner, New Zealand

Michael Webster, Privacy Commissioner

 

Nigeria

Nigeria Data Protection Commission

Dr. Vincent Olatunji, National Commissioner / Chief Executive Officer

 

Norway

Norwegian Data Protection Authority Datatilsynet Tobias Judin, Head of International

Panama

The National Authority for Transparency and Access to Information

Autoridad Nacional de Transparencia y Acceso a la Información

Licda. Sheyla Castillo de Arias, Director

 

Peru

National Authority for the Protection of Personal Data

Autoridad Nacional de Protección de Datos Personales

Eduardo Luna Cervantes, Director

 

Philippines

National Privacy Commission, Philippines

Atty. Johann Carlos S. Barcena, CESO III, Privacy Commissioner

Atty. Jose Amelito S. Belarmino, MSc, Deputy Privacy Commissioner

Atty. Juan Paolo F. Fajardo, Deputy Privacy Commissioner

 

Poland

Personal Data Protection

Office Urząd Ochrony Danych Osobowych

Mirosław Wróblewski, President of the Office

 

Portugal

Portuguese Data Protection Supervisory Authority

Comissão Nacional de Proteção de Dados

Prof. Dra. Paula Meira Lourenço, President

 

Singapore

Personal Data Protection Commission of the Republic of Singapore

Denise Wong, Deputy Commissioner

 

Slovenia

Information Commissioner of the Republic of Slovenia

Informacijski pooblaščenec

dr. Jelena Virant Burnik, Information Commissioner

 

Republic of Korea

Personal Information Protection Commission

개인정보 보호위원회

Kyung Hee Song, Chairperson

 

Switzerland

Federal Data Protection and Information Commissioner

Eidgenössischer Datenschutz- und Öffentlichkeitsbeauftragter

Adrian Lobsiger, Federal Data Protection and Information Commissioner

 

Emirate of Abu Dhabi (United Arab Emirates)

ADGM Office of Data Protection

Sami Mohammed, Commissioner of Data Protection

 

Emirate of Dubai (United Arab Emirates)

Dubai International Financial Centre Authority

Lori Baker, Vice President – Data Protection & Regulatory Compliance

 

United Kingdom

UK Information Commissioner’s Office

William Malcolm, Executive Director Regulatory Risk & Innovation

 

Uruguay

Regulatory and Control Unit for Personal Data Unidad Reguladora y de Control de Datos Personales

Executive Council



[1] Este texto ha sido traducido del inglés al castellano por el suscrito con la ayuda de Google Translator. El enlace al texto original en inglés es: https://www.edps.europa.eu/system/files/2026-02/23-02-26_joint-statement-ai-generated-imagery_en.pdf