martes, 10 de marzo de 2026

BORRADOR DEL CÓDIGO DE PRÁCTICAS SOBRE LA TRANSPARENCIA DEL CONTENIDO GENERADO POR IA - UNION EUROPEA.

 Por: Carlos A. FERREYROS SOTO

Doctor en Derecho

Universidad de Montpellier I Francia.

cferreyros@ferreyros-ferreyros.com

RESUMEN

La segunda versión del borrador del Código de Prácticas sobre la Transparencia del Contenido Generado por IA se refiere a las actualizaciones de los códigos relacionados con la Ley de IA de la UE, como el Código de IA de Propósito General (GPAI) y el Código del Artículo 50 sobre el marcado de contenido de IA, que se alinean con sus intereses en materia de identidad digital, protección de datos y marcos regulatorios como el RGPD y las leyes peruanas. Estos borradores enfatizan el cumplimiento, la proporcionalidad y la mitigación de riesgos para los proveedores de IA, lo que podría ser relevante para las billeteras digitales y la interoperabilidad fintech.

Este borrador agregó obligaciones detalladas para los proveedores de modelos GPAI, incluyendo medidas de proporcionalidad adaptadas al tamaño del proveedor, políticas internas de derechos de autor y la debida diligencia de conjuntos de datos de terceros. Introdujo ejemplos concretos e indicadores clave de rendimiento (KPI) para modelos de riesgo sistémico, refinando la estructura del primer borrador en objetivos, compromisos y medidas. Esto crea un marco con garantía de futuro aplicable después de agosto de 2025 bajo la Ley de IA.

El borrador simplifica los compromisos de los proveedores e implementadores de IA generativa, introduciendo un enfoque de marcado de dos capas (metadatos y marca de agua) con elementos opcionales como la identificación de huellas dactilares. Elimina las taxonomías que distinguen el contenido generado por IA del asistido por IA, reduce las cargas de cumplimiento normativo e incorpora la retroalimentación de las partes interesadas para mayor flexibilidad. El enfoque se centra en el etiquetado proporcionado de deepfakes y textos de interés público.

Estos códigos respaldan las iniciativas de identidad digital de la UE, como las billeteras digitales eIDAS 2.0, y enfatizan la seguridad y la interoperabilidad que podrían fundamentar la normativa fintech peruana (por ejemplo, las fases de las billeteras digitales bajo el Decreto Supremo 011-2026-EF). No existe una "segunda versión" que coincida directamente con los borradores de identidad digital peruanos, pero los principios de los códigos de IA sobre gobernanza de datos se alinean con su trabajo en el cumplimiento de la Ley N.° 32413 y la norma ISO 27001.

La Comisión recabará información sobre el segundo proyecto de los participantes y observadores del Código de buenas prácticas hasta el 30 de marzo. Se espera que el código esté finalizado a principios de junio de este año. 

A fin de acceder a normas similares y estándares europeos, las empresas, organizaciones públicas y privadas interesadas en asesorías, consultorías, capacitaciones, estudios, evaluaciones, auditorías sobre el tema, sírvanse comunicar al correo electrónico:cferreyros@ferreyros-ferreyros.com

_______________________________________________



  • POLICY AND LEGISLATION
  • Publicación 05 marzo 2026

La Comisión publica el segundo proyecto de Código de Buenas Prácticas sobre Marcado y Etiquetado de Contenidos Generados por IA


Information notification

Esto es una traducción automática facilitada por el servicio eTranslation de la Comisión Europea para ayudarle a comprender esta página. Por favor, lea las condiciones de uso. Para leer la versión original, acceda a la página fuente
Para ayudar a los proveedores y responsables del despliegue a cumplir los requisitos de marcado y etiquetado de los contenidos generados por IA en virtud del artículo 50 de la Ley de IA, la Comisión está facilitando el desarrollo de un código de prácticas voluntario.

Esta segunda versión, elaborada por expertos independientes, integra las observaciones escritas de cientos de participantes y observadores, incluidos la industria, el mundo académico, la sociedad civil y otras partes interesadas. La retroalimentación se recopiló a través de una encuesta de la UE, reuniones de partes interesadas y talleres celebrados en enero de 2026, como parte del proceso de redacción del código de prácticas. El proyecto también incorpora contribuciones de los Estados miembros (presentadas a través del Consejo de IA) y de diputados al Parlamento Europeo (representados en el grupo de trabajo IMCO-LIBE que supervisa la aplicación de la Ley de IA).
El nuevo proyecto de código se ha racionalizado y simplificado, proporcionando más flexibilidad a los signatarios, reduciendo la carga de cumplimiento e incorporando otras consideraciones técnicas para mejorar la claridad jurídica y la practicidad. Promueve el uso de normas abiertas para el marcado de contenidos de IA y un icono de la UE para el etiquetado a fin de simplificar el cumplimiento y reducir los costes.

Secciones del proyecto de código de

 buenas prácticas 

El proyecto de código de buenas prácticas para la transparencia de los contenidos generados por la IA se estructura en dos secciones, cada una de las cuales aborda diferentes aspectos de la transparencia y la regulación para los proveedores y los implementadores, respectivamente. 

Sección 1

La sección 1 aborda el marcado y la detección de contenidos de IA y está dirigida a los proveedores de sistemas de IA generativa dentro del ámbito de aplicación del artículo 50, apartado 2, de la Ley de IA. En comparación con el primer borrador, esta sección del código ha experimentado cambios significativos e introducido una mayor flexibilidad y claridad.

Esta revisión elimina y consolida varias medidas e introduce elementos opcionales, garantizando al mismo tiempo que todas las medidas sigan siendo técnicamente viables y proporcionadas. Los compromisos clave incluyen un enfoque revisado de marcado de dos capas que implica metadatos y marcas de agua seguros, toma de huellas dactilares y registro opcionales, y protocolos para la detección y verificación.

Sección 2

La sección 2, dirigida a los implementadores de sistemas de IA, se centra en el etiquetado de falsificaciones profundas y publicaciones de texto relativas a asuntos de interés público en el ámbito de aplicación del artículo 50, apartado 4, de la Ley de IA. En relación con el primer proyecto, esta sección adopta un enfoque más flexible y orientado a la práctica. Se ha reestructurado para simplificar y racionalizar los compromisos, mientras que la taxonomía que distingue el contenido generado por IA del contenido asistido por IA se ha eliminado por completo. La sección 2 presenta ahora requisitos de diseño y colocación aplicables a iconos, etiquetas o descargos de responsabilidad, garantizando un nivel mínimo de uniformidad, al tiempo que permite a los signatarios concebir soluciones adaptadas a sus necesidades. Además, la sección propone un grupo de trabajo para desarrollar un futuro icono de la UE uniforme e interactivo, con el apoyo discrecional de los signatarios.

El código también ha definido los regímenes específicos aplicables a las obras artísticas, creativas, satíricas y ficticias y a las publicaciones de texto bajo revisión humana o control editorial, facilitando la dependencia de las prácticas o procedimientos existentes.  

El anexo del segundo proyecto incluye ahora ejemplos ilustrativos de un posible icono de la UE que se pondrá gratuitamente a disposición de los signatarios. Estos ejemplos (y otros) se discutirán con las partes interesadas como parte del próximo conjunto de talleres.  

Próximos pasos

La Comisión recabará información sobre el segundo proyecto de los participantes y observadores del Código de buenas prácticas hasta el 30 de marzo. Se espera que el código esté finalizado a principios de junio de este año. 

Las normas relativas a la transparencia de los contenidos generados por IA serán aplicables el 2 de agosto de 2026. 

Descargue a continuación el segundo borrador del código de prácticas.

Descargas



lunes, 9 de marzo de 2026

BALANCE DE FUTURO: HERRAMIENTA IA PARA LA TOMA DE DECISIONES DE RESPONSABLES POLITICOS - UN & EU

 Por: Carlos A. FERREYROS SOTO

Doctor en Derecho

Universidad de Montpellier I Francia.

cferreyros@ferreyros-ferreyros.com

RESUMEN

La herramienta Futures Balance propone una solución amigable basada en Inteligencia Artificial, que respalda la toma de decisiones de los responsables políticos durante el proceso de Evaluación de Impacto (EI). Fue desarrollado por el Beyond Lab de las Naciones Unidas en colaboración con el Centro Común de Investigación de la Comisión Europea y el Laboratorio de Políticas de la UE.

La finalidad y base conceptual de la herramienta responde a la necesidad de respaldar a los responsables de políticas para a evaluar de forma sistemática las implicaciones a largo plazo e intergeneracionales de políticas e inversiones en ámbitos múltiples y horizontes temporales, superando los ciclos políticos cortos y las visiones estrechas de costo-beneficio. Está herramienta está conceptualmente basada en el desarrollo regenerativo y en una “economía para el futuro”, tratando las decisiones actuales como creadoras de activos y pasivos futuros para distintas generaciones.

La metodología central y funcionamiento de Futures Balance toma la metáfora y estructura de un balance contable para mapear cómo una política genera “créditos” (activos, oportunidades, resiliencia) y “débitos” (riesgos, cargas, bloqueos) a lo largo del tiempo y entre distintos ámbitos de política. Mediante una interfaz interactiva facilitada por IA, los participantes valoran y describen cualitativamente estos efectos por horizonte temporal y dominio de política, haciendo explícitos desde el inicio los compromisos, desbordamientos y dependencias de trayectoria.

En la práctica, la herramienta se utiliza en talleres de facilitación en los que los equipos de política co‑construyen un Balance de Futuros para una propuesta determinada, refinando iterativamente las hipótesis y explorando vías alternativas. En su estado actual de prototipo, se centra en dos funciones principales: ayudar a los usuarios a comprender los impactos a largo plazo y transversales, y apoyar el desarrollo de políticas y opciones de inversión más equitativas  entre generaciones.

A fin de acceder a normas similares y estándares europeos, las empresas, organizaciones públicas y privadas positivas en asesorías, consultorías, capacitaciones, estudios, evaluaciones, auditorías sobre el tema, sírvanse comunicar al correo electrónico: cferreyros@ferreyros-ferreyros.com

______________________________________________________



El presente documento fue traducido del inglés al caastellano por el suscrito, em enlace al texto original obra en:   https://publications.jrc.ec.europa.eu/repository/handle/JRC145994

INFORME DE CIENCIA PARA POLÍTICAS

La Herramienta de Balance de Futuros: Apoyo al Análisis de Políticas con Visión de Futuro

2026 

ASPECTOS DESTACADOS

 ‣ Cerrando la Brecha en las Etapas Iniciales: Transforma la Equidad Intergeneracional (IGF) de principio a práctica al integrarla directamente en la toma de decisiones en las etapas iniciales, moldeando el planteamiento de problemas, el establecimiento de objetivos y los criterios de evaluación desde el principio.

 ‣ IA con Participación Humana: Combina las fortalezas del razonamiento asistido por IA con el juicio y la supervisión humanos, garantizando la transparencia, la rendición de cuentas y un control significativo en deliberaciones políticas complejas.

 ‣ Conectando Ciencia y Práctica: Basada en la Evaluación Social Multicriterio (SMCE), la herramienta proporciona un punto de entrada estructurado y fácil de usar para métodos científicos de análisis de decisiones.

 Introducción

 La herramienta de Balance de Futuros presenta una solución basada en IA y fácil de usar que apoya la toma de decisiones de los responsables políticos en las etapas iniciales. Desarrollada por el Beyond Lab de las Naciones Unidas en colaboración con el Laboratorio de Análisis de Decisiones del JRC y el Laboratorio de Políticas de la UE, la Herramienta Balance de Futuros aborda una deficiencia actual en el análisis práctico de políticas, apoyando la aplicación de la Equidad Intergeneracional (IGF) a la hora de definir el problema, establecer los objetivos, definir los criterios y desarrollar las opciones políticas. Marcos como la Evaluación Social Multicriterio (SMCE) y la herramienta SÓCRATES respaldan un riguroso análisis ex ante según las Directrices de la UE para la Mejora de la Legislación, pero se centran principalmente en las etapas posteriores del proceso de Evaluación de Impacto. Por el contrario, la Herramienta Balance de Futuros los complementa proporcionando apoyo estructurado para las fases exploratorias iniciales. Su principal innovación reside en la integración explícita de consideraciones intergeneracionales en la lógica de evaluación. Esto se logra mediante la evaluación del impacto de las políticas en diferentes dimensiones y horizontes temporales. Las funcionalidades de IA, de asistencia y explicables, apoyan la síntesis de evidencia cualitativa y cuantitativa y facilitan un razonamiento transparente sobre las posibles vías de actuación, mientras que todos los juicios evaluativos permanecen bajo control humano.

 El problema que se debe abordar

 La Equidad Intergeneracional (IGF) se reconoce cada vez más como una prioridad política en la formulación de políticas (EU Policy Lab, 2025; OCDE, 2020; Naciones Unidas, 2024). Sin embargo, a pesar de su impulso, las consideraciones de la IGF a menudo permanecen implícitas al evaluar las implicaciones de las decisiones políticas. Un desafío clave radica en integrar los horizontes temporales, la incertidumbre y los impactos multidimensionales en los marcos de políticas y las herramientas de evaluación. El contexto político de la UE se sustenta en metodologías consolidadas para la toma de decisiones basada en la evidencia, como la Evaluación Social Multicriterio (SMCE), que permite una comparación transparente de las opciones políticas en múltiples dimensiones con una sólida base científica (p. ej., Azzini y Munda, 2020; Munda, 2004, 2008; Basyte Ferrari, 2025). Si bien las Directrices para la Mejora de la Legislación (BRG) de la Comisión Europea proporcionan herramientas analíticas como la SMCE para la evaluación de alternativas políticas en la evaluación de impacto (p. ej., Basyte Ferrari y Ostlaender (2025), Maydell, R. (2025), Maydell et al. (2025)), su aplicación práctica requiere una amplia experiencia, lo que a menudo limita la consideración explícita de las IGF en la formulación inicial de problemas y la selección de criterios.

El Centro Común de Investigación (JRC) ha desarrollado SÓCRATES, una herramienta informática que permite una comparación transparente y con base científica de opciones políticas en múltiples dimensiones, mediante análisis estructurado y pruebas de sensibilidad. Sin embargo, su enfoque principal reside en la fase de evaluación analítica, ofreciendo una orientación limitada durante las etapas iniciales, como la estructuración de problemas, la formulación de objetivos, la selección de criterios y la consideración explícita de horizontes temporales, donde la equidad intergeneracional permanece implícita en lugar de abordarse sistemáticamente. Esto revela la necesidad de instrumentos de apoyo complementarios que puedan guiar a los usuarios en la toma de decisiones temprana de forma estructurada, accesible y metodológicamente coherente, a la vez que se mantienen en consonancia con los estándares de políticas establecidos. También abre el camino para una asistencia de IA cuidadosamente diseñada, siempre que se garanticen plenamente la transparencia, la explicabilidad y la supervisión humana, esenciales para la confianza y la adopción institucional. La Herramienta de Equilibrio de Futuros responde a esta necesidad integrando conceptos de equidad intergeneracional en un flujo de trabajo coherente, transparente y preparado para la formulación de políticas (véase la Figura 1).

La solución propuesta

La Herramienta de Balance de Futuros traduce el vínculo conceptual entre la Equidad Intergeneracional (IGF) y el análisis de políticas basado en SMCE (véase Maydell y Smits, 2026) en una solución práctica basada en software. Diseñada como una herramienta de apoyo a las políticas asistida por IA, ayuda a estructurar el problema de las políticas, guiando su formulación, el establecimiento de objetivos, la definición de criterios y el desarrollo de opciones políticas. No reemplaza las metodologías establecidas, sino que mantiene su interoperabilidad con SÓCRATES. Su principal novedad radica en explicitar y comparar los horizontes temporales y los impactos intergeneracionales de las políticas futuras mediante una lógica de estructuración temporal específica que captura los efectos indirectos a corto, mediano y largo plazo utilizando enfoques con base científica (Maydell y Munda, 2026).

La IA asistida y explicable facilita la síntesis estructurada de evidencia cualitativa y cuantitativa, documentando supuestos y fuentes, manteniendo todos los juicios evaluativos bajo control humano. La herramienta no automatiza los juicios de valor (p. ej., la ponderación de dimensiones o la clasificación final de opciones) ni sustituye el escrutinio experto/legal. Su interfaz de usuario intuitiva facilita la aplicación de métodos avanzados de análisis de decisiones, lo que permite un análisis de contexto más sencillo y eficiente que fundamenta futuras decisiones y políticas (Gadbled et al., 2024; Umbach, 2024). El enfoque general promueve el aprendizaje institucional innovador en la interfaz entre el diseño de políticas, el análisis de decisiones y la gobernanza anticipatoria. El desarrollo actual se centra en el desarrollo de un prototipo funcional para una aplicación piloto, alineado con la terminología y los flujos de trabajo de la UE. Entre los resultados clave se incluyen la integración de la equidad intergeneracional en el diseño de políticas en la fase inicial y la consideración estructurada de diferentes horizontes temporales y efectos en múltiples dimensiones.

Integración metodológica

La herramienta Futures Balance se ha desarrollado como un instrumento exploratorio de alto nivel con el objetivo de alinearse con la normativa de la Comisión Europea y los estándares del RGPD. Al restringir su uso a la exploración de alternativas políticas en lugar de a la toma de decisiones autónoma o la redacción de textos legislativos, la herramienta garantiza un enfoque con participación humana que mitiga los riesgos asociados al sesgo y la responsabilidad legal. Para garantizar la soberanía de los datos, el marco prohíbe estrictamente el procesamiento de información no pública o sensible. Si bien se encuentra actualmente en su fase de prototipo, con mejoras iterativas de fiabilidad en curso, la herramienta está diseñada para mantener el rigor científico mediante la integración de información generada por IA en los procesos de formulación de políticas establecidos. Esta metodología, validada por el JRC, garantiza que las evaluaciones de políticas se mantengan transparentes, basadas en la evidencia y metodológicamente sólidas, apoyando una toma de decisiones coherente y con visión de futuro en las dimensiones social, tecnológica, ambiental y económica.

Recorrido ejemplar por la herramienta (caso de uso ilustrativo: Vivienda social)

Este breve recorrido ilustra cómo el prototipo actual de la Herramienta de Balance de Futuros facilita el diseño de políticas en las etapas iniciales, preparándose para la formulación de problemas, el establecimiento de objetivos, la definición de criterios y el desarrollo inicial de opciones, a la vez que explicita la equidad intergeneracional y los horizontes temporales. El ejemplo se ha simplificado deliberadamente y utiliza la vivienda social como ámbito político ilustrativo.

Paso 1: Crear una política de referencia (definición del problema y objetivos iniciales)

Los usuarios comienzan creando una nueva entrada de política con un pequeño conjunto de datos estructurados. En este ejemplo:

• Nombre de la política: Vivienda justa e innovadora 

• Planteamiento del problema: El aumento del coste de la vivienda y la limitada oferta asequible impiden que los hogares de ingresos bajos y medios accedan a una vivienda estable y segura, mientras que las generaciones mayores suelen ocupar espacios de vivienda comparativamente más amplios.

• Presupuesto: 2500 millones de euros

• Descripción del presupuesto: Apoyo de la UE para la implementación de la nueva política de vivienda.

• Ámbito geográfico: Unión Europea 

• Objetivos: Ampliar la disponibilidad de vivienda asequible; reducir la carga del coste de la vivienda para los hogares vulnerables.

• Población objetivo: Familias de bajos ingresos; jóvenes adultos que acceden al mercado inmobiliario

A partir de estos datos, la herramienta utiliza IA asistida para generar un escenario base (es decir, una narrativa política consistente como punto de partida). Este escenario base no constituye una recomendación, sino una referencia estructurada con la que posteriormente se pueden desarrollar y comparar alternativas. Los usuarios pueden editar cualquier campo de texto para garantizar una completa alineación con el contexto político y la terminología de la UE.

Paso 2: Generar alternativas políticas (desarrollo de opciones estructuradas)

A continuación, los usuarios crean alternativas políticas adicionales seleccionando:

• Áreas de enfoque (p. ej., Energía, Medio Ambiente, Infraestructura, Social, etc.)

• Objetivos (vinculados a las áreas de enfoque)

La herramienta propone opciones alternativas (nombre, breve descripción y razonamiento subyacente) en un formato estandarizado. Para mayor transparencia y trazabilidad, cada alternativa incluye:

• un resumen conciso,

• una breve explicación (por qué esta opción se ajusta al problema y los objetivos), y

• referencias/aportaciones de apoyo que ayudan a los usuarios a comprender cómo se construyó la alternativa.

Todo el contenido es editable. Se espera que los usuarios validen, refinen y, cuando sea necesario, corrijan el texto generado.

En el ejemplo de vivienda, se utilizaron tres opciones para la comparación posterior:

1. Línea base: Vivienda justa e innovadora (política de línea base generada)

2. Alternativa A: Programa de reutilización de suelo urbano (Área de enfoque: Transporte e infraestructura)

3. Alternativa B: Bonos de vivienda con energía renovable (Área de enfoque: Energía)

Paso 3: Comparar alternativas mediante un análisis de efectos indirectos (definición de criterios, estructuración temporal y análisis inicial de compensaciones

Una vez que existen alternativas, la herramienta permite realizar una primera evaluación comparativa mediante un análisis de efectos indirectos. Los usuarios definen:

• Dimensiones (p. ej., Económica, Social, Ambiental)

• Criterios de cada dimensión (definidos por el usuario; la herramienta también puede proponer candidatos)

• Horizontes temporales que reflejan la dinámica intergeneracional (intervalos seleccionables: 0, 2, 5, 10, 15 y 30 años)

En el caso ilustrativo, las tres alternativas se evalúan según la siguiente estructura:

1. Económica: Creación de empleo local

2. Social: Equidad entre residentes mayores y jóvenes

3. Ambiental: Reducción de las emisiones de CO₂

Para cada combinación de alternativa × criterio × marco temporal, la herramienta genera una justificación de puntuación cualitativa asistida por IA que separa explícitamente:

• posibles efectos positivos,

• posibles efectos negativos, y

• una breve síntesis que respalda una clasificación provisional (p. ej., positiva/negativa/neutra).

Fundamentalmente, la clasificación no es fija: los usuarios pueden modificarla cuando el razonamiento no sea convincente o cuando la evidencia adicional modifique la evaluación. Esto es fundamental para el diseño de la herramienta, con participación humana: la IA facilita el pensamiento estructurado y la documentación, mientras que los juicios evaluativos siguen siendo responsabilidad del analista de políticas.

La visión general resultante (ilustrada en la Figura 2) muestra cómo el rendimiento relativo de las alternativas puede variar según los criterios y a lo largo del tiempo, un requisito clave para implementar la equidad intergeneracional en las primeras etapas de la toma de decisiones.

Conclusión y próximos pasos

La Herramienta de Balance de Futuros facilita la integración transparente de la equidad intergeneracional en el análisis de políticas prospectivas. La colaboración con el Beyond Lab de las Naciones Unidas también apoya la difusión internacional y el desarrollo de capacidades en los Estados Miembros de las Naciones Unidas, lo que permite la adaptación a diferentes contextos de gobernanza, manteniendo al mismo tiempo un núcleo metodológico común basado en los principios de la SMCE. El interés inicial de Estados Miembros como España, Alemania, Países Bajos y Finlandia refleja una fuerte demanda de herramientas prácticas y metodológicamente sólidas. Más allá de las aplicaciones individuales, el proyecto contribuye al establecimiento de estándares metodológicos al demostrar cómo las consideraciones a largo plazo e intergeneracionales pueden implementarse sistemáticamente en el diseño de políticas en las etapas iniciales y alinearse coherentemente con herramientas analíticas basadas en SMCE, como SÓCRATES. De este modo, aborda las necesidades de gobernanza e innovación institucional, promoviendo prácticas de toma de decisiones estructuradas, transparentes y con visión de futuro, justas, sistemáticas y basadas en la evidencia.

Los esfuerzos de creación de prototipos se centran actualmente en optimizar las capas frontend, backend y de procesamiento de datos, a la vez que implementan la generación de escenarios basada en IA, la evaluación del impacto a largo plazo y el razonamiento asistido de políticas. La herramienta se está desarrollando para alinearse con los principios de IA confiable y los requisitos emergentes de la Ley de IA de la UE, haciendo hincapié en la transparencia, la trazabilidad y la explicabilidad. Las funcionalidades de IA se limitan a casos de uso asistidos, incluyendo la estructuración de narrativas y alternativas políticas, destacando las implicaciones intertemporales y sugiriendo posibles vías de razonamiento. Al demostrar cómo la IA asistiva y explicable puede integrarse de forma segura en los flujos de trabajo de las políticas, el proyecto también contribuye al fomento de prácticas de IA fiables en las instituciones de la UE.

 Figura 1: Flujo de trabajo de evaluación de políticas actuales y posible introducción de la herramienta Futures Balance que permite un diálogo con SÓCRATES



Fuente: Ilustración propia del Laboratorio de Análisis de Decisiones para el Flujo de Trabajo


 Fuente: Extracto ilustrativo propio de la Herramienta de Balance de Futuros, desarrollada por UN Beyond Lab en colaboración con JRC.

 Referencias

Azzini, I., & Munda, G. (2020). A new approach for identifying the Kemeny median ranking. European Journal of Operational Research, 281(2), 388-401.

Basyte Ferrari, E. (2025). Appraising Policies Through Social Multi‐Criteria Evaluation: Lessons from a Systematic Review of Applications. European Policy Analysis.

Basyte Ferrari, E., and Ostlaender, N. (2025). 20 years of Social Multi-Criteria Evaluation in policy assessment., JRC Report 142635.

EU Policy Lab. (2025). Envisioning Intergenerational Fairness: how future snapshots are inspiring EU strategy. European Commission. https://policy-lab.ec.europa.eu/news/envisioning-intergenerational-fairness-how-future-snapshots-are-inspiring-eu-strategy-2025-11-27_en, 27 November 2025.

Gadbled, R., Georgakakis, D., Gstöhl, S., Schunz, S., & Van Woensel, L. (2024). Introduction: Future-proofing policies – How foresight shapes European Union governance. European Law Journal, 30(3), 349–360.

Maydell, R. (2025). European Governance of Artificial Intelligence: Bridging Uncertainty with Evidence‐Informed Policy Making. Contemporary European Politics, 3(3), e70016.

Maydell, R., Munda, G., Fütterer, M., Aldave de las Heras, L., & Beneš, O. (2025). Multi-criteria decision support for small modular reactors. JRC Report 140704.

Maydell, R., Smits, P. (2026). Impact Assessments and Better Regulation in the light of Intergenerational Fairness. JRC Report 145074.

Maydell R. & Munda G. (2026). Addressing Time in Multi Criteria Decision Analysis using Discounted Outranking Matrices, mimeo.

Munda, G. (2004). Social multi-criteria evaluation: Methodological foundations and operational consequences. European journal of operational research, 158(3), 662-677.

Munda, G. (2008). Social multi-criteria evaluation for a sustainable economy. Berlin, Heidelberg: Springer Berlin Heidelberg.

Munda, G., Azzini, I., Cerreta, M., & Ostlaender, N. (2022). Socrates Manual. KJ-NA-31-327-EN-N (online), https://doi. org/10.2760/015604 (online).

OECD. (2020). Governance for Youth, Trust and Intergenerational Justice: Fit for all Generations? OECD Public Governance Reviews. OECD Publishing.

Umbach, Gaby. Futures in EU governance: Anticipatory governance, strategic foresight and EU Better Regulation. European Law Journal 30.3 (2024): 409-421.

Autoría

Este informe de políticas fue elaborado por Richard Maydell (JRC.S.3 Laboratorio de Análisis de Decisiones) y Nicola Spano (JRC.S.1 Laboratorio de Políticas de la UE).

Descargo de responsabilidad u otros detalles finales

La información y las opiniones expresadas en este informe de políticas son exclusivamente de los autores y no reflejan necesariamente la postura oficial de la Comisión Europea.

Derechos de autor

© Unión Europea, 2026


viernes, 6 de marzo de 2026

IA GENERATIVA Y DERECHOS DE AUTOR - ESTUDIO ENCARGADO POR LA COMISION DE ASUNTOS JURIDICOS DE LA UE.

 Por: Carlos A. FERREYROS SOTO

Doctor en Derecho

Universidad de Montpellier I Francia.

cferreyros@ferreyros-ferreyros.com

RESUMEN

 El presente documento expone el Abstract y el Resumen Ejecutivo del estudio técnico del Parlamento Europeo sobre "IA Generativa y Derechos de Autor: Entrenamiento, Creación y Regulación", encargado por la Comisión de Asuntos Jurídicos (JURI) de la Unión Europea.​

El documento analiza cómo la IA generativa afronta la legislación de derechos de autor de la UE, destacando el desajuste de la excepción de minería de textos y datos (TDM, art. 4 Directiva CDSM), la incertidumbre en la protección de contenidos generados por IA y los riesgos que ello implica para la creatividad europea.

Identifica cinco hallazgos claves: (1) actual excepción de minería de texto y datos, TDM no cubre adecuadamente el entrenamiento generativo; (2) obras generadas íntegramente por IA deben permanecer desprotegidas; pero las híbridas necesitan criterios armonizados; (3) urge un sistema de remuneración legal para cerrar la brecha de valor entre los creadores y los desarrolladores de IA; (4) el panorama de gobernanza fragmentado requiere gobernanza intersectorial; (5) sin reforma oportuna, riesgo de inseguridad jurídica, concentración del mercado y homogeneización cultural. 

Finalmente, el estudio propone una "Prueba de Rendición de Cuentas de Tres Pilares" para evaluar opciones políticas, con tres criterios: rendición de cuentas epistémica (transparencia); rendición de cuentas normativa (asignación justa de derechos e ingresos);  y rendición de cuentas sistémica (supervisión institucional efectiva). Y aventura  tres escenarios futuros: optimista (reglas armonizadas), intermedio (litigios) o regresivo (erosión creativa).

El Abstract y el Resumen Ejecutivo han sido traducidos del inglés al castellano por el suscrito con el auxilio del aplicativo Google Translator; el enlace al texto íntegro y original de 175 págs.; se encuentra en: https://www.europeanrights.eu/public/atti/Studio_del_PE_su_Generative-AI-and-copyright.pdf

 A fin de acceder a normas similares y estándares europeos, las empresas, organizaciones públicas y privadas interesadas en asesorías, consultorías, capacitaciones, estudios, evaluaciones, auditorías sobre el tema, sírvanse comunicar al correo electrónico:cferreyros@ferreyros-ferreyros.com

__________________________________________________________

Generative  AI and Copyright

IA GENERATIVA Y DERECHOS DE AUTOR. Entrenamiento, Creación y Regulación.

Abstract

Este estudio examina cómo la IA generativa desafía los principios fundamentales de la legislación sobre derechos de autor de la UE. Destaca el desajuste legal entre las prácticas de entrenamiento de la IA y las excepciones actuales en materia de minería de textos y datos, así como la incertidumbre sobre el estado del contenido generado por IA. Estos avances plantean riesgos estructurales para el futuro de la creatividad en Europa, cuyo rico y diverso patrimonio cultural depende de la protección continua y la remuneración justa de los autores. El informe exige normas claras sobre las distinciones entre insumos y productos, mecanismos armonizados de exclusión voluntaria, obligaciones de transparencia y modelos de licencia equitativos. Para equilibrar la innovación y los derechos de los autores, se espera que el Parlamento Europeo lidere reformas que reflejen las realidades cambiantes de la creatividad, la autoría y la expresión generada por máquinas. Este estudio fue encargado por el Departamento de Política de Justicia, Libertades Civiles y Asuntos Institucionales del Parlamento Europeo a petición de la Comisión de Asuntos Jurídicos.

RESUMEN EJECUTIVO

La integración de los sistemas de Inteligencia Artificial Generativa (GenAI) en los flujos de trabajo creativos está transformando la forma en que los contenidos son procesados, distribuidos y accedidos en toda la Unión Europea. Estos modelos computacionales de propósito general y a gran escala habilitan nuevas formas de automatización y de síntesis, pero su implementación también altera el equilibrio establecido de derechos y responsabilidades dentro del marco de los derechos de autor. Si bien la innovación no es nada nuevo en la legislación sobre derechos de autor, la IA generativa presenta una prueba sin precedentes de escala, opacidad e impacto económico.

Este estudio identifica cinco hallazgos clave:

(1) La actual excepción de minería de texto y datos (TDM) de la UE no fue diseñada para dar cabida a la naturaleza expresiva y sintética del entrenamiento de la IA generativa, y su aplicación a dichos sistemas corre el riesgo de distorsionar el propósito y los límites de las excepciones de derechos de autor de la UE.

(2) Los productos generados íntegramente por máquinas deben permanecer desprotegidos; las obras asistidas por IA requieren criterios de protección armonizados.

(3) Un sistema de remuneración legal es esencial para cerrar la creciente brecha de valor entre los creadores y los desarrolladores de IA.

(4) El panorama de gobernanza fragmentado subraya la necesidad de respuestas institucionales más coherentes e intersectoriales.

(5) Sin una reforma oportuna, la UE corre el riesgo de inseguridad jurídica, concentración del mercado y homogeneización cultural.

El principal desafío hoy en día no es la innovación tecnológica, sino la reinterpretación instrumental de los principios legales que socavan su coherencia. La respuesta adecuada no es hacer que la ley de derechos de autor se ajuste a la IA, sino garantizar que el desarrollo de la IA respete los principios legales y políticos básicos de los derechos de autor de la UE, incluida la autoría, la originalidad y la remuneración justa.

En este contexto, este estudio - encargado por la Comisión de Asuntos Jurídicos del Parlamento Europeo (JURI) - examina las implicaciones de los sistemas de IA generativa para la ley de derechos de autor de la UE[1] y propone opciones políticas para garantizar la equidad, la transparencia y la claridad legal frente al rápido cambio tecnológico.

Datos de derechos de autor y Entrenamiento: Vacíos Legales y Soluciones alternativas de la Industria.

Un enfoque central de este estudio es el uso del contenido protegido por los derechos de autor como datos de entrenamiento para sistemas de IA generativa. El artículo 4 de la Directiva sobre Derechos de Autor en el Mercado Único Digital (CDSM) establece una excepción de minería de texto y datos (TDM) que permite el uso de dicho contenido a menos que el titular de los derechos haya optado por no hacerlo

Sin embargo, el mecanismo para reservar derechos carece de un estándar armonizado y legible por máquina y presenta importantes desafíos de escalabilidad. Ningún protocolo de etiquetado actual puede rastrear duplicados de forma fiable ni responder a las técnicas de extracción en evolución, lo que socava una implementación efectiva. En este contexto, el estudio considera si restablecer la autorización previa para el entrenamiento de la IA generativa puede ofrecer un marco más sostenible y ejecutable. Los principales desarrolladores ya están avanzando hacia acuerdos de licencia directa con editores, bancos de imágenes y otros titulares de derechos, lo que refleja un creciente reconocimiento de las limitaciones de la excepción actual. Estos avances plantean importantes cuestiones sobre la seguridad jurídica, la equidad y la transparencia.

Resultados generados por IA: Autoría, Protección e Incertidumbre jurídica.

Los resultados de los modelos generativos de IA desafían las nociones tradicionales de autoría y originalidad[2]. Según la legislación de la UE, las obras generadas íntegramente por máquinas sin intervención humana no benefician de la protección de los derechos de autor. Sin embargo, muchos resultados emergen del uso iterativo de herramientas algorítmicas por humanos, lo que plantea interrogantes sobre los límites de la autoría. Los Estados miembros difieren en cómo interpretan dicha autoría híbrida, lo que genera inseguridad jurídica y fragmentación en el mercado interior.

El estudio argumenta que se necesita urgentemente de claridad. El contenido generado íntegramente por máquinas debería permanecer en el dominio público, mientras que los criterios para proteger las obras asistidas por IA deben codificarse en la legislación de la UE. No se recomienda la introducción de nuevos derechos sui generis para el contenido generado por máquinas, ya que corre el riesgo de socavar la coherencia del sistema de derechos de autor. Además de la incertidumbre legal en torno a la autoría híbrida, los resultados generados por IA a partir del procesamiento automatizado plantean importantes desafíos económicos: introducen riesgos de desplazamiento del mercado, socavan las estructuras tradicionales de licencias y corren el riesgo de concentrar el valor en manos de unas pocas plataformas dominantes, desestabilizando así los incentivos para los creadores profesionales. Además, el estudio advierte que la protección de los derechos morales (atribución e integridad) está fragmentada entre los Estados miembros; sin una alineación mínima con la UE, los autores pueden recurrir a la búsqueda del foro más conveniente para detener las distorsiones de la reputación en los resultados de IA. El estudio también identifica dos riesgos estructurales: la erosión de las condiciones de negociación justas para los autores y el desplazamiento de la creatividad humana a través de la saturación automatizada de contenido. Ambos representan fallas del mercado que deben abordarse para preservar una economía creativa diversa y sostenible.

Remuneración Justa: Abordar la Brecha de Valor.

Una preocupación política clave es la ausencia de algún mecanismo que garantice que los creadores sean remunerados cuando sus obras se utilizan para entrenar modelos de IA. Tal como están las cosas, los beneficios económicos generados por el entrenamiento de IA no están acompañados actualmente por mecanismos claros para compensar a los titulares de derechos. Esto socava la estructura de incentivos en la que se basa el derecho de autor.

El estudio explora posibles respuestas, incluyendo el establecimiento de un esquema de remuneración legal. Dicho esquema podría tomar la forma de una licencia colectiva o impuesto sobre los resultados de IA, administrados por organizaciones de gestión colectiva y basados en datos de uso transparentes y auditables. Sin embargo, dicha solución requeriría fuertes salvaguardas, incluyendo obligaciones de divulgación exigibles y supervisión pública. Paralelamente, el estudio también considera si ciertas formas de resultados generados por IA, particularmente cuando desplazan contenido creado por humanos, podrían justificar esquemas de remuneración vinculados a los resultados como un medio para preservar condiciones de mercado justas.

Gobernanza y Aplicación: Responsabilidades Fragmentadas

El panorama institucional de los derechos de autor y la IA está actualmente fragmentado. La responsabilidad se comparte entre los tribunales y las autoridades nacionales, las organizaciones de gestión colectiva (OGC), el Parlamento Europeo (PE), la Comisión Europea, la Oficina de Propiedad Intelectual de la Unión Europea (EUIPO) y la Oficina de IA. Esta difusión de competencias contribuye a una aplicación lenta, lagunas jurisdiccionales e incertidumbre regulatoria.

A fin de abordar las deficiencias de coordinación inmediatas, el estudio recomienda que el Comité JURI establezca un Grupo de trabajo específico sobre IA y derechos de autor para garantizar el seguimiento político y el diálogo estructurado entre comisiones. Paralelamente, se podría convocar un Grupo de expertos de alto nivel (GEAN) por un período de seis meses de duración para elaborar normas técnicas ejecutables y prototipos piloto de remuneración, incluida la evaluación de si una etiqueta de exclusión provisional legible por máquina es una solución viable. En conjunto, estos dos mecanismos ofrecerían una doble vía de aportaciones de expertos y supervisión parlamentaria, allanando el camino hacia un marco institucional más sólido.

Para una gobernanza a largo plazo, el estudio propone crear una Unidad especializada en IA y derechos de autor dentro de la Oficina de IA de la UE, que opere en coordinación con la EUIPO, el Parlamento Europeo, la Comisión Europea y las OGC. Esta unidad apoyaría las auditorías relacionadas con los derechos de autor, la verificación del cumplimiento y la alineación de políticas, lo que garantizaría la coherencia legal y minimizaría los costos administrativos.

Un marco para la rendición de cuentas

El estudio propone una "Prueba de Rendición de Cuentas de Tres Pilares" para evaluar las opciones políticas, con tres criterios: rendición de cuentas epistémica (transparencia sobre sí se usa contenido con derechos de autor en el entrenamiento de IA y cómo se usa), rendición de cuentas normativa (asignación justa de derechos e ingresos) y rendición de cuentas sistémica (supervisión institucional efectiva).

El capítulo 4 mapea cada reforma contra estos criterios para verificar su solidez legal y viabilidad práctica.

Perspectiva de políticas

El estudio describe una vía de reforma centrada en los derechos destinada a fortalecer el control de la autoría y mejorar la claridad legal en el panorama cambiante de la IA generativa. Entre las medidas propuestas se encuentra la recalibración del Artículo 4 de la Directiva CDSM, explorando una transición hacia un sistema predeterminado de autorización previa, respaldado por un registro de permisos unificado y legible por máquina, potencialmente supervisado por la EUIPO. Paralelamente, se esperaría que los desarrolladores de modelos de IA mantengan registros de conjuntos de datos estandarizados e implementen herramientas de trazabilidad (como marcas de agua o huellas dactilares), lo que permitirá una auditoría de extremo a extremo del uso de contenido protegido. Para abordar la brecha de valor, el estudio también propone un mecanismo de remuneración legal que asignaría una parte justa del valor generado por la IA a los titulares de derechos, con un cumplimiento monitoreado a través de auditorías de corpus aleatorias realizadas por la Oficina de IA de la UE. Además, un marco de derechos morales proporcionado tendría como objetivo proteger a los autores contra el daño a la reputación. Una estructura de cumplimiento escalonada garantizaría que los proyectos GPAI sin fines de lucro y de código abierto no se vean indebidamente sobrecargados. Este alivio de "etiqueta amarilla" (hasta ciertos umbrales de cómputo o ingresos) ayudaría a mantener la apertura y la innovación más allá de los actores comerciales dominantes.

Dependiendo del nivel de acción regulatoria tomada por la UE, este estudio describe tres escenarios estratégicos para el sector creativo para 2030. En el resultado más favorable (Escenario optimista - Progreso guiado), reglas de transparencia armonizadas, mecanismos de remuneración ejecutables y participación activa de la UE en el desarrollo de modelos fomentan la seguridad jurídica y una economía creativa próspera. Un escenario de término medio (Intermedio - Statu quo litigioso) surge de la implementación fragmentada o parcial, lo que lleva a ambigüedad legal, aplicación desigual y estancamiento de los ingresos. En el peor escenario (Regresivo - Erosión creativa), la inacción continua permite el uso descontrolado de la IA, erosionando los derechos, socavando los ingresos de los creadores y aplanando la diversidad cultural. Estos escenarios ilustran lo que está en juego y por qué la intervención oportuna y coordinada es esencial.

Conclusión

Explorar una transición hacia un modelo estructurado basado en permisos puede representar un paso necesario para restaurar la coherencia y la seguridad jurídica dentro del marco de derechos de autor de la UE. Los sistemas de IA generativa operan a una escala y una opacidad que la legislación de derechos de autor de la UE nunca fue diseñada para abordar. Para defender los valores fundamentales de los derechos de autor, la UE debería emprender reformas específicas y proporcionadas que refuercen su arquitectura jurídica existente. Un enfoque por fases podría respaldar esta evolución: primero, reforzando los derechos existentes de los autores y deteniendo la erosión de los principios fundamentales de los derechos de autor; y luego, introduciendo mecanismos legales que promuevan la seguridad jurídica, la trazabilidad y una remuneración justa sin imponer cargas transaccionales inviables.

Este estudio describe una ruta hacia dicha reforma, basada en la transparencia, la proporcionalidad y la coherencia sistémica, para que Europa pueda seguir siendo al mismo tiempo favorable a la innovación y protectora de los creadores. Si bien habrá un desacuerdo razonable sobre la ruta regulatoria óptima, las propuestas pretenden ofrecer una respuesta equilibrada que alinee el desarrollo tecnológico con la sostenibilidad cultural y legal. Al reintroducir un enfoque basado en permisos, garantizar una remuneración justa y fortalecer la supervisión, la UE puede posicionarse como líder mundial en el fomento de un régimen de IA y derechos de autor que sea responsable y resiliente de cara al futuro.



[1] En sentido estricto  "La legislación europea sobre derechos de autor" es una expresión abreviada, ya que no existe un sistema unificado de derechos de autor a nivel de la Unión Europea. Más bien, cada uno de los veintisiete Estados miembros de la UE mantiene su propia legislación nacional sobre derechos de autor. El papel de la UE ha sido principalmente armonizar aspectos específicos de estas leyes nacionales a través de una serie de directivas, lo que ha dado lugar a un marco jurídico parcialmente convergente en toda la Unión.

[2] En aras de la legibilidad, este estudio ocasionalmente utiliza expresiones como 'contenido generado por IA' o 'resultados generativos'. Estos deben entenderse como una abreviatura de 'resultados resultantes generados de procesos computacionales automatizados que utilizan modelos de IA' y no implican autoría, intencionalidad o agencia.