Por: Carlos A. FERREYROS SOTO
Doctor en Derecho
Universidad de Montpellier I Francia.
cferreyros@ferreyros-ferreyros.com
RESUMEN
La Ley de Inteligencia
Artificial (“Ley de IA”) de la UE está vigente desde el 1 de agosto de 2024 pero
el próximo 2 de agosto de 2026 se registrará la entrada principal más
importante de la misma, cuando se aplique de forma general a la mayoría de los
sistemas y entren en juego las obligaciones restantes, especialmente para los sistemas
de alto riesgo para las empresas y transparencia.
Desde el mes de
agosto de 2026, se establecen obligaciones aplicables los sistemas de alto
riesgo basado en un principio
reforzado de responsabilidad que recae en proveedores, importadores, distribuidores
y operadores de sistemas quienes deben cumplir requisitos estrictos de gestión
de riesgos, gobernanza de datos, documentación técnica, trazabilidad,
supervisión humana, precisión, robustez y ciberseguridad en productos o
servicios ofrecidos en la UE, incluso si la tecnología fue desarrollada fuera
de Europa. En la práctica, las obligaciones más significativas recaerán sobre
quienes implantan estos sistemas en el mercado o lo operan en contextos
sensibles como empleo, educación, crédito, salud, seguridad o justicia.
Además, para
ciertos usos de riesgo limitado, entran en juego las obligaciones de transparencia:
expresados como garantía de información, cuando el usuario interactúa con un
chatbot o en la identificación de contenidos generados por ellos cuando
proceda.
Las obligaciones prácticas mínimas para 2026
serán:
- Identificar
si el sistema usado es de riesgo prohibido, alto, limitado o mínimo.
- Preparar la documentación
técnica y evidencia de cumplimiento antes de su despliegue.
- Implantar controles
de supervisión humana y criterios de intervención o de apagado.
- Revisar datos,
trazabilidad y calidad del modelo para reducir sesgos y errores.
- Asegurar ciberseguridad
y monitoreo continuo del sistema.
- Cumplir las obligaciones
de transparencia cuando el sistema interactúe con personas o en la
identificación de contenidos generados por chatbot.
A fin de acceder a normas similares y
estándares europeos, las empresas, organizaciones públicas y privadas
interesadas en asesorías, consultorías, capacitaciones, estudios, evaluaciones,
auditorías sobre el tema, sírvanse comunicar al correo electrónico:cferreyros@ferreyros-ferreyros.com
________________________________________________________
El 2026 marca la entrada en vigor de
la tercera parte de la Ley de IA , la más estructurante para
las empresas.
La normativa prevé una implementación gradual de sus disposiciones. Desde febrero de 2025, se aplican las normas que prohíben los sistemas de IA que presenten un riesgo inaceptable.
El 2 de agosto de 2025 entraron en vigor las obligaciones relativas a los modelos de IA de propósito general.
A partir del 2 de agosto de 2026, entrarán en vigor todas las demás obligaciones contempladas en la Ley de IA. Esta fecha límite incluye la mayoría de los requisitos organizativos, técnicos y de documentación impuestos a las partes interesadas, con la excepción de aquellos aplicables a los productos que incorporan sistemas de IA de alto riesgo, cuya entrada en vigor se pospone al 2 de agosto de 2027.
Obligaciones aplicables a los sistemas de IA de alto riesgo
La Ley de IA establece un conjunto de obligaciones basadas en un principio reforzado de responsabilidad, que recae sobre los proveedores, importadores, distribuidores y operadores de sistemas de IA de alto riesgo.
Estos sistemas son aquellos que, debido a su finalidad y ámbito de aplicación, pueden tener un impacto significativo en los derechos fundamentales, la seguridad o la salud de las personas, especialmente en los ámbitos de la biometría, la educación, la formación profesional, el empleo y los recursos humanos, la justicia o la aplicación de la ley.
Por ello, están
sujetos a requisitos regulatorios más estrictos que implican, de manera muy
concreta, una estructuración de la gobernanza de los proyectos de IA, y en
particular:
·
la implementación de
un sistema de gestión de riesgos que abarque todo el ciclo de vida del sistema
de IA, así como un sistema de gestión de calidad destinado a garantizar el
cumplimiento normativo;
·
el uso de conjuntos
de datos de capacitación, validación y prueba de alta calidad, relevantes,
representativos y apropiados para el propósito, junto con prácticas de
gobernanza estrictas diseñadas para prevenir y corregir sesgos y violaciones de
los derechos fundamentales;
·
el desarrollo de un
manual de usuario que describa el funcionamiento del sistema de IA de forma
suficientemente transparente, para que los implementadores puedan comprender
las limitaciones, las condiciones de uso y los resultados producidos;
·
la implementación de
mecanismos de control humano eficaces durante la fase de uso del sistema, en
particular mediante el uso de interfaces hombre-máquina adecuadas;
·
la integración de
funcionalidades de registro que garanticen un nivel de trazabilidad
proporcional al destino del sistema de IA, a lo largo de su ciclo de vida;
·
el establecimiento de
una declaración de conformidad de la UE y la colocación del marcado CE;
·
notificar los
incidentes graves a las autoridades de vigilancia del mercado de los Estados
miembros afectados;
·
el establecimiento de
una documentación técnica completa que permita el cumplimiento de la normativa.
Obligaciones de transparencia
Las obligaciones de transparencia establecidas en la Ley de IA también entrarán en vigor el 2 de agosto de 2026. Su objetivo es garantizar que los usuarios estén informados cuando se exponen a sistemas de IA o a contenido generado por ellos.
En este sentido:
·
Los proveedores de
sistemas de IA diseñados para interactuar directamente con las personas, como
los chatbots o los asistentes de voz, deben asegurarse de que los usuarios
estén claramente informados de que están interactuando con un sistema de IA;
·
El contenido generado
o modificado por IA (texto, imagen, audio o vídeo) debe identificarse como tal,
en particular mediante marcas legibles por máquina, salvo cuando la IA se
limite a una asistencia técnica menor o no altere sustancialmente los datos de
entrada;
·
Quienes implementen
sistemas de reconocimiento de emociones o de categorización biométrica deben
informar a las personas que están sujetas a este tipo de análisis y que ciertos
usos están expresamente prohibidos, en particular en contextos laborales y
educativos;
·
Los deepfakes o "manipulaciones hiperrealistas" deben ser
denunciados específicamente, con procedimientos adaptados cuando el propósito
sea artístico o satírico;
·
Cuando se publican
textos generados o manipulados por IA para informar al público sobre asuntos de
interés público, debe mencionarse el uso de IA, a menos que una persona
identificada asuma el control editorial efectivo.
No hay comentarios:
Publicar un comentario