martes, 7 de enero de 2025

EL ROL DE LA INTELIGENCIA ARTIFICIAL EN EL PROCESAMIENTO Y LA GENERACIÓN DE NUEVOS DATOS. UNION EUROPEA

  Por: Carlos A. Ferreyros Soto 

Doctor en Derecho

Universidad de Montpellier I Francia.

cferreyros@hotmail.com

RESUMEN

El impacto general de los sistemas de inteligencia artificial (IA) en las empresas, los gobiernos y la economía global es un tema de actualidad. Esto no es sorprendente, considerando que se cree que la IA tiene el potencial de generar cambios radicales y sin precedentes en la forma en que las personas viven y trabajan. El potencial transformador de la IA se origina en gran medida de su capacidad para analizar datos a gran escala y para detectar e internalizar patrones y correlaciones en esos datos que los humanos (o algoritmos totalmente deterministas) tendrían dificultades para identificar. En términos más simples: las IA modernas prosperan especialmente si se las puede entrenar con grandes volúmenes de datos y cuando se las usa en relación con grandes volúmenes de datos.

El presente documento ha sido publicado por la Oficina de Publicaciones de la Unión Europea, Graux, H., Gryffroy, P., Gad-Nowak, M. y Boghaert, L., cuyo título original en inglés es:The role of artificial intelligence in processing and generating new data : an exploration of legal and policy challenges in open data ecosystems, Oficina de Publicaciones de la Unión Europea, 2024. El enlace al texto original se encuentra en: https://data.europa.eu/doi/10.2830/412108

Se incluye la traducción del inglés al castellano (págs. 5 a 24, del total de 62 que contiene el estudio) realizada por el suscrito con la ayuda del aplicativo Google Translator.

A fin de acceder a normas similares y estándares europeos, las empresas, organizaciones públicas y privados interesados en asesorías, consultorías, capacitaciones, estudios, evaluaciones, auditorías sobre el tema, sírvanse comunicar al correo electrónico: cferreyros@hotmail.com

 ____________________________________________________________



Una introducción al impacto potencial de los sistemas de inteligencia artificial en los ecosistemas de datos abiertos

1. Inteligencia artificial y ecosistemas de datos abiertos

El impacto general de los sistemas de inteligencia artificial (IA) en las empresas, los gobiernos y la economía mundial es un tema de actualidad. Esto no sorprende, considerando que se cree que la IA tiene el potencial de generar cambios radicales y sin precedentes en la forma en que las personas viven y trabajan.

El potencial transformador de la IA se origina en gran medida en su capacidad de analizar datos a gran escala y de detectar e internalizar patrones y correlaciones en esos datos que los humanos (o algoritmos totalmente deterministas) tendrían dificultades para identificar. En términos más simples: las IA modernas prosperan especialmente si se las puede entrenar con grandes volúmenes de datos y cuando se las utiliza en relación con grandes volúmenes de datos.

Un ejemplo muy visible de este proceso es la popularidad actual de los sistemas de inteligencia artificial "generativos" (AIS), que son capaces de generar textos, imágenes, vídeos u otros datos aparentemente nuevos a petición del usuario. Lo hacen analizando patrones en grandes volúmenes de datos de entrada (textos, imágenes y vídeos preexistentes), a partir de los cuales deducen patrones comunes. A partir de entonces, basándose en las indicaciones de los usuarios, pueden generar nuevos resultados que reproducen las características de los datos de entrada. Los sistemas de chat de inteligencia artificial generativa han sido ampliamente adoptados por el mercado y permiten generar respuestas de texto rápidas que pueden confundirse fácilmente con respuestas humanas cualificadas. Existen sistemas comparables para salidas de imágenes y vídeos.

Debido a estas características, existe una estrecha relación inherente entre la IA y los datos abiertos. En comparación con otras técnicas informáticas, las IA tienen una capacidad notable para extraer información de grandes conjuntos de datos y producir nuevos resultados útiles; pero para que funcionen de manera eficaz, son esenciales conjuntos sustanciales de datos accesibles, que se puedan utilizar como material de capacitación. La accesibilidad y el uso gratuito de grandes volúmenes de datos son dos de las principales características de los datos abiertos. En otras palabras: los ecosistemas de datos abiertos pueden convertirse -y tal vez ya lo sean- en el material de origen que necesitan las IA de alto rendimiento.

Para que los sistemas de IA (AIS) funcionen correctamente, son necesarios los siguientes tres factores críticos, conocidos como las tres V.

• Volumen de datos: la IA requiere cantidades significativas de datos para su entrenamiento.

• Variedad de datos: las diversas fuentes de datos mejoran las capacidades de la IA y reducen el riesgo de sesgos.

• Veracidad de los datos: unos datos de entrenamiento incorrectos darán como resultado un mal rendimiento, por lo que la veracidad de los datos es crucial.

Las fuentes confiables juegan un papel en la determinación de la calidad de los datos.

Los datos abiertos pueden ayudar a satisfacer estas condiciones previas. Si se considera a la comunidad de datos abiertos, la fiabilidad de las fuentes de datos ayudará a satisfacer el requisito de veracidad. En resumen, los ecosistemas de datos abiertos tienen el potencial de ayudar a construir IA confiables al proporcionar un repositorio de datos de entrenamiento utilizables; e inversamente, la comunidad de datos abiertos puede beneficiarse de las IA al usarlas como una herramienta para rastrear grandes conjuntos de datos y obtener información que de otro modo no sería fácilmente evidente. De esta manera, la combinación de IA y datos abiertos tiene el potencial de revolucionar los ecosistemas de datos, permitiendo la innovación y facilitando la toma de decisiones informada.

Inteligencia artificial y derechos fundamentales

1. Introducción

Sin lugar a dudas, las IA han inaugurado una nueva era, transformando el tejido de nuestra sociedad con sus capacidades transformadoras. Desde la mejora de la eficiencia económica mediante procesos simplificados y costos reducidos hasta la habilitación de avances en la investigación, la facilitación del transporte autónomo y el suministro de energía a electrodomésticos inteligentes, la amplitud de oportunidades que presentan las tecnologías basadas en IA es ilimitada. De hecho, estas innovaciones son un faro de esperanza y ofrecen una ayuda inestimable para abordar algunos de los desafíos más urgentes de nuestro tiempo. Sin embargo, en medio de su promesa hay una advertencia crucial: el potencial de impactos significativos, y a veces catastróficos, tanto en los derechos individuales como en el bienestar social, si se implementan sin la debida consideración de los derechos humanos fundamentales. Con su capacidad para acumular grandes cantidades de datos personales, las IA pueden tener un impacto significativo en los derechos individuales. Estos impactos abarcan varias áreas de preocupación, incluida la autonomía personal, la libertad de expresión y la prevención de la discriminación. Entre los innumerables impactos de la IA, la privacidad y la protección de datos surgen como los pilares gemelos más propensos a verse afectados por los avances tecnológicos de la IA.

A medida que profundizamos en las complejidades del procesamiento de datos personales por parte de los SIA, se hace cada vez más imperativo establecer una comprensión integral del marco legal más amplio que rige la protección de datos dentro de la Unión Europea. Esta base es crucial para comprender las complejidades detalladas y los riesgos potenciales que implica la intersección de la IA con los derechos fundamentales.

2. Marco de derechos fundamentales

Los derechos fundamentales representan un conjunto de derechos humanos inherentes y legalmente protegidos que son esenciales para mantener la dignidad, la igualdad y la libertad. En el contexto europeo, los derechos fundamentales abarcan un amplio espectro de dimensiones civiles, políticas, económicas y sociales. Estos derechos garantizan diversos aspectos de la existencia humana, incluidos el derecho a la vida y la integridad, la libertad y la seguridad, la privacidad, la libertad de expresión y de religión, la educación, la no discriminación y la igualdad ante la ley. Son la piedra angular de las sociedades democráticas, ya que garantizan que las personas puedan vivir con autonomía y con respeto a su dignidad humana. El marco de los derechos fundamentales en Europa se sustenta en varios elementos clave. En su núcleo se encuentra la Carta de los Derechos Fundamentales de la Unión Europea (la Carta), que codifica la amplia gama de derechos y libertades garantizados a todas las personas en la Unión Europea. La Carta, junto con el Convenio Europeo de Derechos Humanos, tiene un peso jurídico significativo y sirve como fuente principal de la legislación y la política de derechos fundamentales en la UE. Este marco se fortalece además con los instrumentos internacionales de derechos humanos, como la Declaración Universal de Derechos Humanos (1948) y las principales convenciones de derechos humanos de las Naciones Unidas, que ofrecen orientación y normas adicionales.

Si bien la IA puede afectar a varios derechos fundamentales (como la autonomía personal individual o el derecho a no ser discriminado), la importancia de sus amenazas a la privacidad y los datos personales surge en particular debido a la gran dependencia de la IA de los datos. En la Sección 3, proporcionamos una descripción general del marco legal para la protección de datos en la Unión Europea. Una comprensión básica de este marco es crucial para entender la interacción entre la aplicación de la IA y el derecho fundamental a la privacidad y la protección de los datos personales.

3. La privacidad y la protección de datos como derecho fundamental en Europa

A lo largo de la historia, diversas civilizaciones han reconocido la importancia de la privacidad personal y la protección de datos. A lo largo de los siglos, las sociedades han desarrollado conceptos cada vez más sofisticados sobre la privacidad y la protección de datos, que reflejan la evolución de las normas culturales y los avances tecnológicos. Las civilizaciones antiguas, como el Imperio Romano, tenían leyes que protegían la confidencialidad de la correspondencia y enfatizaban el valor de la comunicación privada. De manera similar, la Carta Magna, firmada en 1215, estableció principios de derechos y libertades individuales, sentando las bases para los conceptos modernos de privacidad y protección de datos. Durante el período de la Ilustración, pensadores como John Locke y Jean-Jacques Rousseau enfatizaron la importancia de la autonomía individual y el derecho a la privacidad en sus escritos filosóficos. Estas ideas influyeron en la redacción de los marcos legales modernos, incluida la Cuarta Enmienda de la Constitución de los Estados Unidos, que protege contra registros e incautaciones irrazonables. En el siglo XX, los horrores de los regímenes totalitarios pusieron de relieve la necesidad crítica de contar con salvaguardas contra la intrusión del gobierno en la vida privada, lo que llevó a la inclusión de protecciones de la privacidad en instrumentos internacionales de derechos humanos como la Declaración Universal de Derechos Humanos. Estos precedentes históricos demuestran la importancia perdurable de la privacidad como derecho humano fundamental en diferentes culturas y épocas. En la era digital, con la proliferación de tecnologías basadas en datos, las preocupaciones sobre la privacidad y la protección de datos se han vuelto más pronunciadas, lo que ha impulsado esfuerzos legislativos en todo el mundo para salvaguardar los derechos de las personas en un mundo cada vez más interconectado y centrado en los datos.

A lo largo de la historia europea, los datos personales y la privacidad se han considerado derechos inherentes, profundamente arraigados en el tejido social. Estos principios encuentran expresión en dos sistemas complementarios de protección de los derechos fundamentales: el Convenio Europeo de Derechos Humanos del Consejo de Europa y la Carta de los Derechos Fundamentales de la Unión Europea y los tratados de la UE.

Marco jurídico del Consejo de Europa

Aunque el derecho a la privacidad no está explícitamente definido como un derecho independiente en el Convenio Europeo de Derechos Humanos (CEDH), su protección está consagrada en el artículo 8(1). Esta disposición salvaguarda el derecho de todos al respeto de su vida privada y familiar, su domicilio y su correspondencia. Cualquier interferencia gubernamental con estos derechos debe estar justificada y ser proporcionada. Dado el amplio alcance del procesamiento de datos personales en la actualidad, a menudo se cruza con el derecho a la privacidad de una persona, tal como se articula en el artículo 8(1) del CEDH.

Además, el Consejo de Europa dio un paso histórico en 1981 al ratificar el Convenio para la protección de las personas con respecto al tratamiento automático de datos de carácter personal, conocido como el "Convenio 108'. Este acuerdo fundamental, actualizado en 2018, es una piedra angular de la protección de datos en Europa.

El Convenio 108 tiene por objeto defender los derechos y las libertades fundamentales de las personas, con especial énfasis en el derecho a la privacidad, en el contexto del tratamiento automatizado de datos personales. Al abordar los desafíos que plantean los avances tecnológicos, el Convenio 108 refuerza el compromiso del Consejo de Europa de salvaguardar los derechos a la privacidad en un mundo cada vez más digitalizado.

Marco jurídico de la Unión Europea

Dentro del marco jurídico de la Unión Europea, un amplio conjunto de normas primarias y secundarias desempeñan un papel fundamental en la protección de la información personal.

Entre las normas primarias, las consagradas en la Carta revisten especial importancia. Este documento fundacional dedica una atención considerable a la materia, con dos artículos dedicados a ella. El artículo 7 de la Carta subraya la importancia de respetar la vida privada y familiar, así como la santidad de las comunicaciones y el entorno doméstico. Como complemento, el artículo 8 sirve como sólida salvaguardia, ofreciendo protección explícita de los datos personales, una notable distinción con respecto al CEDH, que carece de un artículo dedicado a la protección de datos. Cabe destacar que el artículo 52(3) de la Carta tiene por objeto establecer la coherencia entre el CEDH y la propia Carta, especificando que cuando los derechos de la Carta se alinean con los protegidos por el CEDH, su interpretación y alcance reflejan los de este último.

Además de la legislación primaria, la Unión Europea refuerza la protección de los datos personales mediante legislación secundaria. El camino hacia la legislación de datos de la UE comenzó en 1995 con la adopción de la Directiva 95/46/CE, conocida como la Directiva de protección de datos. Esta directiva sentó las bases para la legislación posterior, incluida la Directiva 2002/58/CE, comúnmente conocida como la Directiva de privacidad electrónica , que aborda el procesamiento de datos personales y la protección de la privacidad en el sector de las comunicaciones electrónicas. Cabe destacar que en 2016, la UE implementó el conocido Reglamento general de protección de datos (RGPD), un avance histórico en la legislación de protección de datos, que entró en plena aplicación a partir de mayo de 2018. Las leyes nacionales de los Estados miembros de la UE complementan aún más este marco, garantizando que se defiendan y respeten los derechos fundamentales tanto a nivel europeo como nacional. Juntos, estos elementos forman un marco integral diseñado para proteger los derechos y la dignidad de las personas dentro de la Unión Europea y fuera de ella.

Reglamento general de protección de datos

El RGPD representa un hito importante en la regulación de la protección de datos, ya que establece un nuevo estándar para los derechos de privacidad y la rendición de cuentas en la era digital. Se trata del marco más completo y detallado hasta la fecha que rige la recopilación, el almacenamiento y el procesamiento de datos personales. En esencia, el RGPD establece obligaciones estrictas para las entidades que determinan los fines y los medios del procesamiento de datos (responsables del tratamiento de datos) y para las entidades que prestan servicios (encargados del tratamiento de datos), al tiempo que otorga derechos específicos a las personas, conocidas como titulares de los datos. Al establecer reglas claras y salvaguardas sólidas, tiene como objetivo fomentar la confianza en el manejo de datos personales, mejorando en última instancia la privacidad y la protección de datos de las personas dentro de la Unión Europea.

Antes del RGPD, las leyes de protección de datos en la Unión Europea estaban fragmentadas y variaban según los Estados miembros, lo que generaba incoherencias y lagunas en la protección. El RGPD pretendía armonizar estas leyes y mejorar los derechos de privacidad de las personas en toda la UE. Su objetivo general era empoderar a las personas para que tuvieran un mayor control sobre sus datos personales y garantizar que las organizaciones que manejaban dichos datos lo hicieran de manera responsable y transparente. Una de las características definitorias del RGPD es su alcance extraterritorial, lo que significa que se aplica no solo a las organizaciones que operan dentro de la UE, sino también a las que están fuera de la UE y procesan datos de residentes de la UE. Este alcance ampliado garantiza que la protección de los datos personales no esté limitada por fronteras geográficas, lo que refleja la naturaleza global de los flujos de datos en la era digital.

Dada la gran dependencia de la IA de los datos, muchos de los cuales pueden ser de naturaleza personal, resulta imperativo que los desarrolladores e implementadores de sistemas de información sobre inteligencia artificial (IA) cumplan estrictamente las normas y obligaciones estipuladas por el RGPD. Los datos personales son útiles en varias etapas del desarrollo de los sistemas de información sobre inteligencia artificial, incluidos el entrenamiento, la prueba y la validación de los modelos de IA. Durante la implementación, los datos personales pueden servir como información para realizar predicciones sobre las personas. Además, los resultados producidos por los sistemas de información sobre inteligencia artificial pueden considerarse en sí mismos datos personales, como se observa en escenarios como la derivación de la puntuación de riesgo de una persona de desarrollar una enfermedad particular en función de su historial médico, patrones de estilo de vida y predisposiciones genéticas. Además, ciertos modelos de IA pueden consistir inherentemente en datos personales, lo que hace que dichos datos sean indispensables para su funcionamiento eficaz (por ejemplo, en los sistemas de reconocimiento facial, el modelo de IA se basa en grandes conjuntos de datos que contienen imágenes de rostros de personas; sin acceso a dichos datos personales, el modelo de IA carece de la base necesaria para realizar su función prevista de manera eficaz). Por lo tanto, garantizar el cumplimiento del RGPD se vuelve primordial no solo en el manejo de datos personales utilizados como entrada o generados como salida, sino también en el diseño y la estructura fundamentales de los SIA donde los datos personales forman una parte intrínseca de los mismos.

El RGPD se aplica de manera uniforme a todos los métodos de procesamiento de datos personales. Sin embargo, las complejas operaciones inherentes a los SIA introducen complejidades únicas. Si bien el RGPD proporciona un marco integral para la protección de los datos personales, la naturaleza dinámica y evolutiva del desarrollo de la IA presenta desafíos específicos para la defensa de sus principios. Por lo tanto, un examen exhaustivo de estos principios es esencial para comprender las complejidades y los obstáculos que enfrentan los desarrolladores de IA para garantizar el cumplimiento en este panorama en rápida evolución. 

Esta sección profundiza en los principios fundamentales del RGPD y explica las dificultades de cumplirlos dentro del ámbito dinámico y desafiante de la IA.

Principios del RGPD

Los principios relativos al tratamiento de datos personales se enumeran y explican en el artículo 5 del RGPD, y se explican a continuación.

Legalidad,

El principio en general

Este principio, consagrado en el artículo 5(1), punto (a), del RGPD, estipula que el tratamiento de datos debe ser lícito , justo y transparente para el interesado. En primer lugar, las organizaciones deben tener una base legítima para tratar datos personales. El tratamiento es lícito solo cuando se lleva a cabo en virtud de uno o más de los motivos legítimos enumerados en el artículo 6(1) del RGPD:

• el consentimiento del interesado;

• la necesidad de celebrar o ejecutar un contrato;

• la necesidad de cumplir con una obligación legal;

• la protección de los intereses vitales del interesado;

• el cumplimiento de una misión realizada en interés público o en el ejercicio de la autoridad oficial;

• el interés legítimo del responsable del tratamiento o de un tercero.

 Aunque los seis elementos enumerados proporcionan una base legal válida para el procesamiento de datos, los dos en los que se confía con más frecuencia son el primero y el último (es decir, el consentimiento y el interés legítimo).

El segundo aspecto fundamental del principio en cuestión se refiere a la obligación de los responsables del tratamiento de comunicar de forma transparente a las personas la forma en que se utilizan sus datos, lo que se conoce comúnmente como tratamiento de datos. Los responsables del tratamiento tienen el mandato de mantener la transparencia y la integridad en sus relaciones con los interesados, absteniéndose de cualquier forma de desinformación o engaño. Tienen la responsabilidad de proporcionar a los interesados información detallada de conformidad con los artículos 12 y 13 del RGPD. Esto implica revelar la finalidad del tratamiento de los datos, la duración del almacenamiento, los derechos concedidos a los interesados, las categorías de datos personales implicados, el origen de los datos recopilados si proceden de fuentes externas, la presencia de procesos automatizados de toma de decisiones, incluida la elaboración de perfiles, además de proporcionar información sustancial sobre la lógica subyacente, la importancia y las implicaciones previstas para las personas afectadas. Esta transparencia no solo fomenta la confianza entre los responsables del tratamiento y los interesados, sino que también garantiza el cumplimiento de los marcos regulatorios, salvaguardando así los derechos de privacidad individuales y promoviendo prácticas éticas de tratamiento de datos.

El principio en el contexto de la inteligencia artificial

En el contexto del desarrollo de la IA, respetar los principios de legalidad, equidad y transparencia plantea importantes desafíos. En primer lugar, la complejidad de los algoritmos de IA y su dependencia de grandes conjuntos de datos dificultan la garantía de la legalidad y equidad de las actividades de procesamiento de datos. 

Los sistemas de información automatizados pueden generar inadvertidamente resultados sesgados o tomar decisiones basadas en datos incompletos o sesgados, lo que conduce a un trato injusto de las personas. Además, la opacidad de los algoritmos de IA plantea desafíos a la transparencia, ya que comprender cómo funcionan los sistemas de información automatizados puede ser difícil (el "fenómeno de la caja negra"). En muchos casos, las personas pueden verse sujetas a decisiones tomadas por sistemas de información automatizados sin una comprensión clara de cómo o por qué se tomaron esas decisiones. Esta falta de transparencia no solo socava la rendición de cuentas, sino que también limita la capacidad de las personas para impugnar o cuestionar esas decisiones. El derecho a impugnar las decisiones tomadas por los sistemas de información automatizados es fundamental para salvaguardar los derechos fundamentales, pero se vuelve cada vez más difícil de alcanzar en ausencia de prácticas transparentes de procesamiento de datos.

Además, la falta de transparencia en el procesamiento de datos también puede impedir que un desarrollador de IA pueda basarse en determinados fundamentos jurídicos para el procesamiento. Por ejemplo, puede resultar complicado obtener el consentimiento informado de los interesados cuando las actividades de procesamiento en un SIA determinado son complejas y la lógica subyacente es difícil de explicar. En tales situaciones, los desarrolladores de IA pueden verse obligados a recurrir a fundamentos jurídicos alternativos, aunque menos seguros, para el procesamiento, como el interés legítimo. Esto subraya la complejidad que rodea al procesamiento de datos en los SIA y la importancia de la transparencia para permitir que las personas tomen decisiones informadas sobre sus datos. Esta falta de transparencia no solo socava la confianza, sino que también obstruye la capacidad de las personas para ejercer sus derechos en virtud del RGPD, incluido el derecho a acceder y rectificar sus datos personales (que se analiza más adelante).

Además, el rápido avance y la adopción generalizada de tecnologías de IA a menudo superan el desarrollo de marcos regulatorios, lo que crea un desafío formidable para que las organizaciones mantengan el cumplimiento de los estándares legales en evolución y defiendan el principio fundamental de legalidad. Conciliar los imperativos que impulsan la innovación de la IA con el imperativo de salvaguardar la protección de datos.

El respeto de los principios exige una vigilancia constante y la adopción de medidas proactivas. Lograr un delicado equilibrio entre el progreso tecnológico y el cumplimiento normativo exige esfuerzos concertados y sostenidos para afrontar y resolver estos desafíos inherentes.

Limitación de la finalidad

El principio en general

Uno de los principios clave del RGPD, el principio de limitación de la finalidad consagrado en el artículo 5(1), punto (b), del reglamento, estipula que los datos personales solo deben recopilarse para fines específicos, explícitos y legítimos, y prohíbe el procesamiento posterior de datos personales para fines que sean incompatibles con los fines que llevaron a la recopilación inicial de datos.

Del mismo modo, los responsables del tratamiento se abstendrán de recopilar datos personales que sean innecesarios, inadecuados o irrelevantes para los fines especificados. Si bien el tratamiento posterior para fines diferentes no está prohibido de forma inherente, la reutilización de los datos recopilados solo está permitida si el tratamiento posterior se alinea con el propósito original para el que se recopilaron inicialmente los datos (en cuyo caso no se requiere una base jurídica distinta de la que permitió la recopilación inicial de los datos personales).

Por ejemplo, el artículo 5(1), punto (b), del RGPD permite el procesamiento posterior de datos personales para fines de archivo, investigación histórica o estadísticos, siempre que sea compatible con el propósito original.

Para evaluar si la finalidad del tratamiento posterior es compatible con la finalidad para la que se recogieron inicialmente los datos personales, el responsable del tratamiento debe llevar a cabo una evaluación formal de compatibilidad de la actividad de tratamiento posterior prevista. Esta prueba de compatibilidad debe tener en cuenta varios factores, como:

• cualquier vínculo entre el propósito original y el propósito del procesamiento posterior previsto;

• el contexto en el que se han recogido los datos personales, en particular las expectativas razonables de los interesados en cuanto al uso posterior de sus datos, basada en su relación con el responsable del tratamiento;

• la naturaleza de los datos personales, en particular si se están procesando categorías especiales de datos personales;

• las consecuencias que el tratamiento posterior previsto tiene para los interesados;

• la existencia de garantías adecuadas tanto en las operaciones de tratamiento originales como en las previstas en las posteriores.

Además, tras un resultado positivo de la evaluación de compatibilidad, el responsable del tratamiento, antes de iniciar el tratamiento posterior previsto, puede estar obligado a informar al interesado sobre la actividad de tratamiento posterior prevista, ya que debe garantizarse la aplicación de los principios establecidos en el RGPD (en particular la información al interesado sobre esos otros fines y sobre sus derechos, incluido el derecho a oponerse).

Existen dos excepciones a esta prohibición general de tratamiento posterior para fines no compatibles, a saber, cuando el tratamiento posterior se basa en el consentimiento del interesado o cuando el tratamiento posterior se basa en una legislación de la UE o de los Estados miembros a la que está sujeto el responsable del tratamiento. En estos dos casos, el tratamiento posterior está permitido en virtud del RGPD, independientemente de la compatibilidad de los fines (en otras palabras, se presume que el responsable del tratamiento está autorizado a seguir tratando los datos personales independientemente de la compatibilidad de los fines).

 El principio en el contexto de la inteligencia artificial

En el ámbito de la IA, la adhesión al principio de limitación de la finalidad plantea importantes desafíos para los responsables del tratamiento. Definir de antemano los posibles usos de los datos recopilados suele ser extremadamente difícil, ya que los fines del procesamiento pueden seguir siendo ambiguos durante las etapas iniciales de la recopilación de datos. En consecuencia, se ha vuelto habitual en el desarrollo de la IA reutilizar los datos en etapas posteriores. Los modelos de IA, entrenados inicialmente para fines específicos, a menudo descubren correlaciones imprevistas dentro de los conjuntos de datos, lo que lleva a un cambio completo en su uso previsto. Por lo tanto, exigir a los desarrolladores de IA que predeterminen los fines de la recopilación de datos antes de que comience el procesamiento podría simplemente sofocar la innovación.

Minimización de datos

El principio en general

Este principio, consagrado en el artículo 5(1), letra c), del RGPD, pretende restringir la recogida indiscriminada de datos personales. Establece que solo se debe tratar la cantidad mínima de datos personales necesaria para el fin previsto. Los responsables del tratamiento están obligados a abstenerse de recoger datos que no sean directa y estrictamente pertinentes para el fin especificado o que sean más de los necesarios.

El principio en el contexto de la inteligencia artificial

El cumplimiento del principio de minimización de datos puede resultar complicado para los desarrolladores de IA por varias razones. En primer lugar, este principio entra en conflicto con la naturaleza misma de las tecnologías basadas en IA, que dependen de la acumulación y el análisis de cantidades masivas de datos para funcionar de manera eficaz. El funcionamiento básico de los modelos de IA se basa en su capacidad de aprender de los datos, extraer inferencias y descubrir correlaciones entre varios conjuntos de datos. Por definición, los modelos de IA requieren grandes conjuntos de datos para aprender y generalizar patrones de manera eficaz. Después de todo, cuantos más datos ingiera el SIA, más precisos serán sus cálculos y predicciones. Además, la complejidad e interconexión de los algoritmos de IA pueden dificultar la identificación de los puntos de datos específicos que son verdaderamente esenciales para lograr los resultados deseados. En consecuencia, los desarrolladores de SIA pueden sentirse tentados a recopilar cantidades excesivas de datos (incluidos datos personales) para mejorar la precisión de sus SIA. Además, la falta de directrices o estándares claros para determinar la relevancia y la necesidad de los datos en el desarrollo de IA complica aún más la adhesión al principio de minimización de datos.

Exactitud

El principio en general

Este principio, recogido en el artículo 5(1), letra d), del RGPD, implica la exigencia de que los datos personales sean exactos y se mantengan actualizados en todo momento. Los responsables del tratamiento tienen la responsabilidad de adoptar medidas razonables para garantizar la exactitud de los datos que tratan. Deben revisar periódicamente los datos personales y rectificar o borrar rápidamente cualquier inexactitud, ya que el tratamiento de datos inexactos puede tener consecuencias adversas para los interesados.

El principio en el contexto de la inteligencia artificial

El respeto del principio de precisión de los datos personales en el contexto de la IA plantea desafíos notables para los desarrolladores por muchas razones. En primer lugar, los algoritmos de IA a menudo dependen de conjuntos de datos vastos y diversos para entrenar y refinar sus modelos, lo que dificulta garantizar la precisión de cada punto de datos. Los SIA se alimentan de datos de varias fuentes; sin embargo, cuanto más diversas sean las fuentes, mayor será la probabilidad de encontrar imprecisiones. Además, los SIA pueden encontrar problemas con la calidad de los datos, incluidos errores, sesgos e inconsistencias, que pueden comprometer la precisión de los conocimientos y predicciones resultantes. Si bien se acepta cierto nivel de inexactitud en los datos utilizados como entrada o en los datos producidos como salida de los modelos de IA (ya que apuntan a descubrir tendencias generales), dichas inexactitudes pueden dañar a las personas cuando se utilizan para crear perfiles o entregar inferencias sobre ellas.

Además , los algoritmos de IA pueden descubrir correlaciones o patrones inesperados en los datos que desafían las nociones convencionales de precisión, lo que requiere una interpretación y validación cuidadosas por parte de expertos humanos. Además, la naturaleza dinámica de los datos en las aplicaciones de IA, con actualizaciones y cambios continuos, presenta desafíos constantes para mantener la precisión de los datos a lo largo del tiempo. Por último, pero no por ello menos importante, dada la prevalencia de las amenazas cibernéticas, existe un riesgo significativo de que actores maliciosos ataquen el AIS y manipulen los datos utilizados para entrenar el modelo de IA, lo que podría dar lugar a resultados inexactos.

Limitación de almacenamiento

El principio en general

Este principio, recogido en el artículo 5(1), punto (e), del RGPD, pone de relieve que los datos personales solo deben conservarse de forma que permitan la identificación de los interesados durante el tiempo necesario para cumplir los fines para los que se recogieron. En pocas palabras, los responsables del tratamiento deben garantizar que la duración de la conservación de los datos sea proporcional a los objetivos originales de la recogida de datos y esté limitada en el tiempo. La prolongación del almacenamiento de datos más allá de este periodo solo podrá permitirse con fines de archivo en interés público, fines de investigación científica o histórica o fines estadísticos, siempre que se establezcan las garantías adecuadas.

El principio en el contexto de la inteligencia artificial

El cumplimiento del principio de limitación del almacenamiento, tal como se describe en el RGPD, presenta desafíos notables en el desarrollo de tecnologías basadas en IA. En primer lugar, como ya se señaló, los SIA a menudo requieren grandes cantidades de datos para entrenar y refinar sus modelos, lo que inevitablemente genera preocupaciones sobre el almacenamiento de datos personales más allá de lo estrictamente necesario para los fines previstos. Por ejemplo, las aplicaciones impulsadas por IA en el ámbito de la atención médica pueden acumular una gran cantidad de datos de pacientes para análisis predictivos, lo que genera preguntas sobre el período de retención de los registros médicos históricos. La naturaleza dinámica e iterativa del desarrollo de la IA complica aún más el cumplimiento de las limitaciones de almacenamiento, ya que el refinamiento continuo de los algoritmos puede requerir la retención de datos históricos para la mejora continua. Además , los esfuerzos de investigación y desarrollo colaborativos en IA a menudo implican el intercambio de datos entre múltiples partes interesadas, lo que resulta en la acumulación de amplios conjuntos de datos en varias plataformas y organizaciones. Esto plantea preguntas sobre la duración y el alcance adecuados del almacenamiento, en particular en colaboraciones transfronterizas donde pueden aplicarse diferentes requisitos regulatorios. Además, la posibilidad de retención no intencionada de datos en los AIS, como datos almacenados en caché o redundantes en la memoria o en el almacenamiento temporal, plantea desafíos a la hora de garantizar el cumplimiento de los requisitos de limitación de almacenamiento.

Integridad y confidencialidad

El principio en general

Este principio, consagrado en el artículo 5(1), letra f), del RGPD, establece que los datos personales deben ser objeto de un tratamiento que garantice la seguridad de la información. Esto implica la protección contra la divulgación o el acceso no autorizados o ilícitos a los datos personales tratados (el aspecto de la confidencialidad) y la protección contra la alteración o el daño accidental o ilícito de los datos personales (el aspecto de la integridad). Además, deben existir medidas para evitar la pérdida de acceso o la destrucción no intencionada o ilícita de los datos personales (el aspecto de la disponibilidad). Entre las técnicas más cruciales para garantizar un alto nivel de seguridad se encuentran el cifrado y la seudonimización de los datos personales.

El principio en el contexto de la inteligencia artificial

Garantizar el cumplimiento de los principios de integridad y confidencialidad de los datos presenta obstáculos considerables durante el desarrollo de tecnologías de IA. En primer lugar, los SIA suelen operar utilizando una amplia gama de los conjuntos de datos que contienen datos personales sensibles aumentan la vulnerabilidad al acceso no autorizado,

la divulgación o la alteración de la información. Por ejemplo, las aplicaciones de IA utilizadas en el sector sanitario o en el sector financiero pueden manejar datos financieros confidenciales, lo que requiere medidas estrictas para mantener la confidencialidad e integridad de dichos datos a fin de evitar el acceso no autorizado o la manipulación. Además, la naturaleza interconectada de los SIA, que a menudo dependen de fuentes de datos compartidas y procesos de formación colaborativos, complica aún más la preservación de la integridad y la confidencialidad de los datos. Las iniciativas de desarrollo colaborativo de IA, que involucran a múltiples partes interesadas y acuerdos de intercambio de datos (como proyectos de investigación e innovación transfronterizos), pueden introducir debilidades en la seguridad y la confidencialidad de los datos, en particular cuando se intercambia información sensible entre organizaciones y fronteras. Además, la naturaleza intrincada de los algoritmos de IA y su susceptibilidad a ataques adversarios amplifican los desafíos de salvaguardar la integridad y la confidencialidad de los datos. Estos ataques, que incluyen técnicas como el envenenamiento de datos y la inversión de modelos, explotan las vulnerabilidades de los SIA para comprometer la integridad de los datos o exponer información confidencial. Para abordar estos desafíos es necesario implementar de manera sólida cifrado de datos, controles de acceso y protocolos de seguridad durante todo el ciclo de vida del desarrollo de la IA, para garantizar la integridad y confidencialidad de los datos.

Responsabilidad

El principio en general

Este principio, que se describe en el artículo 5(2) del RGPD, establece que los responsables del tratamiento son responsables de demostrar el cumplimiento de los principios del RGPD y de aplicar las medidas adecuadas para garantizarlo. Estas medidas incluyen, en particular, las evaluaciones de impacto de la protección de datos y el mantenimiento de registros detallados de las actividades de tratamiento, y se abordarán con más detalle a continuación.

El principio en el contexto de la inteligencia artificial

Si bien el artículo 5(2) del RGPD impone a los responsables del tratamiento la obligación de demostrar el cumplimiento de los principios del RGPD y de aplicar las medidas adecuadas para garantizar su cumplimiento, la naturaleza dinámica de los SIA complica considerablemente esos esfuerzos de rendición de cuentas. En primer lugar, los intrincados algoritmos y procesos de aprendizaje automático inherentes a los SIA suelen dar lugar a procesos de toma de decisiones complejos que son difíciles de rastrear o explicar. Esta opacidad puede obstaculizar la capacidad de los responsables del tratamiento de comprender y documentar plenamente los mecanismos subyacentes a las decisiones impulsadas por la IA, lo que impide su capacidad de demostrar el cumplimiento.

Además, el gran volumen y la variedad de datos procesados por los SIA plantean desafíos a la hora de realizar evaluaciones integrales del impacto en la protección de datos. Los algoritmos de IA pueden ingerir grandes cantidades de datos de diversas fuentes, lo que dificulta que los responsables evalúen los riesgos potenciales para la privacidad de las personas y garanticen el cumplimiento de los requisitos del RGPD. Además, la naturaleza evolutiva de las tecnologías de IA introduce incertidumbre con respecto a la idoneidad de las medidas de rendición de cuentas existentes. A medida que los SIA evolucionan y se adaptan con el tiempo, los responsables deben reevaluar y actualizar continuamente sus estrategias de cumplimiento para mitigar eficazmente los riesgos y garantizar la rendición de cuentas. Además, la naturaleza colaborativa del desarrollo de la IA, que involucra a múltiples partes interesadas y acuerdos de intercambio de datos, complica aún más los esfuerzos de rendición de cuentas. Garantizar la rendición de cuentas entre las diversas partes interesadas y organizaciones de diferentes países que participan en el desarrollo de la IA requiere estructuras de gobernanza sólidas y una delimitación clara de las responsabilidades.

Como se ha demostrado anteriormente, respetar los principios fundamentales del RGPD puede resultar complicado en el ámbito del desarrollo de la IA. Para abordar estos desafíos, es necesario que los proveedores de IA realicen esfuerzos proactivos durante todo el ciclo de vida del desarrollo de la IA. Solo mediante esos esfuerzos concertados se puede lograr

Las organizaciones navegan eficazmente por las complejidades del desarrollo de la IA y al mismo tiempo respetan los principios de procesamiento de datos descritos en el RGPD.

 Derechos del titular de los datos

Además de los principios fundamentales del tratamiento de datos, el RGPD otorga a los interesados una serie de derechos que les otorgan poder en relación con sus datos personales. Estos derechos, que pueden invocar los interesados cuyos datos personales se procesen en el contexto del desarrollo y la implementación de la IA, se analizan a continuación.

Derechos en relación con la toma de decisiones automatizada y la elaboración de perfiles

El RGPD incluye salvaguardas destinadas a mitigar los riesgos asociados a la toma de decisiones y la elaboración de perfiles automatizados. Estas son especialmente significativas en el contexto de la IA, dada la cantidad de decisiones y acciones que hoy en día se ejecutan sin intervención humana y son facilitadas por los SIA.

El artículo 22 del RGPD otorga explícitamente a las personas el derecho a no estar sujetas a decisiones tomadas únicamente mediante procesos automatizados, si dichas decisiones tienen implicaciones legales o las afectan significativamente de manera similar. Esta disposición reconoce las posibles consecuencias de la toma de decisiones algorítmica sobre los derechos de las personas y busca garantizar la rendición de cuentas y la transparencia en los procesos automatizados. Con la creciente dependencia de los SIA para tomar decisiones críticas en diversos ámbitos, como las finanzas, la atención médica y el empleo, la protección que brinda este derecho se vuelve cada vez más importante. Subraya la necesidad de que los SIA operen de manera ética y transparente, con mecanismos establecidos que permitan a las personas impugnar las decisiones automatizadas y comprender la lógica detrás de ellas. Además, el derecho a no estar sujeto a la toma de decisiones automatizada subraya la importancia de la supervisión y la rendición de cuentas humanas en el desarrollo y la implementación de tecnologías de IA. Si bien los SIA pueden ofrecer eficiencia e innovación, también deben respetar los derechos de las personas y garantizar un trato justo y equitativo para todos. Por lo tanto, los desarrolladores de IA deben implementar mecanismos sólidos de supervisión, rendición de cuentas y transparencia para defender los derechos de las personas y evitar posibles daños derivados de la toma de decisiones y la elaboración de perfiles automatizados.

Derecho de acceso

Las personas tienen derecho a obtener confirmación de si se están tratando o no sus datos personales y, en caso afirmativo, a acceder a dichos datos y a información sobre cómo se están tratando.

En el contexto de la IA, este derecho adquiere una importancia y una complejidad adicionales. Los interesados tienen derecho a obtener confirmación de los responsables del tratamiento sobre si sus datos personales están siendo tratados y, en caso afirmativo, a acceder a dichos datos y a la información pertinente sobre dicho tratamiento. Sin embargo, en el ámbito de la IA, el acceso a los datos personales puede no ser siempre sencillo debido a la naturaleza intrincada de los algoritmos de IA y a la gran cantidad de datos procesados. Los SIA suelen operar con conjuntos de datos extensos, y los datos personales que utilizan están dispersos en múltiples plataformas, bases de datos u organizaciones. Consolidar y acceder a estos datos fragmentados puede ser complejo, especialmente cuando existen problemas de interoperabilidad de datos o silos de datos. Además, los responsables del tratamiento que son desarrolladores de IA pueden enfrentarse a limitaciones de recursos o limitaciones técnicas al responder a las solicitudes de acceso a los datos. El tratamiento de grandes volúmenes de datos para responder a las solicitudes de acceso a los datos puede requerir una cantidad significativa de tiempo, recursos y experiencia. Por tanto, garantizar un acceso efectivo a los datos personales en el contexto de la IA requiere que los responsables del tratamiento implementen mecanismos transparentes y fáciles de usar que permitan a los interesados comprender y ejercer sus derechos de forma eficaz.

Derecho de rectificación

El derecho de rectificación, vinculado a la obligación del responsable del tratamiento de mantener los datos exactos y actualizados, faculta a los interesados a solicitar la corrección (es decir, la rectificación o la complementación) de los datos personales inexactos o incompletos que obren en poder del responsable del tratamiento. Este derecho sigue siendo relevante en todas las etapas del ciclo de vida del SIA. Por ejemplo, durante la fase de desarrollo, los interesados pueden solicitar la corrección de su información contenida en el conjunto de datos de entrenamiento. Del mismo modo, durante la fase de implementación, pueden impugnar la exactitud de los resultados generados por los SIA.

Las predicciones e inferencias generadas por los AIS a menudo implican datos personales, tal como se define en el artículo 4(1 ) del RGPD. Esto incluye tanto identificadores directos, como nombres y direcciones, como identificadores indirectos o información que, cuando se combina con otros datos, puede identificar a una persona. Sin embargo, rectificar el resultado de un AIS puede ser un desafío, ya que se compone principalmente de predicciones estadísticas en lugar de declaraciones fácticas (aunque los resultados a menudo pueden presentarse o interpretarse como declaraciones fácticas). Las puntuaciones de predicción no son inherentemente inexactas simplemente porque la realidad fáctica no coincida con la predicción (por ejemplo, un cambio del 99,5 % de la presencia de un cáncer puede ser una estimación razonable y correcta, incluso si no se detecta cáncer después); por lo tanto, dependiendo del contexto y la presentación, el derecho a la rectificación puede no aplicarse si los datos personales no son incorrectos desde el punto de vista fáctico.

Derecho de supresión / derecho al olvido

El artículo 17 del RGPD otorga a los interesados el derecho a solicitar la supresión de sus datos personales en determinadas circunstancias. Cuando un interesado ejerce este derecho, el responsable del tratamiento está obligado no solo a suprimir los datos que haya tratado directamente, sino también a notificar la solicitud del interesado a todos los demás destinatarios conocidos con los que haya compartido los datos. Este derecho solo puede ejercerse en determinados casos limitados, por ejemplo, cuando los datos ya no sean necesarios para los fines para los que fueron recopilados o si el tratamiento es ilícito. También pueden ejercerlo los interesados que se opongan al tratamiento de sus datos y para los que el responsable del tratamiento no pueda demostrar otros motivos legítimos imperiosos para el tratamiento posterior.

Ejercer este derecho en el ámbito de la IA puede resultar complicado. Los sistemas de información de inteligencia artificial suelen incorporar grandes cantidades de datos de diversas fuentes ubicadas en varias ubicaciones. Los datos suelen replicarse en varios sistemas para realizar copias de seguridad. Todo esto dificulta el seguimiento e identificación de instancias específicas de datos personales para su eliminación. Además, la naturaleza dinámica y evolutiva de los algoritmos de IA complica el proceso de borrado, ya que los datos pueden procesarse e integrarse continuamente en modelos de IA a lo largo del tiempo. Los datos de origen pueden volverse cada vez más difíciles o incluso imposibles de encontrar o eliminar. Para poder borrar por completo los datos personales incluidos en un modelo de IA, puede ser necesario volver a entrenar el modelo de IA en función de un conjunto de datos que ya no incluya los datos borrados y que no esté influenciado por la "sombra algorítmica" de los datos de esa persona. 

Sin embargo, esto podría no ser factible debido a los sustanciales gastos computacionales y de ingeniería, junto con las limitaciones de tiempo, particularmente en lo que respecta a los modelos complejos de IA. Además, la opacidad inherente de los procesos de toma de decisiones de IA puede obstaculizar la capacidad de los interesados (o de hecho la capacidad de cualquier parte) de determinar si sus datos personales han sido completamente borrados de los SIA. La proliferación de aplicaciones basadas en IA en varios sectores e industrias también plantea inquietudes sobre la difusión generalizada y la posible replicación de datos personales, lo que complica aún más el proceso de borrado. El ejercicio del derecho al borrado también puede ser problemático, debido a las incertidumbres sobre el alcance de la solicitud.

En concreto, puede que no quede claro si la solicitud debe referirse únicamente a los datos directamente facilitados por el interesado o también a los datos derivados o inferidos de ese conjunto de datos inicial. Esta ambigüedad plantea interrogantes sobre hasta qué punto los SIA deben borrar no solo los datos brutos, sino también cualquier información, predicción o conclusión extraída de ellos. El caso de referencia sobre este derecho en la UE es el caso C-131/12, conocido comúnmente como el caso Google Spain. En esta sentencia histórica, el demandante solicitó la eliminación de determinados resultados de motores de búsqueda generados por el algoritmo de Google. Estos resultados se basaban en inferencias extraídas de los datos personales del demandante. El Tribunal de Justicia de la Unión Europea (TJUE) falló a favor del demandante, afirmando el derecho del individuo a que dichos datos derivados se borren del motor de búsqueda (pero no de los sitios web originales donde se alojaron los datos). Este caso subraya la importancia de garantizar que las solicitudes de borrado de datos se extiendan más allá de los datos brutos para abarcar cualquier información derivada o inferida generada por algoritmos de IA.

Para abordar los desafíos antes mencionados, los responsables del tratamiento deben procurar diseñar sus sistemas de información de forma que las solicitudes de eliminación puedan llevarse a cabo, de conformidad con el principio de privacidad desde el diseño. Deben implementar prácticas sólidas de gobernanza de datos y mecanismos de transparencia para garantizar la eliminación efectiva de datos personales de los sistemas de información de datos. Además, deben establecerse directrices y normas claras para la eliminación segura y permanente de datos personales en el contexto del desarrollo y la implementación de la IA.

Derecho a la limitación del tratamiento

El derecho a la limitación del tratamiento, que sustituye al derecho de supresión, otorga a las personas la facultad de limitar el tratamiento de sus datos personales en determinadas circunstancias, como cuando se impugne la exactitud de los datos o cuando el tratamiento sea ilícito. En consecuencia, los responsables del tratamiento deben limitar las operaciones de tratamiento que realizan sobre los datos y solo pueden conservarlos.

Las preocupaciones que surgen al ejercer el derecho a la restricción del procesamiento son similares a las relacionadas con el derecho al borrado. Debido a que los SIA operan con amplios conjuntos de datos provenientes de diversos canales, puede resultar especialmente complicado para las personas identificar y controlar el procesamiento de sus datos personales específicos. Además, la naturaleza dinámica de los algoritmos de IA, que aprenden y evolucionan continuamente a partir de nuevos datos, complica los esfuerzos para hacer cumplir las restricciones de procesamiento de manera efectiva. La opacidad mencionada anteriormente, inherente a los procesos de toma de decisiones de IA, exacerba el desafío, ya que las personas pueden tener dificultades para monitorear y hacer cumplir las limitaciones al procesamiento de sus datos personales por parte de los SIA. Además, la interconexión de los SIA en varias plataformas y redes puede dar lugar a un procesamiento involuntario de datos personales restringidos más allá del alcance previsto.

Para hacer frente a estos desafíos, existe una necesidad apremiante de contar con mecanismos de comunicación y transparencia mejorados que permitan a las personas supervisar y hacer cumplir las restricciones sobre sus datos personales procesados por los SIA. Además, los responsables del tratamiento deben establecer controles y mecanismos sólidos dentro de los SIA para facilitar a los titulares de los datos el ejercicio efectivo de su derecho a restringir el procesamiento, garantizando el cumplimiento de las normas de protección de datos y defendiendo los derechos de privacidad de las personas.

Derecho a la portabilidad de datos

El derecho a la portabilidad de datos, consagrado en el artículo 20 del RGPD, permite a las personas obtener sus datos personales en un formato estructurado, de uso común y lectura mecánica y transferir dichos datos entre diferentes servicios o plataformas.

En el contexto de la IA, el ejercicio de este derecho puede presentar algunos obstáculos importantes. En primer lugar, los datos personales derivados de un examen más detallado de la información proporcionada están exentos del derecho a la portabilidad. Esto significa que los resultados generados por los modelos de IA, como las predicciones y clasificaciones sobre Los derechos de portabilidad no se aplican a las personas físicas . En algunos casos, algunas o todas las características utilizadas para entrenar el modelo pueden tener su origen en un análisis previo de datos personales.

Por ejemplo, una puntuación crediticia obtenida mediante un análisis estadístico basado en los datos financieros de una persona podría emplearse posteriormente como una característica en un modelo de aprendizaje automático. En tales casos, la puntuación crediticia no está comprendida dentro del alcance de los derechos de portabilidad de datos, aunque otros atributos sí lo estén. En segundo lugar, la extracción y transferencia de datos personales en un formato utilizable a partir de conjuntos de datos complejos e interconectados puede ser especialmente difícil. Al mismo tiempo, los algoritmos y formatos propietarios utilizados por los SIA pueden no ser fácilmente compatibles con otros servicios o plataformas, lo que dificulta la portabilidad de datos sin problemas. Además, la naturaleza dinámica de los algoritmos de IA, que evolucionan continuamente en función de los nuevos datos introducidos, añade una capa adicional de complejidad al proceso de portabilidad. Las personas pueden tener dificultades para garantizar la precisión e integridad de los datos transferidos, en particular cuando se trata de información y predicciones impulsadas por IA que evolucionan constantemente.

Para superar estos desafíos es necesario desarrollar formatos de datos estandarizados y protocolos de interoperabilidad adaptados a los SIA, junto con mecanismos mejorados de transparencia y rendición de cuentas para facilitar que las personas ejerzan su derecho a la portabilidad de datos de manera efectiva.

Derecho a oponerse

Disposición fundamental del RGPD que faculta a las personas a oponerse al tratamiento de sus datos personales por motivos relacionados con su situación particular, cuando el tratamiento sea necesario para el cumplimiento de una misión realizada en interés público o en el ejercicio de poderes públicos conferidos al responsable del tratamiento o cuando el tratamiento sea necesario a los efectos de un interés legítimo del responsable del tratamiento o de un tercero. Además, las personas pueden oponerse al tratamiento de sus datos personales con fines comerciales.

El ejercicio de este derecho genera obstáculos únicos en el contexto de la IA. A diferencia de los métodos tradicionales de procesamiento de datos , los SIA suelen funcionar de forma autónoma, con procesos internos de toma de decisiones opacos o difíciles de interpretar, comúnmente denominados "cajas negras". Estos sistemas se basan en algoritmos complejos y amplios conjuntos de datos para tomar decisiones, lo que puede llevar a las personas a tener dificultades para comprender la lógica detrás de las decisiones impulsadas por la IA e identificar instancias en las que sus datos se procesan de maneras que no les gustan. Los SIA pueden producir conclusiones y pronósticos derivados de conexiones y patrones intrincados en los datos, lo que complica la capacidad de las personas para determinar si sus objeciones están justificadas o son pertinentes. Cuando los SIA toman decisiones de forma autónoma, las personas pueden tener dificultades para identificar a quién dirigir sus objeciones y cómo comunicar eficazmente sus inquietudes. Además, la adopción generalizada de la IA en diversas aplicaciones y sectores complica aún más el ejercicio del derecho a objetar. Las personas pueden interactuar con varios SIA operados por diferentes entidades, lo que dificulta la gestión centralizada de las objeciones y la garantía de un cumplimiento constante de las preferencias de protección de datos.

Para abordar estos desafíos se requieren mayores medidas de transparencia, rendición de cuentas y accesibilidad para empoderar a las personas para que puedan hacer valer sus derechos de manera efectiva en el panorama digital impulsado por la IA.

Otros mecanismos de rendición de cuentas

El RGPD no solo otorga amplios derechos a los interesados, sino que también establece un sólido marco de control destinado a salvaguardar estos derechos. Un elemento central de este marco son las obligaciones de rendición de cuentas y supervisión impuestas a los responsables del tratamiento. Estas obligaciones de rendición de cuentas no solo mejoran la transparencia y la confianza, sino que también refuerzan la protección de los derechos de las personas. Sirven como piedra angular del enfoque regulatorio del RGPD, garantizando que los responsables del tratamiento sean responsables de sus actividades de tratamiento de datos y que se adopten las medidas adecuadas para proteger los datos personales de las personas. A continuación, examinamos esas otras obligaciones de rendición de cuentas que el RGPD impone a los responsables del tratamiento, centrándonos específicamente en aquellos responsables que son desarrolladores de IA.

Evaluación de impacto de la protección de datos

Según lo estipulado en el artículo 35 del RGPD, los responsables del tratamiento están obligados a realizar evaluaciones de impacto sobre la protección de datos (EIPD) en relación con las actividades de tratamiento de datos que puedan entrañar un alto riesgo para los derechos y libertades de las personas. Las EIPD son evaluaciones sistemáticas destinadas a identificar, evaluar y mitigar los riesgos asociados al tratamiento de datos. Son especialmente importantes cuando se implementan nuevas tecnologías o se procesan datos personales sensibles. El objetivo de las EIPD es garantizar que los responsables del tratamiento aborden de forma proactiva los riesgos para la privacidad y cumplan con los principios de protección de datos. Implican la evaluación de la necesidad y proporcionalidad de las actividades de tratamiento de datos, la evaluación de los riesgos potenciales para los interesados y la aplicación de medidas para mitigar los riesgos identificados. Dada la complejidad y las posibles implicaciones de las tecnologías de IA, las EIPD son especialmente cruciales en este contexto. Las EIPD dependen de cantidades masivas de datos y algoritmos complejos para tomar decisiones o predicciones, lo que puede suponer riesgos significativos para la privacidad y los derechos de las personas.

Por lo tanto, los responsables del tratamiento que son desarrolladores de IA deben evaluar cuidadosamente los posibles riesgos asociados a las actividades de procesamiento de datos impulsadas por IA, incluido el potencial de sesgo, discriminación o violación de los derechos de las personas. Las evaluaciones de impacto sobre la protección de datos en el sector de la IA implican evaluar la transparencia y la equidad de los algoritmos de IA, evaluar los posibles impactos en los derechos de las personas e implementar medidas para mitigar los riesgos identificados. Al realizar evaluaciones de impacto sobre la protección de datos, los responsables del tratamiento de IA demuestran su compromiso con la rendición de cuentas y la transparencia en el desarrollo y la implementación de la IA, asegurando que los derechos de las personas estén adecuadamente protegidos en el panorama de rápida evolución de las tecnologías de IA.

La próxima AIA introduce un nuevo requisito en virtud del artículo 29a, que obliga a los implementadores de sistemas de información de alto riesgo (SIA) a realizar una evaluación del impacto sobre los derechos fundamentales (EIDF) para evaluar el impacto potencial de los SIA sobre dichos derechos. A diferencia de una EIDF en virtud del RGPD, que se centra principalmente en los riesgos de protección de datos, una EIDF considera implicaciones sociales más amplias, incluidas consideraciones éticas, sociales y de derechos fundamentales, lo que garantiza una evaluación más integral de las implementaciones de IA, y debe realizarse junto con una EIDF.

Registro de actividades de tratamiento

El artículo 30 del RGPD establece los requisitos que deben cumplir los responsables del tratamiento para mantener registros completos de las actividades de tratamiento. Estos registros sirven como un repositorio vital de información que abarca los detalles clave esenciales para garantizar el cumplimiento de las normas de protección de datos. Los registros deben incluir detalles como la información de contacto del responsable del tratamiento, el corresponsable del tratamiento, el representante y el delegado de protección de datos, cuando corresponda. Además, deben delinear los fines específicos de las actividades de tratamiento de datos y proporcionar una descripción detallada de las categorías de interesados y datos personales involucrados. Además, los registros deben documentar las categorías de destinatarios a los que se han revelado o se revelarán los datos personales, incluidas las transferencias a países no pertenecientes a la UE u organizaciones internacionales, junto con las salvaguardas necesarias. Los plazos previstos para la eliminación de las diferentes categorías de datos deben describirse siempre que sea posible, junto con una descripción general de las medidas de seguridad técnicas y organizativas implementadas para salvaguardar los datos.

Mantener un registro completo de las actividades de procesamiento plantea desafíos importantes para los desarrolladores de IA, principalmente debido a la naturaleza compleja y multifacética de las operaciones de procesamiento dentro de los AIS.

Los algoritmos complejos y la naturaleza iterativa del desarrollo de la IA hacen que sea difícil documentar con precisión todas las actividades de procesamiento de datos, en particular con la amplia gama de fuentes de datos y modelos en evolución involucrados. Además, la estructura descentralizada de los equipos de desarrollo de IA y la participación de numerosas partes interesadas agregan niveles de complejidad a la tarea, lo que hace que sea aún más difícil mantener registros exhaustivos de las actividades de procesamiento.

Responsable de protección de datos

Según lo estipulado en el artículo 37 del RGPD, algunos responsables y encargados del tratamiento también están obligados a designar un delegado de protección de datos (DPD). El delegado desempeña un papel crucial en la supervisión de la estrategia de protección de datos de la organización y en la garantía del cumplimiento de las leyes de protección de datos. Entre sus responsabilidades se incluyen asesorar sobre las obligaciones de protección de datos, supervisar el cumplimiento, orientar las evaluaciones de impacto de la protección de datos y actuar como punto de contacto para los interesados y las autoridades de control. El nombramiento obligatorio de un delegado de protección de datos se aplica a las autoridades públicas, a las organizaciones que realizan un seguimiento sistemático de los interesados a gran escala y a las que procesan categorías especiales de datos personales de forma extensiva.

 

viernes, 20 de diciembre de 2024

EL NUEVO ENEMIGO DE LOS MERCADOS: EL CAPITALISMO PROGRESISTA .

 Por: Carlos A. Ferreyros Soto 

Doctor en Derecho

Universidad de Montpellier I Francia.

cferreyros@hotmail.com

RESUMEN

Según Jacque Attali, ex consejero del presidente francés François Mitterand: Los mercados y los Estados Unidos de Trump, han designado a su nuevo enemigo, el "capitalismo woke". Si comienzan a tratar de destruirlo, es probable que los europeos sean las principales víctimas de esta batalla. 

Precisa en  una columna reciente publicada en  Les Echos  que "se está desarrollando un ataque muy violento y global contra lo que estos movimientos llaman “capitalismo despierto” o “capitalismo de izquierda”, que encarna, en su opinión, una traición a los valores fundamentales de Estados Unidos y a los principios de su Constitución." Y teme que: " también en Europa, contrariamente a la gran retórica y a pesar de las acciones sinceras de muchas empresas, de algunos gobiernos y del Parlamento Europeo, las cuestiones de la diversidad y del medio ambiente se tomen cada vez menos en serio."

El articulo publicado en francés ha sido traducido al castellano por el suscrito con la ayuda del aplicativo Google Translator. El texto original se incluye al final.

A fin de acceder a normas similares y estándares europeos, las empresas, organizaciones públicas y privados interesados en asesorías, consultorías, capacitaciones, estudios, evaluaciones, auditorías sobre el tema, sírvanse comunicar al correo electrónico: cferreyros@hotmail.com

 ____________________________________________________________



EL NUEVO ENEMIGO DE LOS MERCADOS: EL CAPITALISMO PROGRESISTA.

Jacque ATTALI

Escritor / Presidente de Attali Associates

Hay quienes quieren creer que el rumbo de la historia es irreversible y que las batallas por el medio ambiente y por un trato justo en el trabajo para las mujeres y las personas de orígenes diversos triunfarán en todas partes. Les gusta pensar que cada vez más empresas, administraciones, instituciones, universidades y leyes de todos los países garantizarán pronto un equilibrio armonioso en la contratación y una reducción de las emisiones de gases de efecto invernadero.

De hecho, desde los años 70, las universidades estadounidenses imponen cuotas de estudiantes en función de su origen; en Francia, se ha hecho mucho más recientemente para garantizar que los jóvenes de los suburbios sean admitidos en las mejores universidades y las grandes écoles. En muchos países se han aprobado leyes para garantizar que hombres y mujeres reciban el mismo salario por el mismo trabajo y para garantizar que los consejos de administración y los comités ejecutivos tengan una representación igual de hombres y mujeres. Y se ha hecho mucho para tener en cuenta las cuestiones medioambientales y de biodiversidad.

En Estados Unidos, una decisión del Tribunal Supremo del 29 de junio de 2023 (relativa a Harvard y la Universidad de Carolina del Norte) puso fin a la obligación de discriminación positiva en las universidades, lo que animó a las empresas estadounidenses a ignorarla en sus prácticas de contratación. Un poco más tarde, uno de los principales asesores de Donald Trump, Stephen Miller, y su grupo, America First Legal Group, se embarcaron en una virulenta campaña contra cualquier empresa o institución que diera prioridad a las mujeres o a los no blancos, argumentando que una empresa no tiene otra misión que generar el máximo beneficio para sus accionistas; lanzaron campañas de boicot a estas empresas calificadas de “antiblancas”, y sus productos fueron denigrados como “despiertos”, el mayor insulto para estas personas. Luego, por los mismos motivos, presentaron demandas contra IBM, Pfizer y Morgan Stanley.

Ante estas amenazas, varias empresas, como Ford, Harley Davidson, Deer, Boeing y Black & Decker, acaban de abandonar subrepticiamente sus políticas de diversidad. Hace muy poco, Walmart se retiró del Índice de Igualdad Empresarial de The Human Rights Campaign y decidió no renovar una práctica establecida tras el asesinato de George Floyd en 2020 que daba prioridad a sus proveedores afroamericanos. Y la mayoría de los grandes fondos de inversión estadounidenses ya ni siquiera fingen estar interesados ​​en las exigencias medioambientales.

De manera más general, se está desarrollando un ataque muy violento y global contra lo que estos movimientos llaman “capitalismo despierto” o “capitalismo de izquierda”, que encarna, en su opinión, una traición a los valores fundamentales de Estados Unidos y a los principios de su Constitución.

Todo esto en un momento en que la situación de las mujeres en el mundo es más trágica que nunca y en que los acontecimientos más recientes, como los de Florida, Valencia y Mayotte, ponen más de manifiesto que nunca lo importante que es reducir las emisiones de gases de efecto invernadero y lo importante que es que las democracias sigan siendo modelos ejemplares para el resto del mundo.

La Unión Europea, que se esfuerza por aplicar una legislación audaz para promover la diversidad de género y social y para medir el impacto medioambiental de toda la producción, corre el riesgo de volver a encontrarse en desventaja con respecto a Estados Unidos y sus corporaciones multinacionales. Ya se oye a los inversores de todo el mundo decir: “los europeos se están suicidando con sus regulaciones, que sus propias empresas no podrán cumplir, dejando el campo libre a las grandes empresas estadounidenses, que obtendrán suficientes beneficios en países donde no hay regulaciones como para tener los medios para cumplir con las regulaciones europeas y destruir a sus competidores locales”.

Es de temer, pues, que también en Europa, contrariamente a la gran retórica y a pesar de las acciones sinceras de muchas empresas, de algunos gobiernos y del Parlamento Europeo, las cuestiones de la diversidad y del medio ambiente se tomen cada vez menos en serio.

Para evitarlo, los europeos necesitan urgentemente simplificar sus reglamentaciones, para seguir siendo competitivos, sin renunciar a su lucha por promover la economía de la vida, mediante incentivos en lugar de restricciones. ¿Quién se atreverá?

________________________________________________________________________________

Le nouvel ennemi des marchés : le capitalisme woke

Certains voudraient croire que le sens de l’Histoire est irréversible, et que les combats pour l’environnement et pour un traitement équitable au travail des femmes et des gens issus de la diversité finissent par l’emporter partout. Ils aiment à penser que de plus en plus d’entreprises, d’administrations, d’institutions, d’universités, de lois, assureront bientôt, dans tous les pays, un équilibre harmonieux dans les recrutements et une réduction des émissions de gaz à effet de serre.

De fait, depuis les années 70, les universités américaines ont imposé des quotas d’étudiants selon leurs origines ; En France, beaucoup a été fait plus récemment pour que les jeunes issus des banlieues soient admis dans les meilleures universités et grandes écoles. Dans de nombreux pays, des lois ont imposé un rapprochement des salaires, à poste égal, entre les hommes et les femmes, et exigé que les conseils d’administrations, comme les comités exécutifs, soient paritaires. Et beaucoup a été fait pour prendre en compte les enjeux de l’environnement et de la biodiversité.

Cependant, depuis peu, d’une façon d’abord souterraine, puis ouverte, un mouvement inverse de grande ampleur a commencé : aux Etats-Unis, une décision de la Cour Suprême du 29 juin 2023 (à propos de Harvard et de l’Université de la Caroline du Nord) a mis fin à l’obligation de discrimination positive dans les universités, ce qui a encouragé les entreprises américaines à ne plus en tenir compte, elles non plus, dans leurs recrutements. Un peu plus tard, un des principaux conseillers de Donald Trump, Stephen Miller, a entrepris, avec son groupe, America First Legal Group, une campagne virulente contre toute entreprise ou institution donnant une priorité aux femmes ou aux non-blancs, soutenant qu’une entreprise n’a pas d’autre mission que de générer un profit maximal pour ses actionnaires ; ils ont lancé des campagnes de boycott de ces entreprises qualifiées de « antiblanches », et de leur produits dénigrés comme « woke », injure suprême pour ces gens-là.   Puis ils ont, sur les mêmes motifs, intenté des procès contre IBM, Pfizer et Morgan Stanley.

Devant ces menaces, plusieurs entreprises, telles que Ford, Harley Davidson, Deer, Boeing, Black et Decker, viennent de renoncer subrepticement à leurs politiques de diversité. Très récemment, Walmart s’est retiré du The Human Rights Campaign Corporate Equality Index, et a décidé de ne pas renouveler une pratique établie après l’assassinat de George Floyd en 2020 donnant une priorité à ses fournisseurs afro-américains. Et la plupart des grands fonds d’investissements américains ne font même plus semblant de s’intéresser aux exigences de l’environnement.

Plus généralement se développe une attaque très violente et globale contre ce que ces mouvements nomment le « capitalisme woke », ou « capitalisme de gauche », qui incarne, selon eux, une trahison des valeurs fondamentales des Etats Unis et des principes de sa Constitution.

Tout cela au moment où le sort mondial des femmes est plus que jamais tragique, et que les faits les plus récents, comme les événements de Floride, de Valence ou de Mayotte rendent plus évidents que jamais l’importance de réduire les émissions de gaz à effet de serre et, pour les démocraties, l’importance de rester des modèles exemplaires pour le reste du monde.

L’Union européenne, qui s’applique à mettre en œuvre une législation audacieuse pour favoriser la diversité des genres et des origines sociales, et pour mesurer les impacts environnementaux de toute production, risque de se retrouver une nouvelle fois en décalage avec les Etats-Unis et ses firmes mondiales. On entend d’ailleurs déjà les investisseurs du monde entier ironiser : « les Européens se suicident avec leurs réglementations, auxquelles leurs propres entreprises ne pourront pas répondre, laissant le champ libre aux très grandes firmes américaines, qui feront assez de profits dans les pays où il n’y aura aucune réglementation pour avoir les moyens  de se plier aux réglementations européennes et d’y détruire leurs concurrents locaux ».

On peut alors craindre que, en Europe aussi, contrairement aux grands discours, et malgré des actions sincères de nombreuses entreprises, de quelques gouvernements et du Parlement européen, les enjeux de la diversité et de l’environnement soient de moins en moins pris au sérieux.

Pour l’éviter, il est urgent pour les Européens de simplifier leurs réglementations, pour rester concurrentiels, sans pour autant renoncer à leurs combats pour promouvoir l’économie de la vie, par des incitations plus que par des contraintes. Qui osera ?

jueves, 19 de diciembre de 2024

CREACIÓN DE UN ESPACIO COMÚN EUROPEO DE DATOS RELATIVOS A LA MOVILIDAD - DICTAMEN DEL COMITÉ EUROPEO DE LAS REGIONES.

 Por: Carlos A. Ferreyros Soto 

Doctor en Derecho

Universidad de Montpellier I Francia.

cferreyros@hotmail.com

RESUMEN

La Unión Europea está trabajando en la creación de un espacio común europeo de datos para la movilidad. Este espacio tiene como objetivo acelerar la transformación digital y el ámbito ecológico del sector de la movilidad y el transporte en Europa. Los elementos principales de esta iniciativa estriban en - Contribuir a mejorar la eficiencia, el desempeño ambiental, la seguridad y la sostenibilidad del sistema móvil;

-  Facilitar el descubrimiento, acceso y reutilización de datos de movimiento de naturaleza justa y no discriminatoria;

- Permitir la interoperabilidad técnica, organizativa y jurídica entre diversos agentes públicos y privados.

- Optimizar la recopilación de datos y reducir la carga administrativa.

El Dictamen del Comité Europeo de las Regiones destaca la relevancia de la creación, el tratamiento y el uso de datos en casi todas las actividades cotidianas de las personas. Si bien dichos datos no han dado resultados plenamente satisfactorios en materia de servicios, con ellos la UE, los Estados miembros, los entes locales y regionales y las partes interesadas pertinentes pueden ofrecer a la ciudadanía mejores servicios públicos, una toma de decisiones reforzada y una mayor transparencia.

 

Insiste en la necesidad de velar por la privacidad y la seguridad de todos los datos relacionados con las personas, ya que estos pueden ser un activo valioso y a veces son sensibles, por lo que deben tratarse como un producto en la economía de los datos.

 

Entiende que se necesita garantizar que la ciudadanía de la UE siga teniendo la posibilidad de elegir la tecnología que desee emplear para satisfacer cada una de sus necesidades, y que por tanto no se generen bloqueos tecnológicos ni se cree una dependencia de proveedores, manteniéndose el mercado lo más abierto posible.

Y, reconoce que el ecosistema de espacios de datos es una tecnología que introduce los principios de una interacción social extensa en la gestión y el intercambio de datos y conocimientos y, por tanto, tiene el potencial de respaldar ampliamente el desarrollo ulterior de la sociedad humana.

A fin de acceder a normas similares y estándares europeos, las empresas, organizaciones públicas y privados interesados en asesorías, consultorías, capacitaciones, estudios, evaluaciones, auditorías sobre el tema, sírvanse comunicar al correo electrónico: cferreyros@hotmail.com

 ____________________________________________________________

European flag

Diario Oficial
de la Unión Europea

ES

Serie C


C/2024/7059

4.12.2024

Dictamen del Comité Europeo de las Regiones — Creación de un espacio común europeo de datos relativos a la movilidad

(C/2024/7059)

Ponente

:

Zdeněk HŘIB (CZ/Verdes)

Primer teniente de alcalde de Praga

Documento de referencia

:

Comunicación de la Comisión al Parlamento Europeo, al Consejo, al Comité Económico y Social Europeo y al Comité de las Regiones – Creación de un espacio común europeo de datos relativos a la movilidad

COM(2023) 751 final

I. RECOMENDACIONES POLÍTICAS

EL COMITÉ EUROPEO DE LAS REGIONES (CDR),

Observaciones generales

 1. destaca la relevancia de la creación, el tratamiento y el uso de datos en casi todas las actividades cotidianas de las personas. Si bien dichos datos no han dado resultados plenamente satisfactorios en materia de servicios, con ellos la UE, los Estados miembros, los entes locales y regionales y las partes interesadas pertinentes pueden ofrecer a la ciudadanía mejores servicios públicos, una toma de decisiones reforzada y una mayor transparencia;

 

 2. insiste en la necesidad de velar por la privacidad y la seguridad de todos los datos relacionados con las personas, ya que estos pueden ser un activo valioso y a veces son sensibles, por lo que deben tratarse como un producto en la economía de los datos;

 

 3. entiende que se necesita garantizar que la ciudadanía de la UE siga teniendo la posibilidad de elegir la tecnología que desee emplear para satisfacer cada una de sus necesidades, y que por tanto no se generen bloqueos tecnológicos ni se cree una dependencia de proveedores, manteniéndose el mercado lo más abierto posible;

 

 4. reconoce que el ecosistema de espacios de datos es una tecnología que introduce los principios de una interacción social extensa en la gestión y el intercambio de datos y conocimientos y, por tanto, tiene el potencial de respaldar ampliamente el desarrollo ulterior de la sociedad humana;

 

 5. destaca el incremento constante de la necesidad de movilidad humana y de la logística de las mercancías, que, en última instancia, podrían ralentizar el cumplimiento de los objetivos establecidos en el Pacto Verde, incluso si la movilidad se lleva a cabo a escala local principalmente mediante modos activos o a pesar de que la logística se vaya a convertir en servicios de entrega;

 

 6. admite que la movilidad y la logística no se limitan a las fronteras geográficas de la UE del mismo modo que los datos generados y utilizados en el sistema de transporte;

 

7. señala la necesidad de optimizar la demanda de energía no solo por parte de los vehículos que suelen producir datos, sino también en consideración de un enfoque holístico de todos los componentes pertinentes del transporte que incluya las operaciones e infraestructuras informáticas;

 

 8. reconoce la importancia de un ecosistema de datos que incluya la movilidad y la logística, a fin de crear una red de participantes interconectados que concierten un marco de gobernanza para la gestión, el intercambio y la utilización de datos que generen valor e información;

 

 9. pide que todos los datos facilitados por todos los sectores de la actividad humana sean interoperables, promoviendo de este modo la investigación en ámbitos como la integración tanto de datos como de conocimientos y centrándose en un enfoque analítico y multidisciplinar del tratamiento y la aplicación de los datos;

 

 10. destaca la necesidad de que las entidades del sector privado tengan acceso a los datos de movilidad para permitirles mejorar sus servicios y descubrir nuevas oportunidades de prestación de servicios;

 

 11. reconoce que los datos europeos (de movilidad) pueden ser obtenidos, tratados, almacenados y utilizados fuera de Europa y por empresas no europeas;

 

 12. reconoce que la cooperación a escala empresarial, incluso en el ámbito de la investigación, suele estar impulsada por los conceptos de beneficio recíproco de todas las partes, por lo que trabajará para respaldar la creación de ecosistemas basados en estos enfoques;

 

 13. entiende la necesidad de abordar los datos con el principio básico de mantener los datos tan abiertos como sea posible y tan cerrados como sea necesario, pero teniendo presente la reciprocidad y estructuras de costes justas al compartir datos con terceros, sin obstaculizar la investigación académica y no comercial;

 

 14. está informado de las actividades paralelas en curso en el ámbito de ecosistemas (de intercambio) de datos múltiples, entre ellas las de la Asociación de Espacios Internacionales de Datos, el proyecto relativo a los espacios de datos relativos a la movilidad, el espacio común europeo de datos relativos a la movilidad en el marco del programa Europa Digital (proyecto DeployEMDS) (1) y el futuro Consorcio de Infraestructuras Digitales Europeas (EDIC) en materia de movilidad (2);

 

 15. refuerza la definición de los espacios de datos como infraestructuras descentralizadas, en las que diversos agentes pueden intercambiar y utilizar los datos de manera segura, fiable y fidedigna, conforme a mecanismos organizativos, reglamentarios, técnicos y de gobernanza comunes que interconectarán diversos ecosistemas de datos en un proceso basado en la demanda, algo que es clave para lograr el intercambio de datos entre los agentes sociales (3);

Aspectos relativos a los datos

 16. acoge con satisfacción las actividades de la Asociación de Espacios Internacionales de Datos para impulsar la interoperabilidad de los datos y la normalización de las nuevas tecnologías en los ámbitos de la gobernanza de datos y la aplicación de los principios FAIR (4) en materia de datos;

 

 17. subraya la importancia de las aplicaciones de datos en el transporte centradas en optimizar el rendimiento de las redes de transporte y lograr unas aplicaciones multimodales sin fisuras;

 

 18. comprende las divergencias nacionales en materia de movilidad y desarrollo social y, por tanto, la necesidad de diversos métodos de tratamiento de datos y de la aplicación de los conocimientos obtenidos a partir de los datos;

 

 19. recuerda que el crecimiento económico está directamente asociado a la creación de infraestructuras de transporte eficiente. En la actualidad, dichas infraestructuras puede mejorarse significativamente mediante conocimientos basados en los datos, en particular los datos en tiempo real o en tiempo cuasirreal;

 

 20. confirma que respalda las actividades que armonicen el enfoque de los espacios comunes de datos y se centren al mismo tiempo en las aplicaciones de los datos para el desarrollo regional y la planificación estratégica;

 

 21. promueve la necesidad de interoperabilidad de los datos entre todos los ámbitos de las actividades humanas, priorizando la atención a las aplicaciones relativas a la movilidad y la logística;

 

 22. reconoce que el fomento de la interoperabilidad de los datos es esencial para los ecosistemas de movilidad y logística que velen por que los diferentes participantes puedan compartir e intercambiar datos sin fisuras; subraya que, para lograrlo, son los participantes los que tienen que definir de manera colaborativa las normas y los marcos de gobernanza que rijan en los espacios de datos, entre otras cosas en relación con la reciprocidad en el intercambio de datos. Desde un punto de vista técnico, esto requiere la adopción de protocolos normalizados y modelos semánticos que permitan una integración y un intercambio fluidos de datos, lo que en última instancia conduce a unos sistemas de transporte más eficientes y eficaces que benefician a la ciudadanía y las comunidades;

 

 23. hace hincapié en la necesidad de encontrar modelos de negocio que contribuyan a minimizar los procesos innecesarios de almacenamiento y tratamiento en paralelo de los mismos tipos de datos;

 

 24. comprende las prioridades contrapuestas que existen entre la apertura de los datos y la privacidad. La implantación de espacios de datos debe, por tanto, promover la transparencia y la innovación, y a la vez salvaguardar rigurosamente la información personal;

 

 25. apoya la creación de ecosistemas de espacios de datos que sustenten la toma de decisiones estratégicas a escala regional y local;

 

 26. considera que los datos de movilidad y logística son de vital importancia en términos de seguridad y resiliencia a escala de la UE, por lo que dichos datos, en lugar de constituir infraestructuras tradicionales de hardware, desempeñan el papel de infraestructura crítica, al menos en aplicaciones específicas;

 

 27. señala la necesidad de garantizar que ningún sistema tecnológico disuada a la ciudadanía de la UE y a los visitantes de terceros países de facilitar sus datos o de utilizar las aplicaciones basadas en dicha tecnología de datos;

Un papel central para los espacios de datos interoperables

 28. solicita espacios de datos multidisciplinarios e interoperables con arreglo a los principios de orientación FAIR y medidas de calidad para todas las partes interesadas y posibles usuarios;

 

 29. propone una interoperabilidad a escala de la UE con conectores a los datos adquiridos, tratados y almacenados fuera de la Unión que sean pertinentes para los espacios de datos multidisciplinares, especialmente con los datos relacionados con la movilidad y la logística;

 

30. hace hincapié en la necesidad de lograr la seguridad y la privacidad de los datos pertinentes, que no deben utilizarse indebidamente, alterarse ni tornarse inaccesibles;

 

 31. apoya el desarrollo y la implantación de un marco interoperable unificado que facilite la interoperabilidad intersectorial y transfronteriza y aproveche al mismo tiempo la fase inicial de actividad que ya se ha puesto en marcha en el sector de la energía (5);

Datos preparados para el futuro

 32. pide un enfoque global para el futuro desarrollo previsto en materia de transporte e ingeniería de datos, con vistas a ampliar continuamente los espacios de datos;

 

33. subraya la necesidad de una futura interconectividad de datos entre todas las modalidades de transporte;

 

 34. aguarda la futura interconectividad entre todos los datos (pertinentes);

Gobernanza e intercambio de las mejores prácticas

 35. subraya la necesidad de un enfoque eficaz de gobernanza multinivel basado en la subsidiariedad activa típica de las regiones;

 

 36. anima a los participantes a que recopilen e intercambien datos a la hora de crear e implantar un espacio europeo de datos sobre movilidad, en particular en relación con aspectos como el tráfico pendular dentro de la ciudad desde otras zonas metropolitanas, la logística urbana, las normas de estacionamiento y los distintos ámbitos de las normas de acceso para vehículos urbanos, así como la movilidad en las zonas rurales para permitir la prestación de servicios de movilidad a medida en zonas rurales y remotas de baja demanda;

 

 37. pide un intercambio de las mejores prácticas centrado en infraestructuras de espacios de datos adecuadas que aporten el máximo grado de aplicación de los principios FAIR en materia de datos y garantice el nivel más elevado de privacidad y seguridad de los datos;

 

 38. aboga por un intercambio de las mejores prácticas para garantizar un enfoque que conduzca a mejoras adicionales y constantes, especialmente en lo que se refiere al aumento de la resiliencia de la sociedad de la EU;

 

 39. solicita a las instituciones de la UE que den ejemplo y apoyen activamente el desarrollo de espacios de datos conforme a los principios FAIR, a efectos de su planificación estratégica;

Retos significativos

 40. contempla los retos más notables en los siguientes ámbitos:

a) la coordinación de actividades y proyectos ya en curso y futuros a escala de la UE, no limitada únicamente a los espacios de datos de movilidad, para lograr una interoperabilidad de los datos lo más eficaz posible y aclarar del papel de los puntos de acceso nacionales;

 

b) la designación de una entidad común para la coordinación de todos los espacios de datos a escala nacional y de la UE y el establecimiento de normas que sean aceptables para todos;

 

c) la coordinación de los objetivos del espacio común europeo de datos relativos a la movilidad en el marco del enfoque general de la UE en materia de datos, tal como se especifica en el Reglamento de Datos y en el Reglamento de Gobernanza de Datos, con especial atención a la propiedad, la privacidad y la seguridad de los datos;

 

d) el desarrollo de modelos de negocio y soluciones técnicas pertinentes para animar al sector privado a compartir datos y a los entes locales y regionales a utilizar los datos como fuente fiable para una toma de decisiones eficaz;

 

e) el poder animar a las entidades no pertenecientes a la UE a compartir datos relacionados con las regiones de la UE en el marco del espacio común europeo de datos relativos a la movilidad, respecto de cualquier espacio de datos de la UE;

 

41. destaca la necesidad de acciones de apoyo para lograr la interoperabilidad entre los ecosistemas, haciendo hincapié en la importancia de la coordinación a la hora de definir y desarrollar proyectos piloto a escala intersectorial y transfronteriza. Esto implica esfuerzos de colaboración para garantizar la implantación efectiva de normas, protocolos y marcos de gobernanza en diversos ecosistemas y fronteras geográficas, incluidas las diferencias entre las zonas urbanas y rurales, que aspiran a una gestión óptima de la movilidad y la logística.

Bruselas, 8 de octubre de 2024.

El Presidente

del Comité Europeo de las Regiones

Vasco ALVES CORDEIRO


(1)   www.deployemds.eu.

(2)   https://digital-strategy.ec.europa.eu/en/policies/edic.

(3)  Centro Común de Investigación: definiciones del capítulo 1.3 de la base de conocimientos sobre los espacios de datos (https://wikis.ec.europa.eu/ display/jrcdataspaceswiki/1.3++Definitions).

(4)  Principios FAIR: fáciles de encontrar, accesibles, interoperables y reutilizables (https://www.go-fair.org/fair-principles/).

(5)  Véase el marco de interoperabilidad de los datos relativos a la energía, 2023 (https://internationaldataspaces.org/wp-content/uploads/dlm_uploads/IDSA-Position-paper-Energy-interoperability-framework-v0.9-1.pdf).


ELI: http://data.europa.eu/eli/C/2024/7059/oj

ISSN 1977-0928 (electronic edition)