Por: Carlos A. FERREYROS SOTO
Entre
otras Conclusiones y Recomendaciones de la Propuesta de Directiva del Parlamento Europeo y del Consejo, el CESE acoge favorablemente y
apoya la propuesta de la Comisión de mejorar los derechos de las
víctimas que hayan sufrido algún daño, considerado como tal con
arreglo a la legislación nacional, como consecuencia de dicho uso
ilícito de la IA, estableciendo derechos específicos que se sumen a
la legislación nacional vigente en materia de responsabilidad civil
u objetiva, las disposiciones de la Directiva sobre responsabilidad
por los daños causados por productos defectuosos y el Derecho penal.
El
CESE valora positivamente el equilibrio que establece la Directiva
entre los derechos de las víctimas y los intereses de los
desarrolladores de IA. Esto permite sacar partido de la transición
digital y podría servir de norma para los terceros países que se
planteen seguir esta vía.
El
CESE pide a la Comisión que siga de cerca la evolución de las
garantías financieras o los seguros que cubren la responsabilidad de
la IA, teniendo debidamente en cuenta su disponibilidad y su alcance,
dado que el nuevo marco debe proporcionar seguridad jurídica tanto a
los operadores como a las aseguradoras. Las pruebas de incidentes son
fundamentales para evaluar si es necesario adoptar medidas a este
respecto, por lo que es esencial documentar y notificar los
incidentes.
A
fin de acceder a normas similares y estándares europeos, las
empresas, organizaciones públicas y privados interesadas en
asesorías, consultorías, capacitaciones, estudios, evaluaciones,
auditorías sobre el tema, sírvanse comunicar al correo
electrónico : cferreyros@hotmail.com
_______________________________________________
Dictamen
del Comité Económico y Social Europeo sobre «Propuesta de
Directiva del Parlamento Europeo y del Consejo relativa a la
adaptación de las normas de responsabilidad civil extracontractual a
la inteligencia artificial (Directiva sobre responsabilidad en
materia de IA)»
[COM(2022)
496 final — 2022/0303 (COD)]
(2023/C
140/05)
Ponente general:
|
Wautier ROBYNS DE SCHNEIDAUER
|
Consulta
|
Parlamento Europeo, 6.10.2022
|
|
Consejo de la Unión Europea, 14.10.2022
|
Base jurídica
|
Artículo 114 del Tratado de Funcionamiento de la Unión
Europea
|
Sección competente
|
Sección de Mercado Único, Producción y Consumo
|
Decisión de la Mesa
|
20.9.2023
|
Aprobación en el pleno
|
24.1.2023
|
Pleno n.o
|
575
|
Resultado de la votación
(a favor/en contra/abstenciones)
|
154/1/0
|
1. Conclusiones
y recomendaciones
1. Conclusiones y recomendaciones
1.1.
El CESE ha venido desarrollando sus puntos de vista sobre la inteligencia artificial (IA) desde su trabajo pionero de 2017, en el que insistió en la necesidad de que la supervisión humana de las aplicaciones de IA incluyera también responsabilidades y generara confianza en esta tecnología. En su Dictamen de 2019, también pidió normas claras que tuvieran en cuenta la responsabilidad de las personas físicas o jurídicas en caso de uso ilícito (o presuntamente ilícito) (1).
1.2.
El CESE acoge favorablemente y apoya la propuesta de la Comisión de mejorar los derechos de las víctimas que hayan sufrido algún daño, considerado como tal con arreglo a la legislación nacional, como consecuencia de dicho uso ilícito de la IA, estableciendo derechos específicos que se sumen a la legislación nacional vigente en materia de responsabilidad civil u objetiva, las disposiciones de la Directiva sobre responsabilidad por los daños causados por productos defectuosos y el Derecho penal.
1.3.
El CESE reconoce que una armonización mínima responde de la mejor manera posible a este objetivo, pero le preocupa el riesgo de interpretaciones divergentes por las partes interesadas que participan en la cadena de desarrollo y suministro y por los jueces. Por lo tanto, insiste en la necesidad de contar con definiciones jurídicas claras y seguir mejorando con las capacidades digitales adecuadas los conocimientos especializados de quienes deberán aplicar esta nueva legislación en el conjunto de la Unión. El objetivo último de la Comisión debe ser instaurar y desarrollar un régimen de responsabilidad cuya aplicación sea lo más uniforme posible en toda la UE.
1.4.
El CESE reconoce la interacción entre las normas de prevención y seguridad, por una parte, y las oportunidades de resarcimiento, por otra, además de la función supervisora de las autoridades públicas, con el fin de garantizar el cumplimiento de las normas nacionales y de la Unión sobre el desarrollo responsable de la IA. Pide la creación de una red de órganos alternativos de resolución de litigios para que sea más fácil para las víctimas ejercer sus derechos y recabar más pruebas acerca de los efectos de la Directiva.
1.5.
El CESE valora positivamente el equilibrio que establece la Directiva entre los derechos de las víctimas y los intereses de los desarrolladores de IA. Esto permite sacar partido de la transición digital y podría servir de norma para los terceros países que se planteen seguir esta vía.
1.6.
El CESE pide a la Comisión que siga de cerca la evolución de las garantías financieras o los seguros que cubren la responsabilidad de la IA, teniendo debidamente en cuenta su disponibilidad y su alcance, dado que el nuevo marco debe proporcionar seguridad jurídica tanto a los operadores como a las aseguradoras. Las pruebas de incidentes son fundamentales para evaluar si es necesario adoptar medidas a este respecto, por lo que es esencial documentar y notificar los incidentes.
1.7.
El CESE hace un llamamiento a la Comisión para que incluya en su estrategia de comunicación los derechos otorgados a las víctimas de daños causados por la IA con el fin de aumentar la confianza en la transición digital.
1.8.
Habida cuenta de la rapidez de los avances tecnológicos, el CESE apoya la intención de revisar esta legislación tan pronto como lo justifiquen los elementos de prueba. En su opinión, un plazo de cinco años después de la entrada en vigor de la Directiva para proceder a dicha revisión sería excesivo y recomienda reducirlo a tres años. El CESE está dispuesto a hacer balance en esta revisión y evaluar la experiencia de las organizaciones de la sociedad civil de la Unión, más concretamente en lo que respecta a las observaciones de los usuarios finales sobre la carga de la prueba y a las posibles divergencias en las definiciones de los daños admisibles con arreglo a las legislaciones nacionales.
1.9.
Dado que el uso de la IA puede dar lugar a decisiones políticas delicadas que no deben dejarse únicamente en manos de las partes implicadas en la cadena de suministro de la IA, el CESE también pide ser consultado y participar en el establecimiento de normas éticas.
2. Síntesis de la propuesta
2.1.
La propuesta de Directiva relativa a la responsabilidad extracontractual en relación con la inteligencia artificial («Directiva sobre responsabilidad en materia de IA») se basa en el Libro Blanco de la Comisión de 2020 sobre la IA, el informe sobre la seguridad y la responsabilidad en el ámbito de la IA que lo acompaña y la propuesta de Ley de IA de 2021, que se centra en la prevención y la seguridad. Además, está relacionada con la revisión de la Directiva sobre responsabilidad por los daños causados por productos defectuosos de 1985 («Directiva revisada sobre responsabilidad por productos defectuosos»), que se presentó en la misma fecha que la Directiva sobre responsabilidad en materia de IA sometida a examen en el presente Dictamen. Ambas propuestas permiten a los demandantes presentar demandas contra determinadas partes, con algunas diferencias respecto del alcance de ambos instrumentos.
2.2.
El objetivo de la Directiva sobre responsabilidad en materia de IA es establecer normas uniformes en relación con algunos aspectos de la responsabilidad extracontractual por los daños causados como consecuencia del uso de sistemas de IA. De este modo, se pretende mejorar el funcionamiento del mercado único, se amplía la protección concedida a las víctimas (ya sean particulares o empresas) y se fomenta la confianza en la IA a través de normas armonizadas. Esto abarca, por ejemplo, las violaciones de la privacidad, la pérdida de datos o los daños causados por problemas de seguridad. Las nuevas normas facilitarán, por ejemplo, la obtención de una indemnización en el caso de que una persona se haya visto discriminada en un proceso de contratación que implique tecnología de IA, aun cuando permanezcan diversos obstáculos (legales). Con el fin de acabar con la inseguridad jurídica que pueda persistir, el CESE recomienda que se establezca una definición jurídica de lo que constituye una decisión tomada por máquinas que utilizan IA.
2.3.
Con esta Directiva, la Comisión propone por primera vez una armonización específica de las normas nacionales en materia de responsabilidad civil para la IA, por lo que será más fácil para las víctimas de daños relacionados con la IA obtener una indemnización. En consonancia con los objetivos del Libro Blanco sobre la IA y con la propuesta de Ley de IA de 2021 de la Comisión —que establece los principios del Estado de Derecho a través de un marco de fiabilidad y confianza en la IA—, las nuevas normas garantizarán que las víctimas se beneficien de una protección justa cuando se vean perjudicadas por productos o servicios de IA, al igual que si el daño hubiese sido causado por cualquier otra circunstancia.
2.4.
Al tiempo que vela por no poner en peligro ni echar a perder el progreso tecnológico en Europa, la Directiva introduce un marco jurídico armonizado que tiene en cuenta la complejidad de los sistemas de IA desde el laboratorio hasta el mercado y simplifica el proceso jurídico para las víctimas de daños causados por sistemas de IA a través de dos innovaciones jurídicas principales que satisfacen las necesidades existentes:
—
en primer lugar, cuando se ha demostrado un incumplimiento pertinente de (un deber de diligencia con arreglo a) la normativa nacional o de la Unión y parece bastante probable que exista un nexo causal con (el resultado producido por) el sistema de IA, una «presunción de causalidad» refutable responderá a las dificultades a las que se enfrentan las víctimas para tener que explicar de forma detallada cómo se ha causado el daño por una falta u omisión específica, lo que puede resultar especialmente difícil a la hora de intentar comprender sistemas de IA complejos. Se aplican disposiciones específicas a los proveedores de sistemas de IA de alto riesgo (véase el punto 4.1), a las personas que actúan en su nombre y a los usuarios. La propuesta reduce la gravedad de la presunción cuando el sistema de IA es utilizado por un usuario no profesional que no ha interferido en el funcionamiento del sistema de IA;
—
en segundo lugar, mientras que en lo que respecta a la responsabilidad por los productos es más fácil identificar a quién demandar, el entorno de IA es más complejo. Con la propuesta de Directiva, las víctimas dispondrán de más herramientas para solicitar resarcimiento jurídico, a través del derecho de acceso a las pruebas de las empresas y los proveedores, en los casos en que intervenga la IA de alto riesgo y cuando sea necesario obtener dichas pruebas, y en una medida proporcionada. Las víctimas podrán obtener una orden del órgano jurisdiccional que dé acceso a la información necesaria para determinar qué ha provocado el daño sufrido y a qué persona física o jurídica pueden demandar por dicho daño. Cuando se puede acceder fácilmente a las pruebas, la presunción ya no es aplicable, lo que constituye un verdadero incentivo para facilitar esta información.
A través de estas dos medidas, la propuesta de Directiva ayuda a las víctimas a obtener resarcimiento, individual o colectivamente (si procede), sin abolir el concepto de causalidad.
3. Garantizar la evolución tecnológica centrada en el ser humano
3.1.
El CESE es consciente de los beneficios y los riesgos potenciales que entraña la IA. Su uso no debe limitarse a mejorar la productividad sustituyendo las tareas humanas y reduciendo los costes. Esta evolución exige que se preste atención a los riesgos relacionados con su impacto en la salud como consecuencia de la modificación de las condiciones de trabajo y los derechos, como la privacidad, y que se reconsidere el equilibrio entre la máquina y el hombre en el lugar de trabajo, ya que debe prevalecer el control humano, teniendo debidamente en cuenta la posible persistencia de prejuicios y sesgos humanos en el funcionamiento de las máquinas. La responsabilidad del diseño inicial y la responsabilidad última por sus posibles fallos deben seguir recayendo en los agentes humanos, tal como reconoce el grupo de expertos de alto nivel sobre inteligencia artificial en sus directrices éticas. Muchas otras evoluciones están menos documentadas en la actualidad, como el impacto medioambiental de las nanotecnologías. El CESE considera que tanto los operadores de IA como otras partes interesadas, por ejemplo, los consultores de gestión de riesgos y las aseguradoras, así como las autoridades públicas y los representantes de los trabajadores, deberían supervisar el impacto potencial a través de análisis de riesgos, auditorías y la ingeniería de seguridad mediante la realización de pruebas en un entorno similar al del mundo real. Como ya señaló en su Dictamen anterior (2), el CESE acogería favorablemente el establecimiento de procedimientos de certificación que garanticen la seguridad y la adecuación a los intereses de las personas.
3.2.
El CESE es consciente de que las aplicaciones de IA están expuestas a fallos y actos cibernéticos malintencionados, y se remite a sus recientes Dictámenes relativos al Reglamento sobre la resiliencia operativa digital del sector financiero (3) y las propuestas de Directiva sobre ciberseguridad y resiliencia de las entidades críticas (4). Estos riesgos y amenazas justifican evidentemente las prescripciones existentes en materia de prevención y seguimiento, así como la evolución futura ya que puedan surgir nuevas vulnerabilidades.
3.3.
El CESE apoya la intención de seguir el ritmo de la rápida evolución futura y de revisar los efectos de la Directiva en función de los elementos de prueba, lo que dará lugar a una actualización en función de la necesidad y la proporcionalidad. Considera que el objetivo de cinco años establecido en la propuesta está demasiado alejado en el tiempo y propone actuar antes, como máximo tres años después de la entrada en vigor de la Directiva. Insiste en que la sociedad civil ha de participar en esta evaluación, ya que el CESE refleja de manera singular los puntos de vista de los ciudadanos, los consumidores, los trabajadores y las empresas grandes y pequeñas, prestando la debida atención a los derechos humanos fundamentales, incluidos los derechos de los trabajadores, así como a las perspectivas y los obstáculos económicos.
4. Salvaguardar los valores fundamentales de la Unión
4.1.
El CESE apoya el enfoque adoptado por la Comisión con respecto a la Ley de IA, que distingue los usos prohibidos de la IA, como la «puntuación ciudadana» por parte de gobiernos intrusivos, las aplicaciones de alto riesgo por parte de las empresas —como las que asignan puntos para contratar y evaluar el mérito—, las infraestructuras críticas y dispositivos técnicos utilizados en la asistencia sanitaria y un gran número de actividades de menor riesgo. Pide una definición inequívoca de las actividades de alto riesgo. Reitera su petición de añadir el daño potencial al medio ambiente como uno de los factores que deben incluirse en la categoría de alto riesgo. Señala que se debe conceder una indemnización a las víctimas independientemente de la clasificación de las aplicaciones de IA en categorías de mayor o menor riesgo.
4.2.
Como señaló en su Dictamen de 2020 relativo al Libro Blanco sobre la IA, el CESE insiste en su compromiso de salvaguardar los derechos fundamentales y la gestión humana en la fase final de las decisiones como piedras angulares del desarrollo responsable de la IA en la Unión Europea. Las elecciones y decisiones de las máquinas pueden carecer del entendimiento humano de las consecuencias no deseadas, especialmente cuando estas elecciones y decisiones afectan a personas vulnerables, como niños o personas mayores.
4.3.
El CESE subraya la importancia de la confianza de la ciudadanía en los avances de la IA en lo que respecta a la protección de la privacidad, el trato justo y el resarcimiento cuando sea procedente. La propuesta de Directiva tiene por objeto garantizar una indemnización al menos igual por los daños causados total o parcialmente por el uso de sistemas de IA que por los daños sufridos en situaciones en las que no intervienen estos sistemas. Es importante que la Comisión, los Estados miembros y los usuarios de sistemas de IA aúnen esfuerzos para transmitir este mensaje a un público amplio.
5. Facilitar la indemnización a las víctimas de daños causados por la IA
5.1.
La Directiva sobre responsabilidad en materia de IA prevé una mayor protección de los ciudadanos, los trabajadores y los agentes económicos frente a los daños reconocidos en el entorno jurídico nacional de dichas víctimas, ampliando esta protección más allá de las lesiones físicas y las pérdidas materiales, tal y como se contempla en la propuesta de Directiva sobre responsabilidad por los daños causados por productos defectuosos. Esta ampliación permite indemnizar por el daño meramente económico causado, por ejemplo, en casos de discriminación injusta, denegación del acceso a la asistencia o a la educación, elaboración errónea de perfiles por parte de la policía o pérdida de datos. El CESE insiste en la necesidad de garantizar una comprensión clara de los daños admisibles que evite interpretaciones divergentes en la jurisprudencia nacional y proporcionar formación a tal fin a los profesionales, incluidos los jueces nacionales, utilizando medios adecuados. El CESE llama la atención sobre la posibilidad de que los tribunales nacionales dirijan peticiones de decisión prejudicial al Tribunal de Justicia de la Unión Europea sobre cuestiones que puedan ser objeto de interpretaciones divergentes.
5.2.
El CESE considera que el acceso al resarcimiento y la indemnización no es igual para los ciudadanos, los consumidores, los trabajadores o las empresas de toda la Unión Europea. La buena voluntad frente a los demandantes, las normas procesales y los costes asociados a una demanda judicial, así como la medida en que las costas procesales de los demandantes están cubiertas en los asuntos de responsabilidad civil, difieren considerablemente de un Estado miembro a otro y de una clase social a otra. Por lo tanto, y como ya expresó a modo de principio en su Dictamen de carácter más general sobre el Reglamento relativo a la IA (5), el CESE aboga por la creación de mecanismos alternativos de resolución de litigios fácilmente accesibles, gratuitos y obligatorios en materia de responsabilidad civil en las aplicaciones de IA a escala nacional, con una coordinación a escala de la Unión como la que existe en el ámbito de los servicios financieros (FIN-NET), por ejemplo, en cooperación con los órganos representativos pertinentes de la sociedad civil. Estos servicios contribuirían a la evaluación de los efectos de la Directiva garantizando un seguimiento de las resoluciones extrajudiciales puestas en su conocimiento.
5.3.
El CESE se congratula de los esfuerzos realizados con el fin de proporcionar a las víctimas más recursos para reclamar una indemnización justa cuando sufran daños causados por aplicaciones de IA, lo que de otro modo podría no estar disponible o resultar complicado y costoso, debido a la opacidad y complejidad de las aplicaciones de IA. Muchos ciudadanos y consumidores desconfían de los «robots» y los algoritmos. El CESE recomienda que, en el marco de la estrategia de comunicación de la Comisión, se adopten medidas para reforzar la confianza de los ciudadanos, en particular a través de tutoriales sobre las redes sociales más utilizadas.
5.4.
Las víctimas de daños causados por sistemas de IA podrán invocar la presunción de los operadores que incumplen los requisitos nacionales o de la Unión. El hecho de que los operadores tengan que dejar constancia de su cumplimiento de dichas normas constituye un medio de defensa frente a todo comportamiento negligente.
6. Integración de nuevos principios jurídicos en el mercado único
6.1.
La Directiva sobre responsabilidad en materia de IA llega en un momento en que la responsabilidad por fallos de la IA figura en la agenda legislativa de varios Estados miembros. El CESE entiende el enfoque de la propuesta de salvaguardar, en este estadio, los principios jurídicos nacionales, y apoya el recurso a una Directiva tanto para evitar incoherencias excesivas en cuanto a los principios de responsabilidad en toda la Unión como para permitir que los Estados miembros perfeccionen el grado de protección que consideren necesario y proporcionado teniendo en cuenta el interés general. Llama la atención de los responsables políticos sobre los inconvenientes de los entornos jurídicos fragmentados, que impiden la realización de un verdadero mercado único digital, mantienen las diferencias entre los ciudadanos y las empresas europeas y podrían suponer un obstáculo a la innovación tecnológica europea. Considera que no debe subestimarse el riesgo de interpretación errónea del principio de interés general, ya que los procedimientos de impugnación son onerosos y su resolución no goza de autoridad más allá de la cuestión de que se trate en cada procedimiento ante el Tribunal de Justicia.
6.2.
El CESE es consciente de la medida en que los regímenes jurídicos nacionales aplicables a las demandas de responsabilidad civil siguen variando de un Estado miembro a otro y, a lo largo de los años, ha prestado gran atención a los esfuerzos por superar estas diferencias, por ejemplo mediante un régimen alternativo a las normas nacionales («28.o régimen»). Teniendo esto presente, entiende la elección del instrumento jurídico propuesto en esta fase por la Comisión, pero señala el riesgo de que varios conceptos puedan dar lugar a interpretaciones divergentes en los distintos ordenamientos jurídicos nacionales. El CESE insiste en que, en última instancia, el objetivo de la Comisión debe consistir en instaurar un régimen de responsabilidad cuya aplicación sea lo más uniforme posible en toda la Unión.
6.3.
El CESE hace hincapié en el derecho de la parte demandada, en particular los (pequeños) minoristas, a presentar una reclamación ante su proveedor o ante las partes interesadas pertinentes en las fases iniciales de la cadena de suministro, y el deber de estos últimos de asumir la responsabilidad de las consecuencias de su comportamiento negligente o presuntamente ilícito. En tales casos, estos proveedores deben tener la obligación legal de indemnizar a dichos demandados.
7. Apoyar la competitividad de los avances europeos en materia de IA
7.1.
El CESE considera que la seguridad jurídica no solo es un incentivo económico para la investigación y el desarrollo europeos por parte de centros científicos, autoridades públicas y empresas, sino que contribuye a la innovación pionera en un entorno mundial. La propuesta de Directiva sobre responsabilidad en materia de IA proporciona las orientaciones oportunas necesarias para reforzar la confianza de los innovadores ante los riesgos jurídicos existentes, especialmente cuando operan a través de las fronteras, dado que cada jurisdicción posee su propio régimen de responsabilidad. Esto resultará de gran valor para las empresas emergentes y las pymes que no disponen de las mismas posibilidades de acceso a asesoramiento jurídico que las empresas de mayor envergadura. El nuevo marco también puede ayudar a los desarrolladores a poner en marcha nuevas aplicaciones de IA con una mejor comprensión de las implicaciones jurídicas, contribuyendo así a la estrategia de la Unión para la doble transición ecológica y digital.
7.2.
La propuesta de Directiva sobre responsabilidad civil en materia de IA no prevé en esta fase un seguro obligatorio para las aplicaciones de IA. Habida cuenta de que las aplicaciones de IA siguen en pleno desarrollo, en particular los sistemas más complejos, sería difícil, debido a la falta de experiencia adquirida con anterioridad, establecer métodos de calificación que fueran razonablemente fiables para ser representativos de futuros daños y demandas, sobre todo en lo que se refiere al hecho de que la aparición de daños y demandas podría estar interconectada y provocar la reproducción de fallos y, por consiguiente, un aumento de la gravedad de los incidentes y la acumulación de pérdidas, mientras que la capacidad de las empresas de seguros (o reaseguros) es actualmente limitada. Por consiguiente, el CESE entiende la decisión de la Comisión de no seguir planteándose la cuestión de saber para qué actividades y en qué medida deberían introducirse en esta fase un seguro obligatorio u otras garantías financieras, pero pide a la Comisión que siga de cerca la disponibilidad y el alcance de los seguros. Es necesario un mecanismo de seguimiento que proporcione información sobre incidentes relacionados con sistemas de IA para evaluar si se necesitan medidas adicionales, como la introducción de un régimen de responsabilidad objetiva o un seguro obligatorio.
7.3.
El CESE observa que algunos riesgos están sujetos a un seguro obligatorio u otras garantías financieras en virtud de la legislación nacional o de la Unión. Tal es el caso, particularmente, de la utilización de vehículos de motor, ámbito en el que se están desarrollando vehículos autónomos. En estos casos, en los que el seguro obligatorio cubre no solo el comportamiento del conductor o de los pasajeros, sino también las averías de los equipos, más concretamente en el modo de piloto automático, en la mayoría de los casos (6) se garantiza la indemnización a las víctimas en virtud de la legislación y los contratos vigentes. Las compañías de seguros pueden, en su caso, reclamar el reembolso de sus gastos a los fabricantes. Esto debería reducir los costes para los automovilistas y desplazar el centro de gravedad económico de las líneas de seguros correspondientes de un mercado de empresa a consumidor hacia un modelo de empresa a empresa. El CESE considera, por lo tanto, que no es necesario adoptar nuevas medidas legislativas de carácter significativo en aquellos ámbitos en los que el seguro obligatorio ya existe o en los que está prevista su introducción a escala de la Unión. Sin embargo, el CESE seguirá de cerca las decisiones éticas sobre cuestiones como la prevención de colisiones y las hipótesis de gestión de accidentes.
7.4.
El CESE considera que las limitaciones respecto del cumplimiento y la gestión de riesgos incorporadas en la Directiva sobre responsabilidad en materia de IA, así como la presunción que traslada la carga de la prueba de refutación a los proveedores, las personas que actúan en su nombre y los usuarios de sistemas de IA, son medidas proporcionadas dirigidas a los niveles adecuados de riesgo de daños causados por aplicaciones de IA.
7.5.
En lo que respecta al acceso a las pruebas, el CESE respalda las medidas adoptadas para proteger los secretos comerciales, que constituyen un aspecto importante de la competitividad de los innovadores europeos, así como la confidencialidad de la información cuando se invoca de manera legítima y respetando debidamente los derechos establecidos, como los privilegios legalmente reconocidos de los denunciantes en el lugar de trabajo, por ejemplo.
7.6.
El CESE considera que la adopción de una presunción moderada en lugar de una responsabilidad objetiva facilita el desarrollo de la tecnología de IA en la Unión Europea y podría confirmar el papel de la Unión como referente normativo mundial, puesto que es posible que otros países adapten sus legislaciones a este régimen. Este aspecto también debería incluirse en la futura revisión, junto con la aclaración de conceptos que podrían ser necesarios como resultado de esta primera experiencia.
Bruselas, 24 de enero de 2023.
La Presidenta del Comité Económico y Social Europeo
Christa SCHWENG
_______________________________
(1) Dictamen del Comité Económico y Social Europeo sobre «Comunicación de la Comisión al Parlamento Europeo, al Consejo, al Comité Económico y Social Europeo y al Comité de las Regiones — Generar confianza en la inteligencia artificial centrada en el ser humano» [COM(2019) 168 final] (DO C 47 de 11.2.2020, p. 64).
(2) Dictamen del Comité Económico y Social Europeo sobre «Comunicación de la Comisión al Parlamento Europeo, al Consejo, al Comité Económico y Social Europeo y al Comité de las Regiones — Generar confianza en la inteligencia artificial centrada en el ser humano» [COM(2019) 168 final] (DO C 47 de 11.2.2020, p. 64).
(3) Dictamen del Comité Económico y Social Europeo sobre la propuesta de Reglamento del Parlamento Europeo y del Consejo sobre la resiliencia operativa digital del sector financiero y por el que se modifican los Reglamentos (CE) n.o 1060/2009, (UE) n.o 648/2012, (UE) n.o 600/2014 y (UE) n.o 909/2014 [COM(2020) 595 final — 2020/0266 (COD)] y sobre la propuesta de Directiva del Parlamento Europeo y del Consejo por la que se modifican las Directivas 2006/43/CE, 2009/65/CE, 2009/138/CE, 2011/61/UE, 2013/36/UE, 2014/65/UE, (UE) 2015/2366 y (UE) 2016/2341 [COM(2020) 596 final — 2020/0268 (COD)] (DO C 155 de 30.4.2021, p.38).
(4) Dictamen del Comité Económico y Social Europeo sobre la propuesta de Directiva del Parlamento Europeo y del Consejo relativa a las medidas destinadas a garantizar un elevado nivel común de ciberseguridad y por la que se deroga la Directiva (UE) 2016/1148 y sobre la propuesta de Directiva del Parlamento Europeo y del Consejo sobre la resiliencia de las entidades críticas [COM(2020) 823 final — 2020/0359 (COD) — COM(2020) 829 final — 2020/0365 (COD)] (DO C 286 de 16.7.2021, p. 170).
(5) Dictamen del Comité Económico y Social Europeo sobre la «Propuesta de Reglamento del Parlamento Europeo y del Consejo por el que se establecen normas armonizadas en materia de inteligencia artificial (Ley de Inteligencia Artificial) y se modifican determinados actos legislativos de la Unión» [COM(2021) 206 final — 2021/106 (COD)] (DO C 517 de 22.12.2021, p. 61).
(6) La persona que se encuentre al volante tiene derecho a interponer una demanda en virtud de la legislación aplicable a la responsabilidad por productos.
No hay comentarios:
Publicar un comentario