martes, 19 de enero de 2021

INICIATIVA DE LA SOCIEDAD CIVIL EUROPEA PARA LA PROHIBICION DE PRACTICAS DE VIGILANCIA BIOMETRICA MASIVA

 

Por: Carlos A. FERREYROS SOTO

        Doctor en Derecho
        Université de Montpellier I Francia.
        M. Sc. Institut Agronomique Méditerranéen

        cferreyros@hotmail.com

PROLOGO

Esta iniciativa no pudo originalmente ser registrada en su totalidad, puesto que el Reglamento (UE) 2019/788 sobre la Iniciativa Ciudadana Europea, ICE sanciona que ésta solo podrá ser registrada, {Artículo 6 Registro, (...) 3.   La Comisión registrará la iniciativa } si: (...):

c) Ninguna de las partes de la iniciativa queda manifiestamente fuera del marco de las atribuciones de la Comisión para presentar una propuesta de acto jurídico de la Unión a efectos de la aplicación de los Tratados.

En diciembre 2020 se presentó una versión modificada de la iniciativa, subsanándose la omisión.

El pedido consiste en que la Comisión (Europea): 

prohíba, en la legislación y en la práctica, los usos indiscriminados o focalizados arbitrariamente de la biometría que puedan dar lugar a una vigilancia masiva ilegal. Estos sistemas invasivos no deben desarrollarse, desplegarse (ni siquiera de prueba) ni ser utilizados por entidades públicas o privadas en la medida en que pueden dar lugar a una injerencia innecesaria o desproporcionada en los derechos fundamentales de las personas.

Además, Instan a la Comisión (Europea) a  proponer un acto jurídico que se base en las prohibiciones generales recogidas en el Reglamento General de Protección de Datos Personales, RGPD y en la Directiva sobre protección de datos en el ámbito penal y que respete plenamente dichas prohibiciones, a fin de que la legislación de la UE prohíba explícita y específicamente la vigilancia biométrica masiva.

Esta Iniciativa Ciudadana Europea se relaciona con el uso y abuso de dispositivos de vigilancia biométricos masivos existentes en la Administración Pública latinoamericana y los riesgos que estos representan para el ejercicio de los derechos fundamentales de la persona, particularmente, los marcadores de horarios, que por su facilidad amenazan o vulneran los principios sobre la relación entre finalidad del tratamiento de la información y la proporcionalidad de los medios empleados. Estaremos atentos para conocer como resuelve este pedido la Comisión

________________________________________________________________


DECISIÓN DE EJECUCIÓN (UE) 2021/27 DE LA COMISIÓN

de 7 de enero de 2021

sobre la solicitud de registro de la iniciativa ciudadana europea titulada «Iniciativa de la sociedad civil para la prohibición de las prácticas de vigilancia biométrica masiva»

[notificada con el número C(2021) 32]

(El texto en lengua inglesa es el único auténtico) LA COMISIÓN EUROPEA,

Visto el Tratado de Funcionamiento de la Unión Europea,

Visto el Reglamento (UE) 2019/788 del Parlamento Europeo y del Consejo, de 17 de abril de 2019, sobre la iniciativa ciudadana europea (1), y en particular su artículo 6,

Considerando lo siguiente:

(1) El 15 de octubre de 2020, la Comisión recibió la solicitud de registro de una iniciativa ciudadana europea titulada «Iniciativa de la sociedad civil para la prohibición de las prácticas de vigilancia biométrica masiva». El 11 de noviembre de 2020, la Comisión comunicó al grupo de organizadores que, según su evaluación de la misma (2), esta no podía registrarse en su totalidad porque algunas de las medidas propuestas no cumplían el requisito establecido en el artículo 6, apartado 3, letra c), del Reglamento (UE) 2019/788. Se invitaba a la Comisión a adoptar una recomendación, incoar procedimientos de infracción y llevar a cabo una investigación exhaustiva, cuando a la Comisión solo se le puede solicitar que presente propuestas de actos jurídicos de la Unión en el marco del Reglamento.

 

(2) Como consecuencia de ello, el 7 de diciembre de 2020 se presentó a la Comisión una versión modificada de la iniciativa.

 

(3) Los objetivos de la iniciativa modificada se describen como sigue: «Pedimos a la Comisión Europea que regule estrictamente el uso de tecnologías biométricas a fin de evitar interferencias indebidas con los derechos fundamentales. En particular, pedimos a la Comisión que prohíba, en la legislación y en la práctica, los usos indiscriminados o focalizados arbitrariamente de la biometría que puedan dar lugar a una vigilancia masiva ilegal. Estos sistemas invasivos no deben desarrollarse, desplegarse (ni siquiera de prueba) ni ser utilizados por entidades públicas o privadas en la medida en que pueden dar lugar a una injerencia innecesaria o desproporcionada en los derechos fundamentales de las personas. Hay pruebas de que algunos usos de la vigilancia biométrica masiva en los Estados miembros y por parte de las agencias de la UE han dado lugar a violaciones de la legislación de la UE en materia de protección de datos y restringido indebidamente los derechos de las personas, incluida su privacidad, su derecho a la libertad de expresión, el derecho a manifestarse y a no ser discriminadas. El uso generalizado de la vigilancia biométrica, la elaboración de perfiles y la predicción constituyen una amenaza para el Estado de Derecho y nuestras libertades fundamentales. En la presente ICE instamos, por tanto, a la Comisión a que proponga un acto jurídico que se base en las prohibiciones generales recogidas en el RGPD (3) y en la Directiva sobre protección de datos en el ámbito penal (4) y que respete plenamente dichas prohibiciones, a fin de que la legislación de la UE prohíba explícita y específicamente la vigilancia biométrica masiva».

 

(4) Se adjunta un anexo con más información sobre el tema, los objetivos y el contexto de la iniciativa ciudadana, y en el que se indica que los datos biométricos son cada vez más utilizados por las autoridades policiales, nacionales y de la UE, así como por entidades privadas, a fines de identificación o para elaborar perfiles de personas presentes en espacios públicos, lo que supone «una injerencia intrínsecamente innecesaria y desproporcionada en una amplia serie de derechos fundamentales, como la privacidad y la protección de datos». El anexo señala, además, que, si bien «el actual marco jurídico de la UE aclara [...] que el uso de datos biométricos se limitará a lo estrictamente necesario en relación con un fin legítimo perseguido, a reserva del principio de proporcionalidad [...], tales principios generales están sujetos a amplias excepciones».

 

(5) Los organizadores han presentado más información relativa al contexto de su propuesta de acto jurídico de la Unión y las posibles medidas de acompañamiento, así como un proyecto de acto jurídico.

 

(6) La iniciativa, en su versión modificada, invita a la Comisión a presentar una propuesta de acto jurídico para prohibir los usos indiscriminados de la biometría que puedan dar lugar a la vigilancia masiva. Como ya señaló la Comisión a los organizadores en su evaluación de 11 de noviembre de 2020, dicha propuesta podría basarse en el artículo 16, apartado 2, o en el artículo 114 del Tratado, o en ambos, dependiendo de si se prohibiera el uso de datos biométricos o se regulara estrictamente. El artículo 16, apartado 2, del Tratado proporciona la base jurídica para que la Comisión proponga actos relacionados con la protección de las personas físicas en lo que respecta al tratamiento de datos personales por las instituciones, órganos y organismos de la UE y por parte de los Estados miembros cuando lleven a cabo actividades comprendidas dentro del ámbito de aplicación del Derecho de la Unión, y sobre la libre circulación de estos datos. Por su parte, el artículo 114 ofrece una base jurídica para que la Comisión proponga medidas relativas a la aproximación de las disposiciones legales, reglamentarias y administrativas de los Estados miembros que tengan por objeto el establecimiento y el funcionamiento del mercado interior.

 

(7) Por estas razones, ninguna de las partes de la iniciativa propuesta queda manifiestamente fuera del marco de las atribuciones de la Comisión de presentar una propuesta de acto jurídico de la Unión a efectos de la aplicación de los Tratados, conforme a lo dispuesto en el artículo 6, apartado 3, letra c), del Reglamento (UE) 2019/788.

 

(8) El anexo de la iniciativa hace referencia a cuatro posibles medidas de acompañamiento. Dado que no se solicita a la Comisión que presente una propuesta de acto jurídico de la Unión relativo a alguna de esas medidas, estas no cumplen la condición establecida en el artículo 6, apartado 3, letra c), del Reglamento para ser registradas como parte del objeto de la iniciativa. Por lo tanto, dichas medidas quedan fuera del ámbito de aplicación de la presente Decisión de registro. No obstante, si la Comisión considera apropiado adoptar una propuesta de acto jurídico en el ámbito objeto de la iniciativa, también podría examinar la posibilidad de tener en cuenta en dicha propuesta algunas de esas medidas, a saber, la necesidad de orientar a los Estados miembros a la hora de ejecutar sus disposiciones, la participación de las autoridades de protección de datos en la ejecución de dichas disposiciones, y el contenido y los principios de las directrices éticas del Grupo de Expertos de Alto Nivel sobre Inteligencia Artificial (AIHLEG) (5).

 

(9) El grupo de organizadores ha aportado pruebas suficientes de cumplir los requisitos establecidos en el artículo 5, apartados 1 y 2, del Reglamento (UE) 2019/788 y de haber nombrado a las personas de contacto de conformidad con el artículo 5, apartado 3, párrafo primero, de dicho Reglamento.

 

(10) La iniciativa no es manifiestamente abusiva, frívola o temeraria, ni manifiestamente contraria a los valores de la Unión establecidos en el artículo 2 del Tratado de la Unión Europea ni a los derechos consagrados en la Carta de los Derechos Fundamentales de la Unión Europea.

 

(11) En conclusión, la iniciativa titulada «Iniciativa de la sociedad civil para la prohibición de las prácticas de vigilancia biométrica masiva» cumple todos los requisitos establecidos en el artículo 6, apartado 3, del Reglamento (UE) 2019/788 y, por tanto, debe registrarse.

HA ADOPTADO LA PRESENTE DECISIÓN:

Artículo 1

Queda registrada la iniciativa ciudadana europea titulada «Iniciativa de la sociedad civil para la prohibición de las prácticas de vigilancia biométrica masiva».

Artículo 2

El destinatario de la presente Decisión es el grupo de organizadores de la iniciativa ciudadana europea titulada «Iniciativa de la sociedad civil para la prohibición de las prácticas de vigilancia biométrica masiva», representado por D. Diego Javier NARANJO BARROSO y D. Riccardo COLUCCINI, quienes actúan como personas de contacto.

Hecho en Bruselas, el 7 de enero de 2021.

Por la Comisión

Věra JOUROVÁ

Vicepresidenta


(1)  DO L 130 de 17.5.2019, p. 55.

(2)  C(2020) 7869.

(3)  Reglamento (UE) 2016/679 del Parlamento Europeo y del Consejo, de 27 de abril de 2016, relativo a la protección de las personas físicas en lo que respecta al tratamiento de datos personales y a la libre circulación de estos datos y por el que se deroga la Directiva 95/46/CE (Reglamento general de protección de datos) (DO L 119 de 4.5.2016, p. 1).

(4)  Directiva (UE) 2016/680 del Parlamento Europeo y del Consejo, de 27 de abril de 2016, relativa a la protección de las personas físicas en lo que respecta al tratamiento de datos personales por parte de las autoridades competentes para fines de prevención, investigación, detección o enjuiciamiento de infracciones penales o de ejecución de sanciones penales, y a la libre circulación de tales datos y por la que se deroga la Decisión Marco 2008/977/JAI del Consejo (Directiva sobre protección de datos en el ámbito penal) (DO L 119 de 4.5.2016, p. 89).

(5)  https://ec.europa.eu/futurium/en/ai-alliance-consultation/guidelines


DIRECTRICES ÉTICAS PARA UNA INTELIGENCIA ARTIFICIAL FIABLE - GRUPO INDEPENDIENTE DE EXPERTOS EUROPEOS DE ALTO NIVEL

 

 Por: Carlos A. FERREYROS SOTO

        Doctor en Derecho
        Université de Montpellier I Francia.
        M. Sc. Institut Agronomique Méditerranéen

        cferreyros@hotmail.com

 PROLOGO 

El Grupo Independiente de Expertos de Alto Nivel, creado por la Comisión Europea en 2018, elaboró un primer borrador de estas Directrices Éticas, las mismas que fueron sometidas a consulta pública habiendo recibido mas de quinientas observaciones, las que fueron tomadas en cuenta en la edición revisada.

El texto íntegro de estas Directrices se encuentra, en el siguiente enlace: https://ec.europa.eu/futurium/en/ai-alliance-consultation/guidelines

El Resumen adjunto forma parte de ese documento.

 ______________________________________________________________________

RESUMEN

1)    El objetivo de las presentes directrices es promover una inteligencia artificial fiable. La fiabilidad de la inteligencia artificial (IA) se apoya en tres componentes que deben satisfacerse a lo largo de todo el ciclo de vida del sistema: a) la IA debe ser lícita, es decir, cumplir todas las leyes y reglamentos aplicables; b) ha de ser ética, de modo que se garantice el respeto de los principios y valores éticos; y c) debe ser robusta, tanto desde el punto de vista técnico como social, puesto que los sistemas de IA, incluso si las intenciones son buenas, pueden provocar daños accidentales. Cada uno de estos componentes es en sí mismo necesario pero no suficiente para el logro de una IA fiable. Lo ideal es que todos ellos actúen en armonía y de manera simultánea. En el caso de que surjan tensiones entre ellos en la práctica, la sociedad deberá esforzarse por resolverlas.

2)   Estas directrices establecen un marco para conseguir una IA fiable. Dicho marco no aborda explícitamente el primero de los tres componentes expuestos de la inteligencia artificial (IA lícita)[1] . En lugar de ello, pretende ofrecer orientaciones sobre el fomento y la garantía de una IA ética y robusta (los componentes segundo y tercero). Las directrices, que van dirigidas a todas las partes interesadas, buscan ofrecer algo más que una simple lista de principios éticos; para ello, proporcionan orientación sobre cómo poner en práctica esos principios en los sistemas sociotécnicos. Las orientaciones se ofrecen en tres niveles de abstracción, desde el capítulo I (el más abstracto) al III (el más concreto). Concluyen con ejemplos de las oportunidades y preocupaciones fundamentales que plantean los sistemas de IA.

I. Partiendo de un enfoque basado en los derechos fundamentales, en el capítulo I se identifican los principios éticos y sus valores conexos que deben respetarse en el desarrollo, despliegue y utilización de los sistemas de IA.

 

Orientaciones clave derivadas del capítulo I:

ü  Desarrollar, desplegar y utilizar los sistemas de IA respetando los principios éticos de: respeto de la autonomía humana, prevención del daño, equidad y explicabilidad. Reconocer y abordar las tensiones que pueden surgir entre estos principios.

ü  Prestar una atención especial a las situaciones que afecten a los grupos más vulnerables, como los niños, las personas con discapacidad y otras que se hayan visto históricamente desfavorecidas o que se encuentren en riesgo de exclusión, así como a las situaciones caracterizadas por asimetrías de poder o de información, como las que pueden producirse entre empresarios y trabajadores o entre empresas y consumidores[2].

ü  Reconocer y tener presente que, pese a que aportan beneficios sustanciales a las personas y a la sociedad, los sistemas de IA también entrañan determinados riesgos y pueden tener efectos negativos, algunos de los cuales pueden resultar difíciles de prever, identificar o medir (por ejemplo, sobre la democracia, el estado de Derecho y la justicia distributiva, o sobre la propia mente humana). Adoptar medidas adecuadas para mitigar estos riesgos cuando proceda; dichas medidas deberán ser proporcionales a la magnitud del riesgo.

 

II. A partir de lo expuesto en el capítulo I, el capítulo II ofrece orientaciones sobre cómo lograr una IA fiable, enumerando siete requisitos que deben cumplir los sistemas de IA para ello. Para aplicar estas orientaciones se pueden utilizar tanto métodos técnicos como de otro tipo.

 

Orientaciones clave derivadas del capítulo II:

ü  Garantizar que el desarrollo, despliegue y utilización de los sistemas de IA cumpla los requisitos para una IA fiable: 1) acción y supervisión humanas, 2) solidez técnica y seguridad, 3) gestión de la privacidad y de los datos, 4) transparencia, 5) diversidad, no discriminación y equidad, 6) bienestar ambiental y social, y 7) rendición de cuentas.

ü  Para garantizar el cumplimiento de estos requisitos, se deberá estudiar la posibilidad de emplear tanto métodos técnicos como no técnicos.

ü  Impulsar la investigación y la innovación para ayudar a evaluar los sistemas de IA y a promover el cumplimiento de los requisitos; divulgar los resultados y las preguntas de interpretación abierta al público en general, y formar sistemáticamente a una nueva generación de especialistas en ética de la IA.

ü  Comunicar información a las partes interesadas, de un modo claro y proactivo, sobre las capacidades y limitaciones de los sistemas de IA, posibilitando el establecimiento de expectativas realistas, así como sobre el modo en que se cumplen los requisitos. Ser transparentes acerca del hecho de que se está trabajando con un sistema de IA.

ü  Facilitar la trazabilidad y la auditabilidad de los sistemas de IA, especialmente en contextos o situaciones críticos.

ü  Implicar a las partes interesadas en todo el ciclo de vida de los sistemas de IA. Promover la formación y la educación, de manera que todas las partes interesadas sean conocedoras de la IA fiable y reciban formación en la materia.

ü  Ser conscientes de que pueden existir tensiones fundamentales entre los diferentes principios y requisitos. Identificar, evaluar, documentar y comunicar constantemente este tipo de tensiones y sus soluciones.

III. El capítulo III ofrece una lista concreta y no exhaustiva para la evaluación de la fiabilidad de la IA, con el objetivo de poner en práctica los requisitos descritos en el capítulo II. Dicha lista de evaluación deberá adaptarse al caso específico de utilización del sistema de IA[3]

.

Orientaciones clave derivadas del capítulo III:

ü  Adoptar una evaluación de la fiabilidad de la IA al desarrollar, desplegar o utilizar sistemas de IA, y adaptarla al caso de uso específico en el que se aplique dicho sistema.

ü  Tener presente que este tipo de listas de evaluación nunca pueden ser exhaustivas. Garantizar la fiabilidad de la IA no consiste en marcar casillas de verificación, sino en identificar y aplicar constantemente requisitos, evaluar soluciones y asegurar mejores resultados a lo largo de todo el ciclo de vida del sistema de IA, implicando a las partes interesadas en el proceso.

 

3) La sección final del documento tiene por objetivo concretar algunas de las cuestiones abordadas a lo largo del marco expuesto, ofreciendo ejemplos de oportunidades beneficiosas que se deberían perseguir y de preocupaciones cruciales que plantean los sistemas de IA y que deberían ser objeto de un estudio pormenorizado.

4) Pese a que estas directrices pretenden ofrecer orientaciones sobre las aplicaciones de la IA en general y establecer una base horizontal para lograr una IA fiable, las diferentes situaciones plantean desafíos distintos. Por lo tanto, se debería explorar si, además de este marco horizontal, puede ser necesario un enfoque sectorial dado que la aplicación de los sistemas de AI depende del contexto.

5) Estas directrices no aspiran a reemplazar ninguna política o reglamento actual o futuro, ni a impedir su introducción. Deben considerarse un documento vivo, que habrá de revisarse y actualizarse a lo largo del tiempo para garantizar que sigan siendo pertinentes a medida que evolucionen la tecnología, el entorno social y nuestros propios conocimientos. Este documento ha sido concebido como un punto de partida para el debate sobre «Una IA fiable para Europa[4] . Más allá de Europa, las directrices también buscan estimular la investigación, la reflexión y el debate sobre un marco ético para los sistemas de IA a escala mundial.



[1] Todas las declaraciones normativas recogidas en este documento tienen la finalidad de brindar orientaciones de cara al logro de los componentes segundo y tercero de una IA fiable (IA ética y robusta). Por lo tanto, dichas declaraciones no pretenden ofrecer asesoramiento jurídico ni orientaciones sobre el cumplimiento de las leyes aplicables, aunque se reconoce que muchas de ellas figuran recogidas en cierta medida en las leyes existentes. Véanse, en ese sentido, los puntos 21 y ss.

 [2] Véanse los artículos 24 a 27 de la Carta de los Derechos Fundamentales de la Unión Europea (Carta de la UE), que tratan sobre los derechos de los niños y de las personas mayores, la integración de las personas con discapacidad y los derechos de los trabajadores. Véase también el artículo 38 relativo a la protección de los consumidores.

 [3] En consonancia con el ámbito de aplicación del marco expuesto en el punto 2, esta lista de evaluación no proporciona consejo alguno sobre cómo garantizar el cumplimiento de la normativa (IA lícita), sino que se limita a ofrecer orientaciones de cara al cumplimiento de los componentes segundo y tercero de la IA fiable (IA ética y robusta).

[4] Se pretende aplicar este ideal a los sistemas de IA desarrollados, desplegados y utilizados en los Estados miembros de la UE, así como a los sistemas desarrollados o producidos en otros lugares pero que se desplieguen y utilicen en la UE. Las referencias a «Europa» en este documento se entenderán hechas a los Estados miembros de la UE. No obstante, la aspiración es que estas directrices también resulten pertinentes fuera de la Unión. En este sentido, cabe señalar que tanto Noruega como Suiza participan en el plan coordinado sobre la inteligencia artificial aprobado y publicado en diciembre de 2018 por la Comisión y los Estados miembros.

 


lunes, 18 de enero de 2021

REGLAMENTO EUROPEO SOBRE DISPOSITIVOS MÉDICOS, VALIDACION DE PROGRAMAS INFORMATICOS MEDICOS Y BASE DE DATOS.

Por: Carlos A. FERREYROS SOTO
        Doctor en Derecho
        Université de Montpellier I Francia.
        M. Sc. Institut Agronomique Méditerranéen

        cferreyros@hotmail.com

 PROLOGO 

El mundo de los dispositivos médicos dentro de la Unión Europea atraviesa un período importante en su historia. En efecto, la Directiva europea dará paso en 2021 al Reglamento (UE) 2017/745 común para el conjunto de los Estados miembros.

 I. LAS RAZONES DE UN CAMBIO:

La Directiva Europea 93/42/CEE es un texto reglamentario elaborado por la Unión Europea, aplicado desde 1993, que da indicaciones comunes sobre la comercialización de productos sanitarios. Esta directiva, aplicable a todos los Estados miembros de la Unión Europea, se ha enriquecido por otras directivas durante casi 25 años.

Cada una de estas Directivas ha sido transpuesta a la legislación de cada miembro de la Unión Europea. Esto deja libre curso a la interpretación de cada Estado miembro sobre las obligaciones relativas a la comercialización de dispositivos médicos.

Además, durante muchos años, el sector de los dispositivos médicos se ha visto agitado por escándalos masivamente publicitados como la prótesis mamaria Poly Implant Prosthesis (PIP) o incluso las prótesis de cadera con pareja de fricción metal-metal. Consecuentemente, se ha cuestionado la capacidad de la Directiva para garantizar la seguridad del paciente.

Para remediar estas diferencias, y los diversos escándalos en el mundo de los dispositivos médicos, el Parlamento Europeo votó en abril de 2017 la implementación de un nuevo texto destinado a unificar al conjunto de los actores del dispositivo médico bajo un solo y mismo Reglamento, más completo según el contexto tecnológico actual.

El objetivo de este nuevo reglamento es mejorar la trazabilidad y la transparencia a nivel europeo, pero también de poder realizar un seguimiento más reforzado los organismos participantes. El Reglamento sobre dispositivos médicos entró en vigor el 26 de mayo de 2017 y será de aplicación a partir del 26 de mayo de 2021,. Esta transición debe ser aplicada por las empresas pero también por los organismos referidos.

II. PERÍODO DE TRANSICIÓN Y DE INTERROGACION PARA LAS PARTES INTERESADAS DEL DISPOSITIVO MÉDICO:

El tránsito de la Directiva aplicada durante casi 25 años a un nuevo Reglamento en 2020 no es fácil. Este período de transición requiere del rigor y la anticipación de todos los protagonistas del sector. Los organismos notificados (O.N.) serán auditados a partir de junio de 2018 para su certificación antes de julio de 2019 (según la Notified Body Operations Group (NBOG) Best Practice Guide ( BP) 2017-1 rev.1-).

Los fabricantes podrán comenzar a ser notificados a través del reglamento a partir de agosto de 2019 si se respeta el cronograma establecido por el Grupo de Operaciones de Organismos Notificados (NBOG). Se deben tener en cuenta varios escenarios:

• Si se modifica el dispositivo médico:

Los Dispositivos médicos con marcado CE y comercializados actualmente que presentarán modificaciones sustanciales (control de cambios, cambio de proveedor, etc.) entre junio de 2020 y junio de 2024 que requieren una reevaluación por parte de la O.N. tendrán que proceder a la modificación del expediente de marcado CE conforme al nuevo Reglamento.

 Si el dispositivo médico cambia de clase según el nuevo Reglamento:

 Los dispositivos de clase I actualmente comercializados y que sufran un cambio de clase según el nuevo Reglamento deben ser conformes con este último a partir de 2021.

Los dispositivos de otras clases siguen siendo válidos hasta el final de su período de validez.

Para todo dispositivo médico nuevo comercializado:

Tan pronto como las O.N estén certificadas, los fabricantes podrán ser notificados a través del Reglamento. Los dispositivos médicos pueden certificarse según la directiva 93/42 hasta mayo de 2020 teóricamente. A partir del 26 de mayo de 2021, sólo se aplicará el nuevo Reglamento:

En 2024, los productos sanitarios con marcado CE según la Directiva 93/42/CEE ya no podrán comercializarse.

Se han recopilado muchas informaciones sobre un creciente alud de O.N. que tiene un impacto en los tiempos de respuesta.

Cada fabricante que tenga un producto nuevo y tenga que cambiarlo, debe anticiparlo al máximo.

Queda una duda sobre ciertos O.N. cuya capacidad para ser certificados se desconoce en el Reglamento. También existe una incógnita sobre el tipo de producto que serán certificados.

El Team-NB (la Asociación Europea de O.N. a los Dispositivos Médicos) indicó en un comunicado de prensa el 12 de febrero de 2018 que 20 de sus 24 miembros habían presentado hasta ahora su solicitud de notificación para el Reglamento 2017/745 de dispositivos médicos. Dos organismos turcos aún no han tenido la oportunidad de presentar una solicitud, ya que las normas que deben aplicarse aún no han sido transpuestas a su legislación nacional. En cuanto a los dos restantes, indicaron que no deseaban obtener la notificación.

El 16 de octubre de 2018, la Comisión había recibido 26 solicitudes para el Reglamento 2017/745 de dispositivos médicos. De estos, 20 informes preliminares fueron enviados a la Comisión. Según las últimas noticias, se han realizado 10 evaluaciones conjuntas para el Reglamento  2017/745 de dispositivos médicos y 10 otros han sido previstos.

III.EN LA REALIDAD ¿QUÉ CAMBIOS PARA EL MUNDO DEL DISPOSITIVO MÉDICO?

El Reglamento modifica el campo de los dispositivos médicos, fortalece considerablemente sus criterios y procedimientos de evaluación, así como las responsabilidades de los distintos actores. La Comisión Europea, en colaboración con las autoridades supervisoras, acentuará la vigilancia de las O.N. a fin de mejorar sus competencias.

A continuación se muestran algunos de los principales cambios:

a. Trámites reforzados

En efecto, el Reglamento  no será más transpuesto al Código Sanitario de cada país de la Unión Europea, sino que deberá aplicarse tal como está. Esto evitará disparidades entre los diferentes organismos notificados y los Estados miembros en cuanto a los requisitos que deben cumplirse. En aras de un rigor uniformizado, el Reglamento también introduce normas más estrictas para los organismos de notificación, en particular para dispositivos de alto riesgo como implantes, reemplazos de articulaciones o incluso bombas de insulina que se someterán a experiencia adicional.

b.  Supervisión mejorada - EUDAMED

Entre los cambios notables, a partir del 26 de mayo de 2021 se implementará un nuevo sistema de vigilancia posterior a la certificación para identificar cada dispositivo médico según su propio código denominado "UDI" (Identificación Única de Dispositivo). El conjunto de estos datos se incluirán en la nueva base de datos europea denominada EUDAMED. Este "número de serie" propio a cada dispositivo médico permitirá una trazabilidad muy precisa.

Esta novedad será de gran utilidad durante el retiro de determinados dispositivos y, en particular, para evaluar lo más rápidamente posible el número de personas afectadas por el incidente. Finalmente, los pacientes que hayan recibido un implante obtendrán una "tarjeta de implante" a fin que ellos puedan obtener todos los datos registrados en una base de datos de acceso público.

c. Datos clínicos.

El nuevo reglamento se inspiró en la guía MEDDEV 2.7 / 1[1] sobre la evaluación clínica de productos sanitarios. Sin embargo, deben tenerse en cuenta algunas modificaciones:

Establecer un SCAC (Vigilancia Clínica Post-Comercialización): Plan de vigilancia acompañado de un informe (con actualización anual) para dispositivos médicos implantables y dispositivos médicos de clase III.

Constituir un RCSPC (Resumen de características de rendimiento clínico y de seguridad) para dispositivos médicos implantables y de clase III.

Redactar el PSUR (Informe periódico de actividad de seguridad):

·         Para los dispositivos médicos de clase IIa, IIb y III.

·                             Síntesis de los resultados y de las conclusiones del análisis de los datos de vigilancia

  •          Actualización:

- IIa: según sea necesario, al menos cada 2 años

- IIb: al menos una vez al año

- III: al menos una vez al año.

Estos numerosos cambios tienen un efecto en la colecta de datos clínicos de los dispositivos médicos.

En cuanto a las reglas de clasificación, algunos dispositivos médicos van a ser actualizados. Por otro lado, muchas otras reglas han sido precisadas. (Según el Reglamento (UE) 2017/745 del Parlamento Europeo y del Consejo de 5 de abril de 2017 sobre dispositivos médicos)

Se ha implementado un cambio importante respecto a la equivalencia con un producto concurrente. Principalmente para dispositivos médicos implantables o de clase III, las investigaciones clínicas se llevarán a cabo a menos que el dispositivo estudiado justifique la equivalencia con un producto competidor en el mercado. Para ello, los dos fabricantes deberán suscribir un acuerdo para aclarar el acceso pleno y permanente a los documentos técnicos necesarios para lograr la equivalencia.

DISPOSITIVOS MEDICOS E INFORMATICA

La fecha de aplicación del Reglamento UE 2017/745 productos sanitarios es el 26 de mayo de 2021, ya que el periodo transitorio es de 3 años. La nueva fecha de aplicación ya es OFICIAL.

 

El Reglamento UE 2017/745 productos sanitarios, según se indica en el artículo 1, Objeto y ámbito de aplicación, establece normas relativas a la introducción en el mercado, la comercialización o la puesta en servicio de productos sanitarios para uso humano y accesorios de dichos productos en la Unión.

 

El Reglamento 2017/745 productos sanitarios, también se aplica a las investigaciones clínicas relativas a los productos sanitarios y accesorios que se llevan a cabo en la Unión Europea.

 

El Considerando 19 del Reglamento, afirma: Es necesario precisar que los programas informáticos por sí mismos, cuando están destinados específicamente por el fabricante a una o varias de las finalidades médicas establecidas en la definición de producto sanitario, son productos sanitarios, pero los programas informáticos para usos generales, aun cuando se utilicen en el marco de la asistencia sanitaria, o los programas informáticos destinados a objetivos de bienestar o estilo de vida, no son productos sanitarios. La calificación de programa informático, bien como producto sanitario o como un accesorio, es independiente de la ubicación del programa informático y del tipo de interconexión entre el programa informático y el producto.

 

EUDAMED es el sistema informático desarrollado por la Comisión Europea para implementar el Reglamento (UE) 2017/745 sobre dispositivos médicos y el Reglamento (UE) 2017/746 sobre dispositivos médicos para diagnóstico in vitro. EUDAMED es también una nueva base de datos europea cuya finalidad es identificar cada dispositivo médico según su propio código denominado "UDI" (Identificación Única de Dispositivo).

El nuevo Reglamento contiene importantes mejoras, incluida una base de datos EUDAMED mucho más grande que la que existe actualmente en virtud de las Directivas de dispositivos médicos (Eudamed2).

EUDAMED mejorará la transparencia y la coordinación de la información sobre los dispositivos médicos disponibles en el mercado de la UE.

El sistema será polivalente. Funcionará como un sistema de registro, un sistema colaborativo, un sistema de notificación y un sistema de difusión (abierto al público) y será interoperable.

EUDAMED se estructura en 6 módulos interconectados y un sitio web público:

- Registro de actores

- Registro de dispositivos / UDI

- Organismos notificados y certificados

- Investigaciones clínicas y estudios de rendimiento

- Vigilancia y vigilancia post comercialización

- Vigilancia del mercado




[1] Medical Devices Directives. Clinical Investigation. Clinical Evaluation