Por: Carlos A. FERREYROS SOTO
Doctor en Derecho
Universidad de Montpellier I Francia.
RESUMEN
Este informe presenta el primer análisis publicado de la función de Observatorio del Laboratorio de Innovación de Europol, centrándose en los deepfakes, la tecnología detrás de ellos y su impacto potencial en las fuerzas del orden y los ciudadanos de la UE. La tecnología deepfake utiliza Inteligencia Artificial para audio y contenido audiovisual. Hasta la fecha, el Laboratorio de Innovación de Europol ha organizado tres actividades de prospectiva estratégica con los organismos encargados de hacer cumplir la ley de los Estados miembros de la UE y otros expertos.
La Introduccion y Conclusión del presente Informe sobre: "¿Afrontar la Realidad? La Aplicación de la Ley y el Desafío de los Deepfakes" fue traducido por el suscrito del inglés al castellano con la ayuda del aplicativo Google Traductor. El siguiente enlace conduce al texto íntegro del documento en lengua inglesa: https://op.europa.eu/es/publication-detail/-/publication/06099c52-dc33-11ee-b9d9-01aa75ed71a1/language-en?WT.mc_id=Selectedpublications&WT.ria_c=41957&WT.ria_f=7490&WT.ria_ev=search&WT.URL=https%3A%2F%2Fop.europa.eu%2Fes%2Fweb%2Fgeneral-publications%2Fai
A fin de acceder a normas similares y estándares europeos, las empresas, organizaciones públicas y privados interesados en asesorías, consultorías, capacitaciones, estudios, evaluaciones, auditorías sobre el tema, sírvanse comunicar al correo electrónico: cferreyros@hotmail.com
____________________________________________________________________
INTRODUCCION
¿AFRONTAR LA REALIDAD? LA APLICACIÓN DE LA LEY Y EL DESAFÍO DE LOS DEEPFAKES
Hoy en día, los autores de amenazas están utilizando
campañas de desinformación y contenido deepfake para desinformar al público
sobre eventos, influir en la política y las elecciones, contribuir al fraude y manipular
a los accionistas en un contexto corporativo. Muchas organizaciones ahora han comenzado
a ver los deepfakes como un riesgo potencial aún mayor que la usurpación
de identidad (para el cual también se pueden usar), especialmente ahora que la mayoría
de las interacciones se realizan en línea desde la pandemia de COVID-19. Esta preocupación
se refleja en un informe reciente de la University College London (UCL) que clasifica
la tecnología deepfake como una de las mayores amenazas a las que se enfrenta
la sociedad hoy en día[1].
Esto representa un riesgo para los ciudadanos
de la UE. Europol, como centro de información criminal para las organizaciones encargadas
de hacer cumplir la ley, seguirá desempeñando su papel de apoyo a las autoridades
encargadas de hacer cumplir la ley en los Estados miembros de la UE para contrarrestar
esta amenaza.
Este informe presenta el primer análisis publicado
de la función del Observatorio del Laboratorio de Innovación de Europol, centrándose
en los deepfakes, la tecnología detrás de ellos y su impacto potencial en
las fuerzas del orden y los ciudadanos de la UE. La tecnología deepfake utiliza
Inteligencia Artificial para audio y contenido audiovisual. La tecnología deepfake
puede producir contenido que muestre de manera convincente a personas expresándose
o haciendo cosas que nunca hicieron, o crear personajes que nunca existieron en
primer lugar.
Hasta la fecha, el Laboratorio de Innovación
de Europol ha organizado tres actividades de prospectiva estratégica con agencias
policiales de los Estados miembros de la UE y otros expertos. Durante las actividades
de prospectiva estratégica realizadas por el Laboratorio de Innovación de Europol,
más de 80 expertos policiales identificaron y analizaron las tendencias y tecnologías
que creían afectarían su trabajo hasta 2030. Estas sesiones demostraron que una
de las tendencias tecnológicas más preocupantes es la evolución y detección de deepfakes,
así como la necesidad de abordar la desinformación de manera más general. Esos talleres
proporcionaron el aporte inicial para este informe. Además, los hallazgos son el
resultado de una extensa investigación documental respaldada por investigaciones
proporcionadas por organizaciones asociadas, consultas de expertos y las actividades
de previsión estratégica realizadas por el Laboratorio de Innovación de Europol.
Los métodos de previsión estratégica y escenarios
ofrecen una manera de comprender y prepararse para el impacto potencial de las nuevas
tecnologías en la aplicación de la ley. La función de Observatorio del Laboratorio
de Innovación de Europol supervisa los avances tecnológicos que son relevantes para
la aplicación de la ley e informa sobre los riesgos, amenazas y oportunidades de
estas tecnologías emergentes.
CONCLUSION
Como muestra este informe, para abordar eficazmente
las amenazas que plantea la tecnología deepfake, la legislación y la regulación
deben tenerse en cuenta las necesidades de aplicación de la ley. Dentro del marco
regulatorio, las fuerzas del orden, los proveedores de servicios en línea y otras
organizaciones deben desarrollar sus políticas e invertir en tecnología de detección
y prevención. Los formuladores de políticas y los organismos encargados de hacer
cumplir la ley deben evaluar sus políticas y prácticas actuales y adaptarlas para
estar preparados para la nueva realidad de los deepfakes.
Las actividades de prospectiva estratégica
llevadas a cabo por el Laboratorio de Innovación de Europol identificaron una serie
de desafíos que las LEA tendrán que enfrentar en la próxima década. En particular,
identificaron riesgos asociados con la transformación digital, la adopción y el
despliegue de nuevas tecnologías, el abuso de tecnologías emergentes por parte de
delincuentes, la adaptación a nuevas formas de trabajo y el mantenimiento de la
confianza frente a un aumento de la desinformación.
En los meses y años venideros, es muy probable
que los autores de amenazas hagan un uso cada vez mayor de la tecnología deepfake
para facilitar diversos actos delictivos y realizar campañas de desinformación
para influir o distorsionar la opinión pública. Los avances en el aprendizaje automático
y la inteligencia artificial seguirán mejorando las capacidades del software
utilizado para crear deepfakes. Según los expertos, las GAN, la disponibilidad
de conjuntos de datos públicos y el aumento de la potencia informática serán los
principales impulsores del desarrollo de los deepfakes en el futuro y harán
que sea más difícil distinguirlos del contenido auténtico.
El aumento en el uso de los deepfakes requerirá
que la legislación establezca directrices y las haga cumplir. Además, las redes
sociales y otros proveedores de servicios en línea deberían desempeñar un papel
más importante en la identificación y eliminación de contenido deepfake de
sus plataformas. A medida que el público se educa más sobre los deepfakes,
habrá una creciente preocupación en todo el mundo por su impacto en las personas,
las comunidades y las democracias.
En la UE existen varias políticas e intentos
regulatorios para abordar los deepfakes. Sin embargo, según algunas propuestas,
el uso de tecnología por parte de las fuerzas del orden para detectar deepfakes
se considera de “alto riesgo”. Por lo tanto, será muy importante aclarar qué prácticas
deberían prohibirse según el marco regulatorio de la IA. Para abordar los desafíos
que enfrentan los deepfakes, los organismos encargados de hacer cumplir la
ley deben prepararse y capacitarse para la detección de deepfakes y garantizar
la integridad de las pruebas electrónicas, desarrollando sus capacidades como se
describe en este informe. El marco regulatorio también debería apoyar los esfuerzos
de preparación de las fuerzas del orden.
El Laboratorio de Innovación de Europol monitorea
continuamente el desarrollo de tecnologías disruptivas como los deepfakes.
[1] UCL – London’s Global University,
‘‘Deepfakes’ ranked as most serious AI crime threat”,
https://www.ucl.ac.uk/news/2020/aug/deepfakes-ranked-most-serious-ai-crime-threat.
No hay comentarios:
Publicar un comentario