lunes, 11 de mayo de 2026

INTELIGENCIA ARTIFICIAL CONVERSACIONAL Y SALUD MENTAL DE JOVENES -ENCUESTA EUROPEA.

 Por: Carlos A. FERREYROS SOTO

Doctor en Derecho

Universidad de Montpellier I Francia.

cferreyros@ferreyros-ferreyros.com

RESUMEN

La encuesta muestra que el uso de la IA conversacional está muy extendido entre los jóvenes de 11 a 25 años y que estas herramientas se están convirtiendo en confidentes para temas personales, lo que plantea tanto beneficios percibidos (apoyo, escucha, consejos) como riesgos (malestar, falta de comprensión del procesamiento de datos, posibles efectos en el bienestar).

Según el Reglamento (UE) 2016/679 — RGPD: los intercambios con IA conversacionales implican tratamiento de datos personales y, con frecuencia, de categorías especiales (salud, datos psicológicos), por lo que aplican las obligaciones de licitud, minimización, información, y bases jurídicas reforzadas para datos sensibles.

El Reglamento de la UE sobre IA (Act de IA): precisa que los sistemas de IA que actúen en ámbitos de salud o que supongan riesgos elevados están sujetos a obligaciones de transparencia, evaluación de riesgos, y salvaguardias adicionales; los chatbots que ofrecen acompañamiento emocional podrían encuadrarse como sistemas de riesgo elevado.

Los riesgos jurídicos identificados en el estudio tienen que ver con: el Tratamiento de datos sensibles sin comprensión informada; Reutilización y perfilamiento comercial; Riesgo de daños psíquicos y responsabilidad; y Vulnerabilidad y discriminación.

Las consecuencias regulatorias y responsabilidad se relacionan con: Sanciones y medidas correctoras y Responsabilidad civil y reputacional de los operadores  que posicionen la IA como “sustituto” del apoyo profesional afrontan riesgo de demandas por daños psíquicos o engaño si no advierten límites y no implementan salvaguardas.

Entre las Recomendaciones jurídicas concretas se identifican aquellas dirigidas a los proveedores en la clasificación de la funcionalidad de los chatbot en términos de riesgo, publicación de fichas de transparencia específicas para menores, limitación en el acopio de datos sensibles y opciones claras de borrado. Para las instituciones educativas y sanitarias, prohibir o regular el uso de sistemas no acreditados para intervención clínica; implementar protocolos de derivación y formación del personal sobre límites de las IA. Y para las autoridades y legisladores,  exigencia de evaluación de impacto de la protección de datos, crear guías específicas para IA y menores, y campañas de alfabetización digital que expliquen destino y riesgos de los datos.

A fin de acceder a normas similares y estándares europeos, las empresas, organizaciones públicas y privadas interesadas en asesorías, consultorías, capacitaciones, estudios, evaluaciones, auditorías sobre el tema, sírvanse comunicar al correo electrónico:cferreyros@ferreyros-ferreyros.com

________________________________________________________

Inteligencia artificial conversacional y salud mental de los jóvenes: resultados de la encuesta europea.

5 de mayo de 2026


Según una encuesta realizada por el Grupo VYV y de la CNIL en cuatro países europeos, casi 9 de cada 10 jóvenes en Francia utilizan una IA conversacional y casi uno de cada dos habla sobre temas personales, consolidándose estas herramientas como interlocutoras en asuntos de salud mental, no sin riesgos para su bienestar y sus datos.




Un uso generalizado que va más allá del marco utilitario.

Inicialmente restringida a usos escolares o profesionales, las IA conversacionales están desempeñando un papel cada vez más importante en la vida de los jóvenes, incluso adentrándose en ámbitos más personales. Para algunos,  ellas se está convirtiendo en un espacio de confidencias: el 48 % las utiliza para hablar de temas personales o íntimos, y el 33 % la considera una especie de "psicólogos" en determinadas situaciones. Esta proporción alcanza el 46 % entre los jóvenes que sufren ansiedad.

Esta evolución traduce una profunda transformación en las prácticas digitales: la IA ya no se limita a ser una herramienta puramente recreativa; se está convirtiendo en un interlocutor accesible, disponible en cualquier momento, percibido como imparcial y de fácil acceso. De este modo, se está integrando en los canales informales de escucha, asesoramiento y apoyo de la vida cotidiana.

Confianza significativa, en un contexto de fragilidad psicológica.

Esta adopción llega en un momento preocupante. En Francia, se sospecha que más de uno de cada cuatro jóvenes padece trastorno de ansiedad generalizada. En este contexto, la IA conversacional se presenta como un apoyo adicional.

Sin embargo, la encuesta confirma que las relaciones humanas siguen siendo fundamentales: los amigos y la familia continúan siendo las personas principales con quienes los jóvenes hablan sobre sus dificultades. La IA no los reemplaza, sino que sirve como apoyo complementario en su vida diaria.

Esta posición cada vez más importante viene acompañada de un nivel significativo de confianza:

  • El 69% de los jóvenes cree que la IA puede ofrecer consejos fiables;
  • 56% cree que puede mantener sus intercambios en secreto;
  • y un 51% de que puede proteger la información que se le confía.

Una brecha entre confianza y comprensión de los riesgos.

Aunque se ha generado confianza, la comprensión de los problemas aún es incompleta. Solo el 32 % de los jóvenes afirma saber qué sucede con los datos que comparten con estas herramientas.

Esta brecha genera situaciones incómodas: el 34% de los jóvenes que han utilizado la IA para asuntos personales afirman haberse sentido incómodos debido a los consejos recibidos.

Al mismo tiempo, el 85% expresa su deseo de contar con más información sobre riesgos y mejores prácticas.

Estos resultados revelan una expectativa clara: los jóvenes quieren estar mejor informados para poder hacer un uso adecuado de estas herramientas.

Descargue el resumen del estudio.

Un desafío estructural clave que requiere reforzamiento de la educación digital.

El auge de las IA conversacionales plantea un nuevo desafío para los actores clave en los ámbitos de la salud, la educación y la protección social. Una proporción cada vez mayor de las manifestaciones de estrés, angustia o dificultades personales se produce ahora antes de que se implementen los mecanismos tradicionales de prevención y derivación a profesionales.

Este desplazamiento exige una respuesta colectiva: comprender mejor estos usos, reforzar la educación digital, asegurar los itinerarios formativos y ofrecer una orientación clara a los jóvenes.

Cuando los jóvenes recurren a la IA para hablar de su estrés, sus inquietudes o sus dificultades personales, no se trata de un detalle tecnológico: es un fenómeno social. Esta confianza nos obliga, como colectivo, a informarles mejor, a prevenir mejor y a brindarles un mejor apoyo. El objetivo no es prohibir ni trivializar, sino ofrecer una guía clara a una generación que ya ha integrado estas herramientas en su vida cotidiana.

Stéphane JUNIQUE, Presidente del Grupo VYV

Las IA conversacionales recopilan datos personales, a veces sensibles, sin nuestro conocimiento. Es fundamental explicar a los jóvenes cómo funcionan estos sistemas, qué rastros dejan y cuáles son sus derechos. La transparencia es esencial para que puedan tomar decisiones informadas y recordar que los sistemas de IA son simplemente herramientas: máquinas, no humanos.

Marie-Laure Denis, presidenta de la CNIL

Informar mejor, prevenir y acompañar: una prioridad compartida

Para el Grupo VYV y la CNIL (Autoridad Nacional de Informática y Libertades de Francia), el desafío no es frenar la innovación ni normalizar las prácticas, sino contribuir a la creación de un marco de confianza. Los resultados de la encuesta demuestran que existe un entorno favorable: los jóvenes mantienen un fuerte vínculo con sus seres queridos y expresan un gran deseo de recibir apoyo.

Resulta fundamental integrar plenamente la tecnología digital en las políticas de prevención, articulando innovación, protección de datos y acompañamiento para su uso.

En esta perspectiva, el Grupo VYV y la CNIL  lanzaron la iniciativa europea AI*me a fin de convertir esta constatación en acción. Esta plataforma apunta a reunir a investigadores, profesionales de la salud, educadores y reguladores para comprender mejor los patrones de uso, desarrollar herramientas adaptadas a los jóvenes y establecer estándares europeos de confianza en la salud mental y la protección de datos.

Acerca del estudio

Estudio de Ipsos BVA para el Grupo VYV y la CNIL entre 3.800 jóvenes de entre 11 y 25 años: Francia (1.000), Alemania (1.000), Suecia (1.000), Irlanda (800).

No hay comentarios:

Publicar un comentario