Por: Carlos A. FERREYROS SOTO
Doctor en Derecho
Universidad de Montpellier I Francia.
RESUMEN
Innovar
con responsabilidad en la era de la Inteligencia Artificial, IA, requiere un enfoque
y una estrategia holística capaz de integrar tanto los aspectos técnicos, éticos, sociales
como económicos. Las instituciones públicas como privadas deberán establecer los
principios de una IA responsable en sus procesos de desarrollo, proveyendo
además los marcos regulatorios de fomento a la innovación. De adoptarse este enfoque,
es posible aprovechar el potencial transformador de la IA, centrado en la persona
humana y el beneficio de la sociedad, minimizando los riesgos y maximizando las
oportunidades para un futuro sostenible y equitativo.
La
estrategia para la innovación responsable debe tener en cuenta criterios de: riesgos, anticipación,
inclusividad, reflexibilidad crítica de los desarrolladores, capacidad de
respuesta y ética por diseño, desde la etapa inicial del desarrollo de la IA.
Entre
los desafíos y oportunidades de la innovación responsable en IA, deberá definirse
y aplicarse un marco regulatorio; el equilibrio entre fomento de la innovación
y la competitividad; el impacto sobre la organización y modificación de las
relaciones laborales; establecimiento de plataformas de confianza; y el impulso del crecimiento económico y redistribución.
A fin de acceder a normas similares y estándares europeos, las empresas,
organizaciones públicas y privados interesados en asesorías, consultorías,
capacitaciones, estudios, evaluaciones, auditorías sobre el tema, sírvanse
comunicar al correo electrónico: cferreyros@hotmail.com
_______________________________________________________
Innovar con responsabilidad en la era de la inteligencia artificial
La plataforma de confianza de
inteligencia artificial de QuantPi, que ofrece una gestión eficaz del riesgo,
ayuda a las partes interesadas a navegar con confianza por las transformaciones
de la inteligencia artificial.
© hakinmhan/stock.adobe.com
La formación y validación de modelos de inteligencia artificial generativa
(IAG) son cada vez más complejas, por lo que ¿cómo pueden las empresas que
desarrollan u operan estos sistemas evaluar y mitigar los riesgos? El equipo
del proyecto QuantPi, financiado por el Consejo Europeo de Innovación, aborda
el problema a través de su plataforma de confianza de IA, una solución de
enchufar y usar todo en uno, independiente del modelo, para la gestión de los
riesgos de la IAG.
El planteamiento integral
La plataforma aborda la complejidad del modelo de IAG reduciendo los riesgos en tres dimensiones críticas: adaptación de las partes interesadas, cumplimiento modulable y pruebas técnicas de vanguardia. Estas dimensiones se combinan para mejorar la supervisión, identificar los riesgos, evaluar su gravedad y proporcionar resultados detallados en los que basar estrategias de mitigación eficaces. Lo importante es la transparencia para todas las partes interesadas.
Tal y como explica Lukas Bieringer, responsable de política y subvenciones de QuantPi, la empresa alemana de «software» que coordina el proyecto: «No se pueden abordar riesgos de los que no se es consciente. La fortaleza particular de nuestra plataforma radica en su capacidad para involucrar con eficacia a todas las partes interesadas del ciclo de vida de la IA en la mitigación de riesgos, lo que garantiza una toma de decisiones informada y la eficiencia de los procesos sin obstaculizar las transformaciones de la IA».
El equipo de QuantPi reconoció la necesidad de un planteamiento integral relativamente pronto, cuando la aceptación de un sistema de IA por parte del mercado tardaba en llegar debido a problemas de confianza relacionados con la «caja negra», es decir, el funcionamiento interno de la IA que a los humanos nos cuesta entender. Por eso, a diferencia de otras soluciones, su plataforma integra a la perfección las pruebas de IA con una sólida gestión de riesgos y las necesidades de cumplimiento normativo. «Al proporcionar información transparente y agilizar los procesos, capacitamos a las organizaciones para navegar y capitalizar las transformaciones de la IA con confianza», observa Bieringer.
La plataforma de confianza de IA tiene el potencial de mejorar considerablemente la fiabilidad de los sistemas IAG en varios campos. Un ejemplo son los vehículos autónomos, en los que los sistemas de IA deben tomar decisiones en fracciones de segundo basándose en los datos de los sensores. Otro son los sistemas de IAG utilizados para el diagnóstico de enfermedades y la planificación de tratamientos, en los que el cumplimiento y la confianza son la máxima prioridad.
Por último, pero no por ello menos importante, están los asistentes virtuales y el servicio de atención al cliente, donde la plataforma QuantPi (First automated risk management platform to enable safety, fairness, explainability, and continuous monitoring of generative AI systems) puede utilizarse para garantizar que los sistemas de IA y sus barreras de protección protegen la información privada frente a filtraciones, y que las respuestas de los asistentes virtuales y los chatbots son adecuadas, sólidas y no discriminatorias.
Palabras clave
QuantPi, IA, IA generativa, IAG, riesgo, confianza, cumplimiento,
mitigación de riesgos, gestión de riesgos
No hay comentarios:
Publicar un comentario