Por: Carlos A. FERREYROS SOTO
Doctor en Derecho
Universidad de Montpellier I Francia.
RESUMEN
La publicación del Dr. Assad Abbas, ilustra como el Proyecto de ley que promulgaría el Estado de California, Ley de Innovación Segura para Modelos de Inteligencia Artificial de Frontera genera incertidumbre al exigir que un desarrollador, antes de comenzar a entrenar inicialmente un modelo cubierto cumpla con varios requisitos, incluida la implementación de la capacidad de ejecutar rápidamente un apagado completo (Kill Switch) e implementar un protocolo de seguridad y protección escrito y separado, según se especifica.
El Proyecto de ley exigiría además que un desarrollador conserve una copia sin censura del protocolo de seguridad y protección durante el tiempo que el modelo cubierto esté disponible para uso comercial o público más 5 años, incluidos los registros y las fechas de cualquier actualización o revisión, y exigiría que un desarrollador otorgue al Fiscal General acceso al protocolo de seguridad y protección sin censura, amenzando la creación intelectual.
El proyecto de ley prohibiría igualmente a un desarrollador utilizar un modelo cubierto o un derivado de modelo cubierto para un propósito que no esté relacionado exclusivamente con la capacitación o la evaluación razonable del modelo cubierto o el cumplimiento de la ley estatal o federal, si existe un riesgo irrazonable de que el modelo cubierto o el derivado de modelo cubierto causen o permitan materialmente un daño crítico.
El proyecto de ley requeriría igualmente que un desarrollador, a partir del 1 de enero de 2026, contrate anualmente a un auditor externo para que realice una auditoría independiente sobre el cumplimiento de esas disposiciones.
El enlace al Proyecto de Ley en inglés se encuentra en: https://leginfo.legislature.ca.gov/faces/billTextClient.xhtml?bill_id=202320240SB1047
A fin de acceder a normas similares y estándares europeos, las empresas, organizaciones públicas y privados interesados en asesorías, consultorías, capacitaciones, estudios, evaluaciones, auditorías sobre el tema, sírvanse comunicar al correo electrónico:cferreyros@hotmail.com
________________________________
____________________________________________________________________
IA e incertidumbre legal: los peligros de la SB 1047 de California para los
desarrolladores.
Publicado 22 de agosto de 2024
Por Dr. Assad Abbas
Inteligencia Artificial (AI) Ya no es
un concepto futurista; está aquí y está transformando industrias desde la atención
médica hasta las finanzas, desde realizar diagnósticos médicos en segundos hasta
que el servicio al cliente sea manejado sin problemas por chatbots. La IA está cambiando
la forma en que operan las empresas y cómo vivimos nuestras vidas. Pero esta poderosa
tecnología también plantea algunos desafíos legales importantes.
Proyecto de ley 1047 del Senado de California (SB
1047) tiene como objetivo hacer que la IA sea más segura y responsable
mediante el establecimiento de directrices estrictas para su desarrollo y despliegue.
Esta legislación exige transparencia en los algoritmos de IA, garantizando que los
desarrolladores revelen cómo sus sistemas de IA toman decisiones.
Si bien estas medidas tienen como objetivo mejorar la seguridad y la responsabilidad,
introducen incertidumbre y posibles obstáculos para los desarrolladores que deben
cumplir con estas nuevas regulaciones. Comprender la SB 1047 es esencial para los
desarrolladores de todo el mundo, ya que podría sentar un precedente para futuras
regulaciones de IA a nivel mundial, influyendo en cómo se crean e implementan las
tecnologías de IA.
Entendiendo
la SB 1047 de California
La SB 1047 de California tiene como objetivo regular el desarrollo y la implementación
de tecnologías de inteligencia artificial dentro del estado. El proyecto de ley
se presentó en respuesta a las crecientes preocupaciones sobre el uso ético de la
IA y los riesgos potenciales que plantea para la privacidad, la seguridad y el empleo.
Los legisladores detrás de la SB 1047 argumentan que estas regulaciones son necesarias
para garantizar que las tecnologías de inteligencia artificial se desarrollen de
manera responsable y transparente.
Uno de los aspectos más controvertidos de la
SB 1047 es el requisito para que los desarrolladores de IA incluyan un Kill Switch en sus sistemas. Esta disposición exige que
los sistemas de IA deben tener la capacidad de apagarse inmediatamente si muestran
un comportamiento dañino. Además, el proyecto de ley introduce cláusulas de responsabilidad
estrictas que responsabilizan a los desarrolladores de cualquier daño causado por
sus tecnologías de inteligencia artificial. Estas disposiciones abordan preocupaciones
de seguridad y responsabilidad e introducen desafíos importantes para los desarrolladores.
En comparación con otras regulaciones de IA
en todo el mundo, la SB 1047 es estricta. Por ejemplo, el Ley de IA de la Unión Europea clasifica las aplicaciones
de IA por nivel de riesgo y aplica las regulaciones en consecuencia. Si bien tanto
el SB 1047 como la Ley de IA de la UE tienen como objetivo mejorar la seguridad
de la IA, el SB 1047 se considera más estricto y menos flexible. Esto hace que los
desarrolladores y las empresas se preocupen por las limitaciones de la innovación
y las cargas adicionales de cumplimiento.
La incertidumbre
jurídica y sus consecuencias no deseadas
Uno de los mayores desafíos que plantea la
SB 1047 es la inseguridad jurídica que crea. El lenguaje del proyecto de ley a menudo
no es claro, lo que genera diferentes interpretaciones y confusión sobre lo que
los desarrolladores deben hacer para cumplirlo. Términos como “comportamiento dañino y apagado inmediato”no están claramente definidos,
lo que deja a los desarrolladores conjeturando cómo se ve realmente el cumplimiento.
Esta falta de claridad podría dar lugar a una aplicación inconsistente y a demandas
judiciales, ya que los tribunales intentan interpretar las disposiciones del proyecto
de ley caso por caso.
Este temor a las repercusiones legales puede limitar la innovación, haciendo
que los desarrolladores sean demasiado cautelosos y alejándolos de proyectos ambiciosos
que podrían hacer avanzar la tecnología de IA. Este enfoque conservador puede ralentizar
el ritmo general de los avances de la IA y obstaculizar el desarrollo de soluciones
innovadoras. Por ejemplo, una pequeña startup de IA que trabaja en una aplicación
sanitaria novedosa podría enfrentar retrasos y mayores costos debido a la necesidad
de implementar medidas de cumplimiento complejas. En casos extremos, el riesgo de
responsabilidad legal podría asustar a los inversores y amenazar la supervivencia
de la startup.
Impacto
en el desarrollo y la innovación de la IA
La SB 1047 puede afectar significativamente el desarrollo de la IA en California,
lo que generará costos más altos y tiempos de desarrollo más prolongados. Los desarrolladores
deberán desviar recursos de la innovación hacia esfuerzos legales y de cumplimiento.
Implementando un Kill Switch y cumplir con las cláusulas
de responsabilidad requerirá una inversión considerable de tiempo y dinero. Los
desarrolladores deberán colaborar con equipos legales, lo que puede quitar fondos
de investigación y desarrollo.
El proyecto de ley también introduce regulaciones más estrictas sobre el uso
de datos para proteger la privacidad. Si bien son beneficiosas para los derechos
de los consumidores, estas regulaciones plantean desafíos para los desarrolladores
que dependen de grandes conjuntos de datos para entrenar sus modelos. Equilibrar
estas restricciones sin comprometer la calidad de las soluciones de IA requerirá
mucho trabajo.
Debido al miedo a los problemas legales, los
desarrolladores pueden dudar a la hora de experimentar con nuevas ideas, especialmente
aquellas que implican mayores riesgos. Esto también podría afectar negativamente
a la comunidad de código abierto, que prospera gracias a la colaboración, ya que
los desarrolladores podrían proteger más su trabajo para evitar posibles problemas
legales. Por ejemplo, innovaciones pasadas como AlphaGo de Google, que hizo avanzar significativamente la
IA, a menudo implicaba riesgos sustanciales. Es posible que tales proyectos sólo
hubieran sido posibles con las restricciones impuestas por la SB 1047.
Desafíos
e implicaciones de la SB 1047
La SB 1047 afecta a empresas, investigaciones
académicas y proyectos del sector público. Las universidades e instituciones públicas,
que a menudo se centran en promover la IA para el bien público, pueden enfrentar
desafíos importantes debido a las restricciones del proyecto de ley sobre el uso
de datos y la Kill Switch requisito. Estas disposiciones
pueden limitar el alcance de la investigación, dificultar la financiación y sobrecargar
a las instituciones con requisitos de cumplimiento que tal vez no estén preparados
para manejar.
Las iniciativas del sector público, como las destinadas a mejorar la infraestructura
urbana con IA, dependen en gran medida de las contribuciones y la colaboración de
código abierto. Las estrictas regulaciones de la SB 1047 podrían obstaculizar estos
esfuerzos, ralentizando las soluciones impulsadas por IA en áreas críticas como
la atención médica y el transporte. Además, los efectos a largo plazo del proyecto
de ley sobre los futuros investigadores y desarrolladores de IA son preocupantes,
ya que los estudiantes y jóvenes profesionales podrían verse disuadidos de ingresar
al campo debido a la percepción de riesgos e incertidumbres legales, lo que llevaría
a una posible escasez de talento.
Económicamente, la SB 1047 podría impactar significativamente el crecimiento
y la innovación, particularmente en centros tecnológicos como Silicon Valley. La
IA ha impulsado la creación de empleo y la productividad, pero las regulaciones
estrictas podrían frenar este impulso, lo que provocaría pérdidas de empleo y una
reducción de la producción económica. A escala global, el proyecto de ley podría
poner a los desarrolladores estadounidenses en desventaja en comparación con países
con regulaciones de IA más flexibles, lo que resultaría en una fuga de cerebros
y una pérdida de ventaja competitiva para la industria tecnológica estadounidense.
Las reacciones de la industria, sin embargo, son mixtas. Si bien algunos apoyan
los objetivos del proyecto de ley de mejorar la seguridad y la responsabilidad de
la IA, otros argumentan que las regulaciones son demasiado restrictivas y podrían
sofocar la innovación. Se necesita un enfoque más equilibrado para proteger a los
consumidores sin sobrecargar a los desarrolladores.
Socialmente, la SB 1047 podría limitar el acceso de los consumidores a servicios
innovadores impulsados por la IA. Garantizar un uso responsable de la IA es esencial,
pero esto debe equilibrarse con la promoción de la innovación. La narrativa en torno
a la SB 1047 podría influir negativamente en la percepción pública de la IA, y los
temores sobre los riesgos de la IA podrían eclipsar sus beneficios.
Equilibrar la seguridad y la innovación es esencial para la regulación de la
IA. Si bien la SB 1047 aborda preocupaciones importantes, enfoques alternativos
pueden lograr estos objetivos sin obstaculizar el progreso. La categorización de
las aplicaciones de IA por riesgo, similar a la Ley de IA de la UE, permite regulaciones
flexibles y personalizadas. Las normas y mejores prácticas impulsadas por la industria
también pueden garantizar la seguridad y fomentar la innovación.
Los desarrolladores deben adoptar mejores prácticas, como pruebas sólidas, transparencia
y participación de las partes interesadas para abordar las preocupaciones éticas
y generar confianza. Además, la colaboración entre los formuladores de políticas,
los desarrolladores y las partes interesadas es esencial para lograr regulaciones
equilibradas. Los formuladores de políticas necesitan el aporte de la comunidad
tecnológica para comprender las implicaciones prácticas de las regulaciones, mientras
que los grupos industriales pueden abogar por soluciones equilibradas.
Lo más importante
es...
La SB 1047 de California busca hacer que la IA sea más segura y responsable,
pero también presenta desafíos importantes para los desarrolladores. Las regulaciones
estrictas pueden obstaculizar la innovación y crear pesadas cargas de cumplimiento
para las empresas, las instituciones académicas y los proyectos públicos.
Necesitamos enfoques regulatorios flexibles y estándares impulsados por la
industria para equilibrar la seguridad y la innovación. Los desarrolladores deben
adoptar las mejores prácticas y colaborar con los formuladores de políticas para
crear regulaciones justas. Es esencial garantizar que el desarrollo responsable
de la IA vaya de la mano del progreso tecnológico para beneficiar a la sociedad
y proteger los intereses de los consumidores.
No hay comentarios:
Publicar un comentario