EE. UU. y Reino Unido establecen directrices para el desarrollo seguro de la IA

Las naciones que firmaron las nuevas directrices se encuentran divididas en cuatro áreas: diseño seguro, desarrollo seguro, implementación segura y operación y mantenimiento seguros e incluyen a Alemania, Italia, República Checa, Estonia, Polonia, Australia, Chile, Israel, Nigeria y Singapur.

Las directrices buscan abordar los desafíos asociados con la ciberseguridad en el ámbito de la IA y garantizar que esta tecnología se despliegue de manera segura. Imagen ilustrativa.

El Centro Nacional de Seguridad Cibernética del Reino Unido (NCSC), informó hoy que, las agencias de inteligencia y seguridad de 18 países, incluidos EE.UU. y Reino Unido, acordaron respaldar las primeras directrices a nivel mundial que garantizan que la inteligencia artificial se diseñe, desarrolle e implemente de manera segura.

El conjunto de normas fue elaborado por el NCSC y la Agencia de Seguridad de Infraestructura y Ciberseguridad de EE. UU. (CISA), en colaboración con expertos del sector de la IA y otras 21 agencias y ministerios internacionales.

De acuerdo con los autores de los lineamientos, estos servirán de guía para que los desarrolladores tomen decisiones informadas relacionadas con la ciberseguridad al momento de crear sistemas de IA, especialmente aquellos que hayan sido programados sobre herramientas y servicios proporcionados por entidades externas.

Además, destacaron que la implementación de estas pautas, que están basadas en un enfoque de seguridad por diseño, asegurará que los modelos de IA funcionen según lo previsto, estén disponibles cuando sea necesario y funcionen sin revelar datos confidenciales a personas no autorizadas.

Las naciones que firmaron las nuevas directrices, que se encuentran divididas en cuatro áreas: diseño seguro, desarrollo seguro, implementación segura y operación y mantenimiento seguros, incluyen a Alemania, Italia, República Checa, Estonia, Polonia, Australia, Chile, Israel, Nigeria y Singapur.

Cabe destacar que, el Parlamento Europeo aprobó el pasado mes de junio una ley que regula la utilización de la IA, legislación que clasifica a las herramientas de IA de acuerdo con su nivel de riesgo percibido, en términos de seguridad y de derechos fundamentales de los usuarios. Por otro lado, Alemania, Francia e Italia llegaron recientemente a un acuerdo sobre la autorregulación obligatoria de los modelos básicos de IA a través de códigos de conducta.

Por su parte, el presidente de EE. UU., Joe Biden emitió el pasado 30 de octubre una orden ejecutiva histórica para gestionar los riesgos de la inteligencia artificial y fomentar el liderazgo estadounidense en todo el mundo. Con dicha medida, se busca exigir a las empresas que representen un riesgo grave para la seguridad nacional que compartan información crítica, incluidas las pruebas de seguridad del equipo, en el marco de nuevos estándares para la seguridad y protección de la IA.