Las grandes compañías de inteligencia artificial lanzan un fondo para hacerla más segura

Google, Microsoft, OpenAI y Anthropic han creado un grupo de trabajo para promover la investigación cuidadosa de esta tecnología.

Las compañías pretenden abordar los riesgos que la tecnología plantea para la seguridad pública y global. Imagen ilustrativa.

Las principales compañías de inteligencia artificial (IA), Anthropic, Google, Microsoft y OpenAI han anunciado la creación de un fondo dedicado a la seguridad de los desarrollos en ese campo, que lleva por nombre organización Frontier Model Forum, que ahora recibe sus primeros fondos y el nombramiento de un director ejecutivo.

La financiación inicial es de 10 millones de dólares. Todas estas empresas se mueven en valoraciones e inversiones que rondan los miles de millones de dólares: solo Microsoft invirtió en OpenAI 10.000 millones. Anthropic está en conversaciones para recibir más de 3.000 millones de Google y Amazon.

El objetivo de esta organización es apoyar a investigadores independientes que creen herramientas para evaluar y probar los modelos más potentes de tecnología, las empresas partícipes creen que así cumplirán parte de los compromisos firmados con la Casa Blanca sobre crear una IA responsable.

Cabe destacar que, a principios de este año, los miembros del Foro firmaron compromisos voluntarios de IA en la Casa Blanca, que incluían el compromiso de facilitar el descubrimiento por parte de terceros y la notificación de vulnerabilidades en sus sistemas de IA.