- The Frontier Model Forum” reúne a las compañías que desarrollan los modelos de IA más avanzados en la actualidad.
Los gigantes tecnológicos Google, Microsoft, OpenAI, fabricante de ChatGPT, y la empresa de IA Anthropic anunciaron esta semana la creación de un nuevo grupo de vigilancia del sector para ayudar a regular el desarrollo de la IA.
En una declaración conjunta publicada en el blog de Google, las empresas dieron a conocer su nuevo Frontier Model Forum, cuyo objetivo es supervisar el desarrollo “seguro y responsable” de los modelos de IA de vanguardia.
En la declaración se señalaba que, aunque los gobiernos de todo el mundo ya han empezado a esforzarse por regular el desarrollo y el despliegue de la IA, “es necesario seguir trabajando en las normas de seguridad y las evaluaciones”.
Los principales objetivos actuales de la iniciativa son avanzar en la investigación sobre la seguridad de la IA, identificar las mejores prácticas para el desarrollo responsable y el despliegue de modelos vanguardistas, la colaboración con gobiernos y líderes civiles y el apoyo a los esfuerzos para desarrollar aplicaciones.
La pertenencia al Foro está abierta a las organizaciones que se ajusten a los criterios predefinidos, que incluyen el desarrollo y despliegue de modelos vanguardistas.
“Las empresas que crean tecnología de IA tienen la responsabilidad de garantizar que sea segura y permanezca bajo control humano”, declaró Brad Smith, vicepresidente y presidente de Microsoft.
Según el anuncio, el Frontier Model Forum creará un consejo asesor en los próximos meses para dirigir las prioridades y la estrategia del grupo. También se dice que las empresas fundadoras tienen previsto consultar a “la sociedad civil y los gobiernos” sobre el diseño del Foro.
Anna Makanju, Vicepresidenta de Asuntos Globales de OpenAI, afirmó que los sistemas avanzados de Inteligencia Artificial suponen un “profundo beneficio” para la sociedad, pero que para alcanzar este potencial se necesita supervisión y gobernanza.
“Es vital que las empresas de IA -especialmente las que trabajan en los modelos más potentes- se alineen en un terreno común y avancen en prácticas de seguridad reflexivas y adaptables para garantizar que las potentes herramientas de IA tengan el mayor beneficio posible.”
La creación de esta organización se alínea con la idea que propuso en su momento el CEO de OpenAI, Sam Altman, quien se pronunció en muchas oportunidades a favor de la regulación de los modelos de inteligencia artificial para evitar que se caiga en abusos y asegurar que esta tecnología se mantenga bajo control.