OpenAI, Google, Microsoft y Anthropic se unen para autorregular la IA

Frontier Model Forum nace con el objetivo de promover el desarrollo responsable de los modelos de frontera, los más sofisticados

15 minutos. OpenAI, Anthropic, Google y Microsoft se han unido para asegurar el desarrollo seguro y responsable de los denominados modelos de inteligencia artificial (IA) de frontera y minimizar los potenciales riesgos que puedan suponer para el individuo y la sociedad.

Frontier Model Forum nace con el objetivo de promover el desarrollo responsable de los modelos de frontera, los más sofisticados. A estos los describen como “modelos de aprendizaje automático a gran escala que superan las capacidades actualmente presentes en los modelos existentes más avanzados y pueden realizar una amplia variedad de tareas”.

Detrás de esta organización se encuentran las empresas más destacadas del panorama actual de la IA avanzada, como OpenAIAnthropicGoogle y Microsoft. Las 4 se comprometen a colaborar en el desarrollo seguro de estos modelos.

Seguridad

Para ello, han establecido 3 puntos sobre los que versará su actuación. Estos son: avanzar en la investigación de la seguridad de la IA para minimizar sus potenciales riesgos, identificar las mejoras prácticas de seguridad para los modelos de frontera y compartir sus conocimientos con los legisladores, los académicos y la sociedad civil.

También se han propuesto apoyar el desarrollo de aplicaciones de esta tecnología que ayuden a abordar los mayores desafíos de la sociedad. Por ejemplo, la mitigación y adaptación al cambio climático, la detección y prevención tempranas del cáncer y la lucha contra las ciberamenazas.

Establecerán, además, en los próximos meses un consejo asesor que ayudará a guiar la estrategia y prioridades de los integrantes de esta organización profesional, como informan en una nota de prensa conjunta.

Más vistas