OpenAI ha decidido fortalecer su enfoque en la seguridad con la creación de un “Comité de Seguridad y Protección“, dedicado a supervisar la gestión de riesgos en sus proyectos y operaciones. Este movimiento coincide con el inicio del entrenamiento de su próximo modelo avanzado, un desarrollo que la compañía espera que les acerque a la tan ansiada inteligencia artificial general (AGI). Aunque algunos expertos creen que alcanzar la AGI aún está lejos, OpenAI está decidido a avanzar en esa dirección.
Aún no está claro si este nuevo modelo avanzado será el esperado GPT-5 o algo más revolucionario. En la jerga de la inteligencia artificial, un “modelo avanzado” es aquel diseñado para empujar los límites de lo que es posible hoy en día. La AGI se refiere a una inteligencia artificial con capacidades a nivel humano para realizar tareas generales y novedosas, superando los límites de los datos con los que fue entrenada, a diferencia de la inteligencia artificial estrecha, que está limitada a tareas específicas.
El recién formado Comité de Seguridad y Protección estará compuesto por varios directores de OpenAI, quienes se encargarán de hacer recomendaciones sobre la seguridad de la IA al consejo de administración. En este contexto, “seguridad” no solo significa prevenir que la IA se vuelva incontrolable, sino también implementar una serie de procesos y salvaguardias. Estos incluyen investigación en alineación, protección infantil, mantenimiento de la integridad electoral, evaluación de impactos sociales y medidas de seguridad.
El primer desafío del comité será evaluar y desarrollar estos procesos y salvaguardias en los próximos 90 días. Al término de este periodo, compartirán sus recomendaciones con el consejo completo, y OpenAI hará públicas las actualizaciones sobre las recomendaciones adoptadas.
El comité contará con la experiencia de varios expertos técnicos y de políticas, quienes contribuirán a garantizar que el desarrollo de la IA sea seguro y protegido.
Este anuncio es significativo por varias razones. Primero, responde a críticas recientes sobre el compromiso de OpenAI con la seguridad en el desarrollo de IA avanzada. Segundo, se ha especulado que el progreso en los grandes modelos de lenguaje (LLMs) ha alcanzado un punto de estancamiento, con capacidades similares a GPT-4. Algunos competidores han lanzado modelos que se consideran equivalentes a GPT-4, a pesar de los incentivos para superarlo. Recientemente, cuando muchos esperaban que OpenAI lanzara un modelo que superara claramente a GPT-4 Turbo, la compañía presentó GPT-4o, que es similar en capacidad pero más rápido, destacándose más por su nueva interfaz conversacional que por mejoras significativas en su rendimiento.
A pesar de los rumores que sugerían la llegada de GPT-5 este verano, el reciente anuncio sugiere que podría haberse referido a GPT-4o. Es posible que OpenAI aún esté lejos de lanzar un modelo que supere significativamente a GPT-4. Sin embargo, con la compañía manteniendo un perfil bajo sobre los detalles, solo el tiempo revelará los próximos avances.