Otro investigador de OpenAI especializado en seguridad abandona la empresa: hasta su equipo de trabajo se va a disolver

Miles Brundage, asesor sénior de políticas y jefe del equipo de preparación para la Inteligencia Artificial General (AGI, por sus siglas en inglés) en OpenAI, dejará la empresa. Anunció su decisión el miércoles en una publicación en X, acompañada de un artículo en Substack en el que explica las razones de su marcha.
El equipo de preparación para la AGI que dirigía será disuelto y sus miembros se distribuirán en otras áreas de la compañía. Brundage es el último investigador de seguridad de alto perfil en dejar OpenAI. En mayo, la empresa desmanteló su equipo de Superalineación, centrado en los riesgos de la superinteligencia artificial, tras la salida de sus dos líderes, Jan Leike e Ilya Sutskever.
Otros ejecutivos que han abandonado la compañía en los últimos meses incluyen a Mira Murati, directora de tecnología; Bob McGrew, director de investigación; y Barret Zoph, vicepresidente de investigación.
OpenAI no respondió a la solicitud de comentarios.
Durante los últimos seis años, Brundage ha asesorado a los ejecutivos y miembros del consejo de OpenAI sobre cómo prepararse para la llegada de una inteligencia artificial comparable a la humana, algo que muchos expertos consideran podría transformar la sociedad de forma fundamental.
Ha sido responsable de algunas de las mayores innovaciones de OpenAI en investigación sobre seguridad, incluyendo la incorporación de red teaming externo, un proceso que implica a expertos externos en la identificación de posibles problemas en los productos de OpenAI.
Brundage afirmó que deja la empresa en busca de mayor independencia y libertad para publicar. Hizo referencia a sus desacuerdos con OpenAI en torno a las limitaciones impuestas sobre las investigaciones que podía divulgar y comentó que “las restricciones han llegado a ser excesivas”.
También señaló que trabajar en OpenAI había sesgado sus investigaciones y le había dificultado mantener la imparcialidad en cuanto al futuro de las políticas de IA. En su publicación en X, Brundage describió un sentimiento predominante en OpenAI de que «expresarse tiene grandes costes y que solo algunas personas pueden hacerlo».