Em um golpe significativo na estrutura de governança da OpenAI, Miles Brundage—o principal pesquisador de segurança da empresa e chefe da 'Preparação para AGI'—deixou a empresa em 23 de outubro. Isso não é apenas uma mudança de pessoal; marca a dissolução completa da divisão de supervisão de segurança dedicada da OpenAI.
O Que Isso Significa
A equipe de Brundage era responsável pela orientação de políticas e protocolos de segurança enquanto a OpenAI avança em direção à inteligência geral artificial (AGI)—uma IA teórica capaz de realizar qualquer tarefa humana. Com a unidade desfeita, a OpenAI agora opera sem um departamento de segurança formal, mesmo enquanto avança em direção a modelos mais poderosos.
A sua saída segue um padrão preocupante: o anterior órgão de supervisão AGI, a equipa 'Superalignment', já foi desmantelada depois da saída do co-líder Jan Leike em maio, citando um “ponto de ruptura” devido a disputas de gestão. O co-fundador Ilya Sutskever seguiu em junho e desde então lançou um concorrente avaliado em $5 bilhões.
O Problema do Êxodo
A saída de Brundage não está acontecendo de forma isolada. A OpenAI tem perdido talentos seniores:
Andrej Karpathy (cofundador, cientista-chefe) → saiu em fevereiro para iniciar seu próprio empreendimento
Jan Leike (AGI co-líder de segurança) → saiu em maio
Ilya Sutskever (co-founder) → saiu em junho, agora dirigindo um concorrente
John Schulman (co-fundador) → desertou para a Anthropic em agosto
Mira Murati (ex-CTO) → supostamente a angariar fundos para uma empresa de IA concorrente
O que vem a seguir?
Brundage planeia lançar ou juntar-se a uma organização sem fins lucrativos focada na pesquisa de políticas de IA—essencialmente abandonando toda a infraestrutura de segurança corporativa. A OpenAI recusou-se a comentar sobre o que substituirá a equipa de Preparação para AGI, sugerindo que não está planeado nenhum sucessor imediato.
A Verdadeira História
Embora a OpenAI tenha divulgado uma declaração diplomática agradecendo a Brundage pelas suas contribuições, o subtexto é claro: a infraestrutura de segurança está sendo despriorizada em favor da velocidade de colocação no mercado. Se isso acelera a inovação ou cria risco sistêmico permanece a questão definidora para a indústria.
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
Chefe de Segurança da OpenAI Sai: A Empresa Está a Perder o Controlo do Desenvolvimento de AGI?
Em um golpe significativo na estrutura de governança da OpenAI, Miles Brundage—o principal pesquisador de segurança da empresa e chefe da 'Preparação para AGI'—deixou a empresa em 23 de outubro. Isso não é apenas uma mudança de pessoal; marca a dissolução completa da divisão de supervisão de segurança dedicada da OpenAI.
O Que Isso Significa
A equipe de Brundage era responsável pela orientação de políticas e protocolos de segurança enquanto a OpenAI avança em direção à inteligência geral artificial (AGI)—uma IA teórica capaz de realizar qualquer tarefa humana. Com a unidade desfeita, a OpenAI agora opera sem um departamento de segurança formal, mesmo enquanto avança em direção a modelos mais poderosos.
A sua saída segue um padrão preocupante: o anterior órgão de supervisão AGI, a equipa 'Superalignment', já foi desmantelada depois da saída do co-líder Jan Leike em maio, citando um “ponto de ruptura” devido a disputas de gestão. O co-fundador Ilya Sutskever seguiu em junho e desde então lançou um concorrente avaliado em $5 bilhões.
O Problema do Êxodo
A saída de Brundage não está acontecendo de forma isolada. A OpenAI tem perdido talentos seniores:
O que vem a seguir?
Brundage planeia lançar ou juntar-se a uma organização sem fins lucrativos focada na pesquisa de políticas de IA—essencialmente abandonando toda a infraestrutura de segurança corporativa. A OpenAI recusou-se a comentar sobre o que substituirá a equipa de Preparação para AGI, sugerindo que não está planeado nenhum sucessor imediato.
A Verdadeira História
Embora a OpenAI tenha divulgado uma declaração diplomática agradecendo a Brundage pelas suas contribuições, o subtexto é claro: a infraestrutura de segurança está sendo despriorizada em favor da velocidade de colocação no mercado. Se isso acelera a inovação ou cria risco sistêmico permanece a questão definidora para a indústria.