Dans un coup dur pour la structure de gouvernance d'OpenAI, Miles Brundage—le principal chercheur en sécurité de l'entreprise et responsable de 'AGI Readiness'—a quitté ses fonctions le 23 octobre. Ce n'est pas simplement un changement de personnel ; cela marque la dissolution complète de la division de supervision de la sécurité dédiée d'OpenAI.
Ce que cela signifie
L'équipe de Brundage était responsable des orientations politiques et des protocoles de sécurité alors qu'OpenAI se précipite vers l'intelligence générale artificielle (AGI)—une IA théorique capable d'exécuter n'importe quelle tâche humaine. Avec la dissolution de l'unité, OpenAI fonctionne désormais sans département de sécurité formel, même s'il pousse vers des modèles plus puissants.
Son départ s'inscrit dans un schéma inquiétant : le précédent organe de supervision AGI, l'équipe 'Superalignment', a déjà été dissoute après le départ du co-leader Jan Leike en mai, invoquant un “point de rupture” en raison de disputes de gestion. Le co-fondateur Ilya Sutskever a suivi en juin et a depuis lancé un concurrent d'une valeur de $5 milliards.
Le problème de l'Exode
Le départ de Brundage ne se produit pas dans l'isolement. OpenAI a saigné des talents seniors :
Andrej Karpathy (co-fondateur, scientifique en chef) → a quitté en février pour commencer sa propre entreprise
Jan Leike (AGI co-responsable de la sécurité) → a quitté mai
Ilya Sutskever (co-fondateur) → a quitté en juin, maintenant à la tête d'un concurrent
John Schulman (co-fondateur) → a fait défection chez Anthropic en août
Mira Murati (ancienne CTO) → aurait levé des fonds pour une entreprise d'IA concurrente
Quelle est la suite ?
Brundage prévoit de lancer ou de rejoindre un organisme à but non lucratif axé sur la recherche en matière de politique de l'IA—abandonnant essentiellement l'infrastructure de sécurité d'entreprise. OpenAI a refusé de commenter ce qui remplace l'équipe de préparation à l'AGI, suggérant qu'aucun successeur immédiat n'est prévu.
La vraie histoire
Bien qu'OpenAI ait publié une déclaration diplomatique remerciant Brundage pour ses contributions, le sous-texte est clair : l'infrastructure de sécurité est dépriorisée au profit de la rapidité de mise sur le marché. Que cela accélère l'innovation ou crée un risque systémique reste la question déterminante pour l'industrie.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
Le responsable de la sécurité d'OpenAI quitte ses fonctions : l'entreprise perd-elle le contrôle du développement de l'AGI ?
Dans un coup dur pour la structure de gouvernance d'OpenAI, Miles Brundage—le principal chercheur en sécurité de l'entreprise et responsable de 'AGI Readiness'—a quitté ses fonctions le 23 octobre. Ce n'est pas simplement un changement de personnel ; cela marque la dissolution complète de la division de supervision de la sécurité dédiée d'OpenAI.
Ce que cela signifie
L'équipe de Brundage était responsable des orientations politiques et des protocoles de sécurité alors qu'OpenAI se précipite vers l'intelligence générale artificielle (AGI)—une IA théorique capable d'exécuter n'importe quelle tâche humaine. Avec la dissolution de l'unité, OpenAI fonctionne désormais sans département de sécurité formel, même s'il pousse vers des modèles plus puissants.
Son départ s'inscrit dans un schéma inquiétant : le précédent organe de supervision AGI, l'équipe 'Superalignment', a déjà été dissoute après le départ du co-leader Jan Leike en mai, invoquant un “point de rupture” en raison de disputes de gestion. Le co-fondateur Ilya Sutskever a suivi en juin et a depuis lancé un concurrent d'une valeur de $5 milliards.
Le problème de l'Exode
Le départ de Brundage ne se produit pas dans l'isolement. OpenAI a saigné des talents seniors :
Quelle est la suite ?
Brundage prévoit de lancer ou de rejoindre un organisme à but non lucratif axé sur la recherche en matière de politique de l'IA—abandonnant essentiellement l'infrastructure de sécurité d'entreprise. OpenAI a refusé de commenter ce qui remplace l'équipe de préparation à l'AGI, suggérant qu'aucun successeur immédiat n'est prévu.
La vraie histoire
Bien qu'OpenAI ait publié une déclaration diplomatique remerciant Brundage pour ses contributions, le sous-texte est clair : l'infrastructure de sécurité est dépriorisée au profit de la rapidité de mise sur le marché. Que cela accélère l'innovation ou crée un risque systémique reste la question déterminante pour l'industrie.