Dalam pukulan signifikan terhadap struktur tata kelola OpenAI, Miles Brundage—peneliti keselamatan teratas perusahaan dan kepala 'Kesiapan AGI'—telah pergi sejak 23 Oktober. Ini bukan sekadar perubahan personel; ini menandai pembubaran lengkap divisi pengawasan keselamatan yang didedikasikan di OpenAI.
Apa Artinya Ini
Tim Brundage bertanggung jawab atas panduan kebijakan dan protokol keselamatan saat OpenAI berlomba menuju kecerdasan umum buatan (AGI)—sebuah AI teoretis yang mampu melakukan tugas manusia mana pun. Dengan unit yang dibubarkan, OpenAI kini beroperasi tanpa departemen keselamatan formal, meskipun terus mendorong menuju model yang lebih kuat.
Keluarnya dia mengikuti pola yang mengkhawatirkan: badan pengawas AGI sebelumnya, tim 'Superalignment', sudah dibubarkan setelah co-lead Jan Leike keluar pada bulan Mei, mengutip “titik patah” terkait sengketa manajemen. Pendiri bersama Ilya Sutskever menyusul pada bulan Juni dan sejak itu meluncurkan kompetitor yang bernilai $5 miliar.
Masalah Exodus
Kepergian Brundage tidak terjadi secara terpisah. OpenAI telah kehilangan bakat senior secara besar-besaran:
Andrej Karpathy (koin, kepala ilmuwan) → keluar Februari untuk memulai usahanya sendiri
Jan Leike (AGI safety co-lead) → meninggalkan Mei
Ilya Sutskever (co-founder) → keluar Juni, sekarang menjalankan pesaing
John Schulman (co-founder) → defected to Anthropic pada bulan Agustus
Mira Murati (mantan CTO) → dilaporkan menggalang dana untuk perusahaan AI yang bersaing
Apa Selanjutnya?
Brundage berencana untuk meluncurkan atau bergabung dengan organisasi nirlaba yang fokus pada penelitian kebijakan AI—secara esensial meninggalkan infrastruktur keselamatan korporat sepenuhnya. OpenAI menolak untuk berkomentar tentang apa yang menggantikan tim Kesiapan AGI, menunjukkan bahwa tidak ada penerus yang direncanakan dalam waktu dekat.
Kisah Nyata
Sementara OpenAI merilis pernyataan diplomatik yang mengucapkan terima kasih kepada Brundage atas kontribusinya, makna tersiratnya jelas: infrastruktur keamanan sedang diprioritaskan lebih rendah demi kecepatan ke pasar. Apakah ini mempercepat inovasi atau menciptakan risiko sistemik tetap menjadi pertanyaan mendefinisikan bagi industri.
Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
Kepala Keamanan OpenAI Mundur: Apakah Perusahaan Kehilangan Kontrol Pengembangan AGI?
Dalam pukulan signifikan terhadap struktur tata kelola OpenAI, Miles Brundage—peneliti keselamatan teratas perusahaan dan kepala 'Kesiapan AGI'—telah pergi sejak 23 Oktober. Ini bukan sekadar perubahan personel; ini menandai pembubaran lengkap divisi pengawasan keselamatan yang didedikasikan di OpenAI.
Apa Artinya Ini
Tim Brundage bertanggung jawab atas panduan kebijakan dan protokol keselamatan saat OpenAI berlomba menuju kecerdasan umum buatan (AGI)—sebuah AI teoretis yang mampu melakukan tugas manusia mana pun. Dengan unit yang dibubarkan, OpenAI kini beroperasi tanpa departemen keselamatan formal, meskipun terus mendorong menuju model yang lebih kuat.
Keluarnya dia mengikuti pola yang mengkhawatirkan: badan pengawas AGI sebelumnya, tim 'Superalignment', sudah dibubarkan setelah co-lead Jan Leike keluar pada bulan Mei, mengutip “titik patah” terkait sengketa manajemen. Pendiri bersama Ilya Sutskever menyusul pada bulan Juni dan sejak itu meluncurkan kompetitor yang bernilai $5 miliar.
Masalah Exodus
Kepergian Brundage tidak terjadi secara terpisah. OpenAI telah kehilangan bakat senior secara besar-besaran:
Apa Selanjutnya?
Brundage berencana untuk meluncurkan atau bergabung dengan organisasi nirlaba yang fokus pada penelitian kebijakan AI—secara esensial meninggalkan infrastruktur keselamatan korporat sepenuhnya. OpenAI menolak untuk berkomentar tentang apa yang menggantikan tim Kesiapan AGI, menunjukkan bahwa tidak ada penerus yang direncanakan dalam waktu dekat.
Kisah Nyata
Sementara OpenAI merilis pernyataan diplomatik yang mengucapkan terima kasih kepada Brundage atas kontribusinya, makna tersiratnya jelas: infrastruktur keamanan sedang diprioritaskan lebih rendah demi kecepatan ke pasar. Apakah ini mempercepat inovasi atau menciptakan risiko sistemik tetap menjadi pertanyaan mendefinisikan bagi industri.