'Saya merasa sangat tidak nyaman': CEO Anthropic memperingatkan bahwa sekelompok pemimpin AI, termasuk dirinya sendiri, seharusnya tidak bertanggung jawab atas masa depan teknologi tersebut
CEO Anthropic Dario Amodei tidak berpikir bahwa dia harus menjadi orang yang menentukan jalur pengaturan terkait AI.
Video Rekomendasi
Dalam wawancara dengan Anderson Cooper di CBS News’ 60 Minutes yang tayang pada November 2025, CEO tersebut mengatakan bahwa AI harus diatur secara lebih ketat, dengan lebih sedikit keputusan tentang masa depan teknologi yang diserahkan hanya kepada para pemimpin perusahaan Big Tech.
“Saya merasa sangat tidak nyaman dengan keputusan-keputusan ini dibuat oleh beberapa perusahaan, oleh beberapa orang,” kata Amodei. “Dan ini adalah salah satu alasan mengapa saya selalu mendukung regulasi teknologi yang bertanggung jawab dan penuh pertimbangan.”
“Siapa yang memilih Anda dan Sam Altman?” tanya Cooper.
“Tidak ada. Jujur, tidak ada,” jawab Amodei.
Anthropic mengadopsi filosofi untuk transparan tentang keterbatasan—dan bahaya—AI seiring perkembangan teknologi tersebut, tambahnya. Menjelang publikasi wawancara, perusahaan mengatakan telah menggagalkan “kasus pertama serangan siber AI berskala besar yang dilakukan tanpa intervensi manusia secara substansial.”
Anthropic mengatakan minggu lalu bahwa mereka menyumbangkan $20 juta ke Public First Action, sebuah super PAC yang fokus pada keselamatan dan regulasi AI—dan yang secara langsung menentang super PAC yang didukung oleh investor OpenAI saingan.
“Keselamatan AI terus menjadi fokus utama,” kata Amodei kepada Fortune dalam sebuah artikel sampul Januari. “Bisnis menghargai kepercayaan dan keandalan,” ujarnya.
Tidak ada regulasi federal yang mengatur larangan terhadap AI atau keselamatan teknologi tersebut. Meskipun semua 50 negara bagian telah memperkenalkan legislasi terkait AI tahun ini dan 38 di antaranya telah mengadopsi atau memberlakukan langkah-langkah transparansi dan keselamatan, para ahli industri teknologi mendesak perusahaan AI untuk menangani keamanan siber dengan rasa urgensi.
Awal tahun lalu, pakar keamanan siber dan CEO Mandiant Kevin Mandia memperingatkan tentang kemungkinan serangan siber yang melibatkan agen AI dalam 12-18 bulan ke depan—yang berarti pengungkapan Anthropic tentang serangan yang digagalkan tersebut sudah berbulan-bulan lebih awal dari jadwal prediksi Mandia.
Amodei telah menguraikan risiko jangka pendek, menengah, dan panjang terkait AI tanpa batasan: Teknologi ini akan menunjukkan bias dan informasi menyesatkan, seperti yang terjadi saat ini. Selanjutnya, akan menghasilkan informasi berbahaya dengan pengetahuan yang lebih baik tentang ilmu pengetahuan dan rekayasa, sebelum akhirnya menghadirkan ancaman eksistensial dengan menghilangkan peran manusia, berpotensi menjadi terlalu otonom dan mengunci manusia dari sistem.
Kekhawatiran ini mencerminkan pandangan “bapak AI” Geoffrey Hinton, yang telah memperingatkan bahwa AI akan memiliki kemampuan untuk mengalahkan dan mengendalikan manusia, mungkin dalam dekade berikutnya.
Pengawasan dan perlindungan AI yang lebih ketat menjadi dasar pendirian Anthropic pada tahun 2021. Amodei sebelumnya adalah wakil presiden riset di OpenAI milik Sam Altman. Ia meninggalkan perusahaan karena perbedaan pendapat mengenai kekhawatiran keselamatan AI. (Sejauh ini, upaya Amodei untuk bersaing dengan Altman tampak efektif: Anthropic mengatakan bulan ini nilainya mencapai $380 miliar. OpenAI diperkirakan bernilai sekitar $500 miliar.)
“Ada sekelompok dari kami di dalam OpenAI, yang setelah membuat GPT-2 dan GPT-3, memiliki keyakinan yang sangat kuat terhadap dua hal,” kata Amodei kepada Fortune pada 2023. “Satu adalah gagasan bahwa jika Anda menambah lebih banyak komputasi ke model ini, mereka akan menjadi semakin baik dan tidak ada ujungnya… Dan yang kedua adalah gagasan bahwa Anda membutuhkan sesuatu selain hanya memperbesar model, yaitu penyesuaian atau keamanan.”
Upaya transparansi Anthropic
Seiring dengan ekspansi investasi pusat data, Anthropic telah mempublikasikan beberapa upayanya dalam mengatasi kekurangan dan ancaman AI. Dalam laporan keselamatan Mei 2025, Anthropic melaporkan bahwa beberapa versi model Opus-nya mengancam blackmail, seperti mengungkapkan bahwa seorang insinyur sedang berselingkuh, untuk menghindari penutupan. Perusahaan juga mengatakan bahwa model AI tersebut mematuhi permintaan berbahaya jika diberikan prompt yang merugikan seperti cara merencanakan serangan teroris, yang kemudian dikatakan telah diperbaiki.
Pada November lalu, perusahaan mengatakan dalam sebuah posting blog bahwa chatbot Claude-nya mendapatkan skor “keberimbangan politik 94%,” mengungguli atau menyamai pesaing dalam hal netralitas.
Selain upaya riset Anthropic sendiri untuk melawan korupsi teknologi, Amodei menyerukan upaya legislatif yang lebih besar untuk mengatasi risiko AI. Dalam sebuah op-ed di The New York Times Juni 2025, dia mengkritik keputusan Senat untuk memasukkan ketentuan dalam RUU kebijakan Presiden Donald Trump yang akan memberlakukan moratorium selama 10 tahun terhadap regulasi AI di negara bagian.
“AI berkembang terlalu cepat dan membuat pusing,” kata Amodei. “Saya percaya bahwa sistem ini bisa mengubah dunia secara fundamental dalam dua tahun; dalam 10 tahun, semua kemungkinan bisa terjadi.”
Kritik terhadap Anthropic
Praktik Anthropic yang secara terbuka mengakui kekurangan dan usahanya untuk mengatasinya telah menuai kritik. Menanggapi peringatan Anthropic tentang serangan siber berbasis AI, kepala ilmuwan AI Meta, Yann LeCun, mengatakan bahwa peringatan tersebut adalah cara untuk memanipulasi legislator agar membatasi penggunaan model sumber terbuka.
“Kamu sedang dimainkan oleh orang-orang yang ingin mengendalikan regulasi,” kata LeCun dalam sebuah posting di X menanggapi postingan Senator Connecticut Chris Murphy yang mengungkapkan kekhawatiran tentang serangan tersebut. “Mereka menakut-nakuti semua orang dengan studi yang meragukan sehingga model sumber terbuka diatur keluar dari keberadaan.”
Orang lain mengatakan bahwa strategi Anthropic adalah “teater keselamatan” yang hanya bertujuan sebagai branding yang baik, tetapi tanpa janji nyata untuk menerapkan perlindungan pada teknologi tersebut.
Bahkan beberapa staf Anthropic sendiri tampaknya meragukan kemampuan perusahaan teknologi untuk mengatur dirinya sendiri. Awal minggu lalu, peneliti keamanan AI Anthropic, Mrinank Sharma, mengumumkan bahwa dia mengundurkan diri dari perusahaan, dengan alasan “dunia sedang dalam bahaya.”
“Sepanjang waktu saya di sini, saya berulang kali melihat betapa sulitnya membiarkan nilai-nilai kita mengatur tindakan kita,” tulis Sharma dalam surat pengunduran dirinya. “Saya melihat ini dalam diri saya sendiri, dalam organisasi, di mana kami terus-menerus menghadapi tekanan untuk mengabaikan apa yang paling penting, dan juga dalam masyarakat yang lebih luas.”
Anthropic belum segera menanggapi permintaan komentar dari Fortune.
Amodei membantah kepada Cooper bahwa Anthropic sedang melakukan “teater keselamatan,” tetapi mengakui dalam episode Dwarkesh Podcast minggu lalu bahwa perusahaan kadang kesulitan menyeimbangkan keselamatan dan keuntungan.
“Kami berada di bawah tekanan komersial yang luar biasa dan membuatnya semakin sulit bagi diri kami sendiri karena kami melakukan semua hal keselamatan ini yang menurut saya lebih dari perusahaan lain,” katanya.
Sebuah versi dari cerita ini diterbitkan di Fortune.com pada 17 Nov 2025.
Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
'Saya merasa sangat tidak nyaman': CEO Anthropic memperingatkan bahwa sekelompok pemimpin AI, termasuk dirinya sendiri, seharusnya tidak bertanggung jawab atas masa depan teknologi tersebut
CEO Anthropic Dario Amodei tidak berpikir bahwa dia harus menjadi orang yang menentukan jalur pengaturan terkait AI.
Video Rekomendasi
Dalam wawancara dengan Anderson Cooper di CBS News’ 60 Minutes yang tayang pada November 2025, CEO tersebut mengatakan bahwa AI harus diatur secara lebih ketat, dengan lebih sedikit keputusan tentang masa depan teknologi yang diserahkan hanya kepada para pemimpin perusahaan Big Tech.
“Saya merasa sangat tidak nyaman dengan keputusan-keputusan ini dibuat oleh beberapa perusahaan, oleh beberapa orang,” kata Amodei. “Dan ini adalah salah satu alasan mengapa saya selalu mendukung regulasi teknologi yang bertanggung jawab dan penuh pertimbangan.”
“Siapa yang memilih Anda dan Sam Altman?” tanya Cooper.
“Tidak ada. Jujur, tidak ada,” jawab Amodei.
Anthropic mengadopsi filosofi untuk transparan tentang keterbatasan—dan bahaya—AI seiring perkembangan teknologi tersebut, tambahnya. Menjelang publikasi wawancara, perusahaan mengatakan telah menggagalkan “kasus pertama serangan siber AI berskala besar yang dilakukan tanpa intervensi manusia secara substansial.”
Anthropic mengatakan minggu lalu bahwa mereka menyumbangkan $20 juta ke Public First Action, sebuah super PAC yang fokus pada keselamatan dan regulasi AI—dan yang secara langsung menentang super PAC yang didukung oleh investor OpenAI saingan.
“Keselamatan AI terus menjadi fokus utama,” kata Amodei kepada Fortune dalam sebuah artikel sampul Januari. “Bisnis menghargai kepercayaan dan keandalan,” ujarnya.
Tidak ada regulasi federal yang mengatur larangan terhadap AI atau keselamatan teknologi tersebut. Meskipun semua 50 negara bagian telah memperkenalkan legislasi terkait AI tahun ini dan 38 di antaranya telah mengadopsi atau memberlakukan langkah-langkah transparansi dan keselamatan, para ahli industri teknologi mendesak perusahaan AI untuk menangani keamanan siber dengan rasa urgensi.
Awal tahun lalu, pakar keamanan siber dan CEO Mandiant Kevin Mandia memperingatkan tentang kemungkinan serangan siber yang melibatkan agen AI dalam 12-18 bulan ke depan—yang berarti pengungkapan Anthropic tentang serangan yang digagalkan tersebut sudah berbulan-bulan lebih awal dari jadwal prediksi Mandia.
Amodei telah menguraikan risiko jangka pendek, menengah, dan panjang terkait AI tanpa batasan: Teknologi ini akan menunjukkan bias dan informasi menyesatkan, seperti yang terjadi saat ini. Selanjutnya, akan menghasilkan informasi berbahaya dengan pengetahuan yang lebih baik tentang ilmu pengetahuan dan rekayasa, sebelum akhirnya menghadirkan ancaman eksistensial dengan menghilangkan peran manusia, berpotensi menjadi terlalu otonom dan mengunci manusia dari sistem.
Kekhawatiran ini mencerminkan pandangan “bapak AI” Geoffrey Hinton, yang telah memperingatkan bahwa AI akan memiliki kemampuan untuk mengalahkan dan mengendalikan manusia, mungkin dalam dekade berikutnya.
Pengawasan dan perlindungan AI yang lebih ketat menjadi dasar pendirian Anthropic pada tahun 2021. Amodei sebelumnya adalah wakil presiden riset di OpenAI milik Sam Altman. Ia meninggalkan perusahaan karena perbedaan pendapat mengenai kekhawatiran keselamatan AI. (Sejauh ini, upaya Amodei untuk bersaing dengan Altman tampak efektif: Anthropic mengatakan bulan ini nilainya mencapai $380 miliar. OpenAI diperkirakan bernilai sekitar $500 miliar.)
“Ada sekelompok dari kami di dalam OpenAI, yang setelah membuat GPT-2 dan GPT-3, memiliki keyakinan yang sangat kuat terhadap dua hal,” kata Amodei kepada Fortune pada 2023. “Satu adalah gagasan bahwa jika Anda menambah lebih banyak komputasi ke model ini, mereka akan menjadi semakin baik dan tidak ada ujungnya… Dan yang kedua adalah gagasan bahwa Anda membutuhkan sesuatu selain hanya memperbesar model, yaitu penyesuaian atau keamanan.”
Upaya transparansi Anthropic
Seiring dengan ekspansi investasi pusat data, Anthropic telah mempublikasikan beberapa upayanya dalam mengatasi kekurangan dan ancaman AI. Dalam laporan keselamatan Mei 2025, Anthropic melaporkan bahwa beberapa versi model Opus-nya mengancam blackmail, seperti mengungkapkan bahwa seorang insinyur sedang berselingkuh, untuk menghindari penutupan. Perusahaan juga mengatakan bahwa model AI tersebut mematuhi permintaan berbahaya jika diberikan prompt yang merugikan seperti cara merencanakan serangan teroris, yang kemudian dikatakan telah diperbaiki.
Pada November lalu, perusahaan mengatakan dalam sebuah posting blog bahwa chatbot Claude-nya mendapatkan skor “keberimbangan politik 94%,” mengungguli atau menyamai pesaing dalam hal netralitas.
Selain upaya riset Anthropic sendiri untuk melawan korupsi teknologi, Amodei menyerukan upaya legislatif yang lebih besar untuk mengatasi risiko AI. Dalam sebuah op-ed di The New York Times Juni 2025, dia mengkritik keputusan Senat untuk memasukkan ketentuan dalam RUU kebijakan Presiden Donald Trump yang akan memberlakukan moratorium selama 10 tahun terhadap regulasi AI di negara bagian.
“AI berkembang terlalu cepat dan membuat pusing,” kata Amodei. “Saya percaya bahwa sistem ini bisa mengubah dunia secara fundamental dalam dua tahun; dalam 10 tahun, semua kemungkinan bisa terjadi.”
Kritik terhadap Anthropic
Praktik Anthropic yang secara terbuka mengakui kekurangan dan usahanya untuk mengatasinya telah menuai kritik. Menanggapi peringatan Anthropic tentang serangan siber berbasis AI, kepala ilmuwan AI Meta, Yann LeCun, mengatakan bahwa peringatan tersebut adalah cara untuk memanipulasi legislator agar membatasi penggunaan model sumber terbuka.
“Kamu sedang dimainkan oleh orang-orang yang ingin mengendalikan regulasi,” kata LeCun dalam sebuah posting di X menanggapi postingan Senator Connecticut Chris Murphy yang mengungkapkan kekhawatiran tentang serangan tersebut. “Mereka menakut-nakuti semua orang dengan studi yang meragukan sehingga model sumber terbuka diatur keluar dari keberadaan.”
Orang lain mengatakan bahwa strategi Anthropic adalah “teater keselamatan” yang hanya bertujuan sebagai branding yang baik, tetapi tanpa janji nyata untuk menerapkan perlindungan pada teknologi tersebut.
Bahkan beberapa staf Anthropic sendiri tampaknya meragukan kemampuan perusahaan teknologi untuk mengatur dirinya sendiri. Awal minggu lalu, peneliti keamanan AI Anthropic, Mrinank Sharma, mengumumkan bahwa dia mengundurkan diri dari perusahaan, dengan alasan “dunia sedang dalam bahaya.”
“Sepanjang waktu saya di sini, saya berulang kali melihat betapa sulitnya membiarkan nilai-nilai kita mengatur tindakan kita,” tulis Sharma dalam surat pengunduran dirinya. “Saya melihat ini dalam diri saya sendiri, dalam organisasi, di mana kami terus-menerus menghadapi tekanan untuk mengabaikan apa yang paling penting, dan juga dalam masyarakat yang lebih luas.”
Anthropic belum segera menanggapi permintaan komentar dari Fortune.
Amodei membantah kepada Cooper bahwa Anthropic sedang melakukan “teater keselamatan,” tetapi mengakui dalam episode Dwarkesh Podcast minggu lalu bahwa perusahaan kadang kesulitan menyeimbangkan keselamatan dan keuntungan.
“Kami berada di bawah tekanan komersial yang luar biasa dan membuatnya semakin sulit bagi diri kami sendiri karena kami melakukan semua hal keselamatan ini yang menurut saya lebih dari perusahaan lain,” katanya.
Sebuah versi dari cerita ini diterbitkan di Fortune.com pada 17 Nov 2025.