Dasar
Spot
Perdagangkan kripto dengan bebas
Perdagangan Margin
Perbesar keuntungan Anda dengan leverage
Konversi & Investasi Otomatis
0 Fees
Perdagangkan dalam ukuran berapa pun tanpa biaya dan tanpa slippage
ETF
Dapatkan eksposur ke posisi leverage dengan mudah
Perdagangan Pre-Market
Perdagangkan token baru sebelum listing
Futures
Akses ribuan kontrak perpetual
TradFi
Emas
Satu platform aset tradisional global
Opsi
Hot
Perdagangkan Opsi Vanilla ala Eropa
Akun Terpadu
Memaksimalkan efisiensi modal Anda
Perdagangan Demo
Pengantar tentang Perdagangan Futures
Bersiap untuk perdagangan futures Anda
Acara Futures
Gabung acara & dapatkan hadiah
Perdagangan Demo
Gunakan dana virtual untuk merasakan perdagangan bebas risiko
Peluncuran
CandyDrop
Koleksi permen untuk mendapatkan airdrop
Launchpool
Staking cepat, dapatkan token baru yang potensial
HODLer Airdrop
Pegang GT dan dapatkan airdrop besar secara gratis
Launchpad
Jadi yang pertama untuk proyek token besar berikutnya
Poin Alpha
Perdagangkan aset on-chain, raih airdrop
Poin Futures
Dapatkan poin futures dan klaim hadiah airdrop
Investasi
Simple Earn
Dapatkan bunga dengan token yang menganggur
Investasi Otomatis
Investasi otomatis secara teratur
Investasi Ganda
Keuntungan dari volatilitas pasar
Soft Staking
Dapatkan hadiah dengan staking fleksibel
Pinjaman Kripto
0 Fees
Menjaminkan satu kripto untuk meminjam kripto lainnya
Pusat Peminjaman
Hub Peminjaman Terpadu
Model AI 'Paling Mampu' Anthropic Claude Mythos Leaks Bocor, Dianggap Ancaman Keamanan Siber Utama
Singkatnya
Pencipta Claude, Anthropic, sedang mengembangkan model AI baru bernama Claude Mythos, yang digambarkan secara internal sebagai model paling mumpuni perusahaan hingga saat ini, dengan materi draf tentang sistem tersebut bocor ke internet minggu ini.
Keberadaan model tersebut pertama kali diberitakan Fortune pada Kamis setelah berkas-berkas yang belum dipublikasikan terkait blog Anthropic ditemukan di cache data yang dapat diakses publik. Seorang juru bicara Anthropic mengonfirmasi keberadaan model kepada media tersebut.
“Kami sedang mengembangkan model untuk tujuan umum dengan kemajuan berarti dalam penalaran, pemrograman, dan keamanan siber,” kata seorang juru bicara Anthropic kepada Fortune. “Dengan kekuatan kapabilitasnya, kami bersikap hati-hati mengenai cara kami merilisnya. Seperti praktik standar di seluruh industri, kami bekerja dengan sekelompok kecil pelanggan akses awal untuk menguji model ini. Kami menganggap model ini sebagai lompatan besar dan yang paling mumpuni yang pernah kami bangun hingga saat ini.”
Pada halaman pengembangan yang telah diarsipkan dan ditinjau oleh Decrypt, Anthropic menyebut Mythos “model AI paling kuat yang pernah kami kembangkan.”
“Mythos adalah nama baru untuk tingkat model yang baru: lebih besar dan lebih cerdas daripada model Opus kami—yang hingga sekarang merupakan yang paling kuat,” tulis Anthropic. “Kami memilih nama untuk membangkitkan jaringan penghubung dalam yang menjalin bersama pengetahuan dan gagasan.”
Menurut Anthropic, Mythos memperoleh nilai “jauh lebih tinggi” daripada Claude Opus 4.6 pada pengujian untuk penulisan perangkat lunak, penalaran akademik, dan keamanan siber.
Kebocoran Mythos tampaknya berasal dari materi draf yang disimpan dalam sistem manajemen konten yang tidak diamankan. Menurut Fortune, Anthropic membatasi akses publik ke tempat penyimpanan setelah diberitahu bahwa berkas-berkas tersebut bisa dicari secara online. Perusahaan tersebut mengaitkan paparan itu pada kesalahan manusia dalam konfigurasi alat CMS miliknya.
Namun, dokumen Anthropic yang memberi label Mythos sebagai versi satu dari model baru, dan menjelaskan versi dua secara internal sebagai “Capybara”, yang juga diposisikan perusahaan di atas model-model Opus berperingkat teratas yang sedang berjalan.
Materi draf tersebut juga menyoroti kekhawatiran tentang potensi implikasi keamanan siber dari sistem tersebut.
“Meskipun Mythos saat ini jauh lebih maju dibanding model AI lain mana pun dalam kapabilitas sibernya, ia menjadi pertanda datangnya gelombang model berikutnya yang dapat mengeksploitasi kerentanan dengan cara yang jauh melampaui upaya para pembela,” tulis perusahaan itu.
Karena risiko tersebut, perusahaan mengatakan pihaknya berencana merilis model secara hati-hati, dimulai dengan peluncuran akses awal yang terbatas yang ditujukan bagi organisasi yang bekerja pada pertahanan keamanan siber.
Anthropic tidak segera menanggapi permintaan komentar dari Decrypt.
Sementara Anthropic menurunkan postingan blog tersebut, kabar kebocorannya dengan cepat merembet ke pasar keuangan.
Saham beberapa perusahaan keamanan siber turun setelah laporan tersebut muncul, termasuk Palo Alto Networks (PANW), yang turun sekitar 7%, dan CrowdStrike (CRWD), yang turun kira-kira 6,4%. Sementara itu, Zscaler (ZS) turun sekitar 5,8%, dan Fortinet (FTNT) terpeleset sekitar 4% selama perdagangan Jumat, menurut Yahoo Finance.
Reaksi aksi jual tersebut meniru respons pasar yang serupa terhadap pengungkapan produk Anthropic baru. Pada Februari, Anthropic meluncurkan Claude Cowork, sebuah sistem AI yang dirancang untuk mengotomatiskan tugas-tugas kerja yang kompleks—termasuk peninjauan kontrak dan kepatuhan—yang memicu aksi jual luas di seluruh perusahaan perangkat lunak dan layanan profesional.
Aksi jual itu menghapus sekitar $285 miliar nilai pasar saat investor menilai ulang dampak jangka panjang agen AI terhadap bisnis perangkat lunak di perusahaan.
“Respons pasar adalah sinyal, bukan bahwa agen AI akan segera menggantikan bisnis-bisnis ini, tetapi bahwa investor akhirnya memberi harga pada risiko struktural yang kini dapat bersaing langsung dengan lapisan perangkat lunak,” kata pendiri Nexatech Ventures Scott Dylan kepada Decrypt pada saat itu. “Itu cara yang sopan untuk mengatakan jika Anthropic bisa membangun alat alur kerja legal di dalam perusahaan, apa yang menghentikan mereka melakukan hal yang sama untuk keuangan, pengadaan, atau SDM?”
Newsletter Daily Debrief
Mulailah setiap hari dengan berita utama paling hangat saat ini, plus fitur orisinal, sebuah podcast, video, dan lainnya.
Email Anda
Dapatkan!
Dapatkan!