Dasar
Spot
Perdagangkan kripto dengan bebas
Perdagangan Margin
Perbesar keuntungan Anda dengan leverage
Konversi & Investasi Otomatis
0 Fees
Perdagangkan dalam ukuran berapa pun tanpa biaya dan tanpa slippage
ETF
Dapatkan eksposur ke posisi leverage dengan mudah
Perdagangan Pre-Market
Perdagangkan token baru sebelum listing
Futures
Akses ribuan kontrak perpetual
TradFi
Emas
Satu platform aset tradisional global
Opsi
Hot
Perdagangkan Opsi Vanilla ala Eropa
Akun Terpadu
Memaksimalkan efisiensi modal Anda
Perdagangan Demo
Futures Kickoff
Bersiap untuk perdagangan futures Anda
Acara Futures
Gabung acara & dapatkan hadiah
Perdagangan Demo
Gunakan dana virtual untuk merasakan perdagangan bebas risiko
Peluncuran
CandyDrop
Koleksi permen untuk mendapatkan airdrop
Launchpool
Staking cepat, dapatkan token baru yang potensial
HODLer Airdrop
Pegang GT dan dapatkan airdrop besar secara gratis
Launchpad
Jadi yang pertama untuk proyek token besar berikutnya
Poin Alpha
Perdagangkan aset on-chain, raih airdrop
Poin Futures
Dapatkan poin futures dan klaim hadiah airdrop
Investasi
Simple Earn
Dapatkan bunga dengan token yang menganggur
Investasi Otomatis
Investasi otomatis secara teratur
Investasi Ganda
Keuntungan dari volatilitas pasar
Soft Staking
Dapatkan hadiah dengan staking fleksibel
Pinjaman Kripto
0 Fees
Menjaminkan satu kripto untuk meminjam kripto lainnya
Pusat Peminjaman
Hub Peminjaman Terpadu
🚨 BERITA TERKINI: OpenAI menerbitkan sebuah artikel yang membuktikan bahwa ChatGPT akan selalu berbuat sesuatu.
Tidak kadang-kadang. Tidak sebelum pembaruan berikutnya. Selalu. Mereka membuktikannya dalam matematika.
Bahkan dengan data pelatihan yang sempurna dan kekuatan komputasi tanpa batas, model AI akan selalu dengan percaya diri memberi tahu Anda hal-hal yang sama sekali salah. Ini bukan bug yang sedang mereka kerjakan. Ini menjelaskan bagaimana sistem ini bekerja secara fundamental.
Dan angka mereka sendiri sangat keras. Model penalaran o1 dari OpenAI mengalami halusinasi dalam 16% kasus. Model baru mereka O3? 33 persen. Model baru o4-mini? 48 persen. Hampir setengah dari informasi yang diberikan oleh model terbaru mereka bisa saja dibuat-buat. Model "lebih pintar" sebenarnya semakin buruk dalam mengatakan kebenaran.
Inilah mengapa ini tidak bisa diperbaiki. Model bahasa bekerja dengan memprediksi kata berikutnya berdasarkan probabilitas. Ketika mereka menghadapi situasi yang tidak pasti, mereka tidak berhenti. Mereka tidak memberi tahu. Mereka berasumsi. Dan mereka berspekulasi dengan kepercayaan penuh, karena itulah alasan mereka dilatih.
Para peneliti telah memeriksa 10 kriteria utama kecerdasan buatan yang digunakan untuk mengukur kualitas model ini. 9 dari 10 memberikan nilai yang sama untuk mengatakan "saya tidak tahu" seperti memberikan jawaban yang sama sekali salah: nol poin. Seluruh sistem pengujian secara harfiah menghukum kejujuran dan memberi penghargaan pada spekulasi.
AI telah belajar strategi optimal: selalu menebak. Jangan pernah mengakui ketidakpastian. Ini tampak percaya diri bahkan saat Anda berimajinasi.
Apa solusi yang diajukan oleh OpenAI? Minta ChatGPT untuk mengatakan "Saya tidak tahu" saat tidak yakin. Perhitungan mereka sendiri menunjukkan bahwa ini akan berarti sekitar 30% dari pertanyaan Anda tidak memiliki jawaban. Bayangkan bertanya sesuatu kepada ChatGPT tiga kali dari sepuluh dan menerima "Saya tidak cukup yakin untuk menjawab." Pengguna akan pergi dalam semalam. Jadi, solusinya ada, tetapi akan membunuh produk ini.
Ini bukan hanya masalah OpenAI. DeepMind dan Universitas Tsinghua secara independen mencapai kesimpulan yang sama. Tiga laboratorium AI terbaik di dunia, yang bekerja secara terpisah, semuanya sepakat: ini bersifat permanen.
Setiap kali ChatGPT memberi Anda jawaban, tanyakan pada diri sendiri: apakah ini nyata atau hanya sebuah asumsi percaya diri?
Ini jawaban dari Come-from-Beyond 👇
Mereka mulai memahami mengapa
#QUBIC #Aigarth .* menempatkan kemampuan untuk mengatakan "Saya tidak tahu" di inti perhatian mereka
$QUBIC