Google Gemma 4 resmi dirilis: 4 ukuran pertama kali dengan lisensi Apache 2.0, 31B sumber terbuka global ketiga

BlockBeatNews

Berdasarkan pemantauan 1M AI News, Google secara resmi merilis keluarga model open-source Gemma 4, yang mencakup 4 varian ukuran berbeda, semuanya menggunakan lisensi Apache 2.0. Google mengatakan ini merupakan respons terhadap masukan dari komunitas. Apache 2.0 berarti pengembang dapat menggunakan untuk tujuan komersial, memodifikasi, dan mendistribusikan secara bebas, tanpa pembatasan tambahan. Clément Delangue, co-founder sekaligus CEO Hugging Face, menyebut langkah ini sebagai “tonggak besar”.

4 model ini ditujukan untuk skenario perangkat keras yang berbeda:

  1. 31B Dense: kualitas mentah tertinggi, cocok untuk fine-tuning; bobot yang tidak terkuantisasi dapat dijalankan pada satu H100 80GB, versi terkuantisasi mendukung GPU kelas konsumen
  2. 26B MoE (Mixture of Experts / campuran pakar): total parameter 26B, tetapi saat inferensi hanya mengaktifkan 3,8B; unggul untuk latensi rendah, cocok untuk skenario Agent yang sensitif terhadap kecepatan
  3. E4B dan E2B: model edge untuk perangkat ponsel dan IoT; saat inferensi masing-masing mengaktifkan sekitar 4B dan 2B parameter yang cukup untuk menjaga daya tahan baterai perangkat; mendukung input audio secara native (pengenalan dan pemahaman suara), serta dapat berjalan sepenuhnya secara offline

Pada peringkat teks di platform pengujian anonim adu model skala besar Arena AI, 31B berada di peringkat ketiga untuk model open-source global, dan 26B berada di peringkat keenam; Google menyebutnya sebagai “model yang melampaui bobot model lain sebanyak 20 kali”. Model ini dibangun berdasarkan riset dan teknologi yang sama dengan Gemini 3.

Kemampuan inti mencakup penalaran dan perencanaan multi-langkah, pemanggilan fungsi native, dan output JSON terstruktur (untuk workflow Agent), pembuatan kode, pemahaman gambar dan video (untuk seluruh lini), serta pelatihan native dalam lebih dari 140 bahasa. Model edge mendukung jendela konteks 128K, dan model skala besar mendukung hingga 256K. E2B dan E4B dioptimalkan bersama dengan tim Google Pixel, Qualcomm, dan MediaTek, sehingga dapat dijalankan pada perangkat seperti ponsel, Raspberry Pi, dan NVIDIA Jetson Orin Nano; developer Android dapat membangun aplikasi Agent melalui prototipe AICore Developer Preview, untuk menyiapkan kompatibilitas bagi Gemini Nano 4 berikutnya.

Dari sisi ekosistem, pada hari pertama sudah mendukung berbagai framework populer seperti Hugging Face, vLLM, llama.cpp, MLX, Ollama, NVIDIA NIM, LM Studio, Unsloth, dan lain-lain; dapat langsung dicoba di Google AI Studio (31B dan 26B) serta AI Edge Gallery (E4B dan E2B). Sejak rilis generasi pertamanya, seri Gemma telah diunduh lebih dari 400 juta kali, dan turunan dari komunitas mencapai lebih dari 100 ribu varian.

Penafian: Informasi di halaman ini dapat berasal dari pihak ketiga dan tidak mewakili pandangan atau opini Gate. Konten yang ditampilkan hanya untuk tujuan referensi dan bukan merupakan nasihat keuangan, investasi, atau hukum. Gate tidak menjamin keakuratan maupun kelengkapan informasi dan tidak bertanggung jawab atas kerugian apa pun yang timbul akibat penggunaan informasi ini. Investasi aset virtual memiliki risiko tinggi dan rentan terhadap volatilitas harga yang signifikan. Anda dapat kehilangan seluruh modal yang diinvestasikan. Harap pahami sepenuhnya risiko yang terkait dan buat keputusan secara bijak berdasarkan kondisi keuangan serta toleransi risiko Anda sendiri. Untuk detail lebih lanjut, silakan merujuk ke Penafian.
Komentar
0/400
Tidak ada komentar