Google อย่างเป็นทางการประกาศว่าได้เปิดตัวตระกูลโมเดลโอเพนรุ่นใหม่อย่างเป็นทางการ นั่นคือ Gemma 4 ชุดโมเดลดังกล่าวใช้โครงสร้างทางเทคนิคเดียวกันกับ Gemini 3 โดยหันไปใช้สิทธิ์การใช้งาน Apache 2.0 ที่เป็นมิตรต่อเชิงพาณิชย์อย่างเต็มรูปแบบ และเน้นย้ำความสามารถอันแข็งแกร่งในการรันแบบออนดีไวซ์ (บนเครื่องผู้ใช้)
(ข้อมูลต่อเนื่อง:คอมพิวเตอร์ควอนตัมของ Google คาดว่าจะแฮ็ก Bitcoin ได้ภายใน 9 นาที ตัวเลขคำนวณอย่างไร และภัยคุกคามที่แท้จริงอยู่ตรงไหน?)
(ข้อมูลเพิ่มเติมด้านภูมิหลัง:AI พยากรณ์ภัยพิบัติ》Google เปิดตัวเฟรมเวิร์ก “Groundsource” โดยใช้ Gemini แปลงข่าวทั่วโลกให้เป็นข้อมูลช่วยชีวิต 2.6 ล้านรายการ)
สารบัญของบทความ
Toggle
Google หยอดระเบิดลูกใหญ่ลงในวงการ AI โอเพนซอร์สอีกครั้ง ทางการประกาศล่าสุดเปิดตัวชุด “Gemma 4” โดยโฆษณาว่าเป็นโมเดลโอเพนที่ฉลาดที่สุดในเครือของตน Gemma 4 สืบทอดเทคนิคการวิจัยระดับโลกของโมเดลเรือธงอย่าง Gemini 3 โดยตรง นำมาซึ่งความสามารถด้านการให้เหตุผลแบบก้าวกระโดดและเวิร์กโฟลว์เชิงตัวแทน (Agentic) สิ่งที่ได้รับความสนใจจากชุมชนมากที่สุดคือ Google ตอบรับเสียงเรียกร้องของนักพัฒนาในครั้งนี้ โดยปรับใช้ใบอนุญาต Apache 2.0 ที่เป็นมิตรต่อเชิงพาณิชย์อย่างครอบคลุม เพื่อให้ผู้ใช้สามารถสร้างและปรับใช้อย่างปลอดภัยได้อย่างอิสระในทุกสภาพแวดล้อม ควบคุมข้อมูลและโครงสร้างพื้นฐานของตนเองได้อย่างเต็มที่
เราเพิ่งเปิดตัว Gemma 4 — โมเดลโอเพนที่ฉลาดที่สุดของเราเท่าที่เคยมีมา
สร้างจากงานวิจัยระดับโลกเดียวกับ Gemini 3, Gemma 4 นำความฉลาดอันก้าวล้ำมาสู่ฮาร์ดแวร์ของคุณโดยตรง เพื่อการให้เหตุผลขั้นสูงและเวิร์กโฟลว์เชิงตัวแทน
เผยแพร่ภายใต้… pic.twitter.com/W6Tvj9CuHW
— Google (@Google) April 2, 2026
เพื่อให้ตอบโจทย์ฮาร์ดแวร์และสถานการณ์การใช้งานที่แตกต่างกัน Gemma 4 จึงปล่อยออกมาทั้งหมด 4 เวอร์ชันที่มีขนาดต่างกัน โมเดลที่เบาที่สุดคือ E2B (พารามิเตอร์ 2B) ออกแบบมาเฉพาะสำหรับอุปกรณ์พกพาและอุปกรณ์ปลายทางอย่างบราวเซอร์ ในขณะที่ E4B (พารามิเตอร์ 4B) จะหาจุดสมดุลระหว่างประสิทธิภาพกับประสิทธิผล และรองรับการป้อนข้อมูลภาพและเสียงแบบเนทีฟมากขึ้น ส่วนฝั่งที่เน้นประสิทธิภาพ 26B A4B ใช้สถาปัตยกรรมแบบ Mixture of Experts (MoE) โดยระหว่างการอนุมานจะเปิดใช้งานพารามิเตอร์เพียงราว 4B ทำให้ความต้องการด้านหน่วยความจำลดลงอย่างมาก แม้บนฮาร์ดแวร์ผู้ใช้ทั่วไปอย่าง Mac Mini ที่มีหน่วยความจำ 24GB ก็ยังรันได้อย่างลื่นไหล โมเดลแบบหนาแน่นลำดับสูงสุด 31B คือธงประสิทธิภาพของซีรีส์นี้
ด้านข้อกำหนดทางเทคนิค เวอร์ชันโมเดลขนาดใหญ่ของ Gemma 4 สูงสุดรองรับบริบทแบบมีหน้าต่างถึง 256K tokens ทำให้นักพัฒนาสามารถประมวลผลคลังโค้ดทั้งชุดหรือข้อมูลเอกสารขนาดมหึมาได้ในครั้งเดียว นอกจากรองรับการประมวลผลข้อความและภาพแบบเนทีฟ (E2B และ E4B ยังคงรองรับการป้อนข้อมูลเสียง) แล้ว Gemma 4 ยังมีความสามารถด้านการเรียกใช้ฟังก์ชัน (Function Calling) แบบเนทีฟที่แข็งแกร่ง สามารถสร้างผลลัพธ์ในรูปแบบ JSON แบบมีโครงสร้างได้อย่างเสถียร ซึ่งเป็นรากฐานที่ยอดเยี่ยมสำหรับการสร้างแอปพลิเคชันตัวแทนอัตโนมัติ นอกจากนี้ ชุดข้อมูลการฝึกครอบคลุมภาษามากกว่า 140 ภาษา ทำให้มีความเหมาะสมสำหรับการใช้งานทั่วโลกในระดับสูง
Gemma 4 เน้นย้ำประสิทธิภาพ “ต่อหนึ่งไบต์” ที่สูงมาก จากข้อมูลของกระดานจัดอันดับโมเดลโอเพนอย่าง AI Arena ปัจจุบัน Gemma-4-31B อยู่อันดับที่ 3 ในบรรดาโมเดลโอเพน ผลการโดยรวมยังเทียบได้กับ Qwen3.5-397B ที่มีขนาดมหึมา แต่ขนาดของมันมีเพียงหนึ่งในสิบของโมเดลหลังเท่านั้น ในชุดเกณฑ์การให้เหตุผลระดับนักศึกษาระดับบัณฑิต (GPQA Diamond) เวอร์ชัน 31B ยังทำผลงานได้ถึง 84.3% ซึ่งน่าทึ่ง
ลองมาดูกันว่าโมเดลโอเพนอย่าง Gemma พัฒนามาอย่างไรในสามเวอร์ชันล่าสุด
– Gemma 4 อยู่สูงกว่า Gemma 3 จำนวน 100 อันดับ
– Gemma 3 อยู่สูงกว่า Gemma 2 จำนวน 87 อันดับทั้งสามโมเดลจาก @GoogleDeepMind มีขนาดใกล้เคียงกัน (31B, 27B, 27B) และการพัฒนานี้เกิดขึ้นเพียง 9 และ 13… https://t.co/9JnbveYzwT pic.twitter.com/JQtTz09Y1A
— Arena.ai (@arena) April 2, 2026
ปัจจุบัน นักพัฒนาได้สามารถทดลองใช้ Gemma 4 ได้โดยตรงบน Google AI Studio หรือไปดาวน์โหลดโมเดลน้ำหนักได้จากแพลตฟอร์มต่างๆ เช่น Hugging Face, Ollama ฯลฯ ชุมชนก็ติดตามอย่างรวดเร็ว โดยเปิดตัวเวอร์ชันแบบควอนไทซ์ (quantized) ที่ปรับให้เหมาะกับ GPU อย่างไรก็ตาม ยังมีนักพัฒนาบางส่วนที่ชี้ว่า ในสภาพแวดล้อมการดีบักโค้ดที่ซับซ้อนของโลกจริง Gemma 4 ยังมีพื้นที่ให้ปรับปรุง โดยรวมแล้ว การเปิดซอร์สครั้งนี้ไม่ต้องสงสัยเลยว่าจะช่วยผลักดัน “อำนาจอธิปไตยทางดิจิทัล” และฉีดแรงหนุนให้กับการใช้งาน AI แบบออนดีไวซ์