ทีมนักวิจัยจาก Microsoft ออกมาประกาศความสำเร็จสุดล้ำ ด้วยการสร้างโมเดล AI แบบ 1-bit หรือที่เรียกว่า “BitNet” ที่ใหญ่ที่สุดในโลกตอนนี้ ชื่อว่า BitNet b1.58 2B4T แถมใจดี เปิดให้ใช้ฟรีภายใต้ใบอนุญาต MIT และที่เจ๋งกว่านั้นคือมันรันได้บน CPU ทั่วไป รวมถึงชิป M2 ของ Apple ด้วย

BitNet คืออะไร? พูดง่าย ๆ มันคือโมเดล AI ที่ถูก “บีบอัด” ให้กินทรัพยากรน้อยสุด ๆ เหมาะกับอุปกรณ์ที่ไม่แรงมาก หลักการคือการ “ควอนไทซ์” หรือลดจำนวนบิตที่ใช้เก็บ “น้ำหนัก” (weights) ซึ่งเป็นโครงสร้างสำคัญของโมเดล AI ทั่วไป BitNet ลดน้ำหนักเหล่านี้ให้เหลือแค่ 3 ค่า: -1, 0, และ 1 ทำให้ประหยัดทั้งหน่วยความจำและพลังงาน ส่งผลให้โมเดลรันได้เร็วและลื่นบนชิปที่ไม่ต้องแรงเวอร์

BitNet b1.58 2B4T มีอะไรเด็ด ? โมเดลนี้มีพารามิเตอร์ (หรือน้ำหนัก) ถึง 2 พันล้านตัว ถือเป็น BitNet ตัวแรกที่ใหญ่ขนาดนี้ ทีม Microsoft เทรนมันด้วยข้อมูลปริมาณมหาศาล 4 ล้านล้านโทเค็น (ลองนึกถึงหนังสือ 33 จำนวนล้านเล่ม) ผลคือมันทำงานได้ดีกว่าโมเดลขนาดใกล้เคียงกันจากค่ายอื่น ๆ ในหลายด้าน

จากการทดสอบ BitNet b1.58 2B4T อาจไม่ได้ข่มคู่แข่งแบบถล่มทลาย แต่ก็โชว์ฟอร์มได้น่าประทับใจ เอาชนะโมเดลอย่าง Llama 3.2 1B ของ Meta, Gemma 3 1B ของ Google และ Qwen 2.5 1.5B ของ Alibaba ในชุดทดสอบอย่าง GSM8K (โจทย์คณิตระดับประถม) และ PIQA (ทดสอบการใช้สามัญสำนึกด้านกายภาพ)

ที่เด็ดสุดคือความเร็วโมเดลนี้เร็วกว่าโมเดลขนาดเดียวกัน บางครั้งถึงขั้นเร็วเป็นสองเท่า แถมยังใช้หน่วยความจำน้อยลงแบบเห็นได้ชัด เรียกว่าประหยัดแต่ทรงพลัง แต่…มีข้อจำกัดนะ ความเจ๋งทั้งหมดนี้ต้องใช้เฟรมเวิร์กพิเศษของ Microsoft ที่ชื่อ bitnet.cpp ซึ่งตอนนี้รองรับแค่ฮาร์ดแวร์บางตัวเท่านั้น และข่าวร้ายคือมันยังไม่ซัปพอร์ต GPU ซึ่งเป็นหัวใจของโครงสร้าง AI ในปัจจุบัน นั่นแปลว่า BitNet อาจจะยังไม่พร้อมใช้งานในทุกสถานการณ์

BitNet b1.58 2B4T เป็นก้าวใหญ่ของวงการ AI ที่แสดงให้เห็นว่าโมเดลประหยัดพลังงานก็ทรงพลังได้ โดยเฉพาะบนอุปกรณ์ที่ทรัพยากรจำกัด อย่าง CPU ในเครื่องทั่วไป แต่เรื่องความเข้ากันได้กับฮาร์ดแวร์ยังเป็นอุปสรรคที่ต้องรอดูว่า Microsoft จะแก้เกมยังไงต่อไป อนาคตของ BitNet ดูสดใส แต่ต้องลุ้นว่าจะไปได้ไกลแค่ไหน