Google เผยว่าซูเปอร์คอมพิวเตอร์บริษัทที่ใช้ในการฝึกโมเดลปัญญาประดิษฐ์มีประสิทธิภาพและประหยัดพลังงานมากกว่าระบบเดียวกันของ NVIDIA

ชิปที่ Google ใช้ในการฝึกปัญญาประดิษฐ์ถึงร้อยละ 90 คือ Tensor Processing Unit (TPU) ที่บริษัทพัฒนาขึ้นมาถึงรุ่นที่ 4 แล้ว

โดยชี้ว่าชิป TPU เร็วกว่าชิป A100 ของ NVIDIA ถึง 1.7 เท่า และใช้พลังงานได้มีประสิทธิภาพมากกว่า 1.9 เท่า

Google เผยในเอกสารว่าซูเปอร์คอมพิวเตอร์ของบริษัทใช้ชิป TPU ที่ประกอบรวมกันมากกว่า 4,000 ตัว ด้วยเครื่องมือที่เรียกว่า Optical Switch

ปัญญาประดิษฐ์แต่ละตัวต้องใช้ชิปหลายพันตัวที่ทำงานร่วมกันเป็นเวลาหลายสัปดาห์ในการฝึก

PaLM โมเดลปัญญาประดิษฐ์ที่ได้รับการขนานนามว่ามีขนาดใหญ่ที่สุดของ Google ต้องใช้ซูเปอร์คอมพิวเตอร์ถึง 2 เครื่องในการฝึก (หรือชิป TPU 8,000 ตัว) โดยใช้เวลามากกว่า 50 วัน

Google ชี้ว่าซูเปอร์คอมพิวเตอร์ของบริษัททำให้การปรับแต่งการเชื่อมต่อระหว่างชิปเป็นไปได้ง่าย ช่วยเลี่ยงปัญหาที่เกิดขึ้นในระหว่างการประมวลผล

นอร์ม จุปปิ (Norm Jouppi) และ เดวิด แพตเทอร์สัน (David Patterson) สองผู้เชี่ยวชาญของ Google ชี้ว่าความสามารถในการสลับวงจรช่วยเลี่ยงส่วนประกอบที่มีปัญหา และเพิ่มประสิทธิภาพของเทคโนโลยี Machine Learning (ML) ให้แรงขึ้น

Google ชี้ว่า Midjourney เป็นหนึ่งในปัญญาประดิษฐ์ที่ใช้ซูเปอร์คอมพิวเตอร์ของบริษัทในการฝึก

นอกจากนี้ ยังบอกใบ้ด้วยว่ากำลังพัฒนาชิป TPU รุ่นใหม่ที่จะมาแข่งกับชิป H100 ของ NVIDIA แต่ยังไม่ได้เผยรายละเอียดเพิ่มเติม

ที่มา Reuters