ยักษ์ใหญ่ทางเทคโนโลยีทั้ง Microsoft, Google และ Meta ต่างก็สร้าง AI ที่มีความเก่งกาจทางด้านข้อมูล แต่เครื่องมือที่สำคัญที่สุด และขาดหายไม่ได้คือขุมพลังขับเคลื่อน AI จากชิป GPU A100 ของ Nvidia ที่มีมูลค่ามากถึง 10,000 ดอลลาร์

ทางด้านนักลงทุน เนธาน เบนิช (Nathan Benaich) ได้เผยแพร่จดหมายข่าว และรายงานที่เกี่ยวข้องกับอุตสาหกรรม AI ที่รวมไปถึงบางส่วนที่เกี่ยวข้องกับซูเปอร์คอมพิวเตอร์ที่ใช้ชิป GPU A100 ว่า Nvidia ได้ครอบครองมากถึง 95% จีพียูสำหรับทำแมชชีนเลิร์นนิ่ง จากรายงานของ New Street Research

เริ่มแรก A100 ได้ถูกออกแบบมาเพื่อใช้งานเรนเดอร์กราฟิก 3 มิติที่ซับซ้อนภายในเกม แต่ในปัจจุบัน A100 จากทาง Nvidia ได้รับการกำหนดค่า และกำหนดเป้าหมายเพื่อการทำแมชชีนเลิร์นนิ่งในศูนย์ข้อมูล

เอมาด มอสตาเก้ (Emad Mostaque) ซีอีโอ Stability AI ได้เขียนโพสต์บน Twitter ในเดือนมกราคมว่า “ในปีที่แล้ว เรามี A100 32 ตัว”

A100 เหมาะกับโมเดลแมชชีนเลิร์นนิ่งอย่าง ChatGPT, Bing AI หรือ Stable Diffusion ที่สามารถทำการคำนวณแบบง่ายได้หลายอย่างพร้อม ๆ กัน ซึ่งเป็นสิ่งสำคัญที่สุดสำหรับการทำฝึกอบรม และการสร้างโมเดลโครงข่ายประสาทเทียม

Microsoft Bing

การประมาณการจาก New Street Research ได้พบว่าโมเดล ChatGPT ของ OpenAI ที่ใช้สำหรับการค้นหาใน Bing อาจจะต้องใช้ชิป GPU A100 มากถึง 8 ตัวเพื่อการตอบสนอง และตอบคำถามที่ใช้เวลาน้อยกว่า 1 วินาที ในอัตราดังกล่าวนี้ Microsoft ต้องการเซิร์ฟเวอร์ 8-GPU มากกว่า 20,000 เครื่องสำหรับโมเดล Bing ซึ่งหมายถึง Microsoft อาจจะมีค่าใช้จ่ายพื้นฐานสำหรับเครื่องเซิร์ฟเวอร์ถึง 4,000 ล้านดอลลาร์

เจนเซ่น หวง (Jensen Huang) ซีอีโอ CEO

ทาง เจนเซ่น หวง (Jensen Huang) ซีอีโอ Nvidia ได้กล่าวการสัมภาษณ์กับ เคธี่ ทาราซอฟ (Katie Tarasov) จากสำนักข่าว CNBS ว่าผลิตภัณฑ์ของเรานั้นมีราคาไม่แพงสำหรับจำนวนการคำนวณที่โมเดลเหล่านี้ที่ต้องการ และ GPU จาก Nvidia จะมาช่วยให้สตาร์ทอัพสามารถฝึกฝนโมเดลด้วยต้นทุนที่ต่ำมากกว่าการใช้หน่วยประมวลผลคอมพิวเตอร์แบบเดิม ๆ

และในตอนนี้ AMD และ Intel ที่ต่างมี GPU ใช้สำหรับงานปัญญาประดิษฐ์ และบริษัทคลาวด์ขนาดใหญ่ทั้ง Google และ Amazon ก็กำลังพัฒนา และใช้งานชิปของตัวเองที่ได้รับการออกแบบที่พิเศษสำหรับงานเวิร์กโหลด AI โดยเฉพาะ

Nvidia H100 GPU

การแข่งขันที่ดุเดือดที่ชิป A100 จากทาง Nvidia ที่ได้ครองส่วนแบบการตลาดถึงมากที่สุดในตอนนี้ แต่ชิปตัวนี้ก็ได้เปิดตัวตั้งแต่ปี 2020 ซึ่งก็ถือว่าเป็นเวลาที่นานมากเช่นกัน และแล้วชิปจีพียูตัวใหม่ล่าสุดอย่าง H100 ที่ได้เปิดตัวในปี 2022 ก็กำลังอยู่ในขั้นตอนการผลิตในปริมาณที่มาก และจากบันทึกรายได้ชิป H100 ในไตรมาสที่สิ้นสุดในเดือนมกราคมมากกว่า A100 ตัวเก่า ถึงแม้ว่าราคาของชิป H100 จะแพงกว่าต่อหน่วยก็ตาม

Nvidia ได้บอกว่าชิป H100 ตัวนี้เป็นชิป GPU ตัวแรกในดาต้าเซ็นเตอร์ที่ได้รับการปรับปรุงให้เหมาะสมกับหม้อแปลงไฟฟ้า และการฝึกอบรม AI จะเร็วขึ้นกว่า 1 ล้านเปอร์เซ็นต์ นั่นก็หมายความว่าบริษัท AI ต่าง ๆ ก็ไม่จำเป็นที่จะต้องสั่งชิป Nvidia เป็นจำนวนมากอีกต่อไป

ที่มา CNBC

พิสูจน์อักษร : สุชยา เกษจำรัส