Google เปิดตัวสมาร์ทโฟนเรือธง Pixel 2 และ 2 XL ที่มีประสิทธิภาพกล้องที่เหนือชั้นกว่าสมาร์ทโฟนรุ่นอื่นๆ ด้วยศักยภาพเทคโนโลยี AI (Artificial Intelligence : ปัญญาประดิษฐ์)

ฟีเจอร์หนึ่งที่ Pixel 2 และ 2 XL สามารถทำได้เช่นเดียวกับสมาร์ทโฟนที่มีกล้องหลัง 2 ตัว คือ การถ่ายภาพโหมด Portrait ซึ่งใช้เทคโนโลยี AI ช่วยในการประมวลผลภาพได้อย่างยอดเยี่ยม

…เรามาดูกันว่า Google ทำได้อย่างไร ?

สเปคกล้อง Google Pixel 2

กล้องหลัง Google Pixel 2 และ 2 XL Google Pixel และ XL
ความละเอียด 12 ล้านพิกเซล 12 ล้านพิกเซล
เลนส์ f/1.8 f/2.0
ขนาดเซ็นเซอร์ 1/2.6 นิ้ว 1/2.3 นิ้ว
ขนาดพิกเซล 1.4 μm 1.55 μm
OIS มี ไม่มี

จะเห็นได้ว่า Pixel 2 และ 2 XL ได้อัปเกรดสเปคกล้องหลังให้สามารถเก็บรายละเอียดของสีและแสงได้มากขึ้น และยังมีระบบกันสั่น (OIS : Optical Image Stabilization) ด้วย

อธิบายการถ่ายภาพโหมด Portrait ของ Pixel 2 และ 2 XL

การถ่ายภาพโหมด Portrait ด้วยกล้องหลังเพียงตัวเดียวของ Pixel 2 และ 2 XL มีด้วยกัน 3 ชั้นตอน ดังนี้

ขั้นที่ 1: HDR+

HDR ย่อมาจาก High-Dynamic Range ซึ่งใช้การนำภาพที่มี Exposure ต่างกัน 2 ภาพ คือ มืด และสว่าง มารวมกันในภาพเดียว ทำให้เห็นรายละเอียดทั้งในส่วนที่มืดและสว่างของภาพได้ชัดเจนมากยิ่งขึ้น

ส่วน HDR+ นั้น จะใช้การถ่ายภาพจำนวน 10 ภาพ คือ ภาพที่มี Exposure ต่ำ ไปจนถึงภาพที่มีไฮไลท์สูงมาก มารวมกันเป็นภาพเดียว ซึ่งผลลัพธ์ที่ได้นั้น ปรากฏให้เห็นด้านล่างนี้

ซ้าย: ปิด HDR+, ขวา: เปิด HDR+

ขั้นที่ 2: ศักยภาพของ AI

เมื่อได้ภาพ HDR+ แล้ว Machine Learning หรือ AI จะเข้ามามีส่วนช่วยเทรนระบบ Neural Network (โครงข่ายประสาทเทียม) ในการตรวจจับบุคคล, สัตว์เลี้ยง, ดอกไม้ และอื่นๆในลักษณะเดียวกัน เพื่อเลือกจุดที่จะโฟกัสและจุดที่จะเบลอ

กล่าวคือ Neural Network จะกรองภาพด้วยการชั่งน้ำหนักโดยรวมของพิกเซลทั้งหมด ดังนี้

  • เริ่มจากกรองสีและขอบ จากนั้นจะกรองไปเรื่อยๆจนบนใบหน้า
  • ระบบ Neural Network ได้รับการเทรนให้รู้จักผู้คนกว่าล้านรูปแบบ เช่น บางคนใส่หมวก, บางคนใส่แว่นดำ และอื่นๆอีกมากมาย
  • ทำ Segmentation Mask (การกำหนดจุดแบ่งส่วนของภาพ) ดัังที่ปรากฏด้านล่าง

ขั้นที่ 3: Dual Pixel

หลังจากทำ Segmentation Mask แล้วนั้น ต่อมาคือการเบลอภาพในหลายระดับ เนื่องจากพื้นหลังนั้นจะมีระยะลึกที่ต่างกัน โดย Pixel 2 มีเซ็นเซอร์ Dual Pixel ที่สามารถแบ่งแต่ละพิกเซลออกมาเป็น 2 พิกเซลย่อย หรือที่เรียกว่า Dual Pixel Auto Focus (DPAF) เพื่อเก็บรายละเอียดเดียวกันด้วยมุมของภาพที่ต่างกันเล็กน้อยมากๆ ซึ่งใช้ในการกำหนดความลึกของวัตถุแต่ละชิ้น

ผลลัพธ์

ผลที่ได้นั้น ยอดเยี่ยมมากๆ คือ ส่วนที่สว่างจะอยู่ใกล้ และส่วนที่มืดจะอยู่ไกล ซึ่งอธิบายได้ดังนี้

  • ใช้การรวมภาพด้านซ้ายและภาพด้านขวา (หรืออาจเป็นภาพด้านบนและภาพด้านล่าง) ด้วยอัลกอริทึ่มแยกส่วน ซึ่งคล้ายกับ Jump Assembler ของ Google
  • อัลกอริทึ่มนำพิกเซลย่อยมาจัดเรียงเพื่อสร้าง Depth Map (การกำหนดจุดลึกของภาพเพื่อเป็นฉากหลัง) ที่มีความละเอียดต่ำ
  • เพิ่ม Depth Map ความละเอียดสูง

ด้วยขั้นตอนที่ซับซ้อนนี้ ทำให้ได้การรวมภาพในขั้นตอนสุดท้ายนั้นสมบูรณ์แบบ โดยสามารถกรอง Noise ออก เพื่อให้ได้ภาพที่คมชัด และแม่นยำอย่างที่สุด แม้แต่ปลายเส้นผมที่หยิกงอ หรือการถ่ายภาพ Macro ก็ตาม

จำไว้นะ Apple …ต้องทำให้ได้อย่างนี้ !

สำหรับกล้องหน้านั้น ไม่มีเซ็นเซอร์ Dual Pixel จึงใช้เพียง 2 ชั้นตอนแรก แต่ได้ผลลัพธ์ที่ดีใกล้เคียงกัน

ข้อมูลอ้างอิง : phonearena