ช่วงวินาทีที่เรากดถ่ายรูป เกิดอะไรขึ้นบ้าง ต้องเริ่มอธิบายจากวิธีการมองเห็นของดวงตาก่อน เราสามารถมองเห็นสิ่งต่าง ๆ ได้ด้วย “แสง” ซึ่งหลักการพื้นฐานของการที่เราจะมองเห็นคือแสงจะต้องไปตกกระทบกับวัตถุ และสะท้อนมาที่ดวงตา โดยแสงที่เข้ามาที่ดวงตา คือสิ่งที่จะถูกแปลงเป็นภาพที่เรามองเห็นด้วยดวงตา และเลนส์ตาของมนุษย์ หลักการนี้สามารถใช้ได้กับกล้องถ่ายรูปทุกตัวบนโลกใบนี้ สิ่งที่กล้องถ่ายรูปทำคือบันทึกแสง ณ เวลานั้นเอาไว้นั่นเอง ซึ่งยุคสมัยฟิล์มคือการเก็บแสงลงไปบนตัวฟิล์มตรง ๆ แล้วเราถึงนำตัวฟิล์มไปล้างออกมาเป็นรูปภาพ

หากเทียบกล้องกับ ดวงตาของมนุษย์แล้ว หลักการทำงานของกล้องก็ลอกวิธีการทำงานของดวงตามาเลยเป๊ะ ๆ ซึ่งเป็นหลักการที่อยู่ในอุปกรณ์กล้องถ่ายรูปทุกชนิด กล้องทั่วไปจะแบ่งออกเป็นส่วนหลัก ๆ คือ

เลนส์กล้อง ทำหน้าที่เหมือนเลนส์ของดวงตาที่ปรับโฟกัสด้วยรูม่านตา สังเกตได้ว่าเลนส์ของกล้องจะสามารถปรับรูรับแสงได้เหมือนกัน ถ้าเรามองดูดี ๆ ที่ตัวหน้าเลนส์ เราจะเห็นได้ถึงรูรับแสงที่ประกอบไปด้วยใบเยอะ ๆ สามารถปรับให้กว้าง หรือแคบได้ด้วยการปรับค่า F Stop

เซนเซอร์ภาพ คือสิ่งที่ทำหน้าที่เก็บแสงที่ผ่านเข้ามาเพื่อเก็บเป็นไฟล์ภาพแบบดิจิทัล หลักการทำงานก็ง่าย ๆ คือการเปิดรับแสงชั่วขณะ และแปลงออกมาเป็นสัญญาณดิจิทัล 

เซนเซอร์ และพิกเซล

เซนเซอร์ปกติจะมีสิ่งที่เราเรียกกันในสเปกกระดาษก็คือความละเอียด มีหน่วยเป็นพิกเซล (Pixel) เช่น 10 ล้านพิกเซล, 24 ล้านพิกเซล, 50 ล้านพิกเซล อะไรก็แล้วแต่ ซึ่งถ้าเปรียบง่าย ๆ พิกเซลมันคือช่อง 1 ช่อง เก็บได้ 1 สี เรามาลองดูพิกเซลกันเล่น ๆ อย่างนี้คือ 1 พิกเซล เก็บได้ 1 สี, นี่คือ 4 พิกเซล เก็บได้ 4 สี และนี่คือ 16 พิกเซล เก็บได้ 16 สี นั่นแปลว่าความละเอียดของเซนเซอร์ 50 ล้านพิกเซล (8700 x 5800) สามารถเก็บจุดสี่เหลี่ยมได้ทั้งหมด 50 ล้านจุด ยิ่ง Pixel Density หรือความหนาแน่นของพิกเซลเยอะก็แปลว่าภาพสามารถแสดงผลความละเอียดของภาพได้เยอะกว่า

แต่ยิ่งพิกเซลอัดอยู่ในเซนเซอร์มาก ก็จะส่งผลเสียทำให้สัญญาณรบกวนหรือ Noise ในภาพสูงขึ้นด้วย จึงเป็นเหตุผลว่าทำไมกล้อง Full Frame ถึงถ่ายรูปได้มีรายละเอียดและการไล่โทนดีกว่ากล้องมือถือ เพราะเซนเซอร์ใหญ่กว่า และนี่คือสิ่งที่เกิดขึ้นเมื่อเรากดชัตเตอร์บนอุปกรณ์กล้อง เป็นหลักการที่อยู่ในกล้องทุกตัวต้องมีแสง แสงวิ่งไปตกกระทบกับวัตถุ เลนส์รวมแสงที่สะท้อนมาจากวัตถุ และส่งต่อไปที่เซนเซอร์ของภาพ เซนเซอร์รับแสง และส่งไปประมวลผลต่อด้วย Image Processor Image Processor ประมวลผลภาพ และแปลงภาพเป็นสัญญาณดิจิทัล ออกมาเป็นไฟล์ 1 รูป

แต่ในกล้องมือถือ การประมวลผลภาพจะซับซ้อนกว่ากล้องตัวใหญ่ครับ เคยสังเกตไหมว่ากล้องบนมือถือ หากเรากดถ่ายแล้วรีบเข้าไปดูภาพ อีกสักประเดี๋ยวนึง อยู่ ๆ จะดูดีขึ้นมากว่าเดิมซะอย่างงั้น นี่คือสิ่งที่กล้องบนสมาร์ตโฟนเด่นกว่ากล้องอื่น และแตกต่างจากกล้องฟอร์แมตอื่น ๆ ก็คือการทำ Post Processing ที่เยอะมาก ซึ่งวิศวกรจะต้องออกแบบกล้องบนพื้นที่เล็ก ๆ เซนเซอร์ก็ต้องมีขนาดเล็กไปด้วย นั่นแปลว่าขนาดของเซนเซอร์ที่เล็กลง ก็ส่งผลต่อคุณภาพของภาพ เหล่าวิศวกรเลยต้องหาทางทำให้เซนเซอร์ที่มีขนาดเล็ก ที่มีพื้นที่จำกัด ทำยังไงให้ภาพออกมาดีที่สุด

จึงเกิดเทคนิค Post Processing ต่าง ๆ ออกมา ซึ่งปัญหาใหญ่ของกล้องมือถือคือ ทำยังไงจะได้ภาพที่ออกมาคุณภาพดี ในเมื่อพื้นที่การรับแสงเล็กมาก ทำให้ภาพจัดการกับเรื่อง Noise ได้ไม่เก่ง

เทคนิคที่เห็นได้บ่อยก็คือการรวมหลาย ๆ ภาพจากถ่ายหลายรูปในเวลาเดียวกันเข้าด้วยกัน ทั้งสว่างกว่าปกติ หรือมืดกว่าปกติ และแสงปกติเพื่อนำมารวมให้ได้รูปที่ออกมาดูดีที่สุด โดยใช้คลังข้อมูลที่ Trained มาเป็นตัวช่วยบอกว่า องค์ประกอบ หรือวัตถุของภาพ ประมวลผลแบบใดจึงจะออกมาดูดีมากที่สุด ซึ่งตัว Process นี้ก็จะทำให้ระบบเลือกเอาจุดที่ดูดีที่สุดของภาพตอนสว่าง และภาพส่วนที่มืดมารวมอยู่ในรูปเดียวกันได้

เทคนิคนี้เรียกว่า HDR หรือ High-Dynamic Range คือการทำให้ภาพมีขอบเขตการรับแสงที่กว้างขึ้น เช่น ภาพในส่วนสว่างเช่นท้องฟ้า ยังมีรายละเอียดของเมฆ และภาพในส่วนมืดเช่นใบหน้าที่ย้อนแสง ยังเห็นหน้าชัดเจนอยู่ ซึ่งการเพิ่ม Dynamic Range ของภาพนี้ มีตั้งแต่กล้องดิจิทัลแล้ว แต่ในมือถือจะทำละเอียดกว่า เก็บข้อมูลมาประมวลผลเยอะกว่า

นอกจากนี้ในยุคสมัยของ AI กล้องยังใช้ปัญญาประดิษฐ์เพื่อบอกว่ารูปที่ถ่ายคืออะไร ต้องปรับแต่งแบบไหนถึงจะเหมาะ เช่นรูปธรรมชาติ ให้ปรับสีเขียวให้อิ่มตัวขึ้น รูปหน้าคน ให้ระวังเรื่อง skintone

บอกว่าแต่ละส่วนของภาพคืออะไรบ้าง เช่น ส่วนนี้คือตัวคน คือใบหน้า คือท้องฟ้า คือหญ้า คือสัตว์ ฯลฯ เพื่อแยกส่วนกันแต่งภาพ (ทำ Segmentation) รวมถึงทำหน้าชัดหลังเบลอได้ เทคนิคนี้ส่วนใหญ่จะอยู่ในกระบวนการ Post Processing ที่ปัจจุบันมือถือทุกเครื่องจะมีส่วนนี้อยู่กันหมด ทำให้การกดถ่ายรูป 1 ครั้งไม่ได้เป็นการถ่ายรูปแค่รูป ๆ เดียว แต่ระบบถ่ายรูปทุกอย่างเอาไว้ตลอดเวลาเป็น Buffer และรวมรูปในช่วงที่เรากดถ่ายรูปเป็นรูปเดียวที่ออกมาดูดีที่สุดนั่นเอง

นี่แหละเป็นอีกเหตุผลที่ว่าทำไมมันเครื่องมือถือมันร้อนเสียเหลือเกินเวลาเราเปิดกล้องถ่ายรูป เพราะนอกจากจะมีการคำนวณเรื่อง Math หนักแล้ว ยังมีเรื่อง Buffer ที่เครื่องคอยเก็บภาพของเราไว้แม้เราไม่ได้กดถ่ายก็ตาม

และนี่คือสิ่งที่เกิดขึ้นหลังกดถ่ายรูปบนสมาร์ตโฟน

  • แสงวิ่งไปตกกระทบกับวัตถุ
  • หรือถ้าแสงน้อย เดี๋ยว Post Processing ช่วยรวมแสงให้ แต่ users ช่วยถือนิ่ง ๆ นะ
  • เลนส์รวมแสงที่สะท้อนมาจากวัตถุ และส่งต่อไปที่เซนเซอร์ของภาพ เซนเซอร์รับแสง และส่งไปประมวลผลต่อด้วย Image Processor
  • Image Processor ประมวลผลภาพ และแปลงภาพเป็นสัญญาณดิจิทัล
  • Post Processing นำไฟล์ภาพไป Process ให้ภาพออกมาดูดีที่สุด
  • ออกมาเป็นไฟล์ 1 รูป

และสมาร์ตโฟนยุคใหม่ที่เป็น AI Phone ยังมีกระบวนการหลังจากได้ภาพอีกครับ

  • เช่น ปรับตำแหน่งคนในภาพ
  • ลบเงา ลบแสงสะท้อน
  • ปรับใบหน้าของทุกคนในรูป คัดหน้าที่ดูดีที่สุดมาประกอบกัน

Post Processing รวมหลายรูปเข้าด้วยกัน

อีกหนึ่งเทคนิคที่ปัจจุบันพบเห็นได้บ่อย คือการ Post Processing ที่มีการถ่ายหลาย ๆ รูปทั้ง Overexposed / Underexposed แสงปกติ และต่าง ๆ นานา เพื่อนำมารวมให้ได้รูปที่ออกมาดูดีที่สุด โดยใช้คลังข้อมูลที่ Trained มาเป็นตัวช่วยบอกว่า องค์ประกอบ หรือวัตถุของภาพ ประมวลผลแบบใดจึงจะออกมาดูดีมากที่สุด ซึ่งส่วนใหญ่จะใช้ AI เข้ามาช่วยประมวลผลนั่นเอง

เทคนิคนี้ส่วนใหญ่จะอยู่ในกระบวนการ Post Processing ที่ปัจจุบันมือถือทุกเครื่องจะมีส่วนนี้อยู่กันหมด ทำให้การกดถ่ายรูป 1 ครั้งไม่ได้เป็นการถ่ายรูปแค่รูป ๆ เดียว แต่ระบบถ่ายรูปทุกอย่างเอาไว้ตลอดเวลาเป็นไฟล์ Cache และรวมรูปในช่วงที่เรากดถ่ายรูปเป็นรูปเดียวที่ออกมาดูดีที่สุดนั่นเอง

การรวมเม็ดพิกเซลหรือ Pixel Binning

ความละเอียดของเซนเซอร์ในมือถือก็เป็นปัจจัยหนึ่งของคุณภาพรูปถ่าย แต่ก็ไม่ใช่ว่าความละเอียดยิ่งเยอะจะยิ่งดีเสมอไป เพราะถ้าหากเทียบกัน เซนเซอร์ที่มีความละเอียดน้อยกว่า แต่มีขนาดเซนเซอร์ใหญ่กว่า ย่อมมีคุณภาพของภาพดีกว่า เซนเซอร์ที่มีความละเอียดสูงกว่า แต่ขนาดของเซนเซอร์เล็กกว่า

การที่มีความละเอียดเยอะกว่านั้นจะสามารถเก็บรายละเอียดของภาพได้เยอะกว่า แต่ไม่ได้แปลว่าคุณภาพสูงกว่า เพียงแค่มีรายละเอียดของภาพที่เยอะกว่าเท่านั้น แต่เรื่องของ Dynamic Range, การจัดการ Noise หรือแสง ก็ยังเป็นปัจจัยอื่น ๆ ที่ต้องมาดูที่ตัวของเซนเซอร์ หรือวิธีการ Post Processing กันอีกที

แล้วกล้องมือถือที่มีคุณภาพภาพระดับเกิน 100MP นั้นมีเอาไว้ทำอะไรล่ะ? ด้วความละเอียดเยอะขนาดนี้ เหล่าวิศวกรเลยพัฒนาเทคนิคการรวมเม็ดพิกเซ็ลหรือการ “Pixel Binning” หรือสั้น ๆ ก็คือการยวบเม็ดพิกเซลหลาย ๆ เม็ดเข้าด้วยกันเป็นเม็ดเดียว ซึ่งหลักการนี้มีผลทำให้คุณภาพของภาพดีขึ้นกว่าเดิมอย่างมาก

โดยเทคโนโลยีนี้ ถึงแม้จะมีการพูดถึงอยู่บ่อยครั้งในช่วง 2-3 ปีนี้ แต่จริง ๆ แล้วครั้งแรกที่มีการหยิบมาใช้ในมือถือนั้น ต้องย้อนกลับไปถึง 11 ปีที่แล้วเลยทีเดียว กับ Nokia 808 PureView อดีตมือถือกล้องเทพ ที่มีความละเอียดของเซนเซอร์หลักที่ 41MP ในปี 2012 ซึ่งถือว่าเยอะมาก แบบเวอร์เลยในสมัยนั้น โดยตัวกล้องสามารถยวบพิกเซลลงมาเหลือ 5MP และ 8MP ที่เป็นความละเอียดของกล้องมือถือที่เยอะมากแล้วในสมัยนั้น ทำให้ Nokia 808 PureView นั้นได้เปรียบมาก ๆ ในเรื่องคุณภาพของภาพที่ออกมา

กล้องซูม Periscope แบบเรือดำน้ำ

ในเมื่อมือถือในสมัยนี้ต้องการความบาง ความสะดวกสบายในการพกพา กลับกันผู้ใช้งานก็อยากได้มือถือที่มีกล้องซูมคุณภาพ ซึ่งแน่นอนว่าการที่เซนเซอร์ความละเอียดเยอะ ๆ อย่างเดียวมันไม่พอ เพราะถึงแม้จะเก็บรายละเอียดได้เยอะ แต่กับเซนเซอร์ที่มีขนาดเล็กนิดเดียว การซูมแบบดิจิทัล ก็ไม่สามารถให้คุณภาพของภาพที่ดีได้มากพอ แต่กะทำการซูมแบบ Optical ด้วยชิ้นกระจกจริง ๆ ก็ดันต้องใช้พื้นที่เยอะอีก ต้องการพื้นที่ความหนาของเครื่องที่เยอะ วิศวกรที่พัฒนากล้องในมือถือเลยเกิดการปิ๊งไอเดีย ในเมื่อต้องการพื้นที่ในการยัดชิ้นกระจกเลนส์ลงไปเยอะ ๆ แต่พื้นที่ความหนามีไม่เยอะพอ ก็ไปใช้พื้นที่ความยาวของเครื่องแทนสิ!

เลยเกิดเป็นเทคโนโลยีการนำหลักการกล้อง Periscope หรือกล้องแบบเรือดำน้ำมาใช้ กล่าวสั้น ๆ คือการวางชิ้นเลนส์แบบแนวนอนตามความยาวของเครื่อง แล้วใช้กระจกสะท้อนแบบ 45 องศา เพื่อหักเหภาพแบบหักศอก หากยังไม่เห็นภาพลองดูด้านล่าง

หลักการนี้เราก็จะสามารถใช้พื้นที่แนวยาวของเครื่องได้อย่างชาญฉลาด ทำให้เราสามารถใส่ชิ้นกระจกลงไปยังไงก็ได้ โดยที่ไม่กินพื้นที่ความหนาของเครื่องเลย โดยเทคนิคนี้ก็ถูกนำไปใช้อยู่ในมือถือหลายเครื่องแพร่หลายมากในปัจจุบัน อย่างเช่นใน iPhone 15 Pro Max เองก็มีเทคนิคที่คล้ายกันในชื่อ Tetraprism เป็นเทคโนโลยีใหม่ใน iPhone ที่ช่วยให้กล้องซูมแบบ Optical ได้ถึง 5 เท่า