0
TechUncategorized

มาดูกันว่า Google สร้างกล้องของ Pixel 2 อย่างไร

By 10/10/2017 April 18th, 2019 No Comments

หลังจาก Google เปิดตัว Google Pixel 2 สมาร์ทโฟนตัวใหม่ล่าสุด มันได้สร้างความหวือหวาด้วยสกอร์ DxOMark สูงถึง 98 คะแนน ซึ่งสูงที่สุดในปัจจุบัน ให้ผลลัพธ์เป็นภาพถ่ายอันน่าทึ่ง ทางแชแนล Nat and Friends ได้มีโอกาสไปสัมภาษณ์บุคคลต่างๆ ที่มีส่วนในการสร้างกล้อง Pixel 2 ให้เราเข้าใจการทำงานของกล้องสมาร์ทโฟนว่าทำงานอย่างไร และกล้อง Pixel 2 มีส่วนไหนที่พิเศษกว่ารุ่นอื่นๆ

พาร์ท 1 : ฮาร์ดแวร์

เนื่องจาก Google ต้องการออกแบบสมาร์ทโฟนให้บาง จึงมีพื้นที่สำหรับโมดูลกล้องแค่ขนาดเท่าผลเบอร์รีเท่านั้น

ภายในโมดูลกล้องประกอบด้วยเลนส์ กล้องของ Google Pixel 2 ประกอบด้วยเลนส์รูปร่างแปลกประหลาด 6 ชิ้นวางเรียงกัน

เลนส์รูปทรงแปลกประหลาดเหล่านี้ทำมาเพื่อแก้ปัญหา Aberration ซึ่งก็คือการที่ภาพบวมผิดรูปทรง ให้เป็นภาพปกติแบบที่ตาเราเห็นตามรูปที่ 3

และ Google Pixel 2 ยังใส่ระบบกันสั่นด้วยฮาร์ดแวร์ (OIS) มาด้วย ซึ่งระบบนี้จะทำการขยับชิ้นเลนส์เพื่อลดการสั่นของภาพเวลาถ่ายภาพนิ่งและวิดีโอ

ชิ้นส่วนถัดไปคือเซ็นเซอร์ มีหน้าที่เหมือนฟิล์มในยุคดิจิตอล เซ็นเซอร์ประกอบด้วยพิกเซลเล็กๆ มากมาย มีหน้าที่รับแสงและเปลี่ยนเป็นสัญญาณไฟฟ้า เซ็นเซอร์กล้องของ Google Pixel 2 มีความละเอียด 12 ล้านพิกเซล แต่เซ็นเซอร์นี้มีความพิเศษคือภายใน 1 พิกเซลจะแยกเป็น 2 พิกเซลย่อย หมายความว่าความจริงแล้วมีความละเอียด 24 ล้านพิกเซลย่อย ซึ่งเราจะพูดถึงมันในภายหลัง

พาร์ท 2 : การประมวลผลภาพ (Image Processing)

รูปภาพที่ได้จากเซ็นเซอร์โดยตรงแบบไม่ผ่านกระบวนการใดๆ เลยจะเป็นภาพสีเขียวๆ มืดๆ เป็นตารางโมเสก ดังนั้นจึงต้องผ่านกระบวนการประมวลผลภาพก่อนเพื่อให้ออกมาสวยงาม ซึ่งจะผ่านกระบวนการประมาณ 30-40 ขั้นตอน

ขั้นตอนแรก เซ็นเซอร์จะมีฟิลเตอร์สีวางเรียงกันเป็นตารางหมากรุก มีหน้าที่กรองสีให้แต่ละพิกเซลรับสีแค่สีเดียว โดยจะมีพิกเซลที่รับสีเขียวเยอะที่สุดเพราะตาเราไวต่อแสงสีเขียวมากที่สุด

หลังจากนั้นนำภาพแต่ละพิกเซลมารวมกัน จะได้ภาพที่เป็นโมเสก ไปผ่านกระบวนการ Image Processing เช่น ลดโมเสก ปรับสี ลด Noise ปรับ White Balance เพิ่มความคม เป็นต้น ให้เป็นภาพที่สวยงาม ในอดีตกระบวนการนี้ใช้ฮาร์ดแวร์ทำ แต่ในยุคปัจจุบันได้หันมาพึ่งซอฟต์แวร์กันมากขึ้น

พาร์ท 3 : Computational Photography

Computational Photography มีความหมายหลากหลาย อธิบายอย่างคร่าวๆ ได้เป็น อัลกอริทึมอันซับซ้อนในการทำ Image Processing ซึ่งใน Google Pixel 2 มี 2 อันที่เด่นๆ คือ HDR+ และ Portrait Mode

HDR+ ถูกออกแบบมาเพื่อให้เซ็นเซอร์เล็กๆ ให้ผลลัพธ์ใกล้เคียงกับเซ็นเซอร์ขนาดใหญ่ ทำให้มีประสิทธิภาพในการถ่ายภาพในที่แสงน้อยดีขึ้น Dynamic Range ดีขึ้น สามาถเก็บภาพวัตถุที่มืดสุดๆ กับสว่างสุดๆ พร้อมกันได้

เพื่อการนั้นเวลา Google Pixel 2 ถ่ายรูป จะถ่ายถึง 10 รูปที่ค่าแสงต่างกันเพื่อเก็บสีในทุกๆ ความสว่าง และนำภาพมารวมกันเป็นภาพเดียว

และเนื่องจากเวลาเราถ่ายรูป ทั้งมือเราและสิ่งต่างๆ ในรูปมีการเคลื่อนไหว ถ้านำมาภาพมารวมกันเลยก็จะเกิด Ghost (เงาในภาพที่เกิดจากวัตถุเคลื่อนไหว) จึงต้องทำการตัดภาพแต่ละภาพเป็นชิ้นเล็กๆ และนำแต่ละชิ้นมาหาส่วนที่ตรงกันและนำมาซ้อนกันอย่างพอดี

ส่วนสำคัญคือ เมื่อเราเอาสีมาเฉลี่ยกันเฉยๆ เราจะได้ภาพที่สว่างเท่ากันทั้งภาพเหมือนหลุดมาจากการ์ตูน จึงต้องนำภาพมาวิเคราะห์ว่า เราต้องการให้ส่วนไหนสว่าง ส่วนไหนมืด เพื่อให้ภาพออกมาเป็นธรรมชาติ

Portrait Mode ทำมาเพื่อเลียนแบบภาพหน้าชัดหลังเบลอเหมือนถ่ายด้วยกล้องใหญ่ที่ใช้เลนส์รูรับแสงกว้าง ซึ่งไม่ใช่เรื่องง่ายเพราะกล้องสมาร์ทโฟนมีขนาดเล็กมาก ตามปกติแล้วเมื่อถ่ายรูปมักจะได้รูปที่ชัดทั้งภาพ

Google จึงพยายามให้สมาร์ทโฟนเข้าใจว่าแต่รูปในแต่ละพิกเซลคือรูปอะไร โดยใช้ Machine Learning เข้ามาช่วย Google ได้ทำการสอน Neural Network ด้วยรูปภาพเป็นล้านๆ รูปเพื่อให้สมาร์ทโฟนสามารถแยกแบ็คกราวด์ออกจากคนได้

Google ใช้ Machine Learning สร้าง Mask ขึ้นมา โดยส่วนของภาพที่อยู่ใน Mask หมายถึงส่วนที่ไม่ต้องการให้เบลอ

คำถามถัดไปคือ แล้วส่วนที่ต้องการเบลอ เราจะเบลอมากน้อยแค่ไหน? ส่วนนี้จะใช้ประโยชน์ของซับพิกเซลที่กล่าวไว้ตอนต้น การมีซับพิกเซลทำให้เวลาถ่ายรูปเราจะได้ภาพ 2 ภาพที่มีมุมเหลื่อมกันนิด มุมที่เหลื่อมกันนี้เหลื่อมกันน้อยกว่าหัวดินสอเสียอีก ทำให้สามารถสร้างแผนที่ความลึก (Depth map) คร่าวๆ ได้

ซึ่งแผนที่ความลึกนี้แหละจะมากำหนดว่าควรจะเบลอแค่ไหน และที่สำคัญ Portrait Mode นี้ยังทำงานกับกล้องหน้าได้ด้วย

พาร์ท 4 : ทดสอบและปรับแต่ง

ตามหลักการทางวิศวกรรม ถ้าเราไม่ผ่านการทดสอบและปรับแต่ง เป็นไปได้สูงที่อุปกรณ์จะพัง ทาง Google จึงมีการทดสอบกล้องด้วยวิธีมากมาย ทั้งระบบโฟกัส ความละเอียด White balance สีสัน และอีกมากมาย

 หนึ่งในการทดสอบคือการเทสต์กันสั่น ซึ่งนอกจากการกันสั่นด้วยฮาร์ดแวร์แล้ว Google Pixel 2 ยังมีระบบกันสั่นด้วยซอฟต์แวร์ด้วย โดยใช้ข้อมูลจากเซ็นเซอร์ Gyroscope มาช่วยปรับแต่งวิดีโอให้นิ่ง

 นอกจากนี้ยังมีอีกหลายอย่างที่ไม่ได้พูดถึงในวิดีโอ เช่น Google Pixel 2 มีเลเซอร์ช่วยโฟกัสในที่มืด และ โมดูลกล้องมีน้ำหนัก 0.03 ปอนด์ มีน้ำหนักพอๆ กับคลิปหนีบกระดาษเท่านั้น

ด้วยการผสมผสานของฮาร์ดแวร์และซอฟต์แวร์ทำให้ Google Pixel 2 กลายเป็นมือถือที่มีกล้องที่น่าทึ่งมาก และเป็นการแสดงให้เห็นประโยชน์ของ Machine Learning ซึ่ง Google ทำการปลุกปั้นมานาน ความน่าสนใจต่อจากนี้คือ Machine Learning จะเข้ามาปรับปรุงเทคโนโลยีใดให้ทันสมัยขึ้นกว่าเดิมอีก

Leave a Reply