DeepFake ล่อ ลวง พราง ปลอมแปลงเนียนเหมือนจริง
เมื่อคลิปใบหน้าคนดังอย่าง ทอม ครูซ ปรากฏขึ้นบน TikTok พร้อมการแสดงออกที่ดูไม่เหมือนตัวครูซเอง ไม่ว่าจะเป็นการเดินสะดุดขาล้มในร้านตัดเสื้อ การเล่นกลเหรียญหาย หรือกรณีสถานีโทรทัศน์ MBN ในเกาหลีใต้ นำเสนอข่าวโดยผู้ประกาศข่าว คิม จู ฮา เวอร์ชั่น AI ขึ้นมาทำหน้าที่อ่านข่าวคู่กับ คิม จู ฮา ตัวจริง และบอกกับผู้ชมว่ามันคือของปลอม รวมถึงคลิปเสวนา Above the Line โดยนำภาพ ท่าทาง เสียง คำพูดของ 5 คนดัง ไม่ว่าเป็น ทอม ครูซ, โรเบิร์ต ดาวนีย์ จูเนียร์, จอร์จ ลูคัส, ยวน แมคเกรเกอร์ และเจฟฟ์ โกลด์บลัม มานั่งถกกันในรายงานหัวข้อสตรีมมิ่งและอนาคตวงการภาพยนตร์อย่างเนียนเหมือนจริง ล้วนทำให้เรื่องของการปลอมแปลงขั้นสูง หรือ DeepFake เป็นประเด็นที่ถูกพูดถึงกันมากมายในช่วงไม่กี่ปีมานี้
เมื่อสิ่งที่ตาเห็นคือความจริงลวง
DeepFake เป็นการ “ปลอม” ที่เนียนเสียยิ่งกว่า “Fake News” นี้ มาจากศัพท์ 2 คำ คือ Deep Learning ซึ่งเป็นศาสตร์แขนงหนึ่งของปัญญาประดิษฐ์ หรือ AI กับคำว่า Fake ที่แปลตามตัวว่า ปลอม นั่นเอง โดย DeepFake สามารถแสดงอัตลักษณ์ของบุคคลได้แบบเฉพาะเจาะจง ไม่ว่าจะเป็น ใบหน้า สีผิว รูปร่าง ท่าทางเคลื่อนไหว รวมไปถึงน้ำเสียง จังหวะการพูด เนียนชนิดที่เจ้าของอัตลักษณ์ตัวจริงยังต้องขยี้ตา
บทความเรื่อง "เนียนยิ่งกว่า รู้จัก DeepFake คลิปปลอมใบหน้าคนดัง" ของ ดร.มนต์ศักดิ์ โซ่เจริญธรรม ผอ. ฝ่ายเดตาโซลูชันส์ สำนักงานพัฒนารัฐบาลดิจิทัล (DGA) ที่เผยแพร่ในหนังสือพิมพ์กรุงเทพธุรกิจ อธิบายว่า การผลิตวิดีโอ DeepFake จะต้องมีเทคโนโลยีที่เรียกว่า Generative Adversarial Network (GAN) ซึ่งสอนให้จักรกลอัจฉริยะประมวลผลเชิงลึก (Deep Learning) แล้วสามารถ merge (รวม) สองวิดีโอเข้าด้วยกันได้ คือวิดีโอต้นฉบับของจริงจากคนจริง กับวิดีโออีกชิ้นที่ผู้สร้างอยากจะใช้เป็นต้นทาง เพื่อทำให้มันไปเปลี่ยนปลายทาง
ตัวอย่างชัด ๆ ของ DeepFake และคนไทยน่าจะคุ้นเคยกันดีแต่อาจยังไม่รู้ว่านี่คือการใช้ DeepFake ทำ นั่นคือ การจดจำใบหน้าเวลา Tag ภาพเพื่อนใน Facebook ที่ระยะหลังเราไม่ต้องพิมพ์ชื่อ แอพฯ ก็ใส่ชื่อเพื่อนได้เกือบจะตรงภาพอยู่แล้ว
DeepFake ถูกนำมาใช้งานกันแพร่หลายในอุตสาหกรรมบันเทิง ที่นำมาสร้างเทคนิคพิเศษในการตัดต่อฉากที่นักแสดงไม่สามารถมาร่วมถ่ายทำได้ เช่น การนำใบหน้าของแคร์รี่ ฟิชเชอร์ ในบทเจ้าหญิงเลอา มาสวมทับกับนักแสดงในปัจจุบัน ในภาพยนตร์เรื่อง Rogue One ซึ่งเป็นภาคแยกจาก Star Wars หลัก ทำให้ตัวละครมีใบหน้าเดิม แม้ว่านักแสดงในบทเดิมจะเสียชีวิตไปแล้วก็ตาม ยิ่งในอนาคตที่กำลังจะเข้าสู่โลกของ Metaverse มากยิ่งขึ้น DeepFake ก็จะยิ่งเขยิบเข้าใกล้ตัวเรามากขึ้นเรื่อย ๆ
©Freepik
ภัยคุกคามทางไซเบอร์
อย่างไรก็ตาม อีกด้านหนึ่งของ DeepFake ก็สุ่มเสี่ยงต่อการสร้างผลกระทบเชิงลบด้วยเช่นกัน เช่น คลิป DeepFake ล้อเลียนโดนัลด์ ทรัมป์ ที่ถูกนำใบหน้ามาซ้อนทับในรายการ Better Call Trump: Money Laundering 101 ซึ่งผลิตขึ้นมาเพื่อให้ทรัมป์และลูกเขยดูเป็นตัวตลกในรายการ หรืออย่างการนำจังหวะขยับปากและคำพูดของบารัค โอบามา มาใช้ในรายการของนักแสดงตลก จอร์แดน พิลส์ ผ่าน FakeApp ที่นำภาพเคลื่อนไหวหรือฟุตเทจกว่า 50 ชั่วโมงของโอบามาในรายการต่าง ๆ มาสวมทับเพื่อจับจังหวะขยับปากและคำพูดแล้วเปลี่ยนเป็นโอบามา (ปลอม ๆ) ในรายการ จนทำให้เหล่านักการเมืองและคนดังในสหรัฐฯ ต้องขยาดกับความสามารถของนักพัฒนาเทคโนโลยีที่ทำให้พวกเขาเป็นในสิ่งที่ทั้ง “ใช่”, “อาจใช่” และ “ไม่ใช่” ตัวตนเขาจริง ๆ
กล่าวได้ว่า ขณะที่ DeepFake ได้กลายเป็นเครื่องมือสำคัญในการสร้างความสมจริง แต่มันก็อาจกลายเป็นภัยคุกคามสมัยใหม่ในโลกไซเบอร์ด้วย เพราะจะยากต่อการแยกแยะว่าอะไรคือ สิ่งที่จริง คนจริง ความจริง หรือ สิ่งปลอม คนปลอม ความปลอม
DeepFake จะส่งผลกระทบอย่างมีนัยสำคัญในเรื่องความถูกต้องของข้อมูลที่นำเสนอทางออนไลน์ เทคโนโลยีการสร้างและดัดแปลงเนื้อหาเหล่านี้อาจถูกนำไปใช้เพื่อสร้างความแตกแยก บิดเบือน ล่วงละเมิด มีเจตนามุ่งร้าย หรือชักชวนไปในทิศทางที่ผิด ปัจจจุบัน DeepFake มีจำนวนมากขึ้นและเนียนจนดูน่าเชื่อถือมากขึ้นจนยากต่อการจับพิรุธ ผลกระทบระยะยาวจากการแพร่กระจายของ DeepFake จึงนำไปสู่ความไม่ไว้วางใจซึ่งจะเป็นภัยต่อสังคมไปในที่สุด
ด้วยเหตุนี้ หลายองค์กรจึงพยายามคิดค้นวิธีตรวจสอบการปลอมแปลงขั้นสูงในช่วง 2-3 ปีที่ผ่านมา Big Tech ขนาดใหญ่เช่น Microsoft, Facebook, Adobe ได้พัฒนาเครื่องมือตรวจสอบความถูกต้องและการตรวจจับวิดีโอ DeepFake ขณะที่แพลตฟอร์มโซเชียลมีเดีย Twitter, TikTok และ Reddit ได้ใช้นโยบายห้าม DeepFake แล้ว ในส่วน Pornhub แพลตฟอร์มที่เต็มไปด้วยคลิปปลอมใบหน้าคนดังก็มีนโยบายที่ห้ามมิให้ผู้คนโพสต์เนื้อหาที่หลอกลวง แม้ว่าจะยังพบเนื้อหาที่หลอกลวงได้มากที่สุดก็ตาม
Homeland Security Research Corporation (HSRC) บริษัทวิจัยเชิงลึกทางด้านเทคโนโลยีความปลอดภัย ได้เผยแพร่รายงานเกี่ยวกับทางออกเพื่อรับมือกับข่าวปลอม (Fake News) และการปลอมแปลงชั้นสูง (DeepFake) โดยระบุว่า ช่วงปี 2020-2026 เทคโนโลยี AI ช่วยให้ DeepFake เติบโตอย่างรวดเร็ว แม้จะยังไม่แพร่หลายเท่าการปล่อยข่าวปลอม (ซึ่งปัจจุบันก็ยังเป็นปัญหาที่แก้ไม่ตก) แต่ก็มีความนิยมเพิ่มขึ้นและมีผลต่อประชากรทั่วไปมากขึ้น และตามหลักการแล้ว ทุกคนควรมีเครื่องมือการตรวจสอบการปลอมแปลงขั้นสูงนี้ ขณะที่นักพัฒนาจำเป็นต้องปรับปรุงเครื่องมือและป้องกันแฮกเกอร์ก่อนที่จะเผยแพร่ในวงกว้าง โดยตลาดที่รองรับการผลิตเครื่องมือตรวจสอบ DeepFake น่าจะเติบโตอย่างรวดเร็วหลังจากนี้ไป
ขณะเดียวกันภาครัฐเองก็กำลังถูกผลักดันให้ต้องต่อสู้กับภัยคุกคามนี้ด้วยการลงทุนขนาดใหญ่ หน่วยข่าวกรอง การบังคับใช้กฎหมาย และหน่วยงานของภาครัฐ ต้องเข้ามามีบทบาทอย่างแข็งขันในการแก้ปัญหาภัยคุกคามที่เกิดจากการบิดเบือนข้อมูลทั้งจากข้อความ ภาพ และเสียง โดยสงครามข้อมูลข่าวสารก่อให้เกิดการใช้งบประมาณที่เพิ่มขึ้นในเทคโนโลยีที่สามารถตรวจจับและตอบโต้ข่าวปลอมและสื่อสังเคราะห์อย่าง DeepFake
©Freepik
เปิดตาไว้ ตื่นตัวอยู่เสมอ
อย่างไรก็ตาม ปัจจุบันนี้ DeepFake ยังถือว่าอยู่ในช่วงเริ่มต้น ซึ่งความเนียนของการปลอมแปลงยังมีจุดให้คนตาดีสังเกตเห็นได้ โดยเฉพาะใบหน้าซึ่งมักถูกนำมาปลอมแปลงเกือบทุกครั้ง ดังนั้นเราจึงอาจพบความผิดปกติของภาพได้จากรายละเอียดเหล่านี้
- สังเกตแก้มและหน้าผาก ผิวดูเรียบเนียนหรือย่นเกินไปหรือไม่ ความแก่ของผิวหนังคล้ายกับความชราของเส้นผมและดวงตาหรือไม่ เพราะ DeepFake มักไม่สอดคล้องกันในบางมิติ
- เงาของดวงตาและคิ้วปรากฏขึ้นที่ที่น่าจะถูกต้องกับความเป็นจริงหรือไม่ เพราะ DeepFake ยังไม่สามารถเลียนแบบแสงเงา ได้แนบเนียนตามธรรมชาติจริง ๆ
- การกะพริบตา บุคคลในภาพวิดีโอมีการกะพริบตามากหรือน้อยเกินไปหรือไม่
- กรณีมีแว่นตา สังเกตดูว่ามีแสงจ้าหรือไม่ มีแสงสะท้อนมากเกินไปหรือเปล่า หรือมุมของแสงสะท้อนเปลี่ยนไปเมื่อบุคคลเคลื่อนที่ด้วยหรือไม่ เพราะ DeepFake จะไม่สามารถแสดงผลในเรื่องแบบนี้ได้ดีนัก
- สังเกตขนบนใบหน้าว่าดูเหมือนจริงหรือไม่ DeepFake อาจเพิ่มหรือลบหนวด จอน หรือเครา ออกได้ แต่ไม่สามารถปรับแต่งขนบนใบหน้าได้อย่างเป็นธรรมชาติ
- ตรวจสอบรายละเอียดอื่น เช่น ขนาดและสีของริมฝีปากตรงกับส่วนอื่นของใบหน้าหรือไม่ หรือไฝบนใบหน้า ดูเหมือนจริงหรือไม่
แม้การแยกแยะ DeepFake คุณภาพสูงนั้นจะไม่ใช่เรื่องง่าย แต่ด้วยการฝึกฝน เราก็สามารถสร้างสัญชาตญาณเพื่อระบุสิ่งที่ถูกปลอมแปลงและของจริงได้ ในแง่นักพัฒนา ปัญหาของ DeepFake จะคลี่คลายลงเมื่อมีการใช้เครื่องมือตรวจจับและการสร้างแบบจำลองการเรียนรู้เชิงลึกที่สมจริงเกิดขึ้น และสิ่งที่ทั่วโลกได้ตระหนักเห็นก็คือ หากไม่มีวิธีการตรวจจับที่ดีกว่าและนโยบายที่น่าเชื่อถือมากขึ้น DeepFake จะถือเป็นภัยคุกคามต่อการรับรู้เกี่ยวกับสื่อต่าง ๆ ที่กำหนดความเป็นไปบนโลกของเรา
©Antoine Beauvillain/Unsplash
ทั้งนี้ จรัล งามวิโรจน์เจริญ หัวหน้านักวิทยาศาสตร์ข้อมูลและรองประธานกรรมการศูนย์นวัตกรรมข้อมูล ของบริษัท เซอร์ทิส จำกัด ยังได้นำเสนอวิธีรับมือ DeepFake อย่างยั่งยืนในเว็บไซต์ ThaiPublica ไว้ดังนี้
- Self เริ่มต้นจากตัวเราเอง เพิ่มความระมัดระวัง คิดก่อนลงข้อความหรือแชร์ข้อมูลต่าง ๆ ผ่านโซเชียลมีเดีย เพราะสิ่งที่เราสื่อออกไปอาจเป็นประโยชน์หรือโทษก็ได้
- Social/Global Inclusion ช่วยกันสอดส่องข้อมูลที่เผยแพร่ในช่องทางต่าง ๆ รับและส่งต่อข้อมูลอย่างมีวิจารณญาณ อีกทั้งควรมีกฎหมายที่ช่วยคุ้มครองผู้ตกเป็นเหยื่อ และควรมีความร่วมมือระดับนานาชาติในการดำเนินการทางกฎหมายกับผู้กระทำความผิดทั้งในและต่างประเทศ มีกระบวนการรายงานและแนวทางการจัดการที่ชัดเจน เพราะงานลักษณะนี้มีตลาดที่ให้บริการทั่วโลก
- Research สร้างความร่วมมือให้เกิดการทำงานร่วมกันข้ามสาขาวิชา โดยร่วมมือกับองค์กรชั้นนำเพื่อสร้างผู้เชี่ยวชาญและแบ่งปันแนวทางในการพัฒนาเทคโนโลยีในการตรวจจับ DeepFake เพื่อให้เกิดประโยชน์กับส่วนรวม
- Collaboration การร่วมมือกันทั้งจากกลุ่มสื่อมวลชน กลุ่มประชาสังคม กลุ่มเทคโนโลยี ผู้ให้บริการแพลตฟอร์ม หน่วยงานภาครัฐและเอกชน ในการทำความเข้าใจถึงภัยคุกคาม รวมทั้งสร้างมาตรการความช่วยเหลือ เพื่อให้เกิดการประสานงานที่จะป้องกันภัยคุกคามครอบคลุมในวงกว้าง
- Ethical ควรส่งเสริมให้ผู้พัฒนาและผู้ใช้งาน AI คำนึงถึงจริยธรรมในการออกแบบและใช้งาน AI รวมถึงมีการกำหนดมาตรฐานการใช้งานทั้งระดับการศึกษา หน่วยงานภาครัฐ และเอกชน
DeepFake เป็นเทคโนโลยีที่จะก้าวเข้ามาเป็นส่วนหนึ่งของชีวิตเราโดยไม่อาจหลีกเลี่ยง และแม้จะไม่มีเครื่องมือที่ทรงพลังที่สุดในการจัดการให้อยู่บนความสร้างสรรค์ แต่เครื่องมือที่ดีที่สุดที่เรามีในปัจจุบันคือการเปิดตารับรู้ และเลือกใช้ DeepFake ในแง่ที่จะก่อให้เกิดประโยชน์สุขของส่วนรวม
ที่มา :
บทความ “เนียนยิ่งกว่า 'Fake news' รู้จัก DeepFake คลิปปลอมใบหน้าคนดัง” จาก www.bangkokbiznews.com
บทความ “เตรียมรับมือกับภัยคุกคาม Deepfake” โดย จรัล งามวิโรจน์เจริญ จาก thaipublica.org
บทความ “14 deepfake examples hat terrified and amused the internet” โดย Joseph Foley จาก creativebloq.com
บทความ “Creating deep fakes is becoming too easy: A RAZOR explainer” จาก newseu.cgtn.com
บทความ “Deep fakes and big data: the next level of cyber warfare” โดย Sze-Fung Lee และ Benjamin C. M. Fung จาก hilltimes.com
บทความ “Detect DeepFakes: How to counteract misinformation created by AI” จาก media.mit.edu
บทความ “Counter Misinformation-DeepFake & Fake News Solutions Market 2020-2026” จาก homelandsecurityresearch.com
เรื่อง : รวิ รัชนีกร