094-9977532

ใกล้วันเลือกตั้งประธานาธิบดีสหรัฐฯ เข้าไปทุกที บรรดาบริษัทไอทีอย่าง ทวิตเตอร์, Amazon, เฟซบุ๊ก ก็เตรียมหามาตรการรับมือ DeepFake หรือคลิปปลอมใช้ AI ตัดต่อใบหน้าคนดังเข้าไป

DeepFake ครั้งหนึ่งเป็นภัยคุกคามดาราคนดัง เพราะถูกนำใบหน้าไปตัดต่อใส่หนังโป๊ได้อย่างเนียนสนิท แต่ DeepFake ตอนนี้ได้ถูกนำมาใช้กับนักการเมือง ซึ่งมีความเสี่ยงจะทำให้สังคมเข้าใจผิด และถือเป็นอีกหนึ่งภัยข่าวปลอมที่ระบาดบนโซเชียลมีเดีย สร้างความเข้าใจผิดในช่วงเลือกตั้งปี 2016

ก่อนหน้านี้ กูเกิลและโครงการ Jigsaw ของกูเกิลสร้างชุดข้อมูล Deep Fake Detection ลงทุนจ้างนักแสดง 28 คนที่ยินยอมให้ใช้ใบหน้าเพื่อการวิจัยเพื่อพัฒนาเทคโนโลยีตรวจจับ DeepFake ให้ดียิ่งขึ้น สำนักข่าวก็ตื่นตัว Wall Street Journal สร้างทีมดูแลเรื่องข่าวปลอม และใช้คน 21 คนในทีมเพื่อดูแลเรื่องคลิป DeepFake โดยเฉพาะ

No Description
ภาพจาก Facebook Artificial Intelligence

ล่าสุด ทวิตเตอร์, Amazon, เฟซบุ๊ก ก็เตรียมตัวรับมือ DeepFake โดยเฟซบุ๊กร่วมมือกับ MIT และไมโครซอฟท์ ในโครงการ Deepfake Detection Challenge (DFDC) ลงทุน 10 ล้านดอลลาร์ สนับสนุนงานวิจัยและโครงการโอเพ่นซอร์สเพื่อตรวจจับ DeepFake ได้ดีขึ้น ซึ่งล่าสุดได้ Amazon Web Services เข้าร่วมโครงการด้วย โดยการเสนอผู้เชี่ยวชาญและให้ใช้เครื่องมือ AWS ในการตรวจจับวิดีโอ DeepFake

ล่าสุด ทวิตเตอร์ ยืนยันว่ากำลังทบทวนนโยบายแพลตฟอร์ม โดยจะแยก DeepFake ออกมาเป็นอีกประเภทเนื้อหาที่แพลตฟอร์มจะต้องจัดการ โดยทวิตเตอร์ใช้คำแทน DeepFake ว่าเป็น สื่อสังเคราะห์ (synthetic and manipulated media) หรือสื่อที่ถูกดัดแปลงหรือสร้างขึ้นอย่างมีนัยสำคัญในลักษณะที่เปลี่ยนแปลงความหมายและวัตถุประสงค์ดั้งเดิม

วิดีโอ DeepFake นักการเมืองที่สร้างเสียงฮือฮามากที่สุดคือ คลิปของ Nancy Pelosi ประธานสภาฯ ที่พูดในที่ประชุมของเธอที่มีลักษณะยืดๆ เหมือนคนเมา สร้างภาพลักษณ์ที่ผิดต่อนักการเมืองและตัวคลิปค่อนข้างแนบเนียนมาก แสดงให้เห็นพัฒนาการของ DeepFake ว่าทำเนียนขึ้นเรื่อยๆ นักวิชาการด้านกราฟิกชี้ Deepfake จะสมบูรณ์พอให้คนสร้างวิดีโอที่มองด้วยตาเปล่าไม่ออกภายในอีกแค่ 6 เดือนถึง 1 ปีเท่านั้น

ที่มา – Mashable, Engadget, Facebook

Source: Blognone