COFACT จัดเสวนาออนไลน์ “โคแฟคสนทนา: รวมพลคนเช็กข่าว EP.34” เพื่อให้ความรู้ประชาชนในการรับมือกับข่าวลวงจากปัญญาประดิษฐ์ (AI) ท่ามกลางสถานการณ์โลกที่มีความขัดแย้งสูงและเทคโนโลยีการปลอมแปลงรุดหน้าไปอย่างรวดเร็ว
นางสาวสุภิญญา กลางณรงค์ ผู้ร่วมก่อตั้ง COFACT เปิดเผยว่า ปัจจุบัน AI เข้ามามีบทบาทในชีวิตประจำวันมากขึ้นจนบางครั้งแยกไม่ออกว่าอะไรจริงหรือปลอม โดยเฉพาะในช่วงที่โลกเผชิญวิกฤตความขัดแย้ง เช่น สงครามในตะวันออกกลาง ข้อมูลข่าวสารรูปแบบ “ปัญญาประดิษฐ์” ถูกนำมาใช้สร้างความสับสนอย่างเป็นระบบ บางกรณีเป็นการสร้างเนื้อหาปลอมทั้งหมด (Deepfake) หรือบางกรณีเป็นการใช้รูปภาพจริงมาบิดเบือนบริบทเพื่อให้เกิดความเข้าใจผิด ซึ่งถือเป็นความเสี่ยงระดับโลก (Global Risk) ที่อาจนำไปสู่ความขัดแย้งที่รุนแรงขึ้นและส่งผลกระทบต่อเศรษฐกิจและสังคมได้
ด้าน อาจารย์สุทธิมนัส ชินอัครพงศ์ จากภาควิชานิเทศศาสตร์ฯ คณะมนุษยศาสตร์ มหาวิทยาลัยเกษตรศาสตร์ อธิบายถึงความแตกต่างระหว่างข่าวปลอมยุคเก่าและยุคใหม่ว่า ในอดีตเรามักพบ “Cheapfake” หรือการปลอมแปลงแบบง่าย ๆ เช่น การตัดต่อภาพลวก ๆ หรือการนำภาพเก่ามาเล่าใหม่ในบริบทผิด ๆ แต่ปัจจุบันได้พัฒนาสู่ “Deepfake” ที่ใช้กลไกซับซ้อน สามารถทำให้สิ่งที่ไม่มีอยู่จริงดูเหมือนเกิดขึ้นจริงได้ เช่น การทำให้ภาพนิ่งเคลื่อนไหว หรือสั่งให้คนพูดในสิ่งที่ไม่ได้พูดจริง ด้วยต้นทุนที่ถูกลงมหาศาลเหลือเพียงครั้งละไม่ถึง 100 บาท และใช้เวลาผลิตเพียงไม่กี่นาที ทำให้ปริมาณข่าวลวงพุ่งสูงขึ้นอย่างมีนัยสำคัญ
สำหรับการตรวจสอบเบื้องต้น อาจารย์สุทธิมนัสได้แนะนำจุดสังเกตสำคัญ 3 องค์ประกอบ คือ 1. ภาพนิ่ง: ให้สังเกตความบิดเบี้ยวของตัวหนังสือที่มักจะซ้อนทับกันหรืออ่านไม่ออก รูปร่างของคนที่อยู่พื้นหลังอาจดูผิดปกติคล้ายซอมบี้ รวมถึงหลักฟิสิกส์ของแสงและเงาที่อาจไม่สัมพันธ์กัน 2. วิดีโอ: ให้ดูความต่อเนื่องของการเคลื่อนไหว เช่น การเดินที่ขาสลับข้างกันอย่างไม่เป็นธรรมชาติ การกะพริบตาที่ผิดปกติ และการขยับปากที่ไม่ตรงกับเสียง (Lip-sync) 100% และ 3. เสียง: สังเกตจังหวะการหายใจและการเว้นวรรคตอนที่อาจจะต่อเนื่องกันเกินไปจนผิดธรรมชาติมนุษย์
นอกจากนี้ ผู้เชี่ยวชาญยังได้ยกตัวอย่างกรณีคลิปเหตุการณ์ระเบิดในต่างประเทศที่ตรวจสอบพบว่าเป็น AI โดยสังเกตจากตึกที่ไม่ได้รับความเสียหายหลังการระเบิด และเศษวัตถุที่ลอยอยู่บนฟ้าหายวับไปก่อนจะตกถึงพื้น รวมถึงคลิปการลักลอบส่งน้ำมันที่พบว่าตัวหนังสือในคลิปมีการเปลี่ยนแปลงตัวสะกดไปมาระหว่างเล่น และรถบรรทุกบนเรือที่สามารถ “รวมร่าง” กันได้ ซึ่งผิดหลักฟิสิกส์อย่างชัดเจน ทั้งนี้ แนะนำให้ใช้เครื่องมือช่วยตรวจสอบ เช่น Google Lens เพื่อค้นหาที่มาของภาพ, เว็บไซต์ AI Detector ต่าง ๆ หรือการส่งรูปให้ Gemini AI ช่วยตรวจสอบลายน้ำดิจิทัล (SynthID) ที่ Google ฝังไว้ในภาพจาก AI
ในช่วงท้ายของการเสวนา วิทยากรได้มอบหลักคิด “3ส.” เพื่อให้ประชาชนใช้ “ตั้งการ์ด” ป้องกันตนเอง คือ 1. สต็อป (Stop) หยุดคิดก่อนแชร์ว่าเนื้อหานั้นกระตุ้นอารมณ์โกรธหรือความกลัวเกินไปหรือไม่ 2. สังเกต (Look) จับผิดร่องรอยความไม่เป็นธรรมชาติตามจุดต่าง ๆ และ 3. สืบ (Search) ค้นหาแหล่งที่มาที่เป็นทางการว่ามีใครยืนยันข้อเท็จจริงนี้บ้าง เพื่อป้องกันการตกเป็นเหยื่อของกลุ่มที่หวังผลประโยชน์จากยอดวิวหรือความขัดแย้งทางการเมือง

