ในปัจจุบัน มิจฉาชีพมีความก้าวหน้ามากขึ้น โดยใช้เทคโนโลยี Deepfake หลอกลวงผู้คนให้หลงเชื่อ โดยทำให้ภาพ เสียง คลิปวิดีโอ ของบุคคลหนึ่งสามารถขยับปากตามเสียงของบุคคลอื่นได้ มีความเสมือนจริงทั้งใบหน้าและน้ำเสียง
รู้ทัน Deepfake ป้องกัน โดน AI หลอกเนียน
ศูนย์ช่วยเหลือและจัดการปัญหาออนไลน์ 1212 ETDA สำนักงานพัฒนาธุรกรรมทางอิเล็กทรอนิกส์ แจ้งว่าปัจจุบันมิจฉาชีพมีความพัฒนาก้าวหน้า ทันโลกมากขึ้น ล่าสุดมีการใช้เทคโนโลยี Deepfake ให้กลายมาเป็นเครื่องมือหลอกลวง ทำให้ภาพ เสียง คลิปวิดีโอ ของบุคคลหนึ่งสามารถขยับปากตามเสียงของบุคคลอื่นได้ มีความเสมือนจริงทั้งใบหน้าและน้ำเสียง มิจฉาชีพได้นำมาใช้เป็นเครื่องมือในการแอบอ้างเป็นบุคคลอื่นเพื่อประโยชน์ หลอกลวงให้โอนเงิน , สร้างโพสต์ปลอม , ข้อความปลอม , ความคิดเห็นปลอม และสร้างโปรไฟล์ปลอม บนสื่อโซเชียลมีเดียกลายเป็น Fake News ทำให้สังคมเกิดความเข้าใจผิด
วิธีสังเกต เสียง AI
- จังหวะการเว้นวรรคคำพูดไม่สม่ำเสมอ: เสียงพูดจาก AI นั้นจะไม่มีจังหวะหยุด ไม่มีเว้นวรรคจังหวะหายใจ และจะพูดประโยคยาวโดยไม่หยุดพัก ทำให้ฟังดูไม่เป็นธรรมชาติ ผิดกับเสียงพูดของมนุษย์ที่มักจะมีจังหวะหยุดพักตามธรรมชาติ
- น้ำเสียงราบเรียบ: เสียงจาก AI จะมีน้ำเสียงที่ราบเรียบ ไม่เน้นน้ำหนักเสียง หรือความสำคัญของคำ ทำให้ฟังดูไม่น่าสนใจ ขาดอารมณ์
อาจพูดคำศัพท์เฉพาะไม่ค่อยชัด: เสียงจาก AI อาจพูดคำศัพท์เฉพาะไม่ค่อยชัด คำบางคำเวลาออกเสียง จะมีความผิดเพี้ยนไปบ้าง เนื่องจาก AI อาจยังไม่สามารถออกเสียงวรรณยุกต์ เสียงสูง-ต่ำ ได้ในบางคำ
วิธีสังเกต “ใบหน้า” จาก AI
- การขยับริมฝีปากไม่สอดคล้องกับเสียงในวิดีโอ ดูไม่เป็นธรรมชาติ: ใบหน้าในคลิปที่สร้างจาก AI นั้น การขยับริมฝีปากจะไม่สอดคล้องกับเสียงในวิดีโอ ดูไม่เป็นธรรมชาติ เช่น หากเสียงพูดในวิดีโอเป็นเสียงผู้ชาย แต่การขยับริมฝีปากกลับดูเป็นผู้หญิง หรือหากเสียงพูดในวิดีโอเป็นเสียงพูดปกติ แต่การขยับริมฝีปากกลับดูเป็นเสียงพูดที่ร้องเพลง
- ใบหน้ามีลักษณะที่ผิดสัดส่วนธรรมชาติ โดยเฉพาะเมื่อก้มเงยหน้าหรือหันซ้ายหันขวา: ใบหน้าในคลิปที่สร้างจาก AI นั้น อาจมีสัดส่วนที่ผิดเพี้ยนไปจากใบหน้าจริง โดยเฉพาะเมื่อก้มเงยหน้าหรือหันซ้ายหันขวา เช่น จมูกอาจดูใหญ่เกินไป หรือตาอาจดูเล็กเกินไป
- สีผิวเข้มหรืออ่อนเป็นหย่อม ๆ แสงและเงาบริเวณผิวไม่สอดคล้องต่อการเคลื่อนไหว: ใบหน้าในคลิปที่สร้างจาก AI นั้น อาจมีสีผิวที่เข้มหรืออ่อนเป็นหย่อม ๆ แสงและเงาบริเวณผิวอาจไม่สอดคล้องต่อการเคลื่อนไหว เช่น อาจเห็นแสงและเงาสะท้อนบนใบหน้าที่ผิดปกติ
- การกะพริบตาถี่เกินไป หรือน้อยเกินไป ดูไม่เป็นธรรมชาติ: การกะพริบตาในคลิปที่สร้างจาก AI นั้น อาจถี่เกินไป หรือน้อยเกินไป ดูไม่เป็นธรรมชาติ เช่น อาจเห็นคนในคลิปกะพริบตาถี่ๆ ตลอดเวลา หรืออาจไม่เห็นคนในคลิปกะพริบตาเลย
นอกจากนี้ ยังมีวิธีสังเกตอื่นๆ ที่อาจช่วยยืนยันได้ว่าคลิปวิดีโอนั้นอาจมีการปลอมแปลงด้วยเทคโนโลยี Deepfake เช่น
- สังเกตการเคลื่อนไหวของร่างกาย: หากการเคลื่อนไหวของร่างกายในคลิปวิดีโอดูไม่เป็นธรรมชาติ เช่น เคลื่อนไหวแข็งทื่อ ไม่สอดคล้องกัน หรือเคลื่อนไหวผิดจังหวะ
- สังเกตสภาพแวดล้อม: หากสภาพแวดล้อมในคลิปวิดีโอดูไม่สมจริง เช่น แสงและเงาดูผิดธรรมชาติ หรือมีวัตถุหรือสิ่งก่อสร้างที่ดูแปลกตา
- ตรวจสอบแหล่งที่มาของคลิปวิดีโอ: หากคลิปวิดีโอนั้นมาจากแหล่งที่มาที่น่าสงสัย เช่น มาจากเว็บไซต์หรือโซเชียลมีเดียที่ไม่น่าเชื่อถือ
ด้วยเทคโนโลยี Deepfake ที่พัฒนาอย่างรวดเร็ว ทำให้เราควรระมัดระวังในการรับข้อมูลข่าวสาร โดยเฉพาะข้อมูลที่เป็นภาพ เสียง หรือคลิปวิดีโอ หากพบข้อมูลใดที่สงสัยว่าอาจเป็นการปลอมแปลงด้วยเทคโนโลยี Deepfake ควรตรวจสอบให้แน่ชัดก่อนหลงเชื่อ