เมื่อวันที่ 20 พ.ย. ตามที่พล.ต.ท.จิรภพ ภูริเดช ผบช.ก. มีนโยบายเชิงรุก และแจ้งเตือน ให้ประชาชนรู้เท่าทันถึงอาชญากรรมทางเทคโนโลยี พร้อมกําชับให้สืบสวนจับกุมมาโดยตลอดนั้น ล่าสุดมีรายงานว่า ขณะนี้มิจฉาชีพใช้เทคโนโลยีที่ทําให้เกิดการปลอมแปลงข้อมูล เช่น Deep fake และ Fake Voice โดยปลอมแปลงข้อมูลตัดต่อภาพ ตัดต่อข้อความ ตกแต่งเสียงพูด และสร้างคลิปวิดีโอปลอมบุคคลที่มีชื่อเสียง ให้ดูเหมือนจริง ส่งผลให้ประชาชน ต้องระวัง และเข้าใจถึงการใช้เทคโนโลยีนี้ เพื่อป้องกันการถูกใช้เป็นเครื่องมือในวัตถุประสงค์ที่ไม่ดี เช่น การเผยแพร่ข่าวปลอม หรือ การก่ออาชญากรรมอื่นๆ

ผู้สื่อข่าวรายงานต่อว่า การปลอมภาพคลิปด้วย Deepfake จะได้ภาพที่มีความคมชัดสูง และท่าทางที่เสมือนจริงมากขึ้น หรือแม้กระทั่งการแปลงเสียงผ่านแอพพลิเคชั่นต่างๆ ก็สามารถเปลี่ยนน้ำเสียง เช่น ชายเป็นหญิง, หญิงเป็นชาย ผู้ใหญ่เป็นเด็ก, การเลียนเสียง และแปลงเสียง ซึ่งผู้ไม่ประสงค์ดีอาจใช้เป็นเครื่องมือแอบอ้างเป็นบุคคลอื่น เพื่อประโยชน์บางอย่าง หรือหลอกลวงให้โอนเงิน ส่งผลให้เกิดความเสียหายด้านอื่นด้วย

สำหรับข้อสังเกตเจ้าหน้าที่แนะนําจุดสังเกต “เสียง AI” ที่แตกต่างจากเสียงมนุษย์ 1.จังหวะการเว้นวรรคคําพูด : เสียงพูดจาก AI จะไม่มีอารมณ์หรือความรู้สึก เสียงจึงจะไม่มีจังหวะหยุด ไม่มีเว้นวรรคจังหวะหายใจ และจะพูดประโยคยาว 2.น้ำเสียงราบเรียบ : เสียงจาก AI ที่มิจฉาชีพใช้จะมีเสียงที่ราบเรียบ ไม่มีการเน้นน้ำหนักเสียง หรือความสําคัญของคํา 3.คําทับศัพท์ : เสียงจาก AI จะพูดคําศัพท์เฉพาะไม่ค่อยชัด คําบางคําเวลาออกเสียงจะมีความผิดเพี้ยนไปบ้าง เนื่องจาก AI อาจยังไม่สามารถออกเสียงวรรณยุกต์เสียงสูง-ต่ำได้ในบางคํา

นอกจากนี้ยังสามารถสังเกต “ใบหน้า” ที่สร้างจาก AI ได้ดังนี้ สังเกตการขยับริมฝีปาก : หากเป็นคลิปสร้างจาก AI การขยับปากของคนในคลิปจะไม่สอดคล้องกับเสียงในวิดีโอ และดูไม่เป็นธรรมชาติ 2.ใบหน้า : มีลักษณะที่ผิดสัดส่วนธรรมชาติ โดยเฉพาะเมื่อก้มเงยหน้าหรือหันซ้ายหันขวา 3.สีผิวเข้ม หรือ อ่อนเป็นหย่อมๆ : แสงและเงาบริเวณผิวไม่สอดคล้องต่อการเคลื่อนไหว 4.การกะพริบตาถี่เกินไป หรือน้อยเกินไป : ดูไม่เป็นธรรมชาติ

ดังนั้นควรตรวจสอบข้อมูลทุกครั้งก่อนที่จะเชื่อ หรือแชร์ข้อมูลต่างๆ ต่อ เพื่อให้มั่นใจว่าสิ่งที่เห็นเป็นเรื่องจริง จะได้ไม่ตกเป็นเหยื่อของมิจฉาชีพได้

ติดตามข่าวสด

ข่าวเด่นประจำวัน