top of page

เตือนภัย สาย “โทรมาแล้วไม่พูด” อาจจะโดน “มิจฉาชีพ” อัดเสียงอยู่ เพื่อนำเอาเสียงไปให้ “AI” เลียนเสียง


หลายคนเริ่มได้รับสายที่โทรมาแล้วไม่พูดอะไร ปล่อยให้เราพูดอยู่คนเดียวไปเรื่อย ๆ แล้วก็วางสายไป ซึ่งฟังดูแล้วอาจเป็นเพราะสัญญาณไม่ดี แต่ความจริงแล้วเราอาจกำลังโดนมิจฉาชีพอัดเสียงอยู่ เพื่อนำเสียงของเราไปให้ GenAI แปลงเสียงเพื่อใช้นำไปโทรหาคนสนิทของเรา และหลอกเอาเงินจากคนเหล่านั้น


ใช้ AI เลียนเสียงโทรไปหลอกคนใกล้ชิด


การใช้ AI สร้างเสียงหรือการปลอมแปลงเสียงของคน นี้เรียกว่า “Voice Clone” (วอยซ์โคลน) เป็นส่วนหนึ่งของการทำ “Deepfake” ซึ่งถูกนำมาใช้เป็นเครื่องมือของกลุ่มมิจฉาชีพ วิชัย พละสุพราห์มานิยัณ ผู้บริหารระดับสูงและผู้ก่อตั้ง Pindrop บริษัทรักษาความปลอดภัยข้อมูล สัญชาติอเมริกัน ยอมรับว่าในปีนี้มีการใช้ Deepfake ในการฉ้อโกงเพิ่มขึ้นอย่างมาก


ในอดีตการจะใช้ปัญญาประดิษฐ์ทำงานจะต้องใช้ทักษะในการเขียนโค้ด แต่ปัจจุบันมีโปรแกรมสำเร็จมาให้เพียงแค่ป้อนข้อมูลเข้าไป AI ก็สามารถแสดงผลลัพธ์ให้ได้ทันที แถมเสียงจาก AI มีความสมจริงมากขึ้นเรื่อย ๆ ตามเทคโนโลยีที่พัฒนาขึ้นทุกวัน แถมข้อมูลข้อส่วนตัวของลูกค้า เช่น ชื่อ เบอร์โทร ที่อยู่ มีขายอยู่ในตลาดใต้ดินเกลื่อนกลาด


เมื่อมีชื่อของเหยื่ออยู่ในมือ มิจฉาชีพก็นำรายชื่อไปค้นหาตามโซเชียลมีเดียต่าง ๆ ซึ่งผู้คนมักจะโพสต์คลิปตัวเองลงบนโซเชียลมีเดีย ทำให้มีคลังข้อมูลเสียงผู้คนบนโลกอินเทอร์เน็ตจำนวนมาก


ยิ่งเป็นเหล่าคนดัง หรือเซเลบที่มีผู้ติดตามบนโซเชียลมีเดียเยอะ ๆ ยิ่งหาเสียงและวิดีโอของพวกเขาได้ง่าย แต่ถ้าหากคนเหล่านั้นไม่ได้เล่นโซเชียลมีเดีย ก็ต้อง “ออกแรง” ด้วยการโทรไปตามเบอร์มือถือเพื่อให้ได้ยินเสียงและนำมาป้อนข้อมูลให้ AI เอาไปแปลงเสียง


หลังจากนั้นมิจฉาชีพจะโทรไปหาคนใกล้ชิดของเจ้าของเสียง โดยอาจสุ่มโทรหาคนที่เป็นเพื่อนในโซเชียลมีเดีย ซึ่งมักจะสร้างสถานการณ์ว่ากำลังตกอยู่ในสถานการณ์ที่ต้องใช้เงินด่วน เช่น โดนจับเรียกค่าไถ่ ประสบอุบัติเหตุ ติดหนี้ ไม่มีเงินสด ฯลฯ


ฟังดูก็เป็น “มุกเก่า” ที่เหล่ามิจฉาชีพใช้มาตั้งแต่สมัยไม่มี AI แต่ตอนนี้มันสมจริงกว่าเดิมด้วย Voice Clone ซึ่งหากไม่ตั้งสติดี ๆ ก็อาจจะคิดว่าเป็นเรื่องจริงและเผลอโอนเงินให้คนร้ายไปโดยไม่ได้โทรเช็กกับคนที่ถูกแอบอ้างก่อน


ผู้คนตระหนักถึงภัยคุกคามจาก Deepfake


Pindrop ทำการสำรวจความเห็นของคนในสหรัฐเกี่ยวกับความกังวลที่มีต่อเทคโนโลยี Deepfake และการทำไปใช้ผิดวิธี โดยผลการสำรวจพบว่า 90% ของผู้ตอบแบบสอบถามมีความกังวลเกี่ยวกับภัยคุกคามที่เกิดขึ้นจาก Deepfake และ Voice Clone


ยิ่งเทคโนโลยีพัฒนาไปมากเท่าไหร่ ความกังวลใจเกี่ยวกับการนำ Deepfake มาใช้เพื่อฉ้อโกงประชาชนยิ่งสูงขึ้นมากเท่านั้น เกือบ 66% ของชาวสหรัฐมีความกังวลกับการใช้ Deepfake และ Voice Clone ในที่ทำงานอย่างไม่เหมาะสม ซึ่งอาจส่งผลเสียต่อธุรกิจ ทำลายภาพลักษณ์ของแบรนด์ และอื่น ๆ


เทคโนโลยี AI สามารถสร้างสรรค์สิ่งต่าง ๆ ได้ง่ายขึ้น แต่ในขณะเดียวกันก็กลายเป็นเครื่องมือให้มิจฉาชีพได้เช่นกัน เราจึงทำได้แค่ระมัดระวังตัวให้มากขึ้นและหาทางป้องกันตัวเองไม่ให้เป็นเหยื่อ ทางที่ง่ายที่สุดคือไม่รับสายเบอร์แปลก แต่ถ้าจำเป็นต้องรับสาย ควรปล่อยให้อีกฝ่ายพูดก่อน เพื่อป้องกันการถูกอัดเสียง ซึ่งหากได้ยินเสียงแล้วไม่ลื่นไหลเหมือนมนุษย์ ออกเสียงแปร่ง ๆ ก็อาจจะตีความได้ว่ากำลังคุยกับ AI อยู่


ดู 4 ครั้ง0 ความคิดเห็น
bottom of page