นักวิจัยเตือน AI เลียนเสียงจริงได้ภายในไม่กี่นาที องค์กรเสี่ยงตกเป็นเหยื่อ Vishing

ยอดเข้าชม: 319 views

380/68 (IT) ประจำวันพฤหัสบดีที่ 2 ตุลาคม 2568

นักวิจัยจาก NCC Group เปิดเผยกรอบการทำงานใหม่ (Framework) ที่ใช้ AI สร้างเสียงเลียนแบบบุคคลแบบเรียลไทม์ โดยอาศัยตัวอย่างเสียงต้นฉบับพียงไม่กี่นาที เทคโนโลยีดังกล่าวทำให้การโจมตีแบบ Vishing (Voice Phishing) มีความน่าเชื่อถือและสมจริงยิ่งขึ้น เสี่ยงทำให้องค์กร พนักงาน และบุคคลทั่วไปตกเป็นเหยื่อ สูญเสียข้อมูลส่วนบุคคล ข้อมูลทางการเงิน และข้อมูลสำคัญในองค์กร

งานวิจัยระบุว่าเทคโนโลยี Deepfake แบบเดิมมีข้อจำกัด เช่น ใช้โมเดล Text-to-Speech หรือใช้เสียงที่บันทึกไว้ ซึ่งมีข้อจำกัดด้านความสมจริงและความหน่วงของการตอบสนองที่ไม่สอดคล้องกับการสนทนาแบบเรียลไทม์ แต่กรอบการทำงานที่ NCC Group สาธิตสามารถแปลงเสียงผู้พูดเป็นเสียงเป้าหมายได้ทันที ทำให้การสนทนาฟังดูเป็นธรรมชาติ นักวิจัยใช้ตัวอย่างเสียงที่เผยแพร่สาธารณะในการฝึกโมเดลเพียงไม่กี่ชั่วโมง ก่อนนำไปทดสอบการโจมตีจริงในองค์กร เพื่อยืนยันว่าสามารถหลอกขอข้อมูลลับจากบุคลากรในองค์กรได้สำเร็จ    

NCC Group คาดการณ์ว่าเทคนิค Vishing ที่ใช้ AI จะตรวจจับได้ยากและมีความน่าเชื่อถือมากขึ้น อาจถูกนำไปใช้ในแคมเปญหลอกลวงวงกว้างโดยสวมรอยบุคคลที่มีชื่อเสียง หรือเจาะจงเป้าหมายเฉพาะองค์กร เพื่อป้องกันความเสี่ยง องค์กรควรบังคับใช้การยืนยันตัวตนหลายปัจจัย (MFA) อบรมพนักงานให้ตรวจสอบคำขอที่ผิดปกติ แม้เสียงจะเหมือนบุคคลจริง และใช้วิธีตรวจสอบสำรอง เช่น รหัสยืนยันหรือช่องทางติดต่ออื่น รวมถึงจำกัดการเผยแพร่เสียงของผู้บริหารและบุคลากรสาธารณะเพื่อลดโอกาสถูกนำไปสร้างเสียงปลอม

แหล่งข่าว https://www.darkreading.com/cyberattacks-data-breaches/ai-voice-cloning-vishing-risks