283/68 (IT) ประจำวันพุธที่ 6 สิงหาคม 2568

รายงาน 2025 Threat Hunting Report ล่าสุดจาก CrowdStrike เปิดเผยว่า กลุ่มแฮกเกอร์ทั่วโลก ทั้งที่เป็นกลุ่มได้รับการสนับสนุนจากรัฐ และกลุ่มอาชญากรรมไซเบอร์ (eCrime) กำลังหันมาใช้ประโยชน์จากเทคโนโลยี Generative AI (GenAI) หรือปัญญาประดิษฐ์เชิงสร้างสรรค์ เพื่อพัฒนาปฏิบัติการโจมตีให้มีความซับซ้อนและมีประสิทธิภาพมากขึ้น โดยพบว่าการโจมตีที่ใช้ AI นั้นขยายวงกว้างขึ้นทั้งด้านวิศวกรรมสังคม (social engineering), การสร้างมัลแวร์, การปลอมแปลงตัวตน และแม้กระทั่งใช้โจมตีระบบ AI ขององค์กรเอง เช่น ช่องโหว่ Langflow AI (CVE-2025-3248) ที่ถูกใช้เจาะระบบแบบ remote code execution โดยไม่ต้องยืนยันตัวตน
หนึ่งในตัวอย่างที่ชัดเจนคือกลุ่มแฮกเกอร์เกาหลีเหนือ “Famous Chollima” ซึ่งใช้ GenAI ในการปลอมเป็นพนักงานไอทีสมัครเข้าทำงานในองค์กรระดับนานาชาติ เพื่อเข้าถึงข้อมูลภายใน โดย CrowdStrike ตรวจพบว่ามีเหตุการณ์ลักษณะนี้มากถึง 320 เหตุการณ์ในรอบปีที่ผ่านมา โดยอาศัย AI ในการเขียนเรซูเม่ ปลอมแปลงใบหน้าด้วย deepfake ระหว่างสัมภาษณ์งาน สื่อสารเป็นภาษาอังกฤษได้อย่างลื่นไหล และใช้โค้ดช่วยงานอัตโนมัติ เช่น Copilot เพื่อปฏิบัติงานเสมือนพนักงานปกติ
CrowdStrike ย้ำว่า การเพิ่มขึ้นของการโจมตีที่ใช้ AI เป็นเครื่องมือ ไม่ได้หมายความว่า AI จะมาแทนที่วิธีการโจมตีแบบเดิมทั้งหมด แต่เป็นการเสริมประสิทธิภาพให้การโจมตีที่มีอยู่แล้วอันตรายยิ่งขึ้น และเป็น “โครงสร้างพื้นฐานของการโจมตี” ของกลุ่มภัยคุกคามยุคใหม่ และเมื่อองค์กรต่าง ๆ เริ่มพึ่งพา AI มากขึ้น พื้นที่เสี่ยงต่อการโจมตีก็ยิ่งขยายตัว โดยแนะนำให้องค์กรเร่งยกระดับมาตรการตรวจสอบตัวตนผู้สมัครงาน สร้างระบบทดสอบ deepfake แบบเรียลไทม์ คุมเข้มการเข้าถึงระบบจากระยะไกล และฝึกอบรมบุคลากรให้พร้อมรับมือกับภัยไซเบอร์ที่ขับเคลื่อนด้วย AI อย่างเต็มรูปแบบ
แหล่งข่าว https://www.darkreading.com/remote-workforce/threat-actors-leaning-genai-tools