
ศูนย์ประสานการรักษาความมั่นคงปลอดภัยระบบคอมพิวเตอร์แห่งชาติ (ThaiCERT) ได้ติดตามสถานการณ์ข่าวสารภัยคุกคามทางไซเบอร์ พบรายงานช่องโหว่ใน LMDeploy ซึ่งเป็นเครื่องมือ Open-source สำหรับบีบอัด ติดตั้ง และให้บริการโมเดล LLMs (Large Language Models) ช่องโหว่หมายเลข CVE-2026-33626 เป็นช่องโหว่ประเภท SSRF (Server-Side Request Forgery) และมีรายงานว่าถูกนำไปใช้โจมตีในเวลาไม่ถึง 13 ชั่วโมง หลังจากมีการเปิดเผยข้อมูลสาธารณะ [1]
1. รายละเอียดช่องโหว่ [2]
ช่องโหว่ CVE-2026-33626 (CVSS: 7.5) เป็นช่องโหว่ประเภท SSRF (Server-Side Request Forgery) ในส่วน vision-language module ของ LMDeploy โดยเกิดจากฟังก์ชัน load_image() ในไฟล์ lmdeploy/vl/utils.py ที่สามารถดึง URL ได้ โดยไม่มีการตรวจสอบ internal/private IP address ทำให้ผู้โจมตีสามารถสั่งให้ระบบส่งคำขอไปยังปลายทางที่ไม่ควรเข้าถึง เช่น cloud metadata service, internal network หรือ service ภายในองค์กร โดยช่องโหว่นี้มีความเสี่ยงสูงในระบบที่ติดตั้ง LMDeploy บน cloud environment เนื่องจากผู้โจมตีอาจเข้าถึงข้อมูล metadata ของเครื่อง เช่น temporary credentials, instance configuration หรือข้อมูลสำคัญอื่น ๆ ซึ่งอาจนำไปสู่การโจมตีต่อระบบ cloud หรือ infrastructure ภายในองค์กรได้
2. เวอร์ชันที่ได้รับผลกระทบ [3]
2.1 LMDeploy เวอร์ชันก่อนหน้า 0.12.3
2.2 InternLM LMDeploy ที่ใช้งาน vision-language module
2.3 ระบบที่เปิดใช้งาน LMDeploy พร้อมฟีเจอร์ vision-language
2.4 ระบบ AI/LLM inference server ที่เปิดให้เข้าถึงจากเครือข่ายภายนอกโดยไม่มีการควบคุมที่เหมาะสม
3. แนวทางการแก้ไขและป้องกัน
3.1 อัปเดต LMDeploy เป็นเวอร์ชัน 0.12.3 หรือใหม่กว่า
3.2 จำกัดการเข้าถึง endpoint ของระบบ AI/LLM เฉพาะผู้ใช้งานหรือเครือข่ายที่จำเป็น
3.3 ตรวจสอบและจำกัดการเชื่อมต่อออกจากระบบ LMDeploy ไปยัง internal network และ cloud metadata service
3.4 ใช้ network segmentation เพื่อแยกระบบ LMDeploy ออกจากระบบสำคัญภายในองค์กร
4. มาตรการชั่วคราวหากยังไม่สามารถอัปเดตได้ทันที
4.1 จำกัด outbound traffic จากระบบ AI/LLM ไปยัง internal network และ cloud metadata endpoint
4.2 บล็อกหรือควบคุมการเข้าถึง metadata endpoint
4.3 ตรวจสอบ log ของระบบ LMDeploy และ AI/LLM inference server เพื่อหาคำขอผิดปกติที่เกี่ยวข้องกับการดึง URL หรือการเชื่อมต่อไปยังปลายทางภายใน
4.4 แยกระบบ AI/LLM inference server ออกจาก network สำคัญขององค์กร
4.5 ใช้ firewall, network segmentation และ egress control เพื่อลดโอกาสที่ระบบจะถูกใช้เป็นทางผ่านไปยัง service ภายใน
แหล่งอ้างอิง
