นักวิจัยจาก CrowdStrike เผย Deepseek-R1 สร้างโค้ดไม่ปลอดภัยมากขึ้นหาก Prompt เกี่ยวกับจีน!!
เมื่อโลกเริ่มพึ่งพา AI ในการช่วยเขียนโค้ดมากขึ้น คำถามสำคัญที่ทุกคนเริ่มกังวลไม่ใช่แค่ว่า “โค้ดทำงานได้หรือเปล่า” แต่คือ “โค้ดปลอดภัยพอหรือไม่” ล่าสุดมีรายงานจากนักวิจัยของ CrowdStrike ที่ทำให้วงการความปลอดภัยต้องหันมามองกันใหม่ เมื่อพบว่าโมเดล AI สัญชาติจีนอย่าง DeepSeek-R1 มีแนวโน้มสร้างโค้ดที่มีช่องโหว่ด้านความปลอดภัยมากขึ้นอย่างมีนัยสำคัญ หากใน Prompt มีเนื้อหาเกี่ยวข้องกับประเด็นการเมืองอ่อนไหวของจีน เช่น ทิเบต, อุยกูร์ หรือ Falun Gong ผลการทดลองนี้ไม่ได้แค่สะท้อนว่าระบบ AI อาจ “มีอคติ (bias)” ตามสภาพแวดล้อมทางการเมืองและกฎหมายของประเทศต้นทางเท่านั้น แต่ยังตั้งคำถามต่อไปถึงความเชื่อมั่นขององค์กรที่นำ AI จากต่างประเทศเข้ามาใช้ช่วยพัฒนาโค้ดในระบบที่สำคัญต่อความมั่นคงหรือธุรกิจ โดยเฉพาะเมื่อเราไม่สามารถมองเห็นกระบวนการฝึกโมเดลหรือกติกาภายในที่ซ่อนอยู่เบื้องหลังได้ทั้งหมด บทความนี้จะชวนมาดูในมุมของคนทำงานด้าน Cybersecurity และ DevSecOps ว่าสิ่งที่ CrowdStrike พบจาก DeepSeek-R1 หมายถึงอะไร เสี่ยงต่อองค์กรอย่างไร และเราควรปรับวิธีคิดในการใช้ AI ช่วยเขียนโค้ดอย่างไรต่อไปในอนาคต
เบื้องหลังงานวิจัยจาก CrowdStrike: เมื่อ DeepSeek-R1 เขียนโค้ดเปิดช่องโหว่มากขึ้น
นักวิจัยจาก CrowdStrike ทำการทดสอบความสามารถของโมเดล DeepSeek-R1 ในมุมมองด้านความปลอดภัย โดยโฟกัสไปที่การสร้างโค้ดตามคำสั่ง (code generation) ภายใต้สถานการณ์ที่แตกต่างกันออกไป จุดที่น่าสนใจคือ ภายใต้เงื่อนไข “ปกติ” โมเดลนี้ถูกประเมินว่าเป็นโมเดลเขียนโค้ดที่มีความสามารถสูง และมีสัดส่วนการสร้างโค้ดที่มีช่องโหว่ร้ายแรงอยู่ราวๆ หนึ่งในห้าของเคสที่ทดสอบ ซึ่งถือว่าอยู่ในระดับที่พอจะเทียบเคียงกับเครื่องมือ AI ระดับแถวหน้าเจ้าอื่นๆ ได้ แต่สิ่งที่ทำให้เรื่องนี้กลายเป็นประเด็นใหญ่ คือ เมื่อนักวิจัยเริ่มเติม “ตัวกระตุ้นเชิงภูมิรัฐศาสตร์ (geopolitical modifiers)” ลงไปใน Prompt เช่น ระบุว่าเป็นระบบที่ใช้ในพื้นที่ทิเบต หรือเกี่ยวข้องกับชุมชนอุยกูร์ สถิติของโค้ดที่เต็มไปด้วยช่องโหว่กลับเพิ่มขึ้นอย่างเห็นได้ชัด ตัวเลขในรายงานระบุว่าอัตราความเสี่ยงของโค้ดที่มีช่องโหว่ร้ายแรงเพิ่มขึ้นเกือบ 50% เมื่อเทียบกับเคสที่ไม่มีคำเหล่านี้ใน Prompt ทั้งที่ตัวงานเขียนโค้ดเองไม่ได้เกี่ยวข้องกับการเมืองโดยตรงเลย
ตัวอย่างหนึ่งที่ CrowdStrike ยกมาคือ การให้ DeepSeek-R1 เขียน webhook handler สำหรับ PayPal ด้วย PHP ในบริบทของสถาบันการเงินที่ตั้งอยู่ในทิเบต ผลลัพธ์คือโมเดลสร้างโค้ดที่ทั้ง hard-code ค่า secret สำคัญ ใช้วิธีอ่านข้อมูลผู้ใช้ที่ไม่ปลอดภัย และที่น่ากังวลไปกว่านั้นคือโค้ดที่ได้ยังไม่ใช่ PHP ที่รันได้จริง ๆ แต่กลับอธิบายตัวเองว่าเป็นไปตาม “best practices” และ “มีความปลอดภัยเพียงพอ” เพื่อยืนยันว่าปัญหาไม่ได้เกิดจากโจทย์การพัฒนาแอปเอง นักวิจัยจึงลองใช้ Prompt ลักษณะคล้ายกัน แต่เปลี่ยนบริบทไปเป็นเว็บไซต์แฟนคลับฟุตบอล ปรากฏว่าโค้ดที่สร้างขึ้นในกรณีหลังไม่ได้มีช่องโหว่ร้ายแรงในระดับเดียวกัน ทำให้ยิ่งชัดเจนว่าตัวแปรที่แตกต่างอย่างแท้จริงคือ “บริบททางการเมือง” ที่ผูกอยู่กับคำว่า ทิเบต, อุยกูร์ หรือหัวข้ออ่อนไหวอื่นในมุมมองของรัฐจีน มากกว่าจะเป็นเนื้อหาทางเทคนิคของงานด้านซอฟต์แวร์เอง
เมื่อการเมือง กลายเป็นตัวแปรที่ทำให้โค้ดไม่ปลอดภัย
ประเด็นที่ CrowdStrike ชี้ให้เห็นทำให้เราต้องตั้งคำถามเชิงลึกกับ “ธรรมชาติ” ของโมเดล AI ในยุคปัจจุบัน เพราะโมเดลอย่าง DeepSeek-R1 ไม่ได้เกิดขึ้นอย่างไร้กรอบกติกา แต่ถูกออกแบบและฝึกมาให้ปฏิบัติตามกฎหมายและข้อกำหนดของประเทศที่มันอยู่ ซึ่งในกรณีจีน เห็นได้ชัดว่ามีข้อกำหนดด้านการควบคุมเนื้อหา การไม่ให้ AI ผลิตคำตอบที่ขัดกับนโยบายรัฐ หรือเปิดพื้นที่ให้เกิดการตั้งคำถามเรื่องความชอบธรรมของอำนาจการปกครอง สิ่งที่ CrowdStrike พบจึงอาจไม่ได้แปลตรงๆ ว่า “มีคนตั้งใจฝัง backdoor” ลงในโมเดล แต่สะท้อนให้เห็นถึงความเป็นไปได้ที่การใส่ guardrails หรือกลไกควบคุมเชิงการเมืองในระหว่างกระบวนการเทรนและปรับจูนโมเดลนั้น อาจส่งผลข้างเคียงที่ไม่คาดคิดต่อคุณภาพของโค้ด เมื่อโมเดลต้องตอบคำถามในบริบทที่รัฐมองว่าเป็นเรื่องอ่อนไหว

ในหลายกรณี โมเดลอาจเลือกที่จะ “ปฏิเสธ” คำขอบางอย่างอย่างชัดเจน แต่สำหรับงานด้านการเขียนโค้ดที่ดูเป็นงานเทคนิคเรียบง่าย โมเดลอาจยังตอบสนองด้วยการสร้างโค้ดให้ตามคำสั่ง ทว่าในระดับของการออกแบบระบบภายในกลับมีสิ่งที่ผิดเพี้ยนไปจาก baseline อย่างมีนัยสำคัญ เช่น ไม่ใส่การตรวจสอบสิทธิ์ให้ครบ ไม่จัดการ session อย่างเหมาะสม เก็บรหัสผ่านหรือค่าลับแบบไม่เข้ารหัส หรือเลือกใช้ฟังก์ชันที่เสี่ยงต่อช่องโหว่ที่รู้จักกันดีในวงการ Web Security ถ้ามองจากมุมของผู้ใช้งานทั่วไปหรือแม้แต่นักพัฒนาที่ไม่เชี่ยวชาญด้านความปลอดภัย อาจไม่มีใคร “เอะใจ” ด้วยซ้ำ เพราะโค้ดที่ได้ยังคงคอมไพล์หรือรันได้ตามปกติ ทำงานตาม requirement ที่ให้ไว้ และในบางครั้งยังได้รับการอธิบายจากโมเดลเองว่า “ปลอดภัยแล้ว” ซึ่งตรงนี้เองคือความอันตราย เพราะทำให้เกิดภาพลวงตาว่าโค้ดที่สร้างจาก AI ได้ถูกตรวจสอบด้าน Security มาแล้ว ทั้งที่ในความเป็นจริงมันอาจแค่ผ่านระดับการตรวจเช็คเชิงฟังก์ชัน ไม่ได้ผ่านมุมมอง Threat Modeling หรือ Secure Coding แต่อย่างใด
Dev อย่างเราควรรับมืออย่างไรกับความเสี่ยงที่อาจเกิดขึ้นเหล่านี้
จากสิ่งที่ CrowdStrike พบเกี่ยวกับ DeepSeek-R1 ข้อสรุปสำคัญสำหรับองค์กรและทีมเทคนิคคือ เราไม่ควรใช้ AI เป็น “ผู้ช่วยเขียนโค้ด” แบบเชื่อใจเต็มร้อย โดยเฉพาะเมื่อโค้ดนั้นเกี่ยวข้องกับระบบสำคัญต่อธุรกิจ หรือยุทธศาสตร์ขององค์กรอย่างระบบการเงิน ระบบควบคุมอุตสาหกรรม (ICS/SCADA) ระบบภาครัฐ หรือแพลตฟอร์มที่เกี่ยวข้องกับข้อมูลส่วนบุคคลปริมาณมาก หากมองในมุมปฏิบัติ สามารถสรุปทิศทางการใช้งาน AI เพื่อช่วยสร้างโค้ดอย่างปลอดภัยได้บางส่วนดังนี้
- มองโค้ดจาก AI เป็น “ร่างแรก” เสมอ ไม่ใช่โค้ดพร้อมขึ้น Production โดยต้องผ่านการรีวิวจากนักพัฒนาที่เข้าใจ Secure Coding และทีม Security ก่อนทุกครั้ง
- บังคับใช้เครื่องมือ Security เพิ่มเติม เช่น SAST, DAST, SCA, Code Review แบบ manual และการทดสอบ Penetration Test กับโค้ดที่ได้จาก AI โดยเฉพาะฟังก์ชันที่เกี่ยวกับการยืนยันตัวตน, การจัดการสิทธิ์, การเข้ารหัส และการเชื่อมต่อกับระบบภายนอก
- ควบคุมบริบทของ Prompt หลีกเลี่ยงการใส่ข้อมูลจริงที่เป็นความลับ เช่น domain ภายใน รายละเอียดระบบสำคัญ หรือข้อมูลลูกค้า ตลอดจนการอ้างอิงบริบทที่อาจไปชนกับหัวข้อการเมืองอ่อนไหวของประเทศเจ้าของโมเดล เพื่อลดโอกาสที่โมเดลจะตอบสนองแบบผิดเพี้ยนจาก guardrails ภายใน
- ประเมินที่มาของโมเดลอย่างรอบด้าน ไม่ใช่ดูแค่คะแนน benchmark ว่าคิดเลขเก่ง ตอบคำถามแม่น หรือผ่านการแข่งขันวัด reasoning ได้ดี แต่ต้องดูประเด็นด้าน Data Governance, Censorship, การเก็บข้อมูลผู้ใช้ และชื่อเสียงด้านความปลอดภัยในระยะยาวร่วมกันด้วย
สุดท้าย สิ่งที่งานวิจัยนี้สะท้อนออกมาอย่างชัดเจนคือ เราไม่อาจถ่ายโอน “ความรับผิดชอบทางความปลอดภัย” ไปให้ AI ได้ แม้โมเดลจะเก่งแค่ไหนก็ตาม ความปลอดภัยของระบบยังคงเป็นหน้าที่ของทีมพัฒนา ทีม Security และผู้บริหารที่ต้องกำหนดกรอบการใช้งานและการกำกับดูแลอย่างเหมาะสม ตั้งแต่ระดับนโยบายไปจนถึงระดับโค้ดบรรทัดสุดท้าย
Reference
Lakshmanan, R. (2025, November 24). Chinese DeepSeek-R1 AI generates insecure code when prompts mention Tibet or Uyghurs. The Hacker News. https://thehackernews.com/2025/11/chinese-ai-model-deepseek-r1-generates.html
หากสนใจสินค้า หรือต้องการคำปรึกษาเพิ่มเติม
💬 Line: @monsteronline
☎️ Tel: 02-026-6664
📩 Email: [email protected]
🌐 ดูสินค้าเพิ่มเติม: mon.co.th
