กลับมาอีกครั้ง แต่ยังอยู่กับพล และ Ignite 2024 ต่อครับ
เช่นเคย Ignite 2024 มาพร้อมกับเครื่องมือใหม่ๆ และที่น่าตื่นเต้นกว่า คือการมาแชร์เรื่องราวต่างๆ จากการทำงานจริงๆ ของ Microsoft กับลูกค้าในบริษัทต่างๆ
หัวข้อเรื่องความปลอดภัย (Security) และการควบคุมการนำมาใช้ (Governance) ก็เป็นอีกเรื่องที่มีการอัพเดตกันเรื่อยๆ ตั้งแต่ปีที่แล้ว ปีนี้พลเลยค่อนข้างสนใจ เพราะเป็นช่วงเวลาหลังจาก Microsoft ผลักดัน A.I. ของตัวเอง ทั้งด้าน Product และ Services กันเต็มที่ไป
ก่อนอื่นก็อย่าลืม กดไลค์ กดแชร์ เป็นกำลังใจให้ด้วยนะคร้าบ พร้อมแล้วมาเริ่มกันเลย
1. อะไรคือความเสี่ยงใหม่ๆ ใน AI Transformation
เปิดหัวเรื่องด้วยข้อมูลต่างๆ ที่ว่าโลกกำลังเข้าสู่ยุค AI Transformation เต็มสูบ มีสถิติต่างๆ น่าสนใจเช่น
- 95% ขององค์กรในกลุ่มสำรวจ ยอมรับ A.I. เข้ามาใช้งานแล้ว หรืออยู่ในขั้นตอนของการวางแผนอยู่
- 66% เริ่มพัฒนาระบบที่มี A.I. เป็นส่วนหนึ่งของการทำงาน หรืออยู่ในขั้นตอนของการวางแผนอยู่
และการนำ Generative AI มาเป็นส่วนประกอบขององค์กร ทำให้เทคนิคการใช้งานต่างๆ กลายเป็นจุดที่ถูกนำมาใช้โจมตีระบบ (เรียกว่า GenAI new attack surfaces) ได้แก่
- Prompts
- Responses
- AI Orchestration
- Training data
- RAG data
- Models
- Plugins/skills
ทำให้ความเสี่ยงที่พบเจอได้จากระบบ GenAI จนเป็นที่รู้กันแล้ว ก็มีตามรายการด้านล่าง
- Indirect prompt injection
- jailbreak
- Data Leakage
- Model vulnerability
- Hallucinations
ซึ่งแบบแผนการปรับปรุง หรือป้องกันระบบตามความเสี่ยงพวกนี้ ก็มีทั้ง concept และ practice ซึ่งเท่าที่ดู Microsoft ใช้ practice ต่างๆ มาสร้างเป็นความสามารถต่างๆ ในระบบการ custom AI ผ่านบริการของตัวเองครับ
2. แนวทางในการควบคุม custom AI ในองค์กร ทำตรงจุดไหนได้บ้าง?
และด้วยการที่หลายองค์กร เริ่มนำ AI มาปรับแต่งให้ทำงานเฉพาะทางในองค์กรนี่เอง (จากตรงนี้จะเรียกว่า Custom AI) ใน session มีจุดที่เป็นแนวทางที่พวกเราควรใส่ใจ ในการเพิ่มความปลอดภัย และการควบคุม AI ที่ Microsoft นำมาแชร์ก็คือ
- ขั้นตอนการเตรียมข้อมูล สำหรับการนำมาใช้กับ AI ที่ปรับแต่งขึ้นมา
- สำรวจช่องโหว่ และจุดบกพร่องของ AI แอพที่สร้างขึ้นมาใช้เอง
- ป้องกัน AI ที่ติดตั้งใช้งานจากการโจมตีด้วย prompt injection และข้อมูลรั่วไหล
- ควบคุมแอพ AI ให้ตรงกับเงื่อนไข หรือนโยบายขององค์กรของเรา
3. ความท้าทายในการควบคุม Security และการควบคุมการใช้งาน custom AI มีอะไรบ้าง
จุดนี้แบ่งออกเป็น low code และ pro code
low code เรียกระบบที่เอื้อให้คนในองค์กรสามารถสร้างระบบ IT เช่น เว็บแอพ หรือ flow การทำงานต่างๆ ได้ (เรียกคนที่มีทักษะทำงานส่วนนี้ว่า Citizen Developer) โดยที่ไม่ต้องไปถึงระดับ Pro code ที่มักเป็นระดับที่อาศัยทักษะด้านการพัฒนาโปรแกรม อย่าง Developer
ซึ่งการ custom AI ขึ้นมาใช้งานในองค์กร ก็ถูกแบ่งวิธีการดูแลควบคุมตามนี้เช่นกัน
จุดที่เป็นความท้าทายที่พบ ในการสร้าง custom AI ด้วย Low code มีดังนี้
- Citizen Developer ไม่ได้มีความเชี่ยวชาญในการพัฒนาระบบที่ใช้ AI
- ไม่มีเครื่องมือที่จะทำให้มั่นใจได้ว่า custom AI ที่ทำขึ้นมานั้น มีความปลอดภัยพอที่จะใช้ในองค์กร หรือตรงกับมาตรฐาน
- การใช้งานข้อมูลในองค์กร มีความเสี่ยงต่อการทำข้อมูลหลุด และทำผิดกฎขององค์กร
- แอดมินไม่มีเครื่องมือดีพอในการติดตาม custom AI ทุกตัว
ส่วนจุดที่เป็นความท้าทายที่พบในการสร้าง custom AI ด้วย Pro code มีดังนี้
- การควบคุมการใช้งาน model ในองค์กร
- การตรวจสอบรูปแบบการใช้งานที่ผิดปกติ ของ AI application
- การติดตามการเรียกใช้งานข้อมูลที่นำมาใช้กับ AI application
- การลดงานที่ต้องประสานการทำงานระหว่างนักพัฒนา กับ Security Admin
4. วิธีการที่ Microsoft นำเสนอการควบคุม Security และการใช้งาน ฝั่ง Low code AI และ Pro code AI เป็นแบบไหน?
โดยใน session จะมีการพูดถึงการสร้าง AI แอพพลิเคชั่น 2 รูปแบบ นั่นคือแบบ Low code (ผ่าน Copilot Studio) และ Pro code AI (ผ่าน Azure AI, AI Foundry ก็อยู่ในส่วนนี้) โดยพลขอสรุปใจความสำคัญของทั้ง 2 แบบมาสั้นตรงนี้ เพื่อให้เห็นการทำงานมากขึ้นนะ
แบบ Low code AI
ในส่วนของ Low code AI ผ่าน Copilot Studio ได้มีการแนะนำ Microsoft Purview (มีมาได้สักระยะหนึ่งแล้ว) ที่พร้อมกดเปิดใช้งานจาก Agent ที่สร้างขึ้นใน Microsoft Copilot Studio
- ทำให้เรื่อง security และการควบคุมการใช้งานถูกรวมเข้ามาใน Agent ตั้งแต่สร้างเลย
- การเปิดใช้งานทำได้ง่าย ผ่าน User Interface ที่ Citizen developer ถนัด
- ครอบคลุมการใช้งานทั้ง Copilots, AI Agent สร้างเอง, และ 3rd party AI
- หน้าจอเฉพาะอย่าง Data Security Posture Management (DSPM) ที่สรุปการใช้งาน AI ในองค์กรทั้งหมด, ความเสี่ยงที่เกิดขึ้น, เช่นใครพยายาม jailbreak Agent ขององค์กรอยู่บ้าง, หรือมีข้อมูลลับอะไรถูกใช้ใน AI app บ้างเป็นต้น
แบบ Pro code AI
ในส่วนของ Pro code AI ที่มักจะเกี่ยวข้องกับการทำงานบน Azure AI เช่นการ deploy model หรือ AI Service ใช้งาน ก็จะสามารถควบคุมผ่าน Policy ได้ และมีการทำงานร่วมกับ Microsoft Defender for Cloud ที่มีการเพิ่มความสามารถในการควบคุมการใช้งานในรูปแบบต่างๆ
- Model Governance Policy จะทำให้ admin แน่ใจได้ว่า การ deploy model ใช้งานนั้นอยู่ในการควบคุม เช่น การอนุมัติให้คนในองค์กร deploy เฉพาะ model ที่กำหนด
- Security Posture Management จะถูกนำเสนอผ่าน Microsoft Defender for Cloud แทน (ใน low code จะเป็น purview) ซึ่งทำให้ตรวจสอบการใช้งานของ AI Services รวมถึงจุดเสี่ยงต่างๆ ที่กำลังเกิดขึ้นผ่านการวิเคราะห์ข้อมูลใช้งานในปัจจุบัน
- Defender for Cloud นี่น่าสนใจ เพราะจุดที่มันถูกออกแบบมาเพื่อใช้งานแบบรองรับ multi-cloud ตั้งแต่ตอนแรก (เช่น องค์กรหนึ่งมีใช้งานทั้ง AWS และ Azure) ทำให้มันสามารถตรวจสอบการใช้งาน AI Service ของเจ้าอื่นได้ด้วย
- นอกจากนี้ตัว Defender for cloud ยังเชื่อมต่อกับหลายๆ resource บน Azure เพื่อทำการวิเคราะห์รูปแบบการโจมตี หรือแม้แต่การค้นหาชุดข้อมูลที่ไม่เหมาะสมในการนำไปใช้กับ GenAI ได้สะดวกขึ้น
สรุป
- องค์กรส่วนใหญ่ได้ยอมรับการใช้งาน AI หรือพัฒนาระบบที่มี AI เป็นส่วนประกอบกันแล้ว
- รูปแบบในการปรับแต่ง AI ให้ทำงานในองค์กร เรียกว่า custom AI และมีการสร้าง 2 แบบใหญ่ๆ ด้วยกันคือ Low code และ Pro code
- Microsoft ได้มีการนำรูปแบบการโจมตี หรือช่องโหว่ของ AI application ที่พัฒนาขึ้นมาใช้ในองค์กร มาศึกษาและเพิ่มวิธีป้องกัน รวมถึงรูปแบบการทำงานใหม่ๆ ในบริการของตัวเอง
- มีการผูกการทำงานของ Microsoft Purview เข้ากับการจัดการ Agent ใน Copilot Studio
- มีการเสริมรูปแบบการควบคุมการใช้งาน Azure AI ด้วย Policy ถึงในระดับบ service และ model รวมถึงการเพิ่มความสามารถของ Microsoft Defender for cloud ให้รับการการใช้งาน multi-cloud AI ด้วย