milkyway 6
milkyway 7
milkyway 8
Technology
23 ธันวาคม 2568
ภาษาไทย

Confidential AI: กุญแจดอกสำคัญสู่การใช้งาน Enterprise AI อย่างปลอดภัย

02-th-1200x800.jpg

ในยุคที่ข้อมูลเปรียบเสมือน "ขุมทรัพย์" องค์กรต่างเร่งเครื่องนำ AI เข้ามาช่วยขับเคลื่อนธุรกิจ แต่ติดกับดักสำคัญคือ "ความปลอดภัยของข้อมูล" (Data Privacy) โดยเฉพาะเมื่อต้องจัดการกับข้อมูลที่มีความอ่อนไหวสูง (Sensitive Data)


จากเวที AI-VOLUTION ในการเสวนาหัวข้อ Confidential AI: Unlocking Sensitive Data for Trusted Enterprise AI โดย Rishabh Poddar, CTO ของ Opaque Systems ได้นำเสนอทางออกที่เรียกว่า "Confidential AI" ซึ่งกำลังจะกลายเป็นมาตรฐานใหม่ที่ขาดไม่ได้


เมื่อความต้องการข้อมูลสวนทางกับความเป็นส่วนตัว

Opaque Systems ถือกำเนิดขึ้นจากงานวิจัยที่ UC Berkeley ในช่วงปี 2015-2016 ท่ามกลางกระแสความขัดแย้งของสองโลก:

  1. โลกธุรกิจ: ต้องการข้อมูลที่หลากหลายและลึกซึ้งมากขึ้นเพื่อเทรนโมเดล Machine Learning ให้เก่งขึ้น
  2. โลกกฎหมาย: กฎระเบียบด้านความเป็นส่วนตัว (Privacy Laws) ทั่วโลกกลับเข้มงวดขึ้นเรื่อยๆ

โจทย์ใหญ่จึงอยู่ที่ว่า "เราจะปลดล็อกมูลค่าของข้อมูลมาใช้ได้อย่างไร โดยที่ไม่ละเมิดกฎเหล็กด้านความปลอดภัย?" นี่คือที่มาของภารกิจในการสร้างเทคโนโลยีที่ทำให้ข้อมูลยังคงเป็นความลับ แม้ในขณะที่กำลังถูกนำไปใช้งาน

Runtime Encryption: จิ๊กซอว์ชิ้นที่หายไป

Rishabh ชี้ให้เห็นว่า ระบบรักษาความปลอดภัยข้อมูลแบบเดิมนั้นไม่เพียงพออีกต่อไป

  • อดีต: เราคุ้นเคยกับการเข้ารหัสข้อมูล "ขณะพัก" (At Rest - ในฮาร์ดดิสก์) และ "ขณะส่ง" (In Transit - ผ่านเครือข่าย)
  • ปัจจุบัน: จุดบอดสำคัญคือช่วงเวลาที่ข้อมูลถูกดึงมาประมวลผล (Processing) ซึ่งมักต้องถอดรหัสออกมาเป็นข้อความปกติ ทำให้เกิดความเสี่ยง

Confidential AI เข้ามาอุดช่องว่างนี้ด้วยการเข้ารหัสข้อมูล "ขณะทำงาน" (In Use/Runtime) ข้อมูลจะถูกประมวลผลภายในพื้นที่ปิดที่ได้รับการปกป้อง (Enclaves) แม้แต่ผู้ให้บริการ Cloud หรือเจ้าหน้าที่ดูแลระบบ (Admin) ก็ไม่สามารถแอบดูข้อมูลได้


Trust Cycle: ความปลอดภัยที่ตรวจสอบได้ 3 ระยะ

ระบบของ Opaque ไม่ได้แค่ป้องกัน แต่สร้าง "ความเชื่อมั่น" ครบวงจร:

  • ก่อนประมวลผล (Before): ทีมงานสามารถตรวจสอบ ได้ว่า Agent ตัวไหน โมเดลอะไร หรือนโยบาย (Policy) ใดที่จะถูกใช้กับข้อมูล หากไม่ผ่านการตรวจสอบ ข้อมูลจะไม่ถูกแตะต้อง
  • ระหว่างประมวลผล (During): นี่คือจุดเด่นที่สุด ข้อมูลจะถูกเข้ารหัส แม้กระทั่งในหน่วยความจำ ขณะที่ AI กำลังทำงาน ทำให้แม้แต่ผู้ให้บริการ Cloud หรือ Infrastructure ก็ไม่สามารถแอบดูข้อมูลได้
  • หลังประมวลผล (After): มีหลักฐาน (Audit logs) ยืนยันได้ว่าข้อมูลถูกใช้ไปตามวิธีที่อนุญาตไว้เท่านั้น เพื่อการตรวจสอบทางกฎหมาย 

Generative AI และการใช้งานจริงในองค์กร

การมาถึงของ Generative AI ยิ่งทำให้ Confidential AI จำเป็นมากขึ้น เพราะ GenAI ต้องใช้ข้อมูลดิบมหาศาลและมักทำงานแบบคาดเดาได้ยาก (Non-deterministic) ความเสี่ยงที่ข้อมูลความลับจะรั่วไหลจึงมีสูง


Rishabh ยกตัวอย่าง ServiceNow ที่นำ Confidential AI มาใช้สร้างระบบ RAG (Retrieval-Augmented Generation) ภายในองค์กร เพื่อตอบคำถามพนักงานเรื่องละเอียดอ่อนอย่าง "ค่าคอมมิชชัน" หรือ "โควตาการขาย" โดยระบบสามารถดึงข้อมูลจริงจากฝ่าย HR และ Sales มาประมวลผลตอบคำถามได้โดยที่ข้อมูลไม่รั่วไหล และเป็นไปตาม Policy ของบริษัทอย่างเคร่งครัด


นอกจากนี้ ยังเปิดโอกาสให้เกิด Multi-party Collaboration เช่น ธนาคารหลายแห่งร่วมมือกันตรวจจับการฟอกเงิน หรือโรงพยาบาลแชร์ข้อมูลเพื่อวิจัยโรค โดยไม่ต้องเปิดเผยข้อมูลลูกค้าของตนให้ฝ่ายอื่นเห็น (Data Sharing without Data Showing)


มาตรฐานใหม่แห่งอนาคต

Rishabh ทิ้งท้ายด้วยการเปรียบเทียบที่น่าสนใจว่า ในอดีตเว็บไซต์เคยส่งข้อมูลแบบเปิดเผย จนกระทั่งระบบ TLS (HTTPS) กลายเป็นมาตรฐานความปลอดภัยพื้นฐาน


"Confidential AI ก็เช่นกัน ในอนาคต AI ทุกตัวควรเป็น Confidential และตรวจสอบได้ (Verifiable)"


สำหรับผู้นำองค์กร การรอให้พร้อมอาจสายเกินไป คำแนะนำคือให้เริ่มมองหา Use Case ที่สร้างผลกระทบสูง (High Impact) และเริ่มวางรากฐานความปลอดภัยแบบ Built-in ตั้งแต่วันนี้ 


รับชมย้อนหลังได้ที่ https://www.youtube.com/watch?v=fvjIbvB3uwk&list=PLJCrobWNqQvuxoXJNq5fS8p8KGb5xmc-t&index=25

#AIVOLUTION #OpaqueSystems #AI #SCB10X #EnterpriseAI

Use and Management of Cookies

We use cookies and other similar technologies on our website to enhance your browsing experience. For more information, please visit our Cookies Notice.

Reject
Accept