milkyway 6
milkyway 7
milkyway 8
trending
09 เมษายน 2567
ภาษาไทย

รู้จัก ‘Guardrails AI’ และ ‘Guardrails Hub’ ตัวช่วยสร้างแอปพลิเคชัน AI ให้สมบูรณ์กว่าที่เคย

ข้อมูลผิดพลาดและอคติ (Bias) ที่เกิดกับโมเดลภาษาขนาดใหญ่ (Large Language Models: LLMs) หรือแพลตฟอร์ม Generative AI (GenAI) เป็นความท้าทายที่รอการแก้ไขเพื่อปลดล็อก AI ที่มีประสิทธิภาพยิ่งขึ้น โดยวิธีที่ ‘Guardrails AI’ บริษัทจากซานฟรานซิสโกกำลังพยายามแก้ไขปัญหาอยู่ก็ได้สร้างความแตกต่างจากแพลตฟอร์มอื่นที่เคยมี ซึ่งล่าสุดได้เปิดตัวโครงการ Open-Source ที่ชื่อ ‘Guardrails Hub’ เพื่อแก้ปัญหา สร้างความปลอดภัยและเพิ่มความน่าเชื่อให้แอปพลิเคชัน AI


Article2APRTH_1200X800.jpg


ทำไม AI ยุคใหม่ถึงมีความท้าทาย?



Generative AI มีประโยชน์มหาศาล แต่ก็ยังมีความท้าทาย เช่น การสร้างข้อมูลที่ไม่ถูกต้อง (Hallucinations) ตัวอย่างเช่น ระบบประกันสุขภาพที่ให้คำแนะนำทางการแพทย์ หรือแชทบอท ที่แนะนำลูกค้าให้ไปใช้บริการบริษัทคู่แข่ง ซึ่งข้อมูลที่ไม่ถูกต้องเหล่านี้อาจเป็นอันตราย ส่งเสริมความรุนแรง เกิดการเหยียดหยาม และสร้างจากทฤษฎีสมคบคิด ซึ่งวิธีแก้ปัญหาที่มีอยู่เดิมก็ยังมีความซับซ้อนและแก้ได้ยาก



Guardrails AI และ Guardrails Hub: เกราะป้องกันที่ช่วยสร้างความน่าเชื่อถือสำหรับ AI

 

Guardrails เปรียบเสมือนระบบความปลอดภัยสำหรับแอปพลิเคชัน AI ที่ช่วยเพิ่มความปลอดภัยและน่าเชื่อถือได้มากขึ้น ซึ่งมีฟังก์ชันการทำงานหลัก 2 ประการ:

  • 1. ตรวจจับและแก้ไขปัญหา: Guardrails ทำหน้าที่ตรวจสอบข้อมูลขาเข้าและขาออกของแอปพลิเคชัน AI เพื่อระบุและแก้ไขความเสี่ยงที่อาจเกิดขึ้น โดยอาจมีความเสี่ยง เช่น อคติในข้อมูล ผลลัพธ์ที่ไร้สาระ หรือช่องโหว่ด้านความปลอดภัย 
  • 2. จัดระเบียบ LLM: โมเดลภาษาขนาดใหญ่ (LLMs) ที่สามารถสร้างข้อมูลจำนวนมาก แต่อาจมีความยุ่งเหยิงและใช้งานยาก โดย Guardrails สามารถช่วยจัดการข้อมูลและแปลงเป็นรูปแบบที่ชัดเจนและมีโครงสร้างซึ่งทำให้ใช้งานง่ายขึ้น

Screenshot 2567-04-09 at 17.47.07.png
                                                                                           เครดิตภาพ : www.guardrailsai.com

 

ส่วนประกอบหลักสองประการของ Guardrails:

 

  • 1. Guardrails ในแอปพลิเคชันของผู้ใช้: เป็นส่วนที่ทำงานอยู่ภายในโปรแกรม AI ของผู้ใช้ คอยตรวจสอบหาปัญหาที่อาจเกิดขึ้นอย่างต่อเนื่อง

  • 2. Guardrails Hub: เสมือนแหล่งข้อมูลออนไลน์แยกต่างหากที่มีชุดเครื่องมือสำเร็จรูปที่เรียกว่า "Validators" โดย Validators เหล่านี้จะมุ่งเป้าไปที่ความเสี่ยงเฉพาะ และผู้ใช้สามารถรวม Validators เข้าด้วยกันเพื่อสร้างการตรวจสอบที่ทรงพลังมากขึ้นสำหรับแอปพลิเคชัน AI และเมื่อไปที่ Guardrails Hub ก็จะพบรายการ Validators ทั้งหมดพร้อมคำอธิบายโดยละเอียด

 

Guardrails Hub ทำงานอย่างไร?



Guardrails Hub แพลตฟอร์มแบบ Open-Source ที่เปรียบเสมือนชุมชนสำหรับนักพัฒนาเพื่อสร้างการตรวจสอบที่แข็งแกร่งยิ่งขึ้น มีลักษณะการทำงาน ดังนี้:

  • สร้างและแบ่งปัน Validators: นักพัฒนาสามารถสร้างเครื่องมือตรวจสอบความถูกต้อง (Validators) เพื่อตรวจสอบความถูกต้องของข้อมูล ป้องกันปัญหาต่างๆ เช่น ข้อมูลที่ไม่ถูกต้อง การละเมิดกฎหรือนโยบาย และโค้ดที่ไม่ปลอดภัย

  • มุ่งเน้นการทำงานร่วมกัน: แพลตฟอร์มแบบ Open-Source ช่วยให้นักพัฒนาสามารถแบ่งปัน Validators แก่กัน ช่วยให้นักพัฒนาคนอื่นสามารถนำไปใช้ต่อยอดและพัฒนาโมเดล Gen AI ได้อย่างมีประสิทธิภาพ

  • โดดเด่นด้วยการสร้างความปลอดภัยผ่าน Crowdsourced: Guardrails AI มุ่งสร้างชุมชนนักพัฒนาที่ร่วมมือกันเพื่อสร้างและปรับปรุงความปลอดภัยของ Gen AI ที่ดียิ่งขึ้น

 

Guardrails Hub ช่วยแก้ปัญหาอะไรบ้าง?

 

  • ปรับปรุงความน่าเชื่อถือของ AI : ช่วยให้นักพัฒนาสร้างโมเดล Gen AI ที่มีความน่าเชื่อถือ ปลอดภัย และใช้งานได้จริง

  • เสริมความน่าไว้วางใจ: ช่วยให้มั่นใจว่าโมเดล Gen AI ทำงานบนพื้นฐานของข้อมูลที่ถูกต้อง ปฏิบัติตามกฎหรือนโยบาย และมีความปลอดภัยสูง

  • สร้างความร่วมมือกัน: ช่วยให้นักพัฒนาสามารถทำงานร่วมกัน พัฒนาเครื่องมือและเทคนิคใหม่ ๆ เพื่อยกระดับความปลอดภัยของ Gen AI

 

Guardrails Hub ช่วยเสริมสร้างความน่าเชื่อถือให้ AI ได้อย่างไร?

 

Guardrails Hub เป็นแพลตฟอร์มที่ช่วยให้นักพัฒนาสร้าง แชร์ และใช้งานเครื่องมือตรวจสอบคุณภาพ (Validators) ได้ง่ายดาย ปัจจุบันมี Validators สำเร็จรูปกว่า 50 ตัว ที่พัฒนาโดยทั้ง Guardrails AI และชุมชนผู้ใช้งาน



Validators บน Guardrails Hub คืออะไร?

 

Validators เป็นส่วนประกอบพื้นฐานของ Guardrails ที่ใช้ในการตรวจสอบความถูกต้องในขั้นตอนการทำงานของ LLM โดย Validators จะช่วยป้องกันไม่ให้ผู้ใช้ปลายทาง (End-User) ได้รับผลลัพธ์ที่ผิดพลาดหรือไม่ปลอดภัยจาก LLM


Validators เปรียบเหมือนบล็อกตัวต่อที่ช่วยให้นักพัฒนาช่วยกันสร้างระบบป้องกัน เพื่อยกระดับความน่าเชื่อถือให้กับแอปพลิเคชัน AI ซึ่ง Validators จะทำหน้าที่ตรวจสอบความถูกต้อง ตรวจจับปัญหาด้านความปลอดภัย เพื่อเพิ่มประสิทธิภาพของ AI



ประโยชน์ของ Guardrails Hub

 

  • สร้าง "ผู้ตรวจสอบ" (Validators) ป้องกันความผิดพลาด เสริมความน่าเชื่อถือให้ AI: Guardrails Hub ไม่เพียงแค่เป็นคลังเก็บเครื่องมือ แต่ยังเปรียบเหมือนเป็นโรงงานผลิตผู้ตรวจสอบ (Validators) สำหรับ AI ด้วย โดยนักพัฒนาสามารถสร้าง Validators ได้ตามความต้องการ ไม่ว่าจะเป็นกฎพื้นฐานง่ายๆ หรือ Machine Learning Algorithm ที่ซับซ้อนเพื่อตรวจจับและลดอคติ (Bias), ความไม่แม่นยำ และความเสี่ยงในการละเมิดกฎระเบียบของ AI 
    • ตัวอย่าง Validators:
      • คอยบล็อกข้อความที่ไม่สุภาพออกจากแชทบอท
      • ตรวจสอบข้อมูลสุขภาพของผู้ขอสินเชื่อ เพื่อให้แน่ใจว่าระบบ AI ปฏิบัติตามกฎหมายคุ้มครองข้อมูลส่วนบุคคล
      • วิเคราะห์ผลลัพธ์ของ AI เพื่อป้องกันการเลือกปฏิบัติ เช่น การแนะนำงานโดยอิงเพศ

  • ร่วมมือกันสร้างคลัง Validators เพิ่มความน่าเชื่อถือให้วงการ AI: Guardrails Hub ไม่ได้เป็นเพียงแค่แหล่งรวบรวม Validators สำเร็จรูปเท่านั้น แต่ยังเป็นพื้นที่สำหรับการทำงานร่วมมือระหว่างเหล่านักพัฒนาอีกด้วย และ Validators ที่สร้างเสร็จแล้วสามารถนำไปแบ่งปันกับคนอื่นใน Hub เพื่อให้ชุมชนผู้ใช้ได้ประโยชน์ร่วมกัน

  • ไม่ต้องสร้าง Validators ด้วยตนเอง: Guardrails Hub ไม่ได้แค่เป็นคลังเก็บ Validators แต่ยังช่วยให้การพัฒนา AI รวดเร็วขึ้นด้วย อีกฟีเจอร์เด่นคือการนำ Validators สำเร็จรูปมาใช้ใหม่ (Re-Use) โดยนักพัฒนาสามารถเลือกใช้ Validators สำเร็จรูปที่มีอยู่กว่า 50 ตัว ซึ่งช่วยประหยัดเวลาในการพัฒนาและมั่นใจได้ว่าแอปพลิเคชัน AI จะมีความปลอดภัยและน่าเชื่อถือตามมาตรฐาน

  • สร้าง ‘Guards’ จากการร่วมกันของ Validators : Validators สามารถนำมารวมกันได้เหมือนกับต่อบล็อกเพื่อสร้างตัวป้องกันหรือ "Guards" ขึ้น ช่วยให้นักพัฒนาสามารถปรับมาตรการความน่าเชื่อถือให้เหมาะกับความเสี่ยงและความต้องการเฉพาะของแต่ละแอปพลิเคชัน จึงช่วยเพิ่มความยืดหยุ่นและประสิทธิภาพในการใช้งาน

  • บังคับใช้มาตรฐานความน่าเชื่อถือให้กับ AI: Guards ทำหน้าที่บังคับใช้มาตรฐานความน่าเชื่อถือและขอบเขตความเสี่ยงที่นักพัฒนาตั้งเอาไว้โดยอาศัย Validators ที่รวมเข้าด้วยกัน ซึ่ง Guards ช่วยให้นักพัฒนาสามารถกำหนดขอบเขตด้านความน่าเชื่อถือ ความปลอดภัย และประสิทธิภาพที่ต้องการไว้ในแอปพลิเคชัน AI ได้ ทำให้มั่นใจว่า AI จะทำงานตามกรอบทางจริยธรรมและกฎระเบียบที่กำหนดไว้ และช่วยลดความเสี่ยงจากผลกระทบที่ไม่คาดคิด
    • ตัวอย่างการใช้ Guards:
      • นักพัฒนาอาจสร้าง Guards เพื่อป้องกันไม่ให้แชทบอทโต้ตอบกลับด้วยข้อความทไม่สุภาพ
      • สร้าง Guards เพื่อป้องกันไม่ให้ระบบประกันภัย AI อนุมัติกรมธรรม์สุขภาพโดยไม่ได้พิจารณาประวัติสุขภาพของผู้ขอรับประกันภัยอย่างละเอียด

 

ตัวอย่างการใช้งานของ Validators เพิ่มเติม:

 

  • ช่วยตรวจสอบข้อเท็จจริงของข้อมูลที่ AI สรุปออกมา
  • ช่วยควบคุมให้แชทบอทสื่อสารเป็นไปตามบริบทของแบรนด์
  • ช่วยตรวจสอบให้ AI ปฏิบัติตามกฎระเบียบ

 

Guardrails AI ได้รับทุนสนับสนุน 7.5 ล้านดอลลาร์ 

 

Guardrails AI ได้รับทุนสนับสนุน 7.5 ล้านดอลลาร์เพื่อขยายทีมและโครงการ Guardrails Hub จาก Zetta Venture Partners (บริษัท Venture Capital) ซึ่งเป็นผู้นำการระดมทุนรอบนี้ และ ‘SCB 10X’ ก็ได้ร่วมลงทุนในครั้งนี้ พร้อมกับบริษัทชั้นนำอื่นๆ และบุคคลสำคัญในวงการ AI ได้แก่ Bloomberg Beta, Pear VC, Factory, GitHub Fund และเหล่ากูรู AI ชื่อดังอย่าง Ian Goodfellow และ Logan Kilpatrick



สรุป


Guardrails AI เป็นแพลตฟอร์มที่น่าจับตามองอย่างมาก ซึ่งจะช่วยให้บริษัทต่างๆ สามารถใช้ประโยชน์จาก AI ยุคใหม่ได้อย่างมั่นใจ โดย Guardrails AI และ Guardrails Hub เป็นเครื่องมือสำคัญสำหรับนักพัฒนาที่ต้องการสร้างโมเดล Gen AI ที่มีความน่าเชื่อถือ ปลอดภัย และใช้งานได้จริง ผ่านการทำงานร่วมกันในชุมชนแบบ Open-Source อย่าง Guardrails Hub


-------------------------------------

 

 

Sources:

 

https://www.finsmes.com/2024/03/guardrails-ai-raises-7-5m-in-seed-funding.html  

https://www.thesaasnews.com/news/guardrails-ai-closes-7-5-million-in-seed-round  

https://techcrunch.com/2024/02/15/guardrails-ai-builds-hub-for-genai-model-mitigations/

https://www.guardrailsai.com  

https://www.globenewswire.com/news-release/2024/02/15/2830261/0/en/Guardrails-AI-is-Solving-the-LLM-Reliability-Problem-for-AI-Developers-With-7-5-Million-in-Seed-Funding.html

Use and Management of Cookies

We use cookies and other similar technologies on our website to enhance your browsing experience. For more information, please visit our Cookies Notice.

Accept