การประยุกต์ใช้ Personalize AI เพื่อพัฒนา Language model พร้อมสร้าง AI System
โดยมีคุณ Shomir Wilson, Associate Professor แห่ง Pennsylvania State University, คุณ Scott Yih, Research Scientist แห่ง Meta FAIR, คุณ Minjoon Seo, Assistant Professor แห่ง KAIST, และผู้ดำเนินการรายการ คุณ Tejas Srinivasan, PhD student แห่ง University of Southern California ที่จะมาร่วมพูดคุยเกี่ยวกับประเด็นสำคัญบนเวทีแห่งนี้
มุมมองด้านการใช้ประโยชน์จาก Personalized AI สำหรับ User
- เริ่มต้นเซสชั่น คุณ Shomir ได้พูดถึงปัญหาด้าน Data Collection และ Content สำหรับผู้ใช้งาน ในฐานะของ Privacy Research เขามองว่านักพัฒนาหลายคนมักให้ความสำคัญกับการเก็บ Data มากกว่านำเสนอ Consent เพื่อเข้าถึงข้อมูลของ User จึงเป็นเรื่องสำคัญที่จะต้องทำให้ User เข้าใจว่า Data ที่ถูกเก็บนั้น จะนำไปใช้ประโยชน์ด้านไหนในเทคโนโลยีนี้
- ทางด้านของคุณ Scott ได้แบ่งปันประสบการณ์จากการเป็น Industrial Research Labs ที่ Microsoft เขามองว่าสิ่งสำคัญของการพัฒนา Product คือการทำอย่างไรให้ Product ของตัวเองมีความเป็น Personalized มากยิ่งขึ้น ยกตัวอย่างเช่น Shopping Platform ที่อาจแสดง Ads ไม่ตรงกับความสนใจของ User ที่มีการชำระเงินไปแล้ว หรือความกังวลด้านความปลอดภัยของข้อมูล ถือเป็นปัญหาที่หลายคนควรให้ความสนใจ
- สำหรับคุณ Minjoon ได้ยกตัวอย่างถึง 3 Large Language Model ทั้ง GPT, Claude, Llama เขาอธิบายถึงเหตุผลที่ทำให้รู้สึกว่า AI ยังทำงานได้ไม่ดีพอ อาจจะเป็นเพราะการไม่รู้จักตัวตนหรือมีข้อมูลของ User จึงทำให้ไม่สามารถตอบคำถามหรือมอบข้อมูลที่เหมาะสำหรับ User แต่ละรายได้ เช่น การใช้ GPT ในการเขียนอีเมล แต่ AI ยังเขียนอีเมลที่ไม่ตรงกับสไตล์การเขียนของเขา จึงคิดว่า Personalized AI อาจจะช่วยแก้ปัญหานี้ได้
การสร้างความสมดุลด้าน Data Privacy สำหรับ User VS Developer
ในด้านของ Data Privacy คุณ Shomir คิดว่าสิ่งสำคัญคือการสร้าง Framework ที่สามารถใช้งานร่วมกันได้ เพราะถ้า User รู้สึกกังวลเกี่ยวกับ Data เมื่อไหร่ ก็อาจทำให้การใช้งานลดลงตามไปด้วย นอกจากนี้ ยังมีแนวคิดที่เรียกว่า “Contextual Integrity” หรือการกำหนดขอบเขตในการแบ่งปันข้อมูลให้กับคนอื่น ๆ แบ่งเป็นข้อมูลที่มีความส่วนตัวสูงและข้อมูลทั่วไป โดยเราสามารถนำแนวคิดนี้ไปใช้ได้กับการเก็บข้อมูลส่วนบุคคล เพื่อออกแบบ Product หรือแม้แต่ Target Ads ที่ไม่ได้เกี่ยวข้องกับเทคโนโลยีโดยตรง จะช่วยให้ User รู้สึกปลอดภัยในการถูกเข้าถึงข้อมูลส่วนตัวมากยิ่งขึ้น
ในฝั่งของ Research Scientist แห่ง Meta FAIR คุณ Scott เผยข้อมูลเชิงลึกว่า ทุกโมเดลที่มีการปล่อยเวอร์ชั่นใหม่ออกมา จะมีการสร้าง Paper ที่อธิบายถึงรูปแบบของ Data ที่มีการนำมาใช้ในการ Traning AI ช่วยให้ User เข้าใจถึงจุดประสงค์ของการจัดเก็บข้อมูลมากยิ่งขึ้น นอกจากนี้ เขายังทำงานในฝั่งของ Academic Fundamental Research สำหรับองค์กร โดยมีการเปิดเผยว่า องค์กรของเขามีการจำกัดการเข้าถึงข้อมูลของ User และข้อมูลบริษัท ซึ่งถ้าหากใครต้องการเข้าถึงข้อมูลนั้น ก็จะต้องทำการ Authorization เพื่อยืนยันตัวตนและขออนุญาตเข้าถึงข้อมูลแทน ถือเป็นการแสดงให้เห็นว่าองค์กรของเขาเห็นความสำคัญของความปลอดภัยสำหรับข้อมูลเป็นอย่างมาก
บทบาทของการกำกับดูแล เพื่อแก้ปัญหาด้าน Data Privacy
คุณ Shomir มองว่า หน้าที่สำคัญของการกำกับดูแล AI หรือ AI Regulation คือการทำให้ผู้ใช้งานมั่นใจว่า ข้อมูลที่ถูกนำมาใช้จะได้รับการปกป้องให้ปลอดภัย และไม่นำมาใช้ผิดจากจุดประสงค์เดิม อีกทั้งยังต้องแจ้งให้ผู้ใช้งานรู้ว่าอาจมีความเสี่ยงจากเทคโนโลยีเหล่านี้ในอนาคต ซึ่งคุณ Shomir คิดว่าแม้แต่ผู้กำหนดกฎหมายเองก็ไม่อาจรู้ได้ว่าจะมีปัญหาด้าน Technical อะไรบ้างในอนาคต แต่ผู้ที่เกี่ยวข้องถูกฝ่ายที่เกี่ยวข้องกับการดูแลกำกับ AI สามารถสร้าง Guideline ในการอธิบายถึงหลักการของ Data Privacy ที่จะช่วยให้ผู้ใช้งานเข้าใจว่า Data ของพวกเขาจะถูกนำมาใช้ในด้านไหน และมีการจัดเก็บอย่างไรให้ปลอดภัยที่สุด ซึ่งถือเป็นเรื่องที่ยากที่สุดสำหรับการแก้ไขปัญหา Data Privacy
สำหรับคุณ Minjoon คิดว่า หลายคนอาจจะกังวลเกี่ยวกับการกำกับดูแล AI เนื่องจากยังมีความรู้ความเข้าใจในด้านนี้ไม่มากพอ แต่ในขณะเดียวกัน การกำกับดูแล AI ก็อาจมีประโยชน์สำหรับบางคนได้ ขึ้นอยู่กับระดับของ Privacy และความยินยอมของเจ้าของข้อมูล เช่น บางคนอาจจะยินยอมให้เข้าถึง Sensitive Data แต่บางคนอาจจะไม่อยากให้เข้าถึงข้อมูลนี้ ดังนั้น เราจึงควรทำความเข้าใจเกี่ยวกับความแตกต่างด้าน Personalization สำหรับ Pravicy ให้มากยิ่งขึ้น
ความท้าทายและจุดแข็งด้าน Technical ในการสร้าง Personalized System
- ในมุมมองของคุณ Minjoon เขาคิดว่า Personalization ใน Generative AI โดยเฉพาะ Language Model ถูกสร้างโดยการป้อน Prompt ที่แตกต่างกันเพื่อใช้ในการ Train Language Model ยกตัวอย่างเช่น ถ้าอยากให้ Language Model ตอบคำถามที่แตกต่างกัน เขาจะป้อน Prompt เพื่อให้ AI รู้ว่าจะต้องตอบคำถามแบบไหน และคำถามแบบไหนที่ผู้ใช้งานไม่ต้องการ เป็นต้น สิ่งเหล่านี้ถือเป็นทักษะพื้นฐานของการทำ Prompt Engineering เพื่อให้ Language Model เรียนรู้ถึงความแตกต่างได้มีประสิทธิภาพ
- แต่ในขณะเดียวกัน ก็อาจมีข้อจำกัดในการใช้งาน ขึ้นอยู่กับ Personalization ของผู้ใช้งานแต่ละบุคคล จึงทำให้คุณ Minjoon มองว่า Personalization นั้นไม่ได้แตกต่างกับการสร้าง Language Model Long Context แต่อย่างใด จึงเป็นสาเหตุที่ทำให้หลายบริษัทพยายามสร้าง 100 ล้านโทเคน สำหรับ Language Model เช่น บริษัท Google เป็นต้น
- นี่จึงเป็นสาเหตุที่ทำให้คุณ Minjoon คิดว่า ทำไมเราถึงไม่สร้าง Fine-Tuning Language Model หรือโมเดลที่ถูกปรับแต่งเพื่อให้ตอบโจทย์สำหรับการใช้งานแบบ Personalized มากยิ่งขึ้น เนื่องจาก Fine-Tuning Language Model จะช่วยให้เราสามารถใช้ประโยชน์จาก Personal Data ได้มากที่สุด
- ทั้งนี้ ปัญหาสำคัญในการสร้าง Language Model สำหรับ Personalization คือการที่โมเดลยังไม่สามารถทำงานได้อย่างมีเต็มที่ จึงมีเปลี่ยน Prompt สำหรับ Language Model แทน
- สำหรับมุมมองของ Research Scientist และ Technical คุณ Scott คิดว่าการสร้าง Large Model ให้รองรับกับความต้องการด้าน Personalizaion ยังคงเป็นเรื่องที่ท้าทายและน่าสนใจ เนื่องจาก Language Model ยังคงมีข้อจำกัดหลายอย่าง อีกทั้ง Personal Data ของ User เองอาจจะถูกเก็บไว้ใน Local Device แทนระบบ Cloud จึงเป็นโจทย์สำคัญในการทำให้ Personalizaion สามารถทำงานได้อย่างมีประสิทธิภาพ และตอบโจทย์ผู้ใช้งานแต่ละบุคคล
โอกาสและความท้าทายสำหรับ Personalization ใน AI System
- คุณ Shomir กล่าวถึงความสำคัญในการทำให้ Personalization สามารถทำงานร่วมกับผู้ใช้งานในแต่ละกลุ่มได้อย่างเต็มที่ โดยให้ความเคารพและความสำคัญของผู้ใช้งาน เช่นการกำหนดเพศของผู้ใช้งานให้เป็น Open-Ended Gender แทนการกำหนดเพศชายหญิงแบบแต่ก่อน ซึ่งถึงแม้ว่า Personalization จะช่วยรองรับกับความต้องการส่วนบุคคล แต่ก็ยังมีจุดที่ต้องระวังเพื่อป้องกันไม่ให้กระทบสำหรับกลุ่มผู้ใช้งานที่มีความหลากหลายนั่นเอง
- สำหรับคุณ Scott มองว่า Personalization เป็นทางเลือกที่ดีในการสร้างความสมดุลสำหรับการใช้ Personal Data ทั้งในฝั่งของผู้ใช้งานและนักพัฒนาเอง ถือเป็นการออกแบบ Model ให้ตรงกับจุดประสงค์ในการใช้งานมากยิ่งขึ้น
- คุณ Minjoon อธิบายว่า วิธีที่สามารถทำให้ Language Model ทำงานได้ดี คือการไม่ให้ Context ที่เพียงพอ เช่นถ้าเรา Training Language Model ร่วมกับข้อมูลจากนิยายเรื่อง Harry Potter เราสามารถ Train Model เพื่อให้คาดเดาถึง Token ถัดไปได้ โดยไม่ต้องให้ Context ที่อธิบายว่าเรื่องนี้คือ Harry Potter เพื่อให้ Model เรียนรู้ด้วยตัวเอง
- นอกจากนี้ คุณ Minjoon ยังมองว่าเราสามารถ Train Model โดยให้ Context ได้ เพื่อให้เกิดความหลากหลาย และทำให้ Model สามารถป้อนข้อมูลที่มีความ Personalization มากขึ้น
จากมุมมองของนักวิจัยและผู้เชี่ยวชาญด้านการพัฒนา Language Model ใน Session นี้ เราจะเห็นได้ว่าการนำ Personalization มาพัฒนาร่วมกับ Language Model และการสร้าง AI System จะช่วยให้ผู้ใช้งานสามารถดึงศักยภาพของ AI และได้รับข้อมูลที่ตรงกับความต้องการมากที่สุด ทั้งนี้ ยังคงมีเรื่องที่ต้องระวังทั้งในด้านของ Data Privacy และการพัฒนา Language Model ให้ตอบโจทย์สำหรับผู้ใช้งานในหลากหลายกลุ่มมากยิ่งขึ้น ถือเป็นก้าวที่น่าสนใจและน่าติดตามสำหรับการ Training Lanaguage Model และการพัฒนา Personalization ให้มีประสิทธิภาพในอนาคต
รับชมทั้งหมดได้ทาง Youtube: https://youtu.be/ZLuA3XTVKHc?si=gIj_cKxFSE9oHpqr