Chat GPT-4 ทำอะไรได้บ้าง และดีกว่าเวอร์ชันก่อนอย่างไร?
ช่วงปลายปี 2022 OpenAI สร้างความแรงกระตุ้นครั้งใหญ่ต่ออุตสาหกรรม AI ด้วย ChatGPT ปัญญาประดิษฐ์ ที่มีพื้นฐานมาจากรูปแบบภาษาขนาดใหญ่ สามารถสร้างข้อความ และ ตอบคำถามเพียงแค่พิมพ์คำถามลงไป การพัฒนา ChatGPT ยังคงดำเนินไปอย่างรวดเร็ว พร้อมกับฟีเจอร์ใหม่ๆ เพิ่มขึ้น มีประสิทธิภาพมากขึ้น ล่าสุด OpenAI ก็ปล่อย GPT- 4 ออกมา
ความแตกต่างของ ChatGPT ทั่วไป กับ GPT-4
ChatGPT และ GPT-4 จะใช้เทคโนโลยีแบบเดียวกันในการพัฒนาและให้ AI เรียนรู้ที่มีความซับซ้อน โดยการฝึกโมเดล ChatGPT โดดเด่นในการโต้ตอบในรูปแบบของบทสนทนา ซึ่งเป็นรูปแบบที่ช่วยให้ ChatGPT สามารถตอบและติดตามผลของคำถาม เรียนรู้ขอผิดพลาดได้เอง คัดค้านสิ่งที่ไม่ถูกต้อง และปฏิเสธคำขอหรือคำถามที่ไม่เหมาะสมได้
ส่วน GPT-4 หรือย่อมาจาก ‘Generative Pretrained Transformer 4’ เป็นความสำเร็จล่าสุดด้วยความพยายามของ OpenAI ในการขยายการเรียนรู้เชิงลึก โดย GPT-4 เป็นโมเดลรูปแบบที่มีขนาดใหญ่และมีความสามารถหลากหลายยิ่งขึ้น (สามารถเข้าใจทั้งรูปภาพและข้อความ) สามารถแสดงประสิทธิภาพระดับมนุษย์ตามเกณฑ์มาตรฐานทางวิชาชีพและทางวิชาการต่างๆ ตัวอย่างเช่น ผ่านการสอบจำลอง Bar Exam ด้วยคะแนนที่ดีขึ้นกว่า GPT-3.5 โดยเป็นการพัฒนาด้วยการใช้บทเรียนจากโปรแกรมการทดสอบจากภายนอกรวมถึงจาก ChatGPT ฝึกฝนซ้ำไปซ้ำมาเพื่อให้ได้ผลลัพธ์ที่ดีที่สุด แม้ว่าจะยังห่างไกลจากความสมบูรณ์แบบ
หากต้องการเปรียบเทียบความแตกต่างของทั้งสองสามารถแบ่งออกเป็นในด้านการฝึก (Training) ด้านสมรรถนะ (Performance) ด้านความสามารถ และข้อจำกัดกับความเสี่ยง
การฝึกฝน AI ของ ChatGPT และ GPT-4
ChatGPT พัฒนามาจากชุดข้อมูลการสนทนา รวมถึงข้อมูลการสาธิตต่างๆ ที่มนุษย์สร้างขึ้น เมื่อมีคำถามหรือปัญหาบางสิ่ง ตัว Chatbot จะตอบสนองตามที่ชุดคำสั่งกำหนด เช่นหากเราป้อนคำสั่ง “วิธีการทำ ต้มยำกุ้ง” ตัว Chatbot ก็จะแสดงผลออกมาเป็นสูตรวิธีการทำต้มยำกุ้ง เป็นต้น
ข้อมูลต่างๆ ที่ป้อนเข้ามาถูกนำมาพัฒนาใน ChatGPT-3.5 ด้วยวิธีที่เรียกว่า Supervised Learning เพื่อสร้างคำตอบหรือผลลัพธ์ให้ออกมาหลายรูปแบบ ตามชุดคำสั่งที่ผู้ใช้ป้อนเข้ามา อธิบายโดยละเอียดคือ วิธีนี้จะสร้าง Policy Model เพื่อนำไปสู่ขั้นตอนการสร้าง Multi Responses เมื่อมีการรับชุดคำสั่งจะมีการประเมินชุดคำสั่งว่าเหตุผลหรือผลลัพธ์ใดดีที่สุดสำหรับการตอบสนองชุดคำสั่งที่กำหนด และจะนำข้อมูลต่างๆ มาประมวลผลและแสดงผลลัพธ์ออกมา (Reward) และเพื่อให้ AI เกิดการเรียนรู้ มีการนำวิธี
Reinforcement Learning from Human Feedback (RLHF) ซึ่งเป็นวิธีการรวบรวมข้อเสนอแนะจากผู้ใช้ มาปรับปรุงโมเดลภาษาเพื่อให้ AI เรียนรู้ทำให้ระบบเกิดการจับคู่ของผลลัพธ์ที่ผู้ใช้ต้องการได้ ไม่ใช่แค่การทำนายผลลัพธ์แบบคำต่อคำเหมือนกับรุ่นก่อนหน้าอย่าง GPT-3
ส่วน GPT-4 ในตอนนี้ยังไม่มีรายละเอียดที่ชัดเจนมากนัก แต่สิ่งที่ GPT-4 ใช้เป็น Multi Model แบบ Transformer-Style ที่สามารถเรียนรู้ได้จากแหล่งข้อมูลแบบสาธารณะและแหล่งข้อมูลที่รับอนุญาตจากบุคคลที่ 3 และยังใช้เทคนิค RLHF มาเพิ่มประสิทธิภาพในการแสดงผลลัพธ์ที่แม่นยำขึ้นเช่นการตอบกลับเมื่อมีการป้อนคำสั่งมา ทำให้ผลลัพธ์ไม่หลุดออกนอกขอบเขตของคำถาม
ด้านสมรรถนะ (Performance)
OpenAI ได้ปรับปรุงการทำงานของ GPT-4 จากเวอร์ชัน GPT-3.5 เช่นการลดความถี่ การตอบกลับคำตอบที่ไม่ได้อนุญาตให้ตอบ ลดการสร้างเนื้อหาลบๆ ที่อาจเป็นภัยต่อผู้ใช้และยังมีประสิทธิภาพมากกว่า GPT-3.5 โดยมีการนำไปทดลองในการสอบด้านวิชาการและวิชาชีพ GPT-4 ได้คะแนนเกณฑ์ที่ 90 ในการสอบ Uniform Bar ซึ่ง GPT-3.5 ได้คะแนนเกณฑ์ที่ 10 เท่านั้น
ด้านความสามารถ (Capabilities)
ทั้ง ChatGPT และ GPT-4 จะมีความคล้ายกันแต่จะเน้นในเรื่องการเข้าถึงผู้ใช้และให้ผู้ใช้เข้าใจได้ง่าย แต่สิ่งที่แตกต่างอย่างเห็นได้ชัดคือ GPT-4 สามารถนำทั้งข้อความ และรูปภาพมาใช้ในการป้อนคำสั่งได้และมีความเป็นธรรมชาติมากยิ่งขึ้น ซึ่งแตกต่างจาก ChatGPT ในรุ่นก่อนหน้าที่ต้องใช้การป้อนคำสั่งเป็นข้อความเพียงอย่างเดียว
ข้อจำกัดและความเสี่ยงของ GPT-4 และ ChatGPT
ข้อจำกัดและความเสี่ยงของ GPT-4 และ ChatGPT นั้นมีความเหมือนกันสามารถแบ่งได้ดังนี้
- Hallucination หรือมีแนวโน้มการสร้างสร้างเนื้อหาที่ไม่สมเหตุสมผล
- การสร้างเนื้อหาที่อาจเป็นอันตราย เช่น เนื้อหาที่แสดงถึงความเกลียดชัง
- การสร้างข้อมูลในเชิงเสียดสี และลดคุณค่าของตัวบุคคล
- การสร้างข้อมูลเสมือนจริงที่ไม่มีในโลกซึ่งอาจทำให้เกิดความเข้าใจผิด
ถึงแม้ว่าจะมีความเสี่ยงที่เหมือนกัน แต่การทดลองให้ AI ของ ChatGPT เจอสถานการณ์ที่หลากหลายก็ช่วยเพิ่มประสิทธิภาพให้กับ GPT-4 ได้
ไม่ว่า GPT-4 จะมีความแต่งต่างและมีประสิทธิภาพมากกว่า ChatGPT ในรุ่นก่อนหน้ามากเพียงใด การพัฒนา AI ในอุตสาหกรรมอาจต้องประเมินความเสี่ยงก่อนที่จะนำผลิตภัณฑ์ออกมาใช้จริง และการพัฒนาโมเดลของ AI หรือการตัดสินใจเลือกโมเดลมาใช้กับ AI จะต้องอยู่ภายใต้การควบคุมและมีการตรวจสอบอย่างเข้มงวด เพื่อความปลอดภัยต่อผู้ใช้งานและต้องคำนึงในด้านศีลธรรมด้วย