25 ก.พ. Explainable AI
ระบบ AI แฝงอยู่ในหลายระบบที่เราใช้งานตั้งแต่ตื่นขึ้นมาจนเข้านอน เช่น เริ่มตั้งแต่ตื่นขึ้นมาเราคว้า Social Media ขึ้นมาดูว่ามีประเด็นอะไรน่าสนใจในวันนี้ ระบบ Social Media เกือบทุกระบบมีการนำ AI algorithms มาใช้ เราขับรถไปทำงานด้วยการนำทางของ Maps ระบบการตรวจสอบใบหน้าก่อนเข้าไปที่ทำงานหรืออาคารต่าง ๆ Software ทั่ว ๆ ไปที่เราใช้สร้าง/อ่านเอกสารในขณะที่ทำงาน ไปจนถึงถ้าใครทำงานเป็นเจ้าหน้าที่ในสถาบันการเงินก็อาจมีระบบช่วยในการตัดสินใจที่จะอนุมัติ/ปฏิเสธ Application ต่าง ๆ ระบบ AI ที่ช่วยตรวจจับการทุจริต ถ้าเป็นคุณหมอก็อาจมีระบบที่ช่วยในการพิจารณาฟิล์ม X-Ray เป็นต้น
ลองนึกเล่น ๆ ครับว่าเราใช้งานระบบ ๆหนึ่ง แล้วระบบเสนอคำตอบหรือแนะนำอะไรมา ในบาง Domain ถ้าเป็นคนที่แนะนำแทนที่จะเป็นระบบ บ่อยครั้งเราจะมีคำถามกลับไปว่า “ทำไมถึงแนะนำอย่างนั้น?” เช่น ถ้าเป็นเจ้าหน้าที่สินเชื่อที่ปฏิเสธการขอสินเชื่อ ก็อาจจะมีคนถามว่า “ทำไมถึงปฏิเสธ?” ถ้าหมอบอกว่าเราน่าจะป่วยเป็นโรคกระเพาะ เราก็อาจจะถามคุณหมอว่าทำไมถึงคิดว่าเป็นโรคกระเพาะ ไม่ใช่โรคอื่น? ประเด็นคือถ้าสิ่งที่บอกเราเป็นระบบ AI เราเองก็คงอยากถามเช่นกันว่า “ทำไม” ถึงแนะนำคำตอบนั้น ๆ ครับ ซึ่งในกรณีนี้ถ้าระบบบอกเหตุผลหรือบอกที่มาของคำตอบได้ เราเรียกการใช้ข้อมูลเพิ่มเติมนี้ว่า “การอธิบาย” หรือที่นักวิจัยด้านระบบ AI ที่สามารถอธิบายที่มาของคำตอบว่า Explainable AI (EAI) System
ตัวอย่างการอธิบายของระบบ AI เช่น ถ้าเป็นระบบปล่อยสินเชื่อ (และถ้าไม่ใช่ระบบ scoring system ที่หลายที่ใช้งานอยู่) แล้วระบบ approve สินเชื่อให้กับลูกค้ารายหนึ่ง ระบบก็อาจจะมีเหตุผลเช่นว่า “เพราะจากสถิติแล้ว 87% ของลูกค้าที่มีรายได้อยู่ประมาณ xxx บาท ที่มีการศึกษาใกล้เคียงกับลูกค้ารายนี้ มีระยะเวลาการทำงานใกล้เคียงกัน และมีอาชีพในกลุ่มเดียวกันเป็นลูกค้าที่ดี” เป็นต้น
Explainable AI นั้นสำคัญต่อทิศทางของระบบ AI ขนาดไหน? –ในช่วงหลายปีที่ผ่านมาจนถึงปัจจุบันและจะยังเป็น Area ของงานวิจัยที่จะยังมีการทุ่มเงินมหาศาลในการคิดค้นเรื่องนี้ต่อไป เพราะหลายบทความ และองค์กรขนาดใหญ่ระดับโลกเห็นตรงกันว่าจริงอยู่ระบบ AI ที่ทำงานเช่น detect ภาพอาจไม่ต้องการเหตุผลสนับสนุนเพราะผลลัพธ์นั้นชัดเจนอยู่แล้วว่าถูกหรือผิด แต่สำหรับระบบ AI อีกจำนวนมากในหลาย domain การให้เหตุผลจากระบบนั้นถือว่าสำคัญมากขนาดที่ว่าผู้ใช้อาจไม่ยอมรับระบบเลยด้วยซ้ำถ้าอธิบายไม่ได้ จากประเด็นดังกล่าวองค์กรระดับโลกอย่าง Defense Advanced Research Projects Agency หรือ DARPA หนึ่งในองค์กรที่เน้นด้านการวิจัยระดับต้น ๆ ของโลกที่เน้นการวิจัยขั้นสูงด้านความมั่นคงของประเทศสหรัฐอเมริกาซึ่งเรียกงานวิจัยในประเด็นนี้ว่า XAI ได้มีงานวิจัยพิเศษที่เน้นเฉพาะการทำให้ระบบ AI สามารถที่จะอธิบายได้โดยเฉพาะ Google มีการวิจัยและพัฒนา Explainable AI Tools ที่เน้นไปที่การใช้ score บอกว่าอะไรถูกให้ความสำคัญเท่าไหร่ และ What-if Tool เพื่อใช้ในการ investigate model และ Microsoft เองก็มีการทำแต่เรียกว่า Interpretability ของ Machine Learning เป็นต้น ที่น่าสนใจอีกอย่างคือทำไมยักษ์ใหญ่เหล่านี้ถึงให้ความสำคัญกับ EAI? หนึ่งในเหตุผลทางธุรกิจก็คือมีการคาดการณ์ว่าระบบ EAI ที่สามารถให้เหตุผลได้นี้จะมี market share ประมาณ USD 21.03 billion ภายในปี 2030 ซึ่งชัดเจนว่าระบบ AI เกือบทุก domain ควรจะมีความสามารถนี้
ปัญหาคือไม่มีอะไรสมบูรณ์แบบในโลก – การทำให้ระบบ AI สามารถให้ข้อมูลสนับสนุนการตอบคำถามหรืออธิบายได้นั้นไม่ใช่เรื่องใหม่ ความพยายามนี้มีมาเกิน 20-30 ปีแล้วครับ ปัญหาการให้คำอธิบายนี้ส่วนใหญ่แล้วจะเกิดกับระบบ AI ที่ใช้ model ที่มีลักษณะแบบ model ทางสถิติ/คณิตศาสตร์ ในการตอบคำถาม เพราะสำหรับผู้ใช้งานแล้ว model เหล่านั้นไม่สามารถอธิบายแบบที่คนทั่วไปเข้าใจได้ และอีกกลุ่มที่มีปัญหานี้คือระบบที่ใช้พื้นฐานมาจาก Neural Network โดยเฉพาะระบบสมัยใหม่ซึ่งไม่ได้สนใจ attribute ของข้อมูลเลยจึงทำให้การอธิบายแทบจะเป็นไปไม่ได้เพราะ input ที่ระบบได้นั้นไม่มี attribute ตั้งแต่เริ่มอยู่แล้ว
ประเด็นที่สำคัญเกี่ยวกับ EAI ที่ต้องเข้าใจคือ การที่ผู้ใช้งานต้องเลือกเอาว่าจะเอา explainability หรือ accuracy เพราะ concept ส่วนใหญ่ที่มีความสามารถในการอธิบายนั้นมี accuracy ต่ำกว่า concept ที่ไม่สามารถอธิบายได้ นอกจากนั้นแล้วทุก concept หรือ algorithms ของ AI มีข้อจำกัดของตัวเอง บ่อยครั้งที่ concept ต่าง ๆ ที่ระบบ AI ใช้สามารถอธิบายได้ 1 หรือ 2 วิธีเท่านั้น นั่นหมายถึงว่าระบบอาจจะไม่สามารถอธิบายคำตอบได้ตรงใจกับที่ผู้ใช้งานระบบต้องการ 100% ดูเหมือนว่าผู้ใช้งานระบบจะต้องยอมรับ “ความจริง” ในส่วนนี้ว่าไม่มี solution อะไรที่สมบูรณ์แบบในโลก แม้ว่าจะมีองค์กรที่ทุ่มเงินวิจัยไปมหาศาลเท่าไหร่ใน area นี้
แล้วผู้บริหารต้องทำอย่างไร? – EAI ที่สามารถอธิบายได้นั้นค่อนข้างสำคัญครับ แต่อาจจะไม่สำคัญเท่ากันกับทุกองค์กร ท่านต้องถามตัวเองว่าความสามารถในการอธิบายของระบบ AI นั้นสำคัญหรือไม่ แล้วก็พิจารณาครับว่าแนวทางการอธิบายที่ระบบทำนั้นตอบโจทย์หรือไม่ ถ้าไม่ ต้องการอะไรเพิ่ม แต่ต้องเตรียมใจว่าบ่อยครั้ง concept แต่ละ concept ก็มีข้อจำกัดในการอธิบาย ไม่ใช่ว่าทุก concept จะสามารถปรับไปได้ตามที่ต้องการทั้งหมด และที่สำคัญคือต้องยอมความเป็นจริงเรื่องของการ trade off ระหว่าง explainability และ accuracy ครับ ไม่ต้องคิดเลยครับว่าจะเอาทั้ง 2 อย่างในระบบเดียว
No Comments