AI ภาพหลอน (hallucination) จนถึงทุกวันนี้ยังคงเป็นหนึ่งในปัญหาที่น่าปวดหัวที่สุดสำหรับโมเดลภาษาขนาดใหญ่ (LLM) แต่ศาสตราจารย์ของ Wharton Business School Ethan Mollick เสนอประเด็นที่น่าสนใจบน X ว่า: มนุษย์นับร้อยปีมาแล้วได้พัฒนากลไกที่เป็นรูปธรรมและเติบโตเต็มที่ ซึ่งสามารถได้ผลลัพธ์ที่เชื่อถือได้จากแหล่งข้อมูลที่ไม่น่าเชื่อถือได้—ชุดกลไกนั้นเรียกว่า “โครงสร้างเชิงองค์กร” (organizational structures) และเราสามารถนำวิธีการลักษณะเดียวกันนี้ไปใช้กับ AI ได้เช่นกัน ทวีตนี้ได้รับ 329 ไลก์ 35 รีโพสต์ และ 44 คอมเมนต์ จุดประกายให้เกิดการถกเถียงเชิงลึกเกี่ยวกับวิธีรับมือกับภาพหลอนของ AI อย่างเป็นรูปธรรม
แล้ว “โครงสร้างเชิงองค์กร” มีความเป็นอนาล็อก (เปรียบเทียบ) อย่างไร?
ข้อโต้แย้งหลักของ Mollick ชี้ตรงไปยังความจริงที่มักถูกมองข้าม: มนุษย์ไม่เคยเป็นแหล่งข้อมูลที่เชื่อถือได้อย่างสมบูรณ์แบบ ในประวัติศาสตร์ ไม่ว่าจะเป็นบัญชีทางการเงิน การวินิจฉัยทางการแพทย์ หรือคำพิพากษาทางกฎหมาย ผลลัพธ์ที่มนุษย์ให้ยังคงมีความเสี่ยงต่อข้อผิดพลาดอยู่เสมอ อย่างไรก็ตาม อารยธรรมที่ทำงานได้ปกติเป็นเพราะเราพัฒนาชุด “โครงสร้างเชิงองค์กร” เพื่อควบคุมความเสี่ยงเหล่านี้
โดยแท้แล้ว โครงสร้างเหล่านี้คือ “เครื่องจักรสกัดข้อผิดพลาด” ที่ละเอียดอ่อนอย่างหนึ่ง: ผ่านการแบ่งหน้าที่ การตรวจสอบแบบลำดับชั้น การตรวจสอบซ้ำกันแบบไขว้ และกระบวนการที่ทำให้เป็นระบบ เราจะเปลี่ยนความไม่น่าเชื่อถือของปัจเจกบุคคลให้กลายเป็นความน่าเชื่อถือในระดับระบบ Mollick เชื่อว่า แทนที่จะหมกมุ่นกับการสร้าง “AI ที่ไม่เคยผิดพลาด” เราควรเปลี่ยนมุมมอง—เหมือนกับที่เราปฏิบัติต่อพนักงานมนุษย์ นั่นคือสร้างระบบควบคุมคุณภาพแบบเป็นระบบให้กับ AI
วิธีประยุกต์ที่ชัดเจน: การทบทวน การทดสอบ และการตรวจสอบแบบไขว้
ในการอภิปรายต่อเนื่องที่เกิดจากทวีต Mollick และผู้ร่วมอภิปรายคนอื่น ๆ ได้สำรวจวิธีการเฉพาะหลายแบบที่สามารถยืมมาใช้ได้โดยตรงจากการจัดการองค์กร อย่างแรกคือ “กลไกการทบทวน” (reviews) คล้ายกับที่ผู้บริหารในบริษัทตรวจสอบหรือการประเมินโดยเพื่อนร่วมงาน ทำให้โมเดล AI อีกตัวหนึ่งหรือผู้เชี่ยวชาญด้านมนุษย์ตรวจสอบผลลัพธ์ของ LLM อย่างเป็นระบบ
ต่อมาคือ “กลไกการทดสอบ” (tests) ซึ่งคล้ายกับการทดสอบหน่วย (unit tests) และกระบวนการประกันคุณภาพในวงการพัฒนาซอฟต์แวร์ โดยกำหนดมาตรฐานที่ตรวจสอบได้สำหรับผลลัพธ์แต่ละรายการของ AI ประการที่สามคือ “การตรวจสอบแบบไขว้” (cross-checks) ให้โมเดล AI อิสระหลายตัวหรือแหล่งข้อมูลที่แตกต่างกันตอบคำถามเดียวกัน แล้วนำผลมาเปรียบเทียบความสอดคล้องกัน—เช่นเดียวกับการถ่วงดุลซึ่งกันและกันระหว่างแผนกต่าง ๆ ในองค์กร
ตรรกะร่วมของวิธีเหล่านี้คือ: ไม่พึ่งพาความสมบูรณ์แบบของโหนดเพียงจุดเดียว แต่ลดอัตราข้อผิดพลาดโดยออกแบบระบบ ซึ่งสอดคล้องกับแนวคิด “Swiss Cheese Model” (แบบจำลองชีสสวิส) ในทฤษฎีการจัดการคุณภาพสมัยใหม่เป็นอย่างยิ่ง—แต่ละชั้นของการป้องกันมีช่องโหว่ แต่เมื่อซ้อนหลายชั้นเข้าด้วยกัน โอกาสที่ข้อผิดพลาดจะทะลุผ่านทุกระดับจะลดลงอย่างมาก
ข้อคิดสำหรับการปรับใช้ AI ในองค์กร
กรอบความคิดชุดนี้ของ Mollick มีประโยชน์อย่างยิ่งสำหรับบริษัทที่กำลังนำ AI ไปใช้ เมื่อเผชิญปัญหาภาพหลอนของ AI บริษัทจำนวนมากมักตกอยู่ในสองขั้วสุดโต่ง: ไม่กล้าใช้ AI เลยเพราะกลัวผิดพลาด หรือเชื่อมั่นผลลัพธ์ของ AI มากเกินไปจนละเลยการตรวจสอบ ข้อคิดเรื่องการออกแบบองค์กรให้ทางสายกลาง—ยอมรับว่า AI อาจทำผิดได้ แต่ควบคุมความผิดพลาดให้อยู่ในขอบเขตที่ยอมรับได้ผ่านการออกแบบเชิงระบบ
กล่าวให้ชัดเจน บริษัทสามารถสร้าง “กระบวนการจัดการคุณภาพของ AI” ได้: มองว่า AI เป็น “พนักงาน” ในองค์กร จัดหาให้ด้วยกลไกการตรวจสอบ กำหนดขอบเขตความรับผิดชอบให้ชัดเจน สร้างระบบตรวจจับความผิดปกติ และเก็บไว้ซึ่งการทบทวนโดยมนุษย์ในจุดสำคัญของการตัดสินใจ วิธีนี้ไม่เพียงแต่เป็นรูปธรรมมากขึ้น แต่ยังสอดคล้องกับตรรกะการบริหารที่บริษัทคุ้นเคยอยู่แล้วอีกด้วย สำหรับอุตสาหกรรม AI มุมมองของ Mollick เตือนเราว่า “คำตอบ” สำหรับการแก้ปัญหาภาพหลอนของ AI อาจไม่ได้อยู่แค่ในมิติทางเทคนิค แต่อาจเกี่ยวข้องกับการคิดใหม่เกี่ยวกับโครงสร้างเชิงองค์กรของความร่วมมือระหว่างมนุษย์และ AI
บทความนี้ Wharton Business School Professor Ethan Mollick: ใช้แนวคิด “การออกแบบองค์กร” เพื่อแก้ปัญหาภาพหลอนของ AI ปรากฏขึ้นครั้งแรกที่ LianKao ABMedia.