لا تزال هلوسة الذكاء الاصطناعي (hallucination) واحدة من أكثر المشكلات المزعجة لنماذج اللغة الكبيرة (LLM) حتى اليوم، لكن الأستاذ في كلية وارتون للأعمال إيثان موليك (Ethan Mollick) طرح على X وجهة نظر لافتة للانتباه: لقد طوّر البشر منذ مئات السنين آليات ناضجة بالفعل، قادرة على تقديم مخرجات موثوقة حتى من مصادر غير موثوقة — تلك الآليات تُسمّى «البِنى التنظيمية» (organizational structures)، وبوسعنا تمامًا تطبيق أساليب مماثلة على الذكاء الاصطناعي. حصدت هذه التغريدة 329 إعجابًا و35 إعادة نشر و44 ردًا، ما أشعل نقاشًا معمّقًا حول كيفية التعامل عمليًا مع هلوسة الذكاء الاصطناعي.
ما المقصود بالتشبيه بـ «البِنى التنظيمية»؟
يركّز الطرح الأساسي لدى موليك على حقيقة كثيرًا ما تُهمَل: البشر لم يكونوا يومًا مصدرًا مثاليًا وموثوقًا للمعلومات. تاريخيًا، سواء كانت سجلات المحاسبة أو التشخيص الطبي أو الأحكام القانونية، فإن مخرجات البشر دائمًا تنطوي على مخاطر حدوث أخطاء. ومع ذلك، فإن الحضارة استطاعت أن تعمل بشكل طبيعي لأننا طوّرنا مجموعة كاملة من «البِنى التنظيمية» للتحكم في هذه المخاطر.
تتمثل هذه البِنى التنظيمية في جوهرها في مجموعة دقيقة من «آلات اعتراض الأخطاء»: عبر تقسيم العمل والرقابة الهرمية والتحقق المتبادل وإجراءات مؤسسية، يتم تحويل عدم موثوقية الفرد إلى موثوقية على مستوى النظام. يعتقد موليك أنه بدلًا من الإصرار على تحقيق «ذكاء اصطناعي لا يخطئ أبدًا»، يمكننا تغيير طريقة التفكير — تمامًا كما نتعامل مع الموظفين البشر، لبناء نظام رقابة جودة مؤسّس على الذكاء الاصطناعي.
طريقة التطبيق بشكل ملموس: المراجعة والاختبار والتحقق المتبادل
في المناقشات اللاحقة التي أثارتها التغريدة، استكشف موليك وآخرون المشاركون عدة طرق محددة يمكن أن نستفيد منها مباشرة من إدارة المؤسسات. أولًا هي «آليات المراجعة» (reviews)، مثل مراجعة المديرين في الشركات أو التحكيم من قِبل الأقران، حيث يُجري نموذج ذكاء اصطناعي آخر أو خبير بشري فحصًا منهجيًا لمخرجات نموذج LLM.
ثانيًا هي «آليات الاختبار» (tests)، مشابهة لاختبارات الوحدة وضمان الجودة في تطوير البرمجيات، حيث يتم وضع معايير قابلة للتحقق لكل مخرجات الذكاء الاصطناعي. ثالثًا هي «التحقق المتبادل» (cross-checks)، بحيث تُقدّم عدة نماذج ذكاء اصطناعي مستقلة أو مصادر معلومات مختلفة إجابات عن السؤال نفسه، ثم تتم مقارنة النتائج من حيث الاتساق — كما يحدث في التوازن والرقابة المتبادلة بين الأقسام المختلفة داخل المؤسسة.
تتمثل المنطق المشترك لهذه الأساليب في أنها لا تعتمد على مثالية عقدة واحدة، بل تقلل معدل الأخطاء الإجمالي عبر تصميم النظام. وهذا يتماشى تمامًا مع مفهوم «نموذج الجبن السويسري» (Swiss Cheese Model) في نظرية إدارة الجودة الحديثة — فلكل طبقة من الحماية ثغرة، لكن مع تراكب عدة طبقات، تنخفض بشكل كبير احتمالية أن تتسلل الأخطاء عبر جميع المستويات.
الدروس بالنسبة لنشر الذكاء الاصطناعي في الشركات
تمثل الإطار الفكري الذي قدمه موليك إلهامًا خاصًا للشركات التي تقوم بتطبيق الذكاء الاصطناعي. غالبًا ما تقع العديد من الشركات عند مواجهة مشكلة هلوسة الذكاء الاصطناعي في أحد طرفين: إما أن تمتنع عن استخدام الذكاء الاصطناعي تمامًا بسبب الخوف من الأخطاء، أو أن تثق ثقة مفرطة في مخرجات الذكاء الاصطناعي وتتجاهل التحقق. يتيح التفكير القائم على تصميم المؤسسة طريقًا وسطًا — مع الاعتراف بأن الذكاء الاصطناعي قد يخطئ، لكن ضبط الأخطاء ضمن حدود مقبولة من خلال التصميم المؤسسي.
وعمليًا، يمكن للشركات إنشاء «عملية إدارة جودة الذكاء الاصطناعي»: التعامل مع الذكاء الاصطناعي بوصفه «موظفًا» داخل المؤسسة، تزويده بآليات مراجعة، وتحديد حدود واضحة لمسؤولياته، وبناء نظام لاكتشاف الحالات الشاذة، والاحتفاظ بمراجعة بشرية في مراحل اتخاذ القرارات الحاسمة. لا يجعل هذا النهج الأمور أكثر عملية فحسب، بل يتماشى أيضًا أكثر مع منطق الإدارة الذي اعتادت عليه الشركات بالفعل. وبالنسبة لصناعة الذكاء الاصطناعي، تذكّرنا وجهة نظر موليك بأن حل لغز هلوسة الذكاء الاصطناعي قد لا يكون فقط على مستوى التكنولوجيا، بل ربما يتطلب إعادة التفكير في البنية التنظيمية للتعاون بين الإنسان والآلة.
ظهرت هذه المقالة بعنوان: «الأستاذ في كلية وارتون للأعمال إيثان موليك: حل مشكلة هلوسة الذكاء الاصطناعي عبر التفكير بمنهج «تصميم التنظيم»» لأول مرة على: سلسلة الأخبار ABMedia.