مؤخراً، أثناء دراسة سجلات الاستدلال لعدة أنظمة تنفيذ الذكاء الاصطناعي، اكتشفت ظاهرة مثيرة للاهتمام - نفس الحدث، يمكن للنموذج أن يستنتج استنتاجات عكسية تمامًا في سياقات مختلفة. في البداية، كنت أعتقد أن المشكلة تتعلق بالنموذج، لكنني أدركت لاحقًا أن المشكلة ليست هنا على الإطلاق. الجذر الحقيقي للمشكلة هو: المعلومات المدخلة نفسها لا يمكن استنتاجها.
تخيّل، إشارة سعر معزولة، سجل معاملات غير واضح، حدث على السلسلة غير مكتمل - هذه الأشياء تفتقر إلى الهيكل، وليس لها حدود، المعاني مشوّشة، وسلسلة الأسباب متقطعة. هل تريد حقًا من نظام آلي اتخاذ قرارات بناءً على هذه المعلومات المكسورة؟ هذا مثل أن تطلب من طبيب إجراء عملية جراحية بناءً على صورة أشعة سينية غير واضحة، والنتيجة يمكن تخيّلها.
هذه هي النقطة التي كنت أريد أن أقولها دائمًا ولكن لم أستطع: **أكبر عدو للأتمتة على السلسلة في المستقبل ليس قلة البيانات، بل عدم إمكانية استنتاج البيانات.**
لا يمكنك السماح لآلية التسوية بالت triggered بناءً على معلومات بلا حدود. لا يمكنك الاعتماد على إشارات مختلطة من الناحية الدلالية لتحديد الإجماع في نظام الحوكمة. لا يمكنك السماح للوكيل بتنفيذ الإجراءات في حالة انقطاع سلسلة السبب والنتيجة.
إذن، ظهرت المشكلة، كيف نحلها؟ وهذا هو السبب في أنني الآن مهتم بمشروع APRO هذا. فكرته واضحة جدًا: ليس تقديم "إجابات" على السلسلة، بل تقديم "مواد يمكن الاستدلال عليها".
يمكنك أن تفهم من نموذج تحليل الشروط الخاص به. المنطق الأساسي هو تقسيم حدث واحد من معلومات خطية وغامضة إلى عدة شرائح بيانات منظمة. كل شريحة تلبي الشروط التالية: يمكن التحقق منها، يمكن إعادة إنتاجها، يمكن استجوابها، يمكن تأكيدها بالتقاطع، تتسم بالمعنى الموحد، يمكن استدعاؤها من قبل النموذج، ويمكن أن تشارك في الاستدلال المنطقي.
من زاوية أخرى، يجب تصميم المعلومات منذ اللحظة التي تدخل فيها السلسلة لتكون "في شكل يمكن استنتاجه". هذه ليست تحسينات إضافية، بل هي البنية التحتية لنظام الأتمتة على السلسلة. بمجرد أن يتم بناء هذا الأساس، يمكن أن تعمل عمليات التسوية، والحوكمة، وتنفيذ الوكلاء بشكل مستقر حقًا.
شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
مؤخراً، أثناء دراسة سجلات الاستدلال لعدة أنظمة تنفيذ الذكاء الاصطناعي، اكتشفت ظاهرة مثيرة للاهتمام - نفس الحدث، يمكن للنموذج أن يستنتج استنتاجات عكسية تمامًا في سياقات مختلفة. في البداية، كنت أعتقد أن المشكلة تتعلق بالنموذج، لكنني أدركت لاحقًا أن المشكلة ليست هنا على الإطلاق. الجذر الحقيقي للمشكلة هو: المعلومات المدخلة نفسها لا يمكن استنتاجها.
تخيّل، إشارة سعر معزولة، سجل معاملات غير واضح، حدث على السلسلة غير مكتمل - هذه الأشياء تفتقر إلى الهيكل، وليس لها حدود، المعاني مشوّشة، وسلسلة الأسباب متقطعة. هل تريد حقًا من نظام آلي اتخاذ قرارات بناءً على هذه المعلومات المكسورة؟ هذا مثل أن تطلب من طبيب إجراء عملية جراحية بناءً على صورة أشعة سينية غير واضحة، والنتيجة يمكن تخيّلها.
هذه هي النقطة التي كنت أريد أن أقولها دائمًا ولكن لم أستطع: **أكبر عدو للأتمتة على السلسلة في المستقبل ليس قلة البيانات، بل عدم إمكانية استنتاج البيانات.**
لا يمكنك السماح لآلية التسوية بالت triggered بناءً على معلومات بلا حدود.
لا يمكنك الاعتماد على إشارات مختلطة من الناحية الدلالية لتحديد الإجماع في نظام الحوكمة.
لا يمكنك السماح للوكيل بتنفيذ الإجراءات في حالة انقطاع سلسلة السبب والنتيجة.
إذن، ظهرت المشكلة، كيف نحلها؟ وهذا هو السبب في أنني الآن مهتم بمشروع APRO هذا. فكرته واضحة جدًا: ليس تقديم "إجابات" على السلسلة، بل تقديم "مواد يمكن الاستدلال عليها".
يمكنك أن تفهم من نموذج تحليل الشروط الخاص به. المنطق الأساسي هو تقسيم حدث واحد من معلومات خطية وغامضة إلى عدة شرائح بيانات منظمة. كل شريحة تلبي الشروط التالية: يمكن التحقق منها، يمكن إعادة إنتاجها، يمكن استجوابها، يمكن تأكيدها بالتقاطع، تتسم بالمعنى الموحد، يمكن استدعاؤها من قبل النموذج، ويمكن أن تشارك في الاستدلال المنطقي.
من زاوية أخرى، يجب تصميم المعلومات منذ اللحظة التي تدخل فيها السلسلة لتكون "في شكل يمكن استنتاجه". هذه ليست تحسينات إضافية، بل هي البنية التحتية لنظام الأتمتة على السلسلة. بمجرد أن يتم بناء هذا الأساس، يمكن أن تعمل عمليات التسوية، والحوكمة، وتنفيذ الوكلاء بشكل مستقر حقًا.