عندما بدأ الذكاء الاصطناعي في الدخول إلى أنظمة التنفيذ واتخاذ القرار على السلسلة، بدأت مشكلة تم تجاهلها لفترة طويلة في الظهور تدريجياً، وهي ما إذا كنا قادرين حقاً على التحقق مما إذا كانت مخرجات الذكاء الاصطناعي موثوقة، @inference_labs هي الفريق الذي يعمل على هذه القضية الحاسمة.
تتركز مختبرات الاستدلال على بناء بنية تحتية قابلة للتحقق من صحة استدلال الذكاء الاصطناعي، والاتجاه الرئيسي هو إدخال إثباتات المعرفة الصفرية في عملية استدلال الذكاء الاصطناعي، مما يمكّن الأنظمة على السلسلة من التحقق من صحة نتائج الاستدلال دون الكشف عن تفاصيل النموذج وبيانات الإدخال.
تظهر المعلومات التي كشفت عنها الشركة أ
شاهد النسخة الأصلية