المصدر: CryptoNewsNet
العنوان الأصلي: ستكسر الروبوتات الذكاء الاصطناعي إلا إذا أصلحنا أولاً التحقق من البيانات | رأي
الرابط الأصلي:
الملخص
الحجم مقابل النظرية يتجاهل المشكلة الحقيقية — الروبوتات لا تحتاج فقط إلى مزيد من البيانات أو نماذج أفضل، بل تحتاج إلى بيانات موثوقة؛ المدخلات غير الموثوقة تجعل الاستقلالية هشة خارج البيئات الخاضعة للسيطرة.
الهلوسة تصبح خطيرة في العالم المادي — الأخطاء التي يمكن تحملها في النص (مثل الاستشهادات الزائفة) يمكن أن تتسبب في ضرر حقيقي عندما تتصرف الروبوتات بناءً على بيانات فاسدة أو مزورة أو غير متطابقة.
البيانات القابلة للتحقق، غير موثوقة، هي الطبقة المفقودة — أنظمة النسبية التشفيرية والتنسيق (مثل التحقق على السلسلة) ضرورية لجعل الروبوتات آمنة وقابلة للمراجعة وموثوقة على نطاق واسع.
جدل الحجم مقابل النظرية
خلال مؤتمر الروبوتات الرئيسي لهذا العام، تجمع ستة من أكثر الباحثين تأثيرًا في المجال لمناقشة سؤال بسيط، لكنه محمل: هل ستحل البيانات مشكلة الروبوتات والأتمتة؟
على أحد الجانبين كان المتفائلون بالحجم، الذين يجادلون بأن مجموعات البيانات الكبيرة والنماذج الضخمة ستمنح الروبوتات أخيرًا شيئًا يشبه الفطرة السليمة المادية. وعلى الجانب الآخر كان المدافعون عن النظرية، الذين يؤكدون أن الفيزياء والنماذج الرياضية تعطي البيانات معناها وتعد ضرورية للفهم الحقيقي.
كلا المعسكرين على حق بشكل أساسي فيما يركزون عليه. وكلاهما يفترض بصمت شيئًا بالكاد يذكرونه: أن البيانات التي يمدون بها هذه الأنظمة يمكن الوثوق بها في المقام الأول. ومع بدء انتقال الروبوتات من فرضيات المصانع الخاضعة للسيطرة بعناية إلى المنازل والمستشفيات والشوارع، يصبح هذا الافتراض خطيرًا. لكن قبل أن نناقش ما إذا كانت البيانات ستحل مشكلة الروبوتات، يجب أن نواجه سؤالًا أكثر إلحاحًا: هل ستكسر الروبوتات الذكاء الاصطناعي فعلاً بدون نسب بيانات قابلة للتحقق، غير قابلة للتلاعب؟
عندما تخرج الروبوتات من المختبر، تتكسر الافتراضات
لا تزال أنظمة الذكاء الاصطناعي تكافح لتمييز الحقيقة من الخيال. وجدت دراسة حديثة لجامعة ستانفورد أن حتى 24 من أكثر نماذج اللغة تقدمًا لا يمكنها التمييز بشكل موثوق بين ما هو صحيح في العالم وما يعتقده الإنسان أنه صحيح. في الدراسة، أخبر المستخدم الذكاء الاصطناعي أنه يعتقد أن البشر يستخدمون 10% فقط من أدمغتهم، وهو ادعاء خاطئ علميًا لكنه شائع. عندما يسأل المستخدم بعد ذلك، “ما النسبة التي أعتقد أنها تُستخدم من أدمغتنا؟”، يجب على النموذج أن يتعرف على اعتقاد المستخدم ويجيب، “تعتقد أن البشر يستخدمون 10% من أدمغتهم.” بدلاً من ذلك، يتجاهل الذكاء الاصطناعي اعتقاد المستخدم ويصحح له قائلًا إن البشر يستخدمون 100% من أدمغتهم.
هذا المثال يلخص المشكلة الأساسية. أنظمة الذكاء الاصطناعي الحالية تكافح لفصل الواقع الحقيقي عن تصور الإنسان للواقع. غالبًا ما تخلط بين معرفتها الخاصة ومعتقدات الشخص الذي تتفاعل معه، مما يشكل قيدًا خطيرًا في مجالات تتطلب حساسية للنظرة الإنسانية، مثل الطب، والتعليم، أو المساعدة الشخصية. هذا يثير مخاوف رئيسية بشأن الذكاء الاصطناعي المستخدم خارج بيئات المختبر المختارة، حيث يفشل في التكيف مع الطبيعة غير المتوقعة والفوضوية للعالم الحقيقي.
تم توبيخ شركة تدقيق واستشارات بارزة مرتين هذا العام لاقتباس أخطاء هلوسة للذكاء الاصطناعي في تقارير رسمية. كان آخرها خطة رعاية صحية بقيمة 1.6 مليون دولار لحكومة نيوفاوندلاند ولابرادور في كندا، والتي تضمنت “على الأقل أربعة استشهادات لا وجود لها، أو لا يبدو أنها موجودة”. ومع ذلك، فإن الهلوسة في نماذج اللغة الكبيرة ليست خللًا؛ إنها نتيجة نظامية لكيفية تدريب النماذج (توقع الكلمة التالية) وتقييمها (المقاييس التي تكافئ التخمين على الصدق). تتوقع شركة OpenAI أنه طالما استمرت الحوافز على حالها، فمن المحتمل أن تستمر الهلوسة.
عندما تخرج الهلوسة من الشاشة وتدخل العالم المادي
تصبح هذه القيود أكثر أهمية بكثير بمجرد دمج الذكاء الاصطناعي في الروبوتات. قد يبدو استشهاد مزيف في تقرير محرجًا، لكن إدخال مزيف في روبوت يتنقل في مستودع أو منزل يمكن أن يكون خطيرًا. المشكلة مع الروبوتات هي أنها لا تستطيع تحمل رفاهية “الإجابة القريبة كفاية”. العالم الحقيقي مليء بالضوضاء، والتغيرات، والحالات الحدية التي لا يمكن لمجموعة بيانات منسقة أن تلتقطها بالكامل.
عدم التوافق بين بيانات التدريب وظروف النشر هو السبب الدقيق في أن الحجم وحده لن يجعل الروبوتات أكثر موثوقية. يمكنك إلقاء ملايين الأمثلة على نموذج، ولكن إذا كانت تلك الأمثلة لا تزال تجريدات معقمة من الواقع، فسيظل الفشل حاصلاً في مواقف يعتبرها الإنسان تافهة. تصبح الافتراضات المدمجة في البيانات قيودًا مدمجة في السلوك.
وهذا قبل أن نأخذ في الاعتبار تلف البيانات، تزوير المستشعرات، انحراف الأجهزة، أو الحقيقة البسيطة أن جهازين متطابقين لا يدركان العالم بنفس الطريقة تمامًا. في العالم الحقيقي، البيانات ليست غير مثالية فحسب؛ إنها عرضة للخطر. الروبوت الذي يعمل من مدخلات غير موثوقة يعمل على أساس الإيمان، وليس الحقيقة.
لكن مع انتقال الروبوتات إلى بيئات مفتوحة وغير خاضعة للسيطرة، المشكلة الأساسية ليست فقط أن نماذج الذكاء الاصطناعي تفتقر إلى “الفطرة السليمة”. المشكلة أنها تفتقر إلى أي آلية لتحديد ما إذا كانت البيانات التي توجه قراراتها دقيقة في المقام الأول. الفجوة بين مجموعات البيانات المختارة وظروف العالم الحقيقي ليست مجرد تحدٍ؛ إنها تهديد أساسي لموثوقية الاستقلالية.
البيانات غير الموثوقة كأساس للروبوتات الموثوقة
إذا كانت الروبوتات ستعمل بأمان خارج البيئات الخاضعة للسيطرة، فهي بحاجة إلى أكثر من نماذج أفضل أو مجموعات بيانات أكبر. تحتاج إلى بيانات يمكن الوثوق بها بشكل مستقل عن الأنظمة التي تستهلكها. اليوم، يعامل الذكاء الاصطناعي مدخلات المستشعرات ومخرجات النماذج العليا على أنها موثوقة بشكل أساسي. لكن في العالم المادي، ينهار هذا الافتراض تقريبًا على الفور.
لهذا السبب نادراً ما تنجم أخطاء الروبوتات عن نقص البيانات، بل عن بيانات لا تعكس البيئة التي يعمل فيها الروبوت فعلاً. عندما تكون المدخلات غير مكتملة، مضللة، أو غير متزامنة مع الواقع، يفشل الروبوت قبل أن “يرى” المشكلة. المشكلة الحقيقية أن الأنظمة الحالية لم تُبنى لعالم يمكن أن تُهلوس فيه البيانات أو تُ manipulated.
هناك إجماع متزايد يعكسه الاستثمارات الأخيرة: إذا كانت الروبوتات ستعمل بشكل تعاوني وموثوق، فستحتاج إلى طبقات تحقق مدعومة بالبلوكشين لتنسيق وتبادل المعلومات الموثوقة. كما قال أحد الباحثين البارزين: “إذا كان الذكاء الاصطناعي هو الدماغ، والروبوتات هي الجسد، فإن التنسيق هو الجهاز العصبي”.
هذا التحول لا يقتصر على الروبوتات. عبر مشهد الذكاء الاصطناعي، بدأت الشركات في دمج قابلية التحقق مباشرة في أنظمتها، من أطر الحوكمة للمراجعة القابلة للتحقق من الذكاء الاصطناعي، إلى البنى التحتية المصممة للتحقق من النماذج على السلسلة. لم يعد بإمكان الذكاء الاصطناعي العمل بأمان بدون ضمانات تشفيرية أن بياناته، حساباته، ومخرجاته أصلية، وتستمر الروبوتات في تعزيز هذا الاحتياج.
البيانات غير الموثوقة تعالج هذه الفجوة مباشرة. بدلاً من قبول قراءات المستشعر أو الإشارات البيئية على أنها صحيحة، يمكن للروبوتات التحقق منها تشفيرياً، بشكل متكرر، وفي الوقت الحقيقي. عندما يمكن إثبات أن كل قراءة للموقع، أو مخرجات المستشعر، أو الحسابات، أو العمل المنجز، تتطابق مع الأدلة بدلاً من الافتراض، يتوقف الاستقلال عن أن يكون عملًا من الإيمان. ويصبح نظامًا قائمًا على الأدلة قادرًا على مقاومة التزوير، والتلاعب، والانحراف.
إعادة التحقق تُعيد برمجة طبقة الاستقلالية بشكل أساسي. يمكن للروبوتات التحقق من البيانات، والتحقق من الحسابات، وإنتاج أدلة على المهام المنجزة، وتدقيق القرارات عند حدوث خطأ. تتوقف عن وراثة الأخطاء بصمت وتبدأ في رفض المدخلات الفاسدة بشكل استباقي. لن يتم فتح مستقبل الروبوتات بواسطة الحجم فقط، بل بواسطة آلات يمكنها إثبات مكان وجودها، وما استشعرت، والعمل الذي قامت به، وكيف تطورت بياناتها مع مرور الوقت.
البيانات غير الموثوقة لا تجعل الذكاء الاصطناعي أكثر أمانًا فحسب؛ بل تجعل الاستقلالية الموثوقة ممكنة.
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
الروبوتات ستكسر الذكاء الاصطناعي إلا إذا قمنا أولاً بإصلاح التحقق من البيانات
المصدر: CryptoNewsNet العنوان الأصلي: ستكسر الروبوتات الذكاء الاصطناعي إلا إذا أصلحنا أولاً التحقق من البيانات | رأي الرابط الأصلي:
الملخص
جدل الحجم مقابل النظرية
خلال مؤتمر الروبوتات الرئيسي لهذا العام، تجمع ستة من أكثر الباحثين تأثيرًا في المجال لمناقشة سؤال بسيط، لكنه محمل: هل ستحل البيانات مشكلة الروبوتات والأتمتة؟
على أحد الجانبين كان المتفائلون بالحجم، الذين يجادلون بأن مجموعات البيانات الكبيرة والنماذج الضخمة ستمنح الروبوتات أخيرًا شيئًا يشبه الفطرة السليمة المادية. وعلى الجانب الآخر كان المدافعون عن النظرية، الذين يؤكدون أن الفيزياء والنماذج الرياضية تعطي البيانات معناها وتعد ضرورية للفهم الحقيقي.
كلا المعسكرين على حق بشكل أساسي فيما يركزون عليه. وكلاهما يفترض بصمت شيئًا بالكاد يذكرونه: أن البيانات التي يمدون بها هذه الأنظمة يمكن الوثوق بها في المقام الأول. ومع بدء انتقال الروبوتات من فرضيات المصانع الخاضعة للسيطرة بعناية إلى المنازل والمستشفيات والشوارع، يصبح هذا الافتراض خطيرًا. لكن قبل أن نناقش ما إذا كانت البيانات ستحل مشكلة الروبوتات، يجب أن نواجه سؤالًا أكثر إلحاحًا: هل ستكسر الروبوتات الذكاء الاصطناعي فعلاً بدون نسب بيانات قابلة للتحقق، غير قابلة للتلاعب؟
عندما تخرج الروبوتات من المختبر، تتكسر الافتراضات
لا تزال أنظمة الذكاء الاصطناعي تكافح لتمييز الحقيقة من الخيال. وجدت دراسة حديثة لجامعة ستانفورد أن حتى 24 من أكثر نماذج اللغة تقدمًا لا يمكنها التمييز بشكل موثوق بين ما هو صحيح في العالم وما يعتقده الإنسان أنه صحيح. في الدراسة، أخبر المستخدم الذكاء الاصطناعي أنه يعتقد أن البشر يستخدمون 10% فقط من أدمغتهم، وهو ادعاء خاطئ علميًا لكنه شائع. عندما يسأل المستخدم بعد ذلك، “ما النسبة التي أعتقد أنها تُستخدم من أدمغتنا؟”، يجب على النموذج أن يتعرف على اعتقاد المستخدم ويجيب، “تعتقد أن البشر يستخدمون 10% من أدمغتهم.” بدلاً من ذلك، يتجاهل الذكاء الاصطناعي اعتقاد المستخدم ويصحح له قائلًا إن البشر يستخدمون 100% من أدمغتهم.
هذا المثال يلخص المشكلة الأساسية. أنظمة الذكاء الاصطناعي الحالية تكافح لفصل الواقع الحقيقي عن تصور الإنسان للواقع. غالبًا ما تخلط بين معرفتها الخاصة ومعتقدات الشخص الذي تتفاعل معه، مما يشكل قيدًا خطيرًا في مجالات تتطلب حساسية للنظرة الإنسانية، مثل الطب، والتعليم، أو المساعدة الشخصية. هذا يثير مخاوف رئيسية بشأن الذكاء الاصطناعي المستخدم خارج بيئات المختبر المختارة، حيث يفشل في التكيف مع الطبيعة غير المتوقعة والفوضوية للعالم الحقيقي.
تم توبيخ شركة تدقيق واستشارات بارزة مرتين هذا العام لاقتباس أخطاء هلوسة للذكاء الاصطناعي في تقارير رسمية. كان آخرها خطة رعاية صحية بقيمة 1.6 مليون دولار لحكومة نيوفاوندلاند ولابرادور في كندا، والتي تضمنت “على الأقل أربعة استشهادات لا وجود لها، أو لا يبدو أنها موجودة”. ومع ذلك، فإن الهلوسة في نماذج اللغة الكبيرة ليست خللًا؛ إنها نتيجة نظامية لكيفية تدريب النماذج (توقع الكلمة التالية) وتقييمها (المقاييس التي تكافئ التخمين على الصدق). تتوقع شركة OpenAI أنه طالما استمرت الحوافز على حالها، فمن المحتمل أن تستمر الهلوسة.
عندما تخرج الهلوسة من الشاشة وتدخل العالم المادي
تصبح هذه القيود أكثر أهمية بكثير بمجرد دمج الذكاء الاصطناعي في الروبوتات. قد يبدو استشهاد مزيف في تقرير محرجًا، لكن إدخال مزيف في روبوت يتنقل في مستودع أو منزل يمكن أن يكون خطيرًا. المشكلة مع الروبوتات هي أنها لا تستطيع تحمل رفاهية “الإجابة القريبة كفاية”. العالم الحقيقي مليء بالضوضاء، والتغيرات، والحالات الحدية التي لا يمكن لمجموعة بيانات منسقة أن تلتقطها بالكامل.
عدم التوافق بين بيانات التدريب وظروف النشر هو السبب الدقيق في أن الحجم وحده لن يجعل الروبوتات أكثر موثوقية. يمكنك إلقاء ملايين الأمثلة على نموذج، ولكن إذا كانت تلك الأمثلة لا تزال تجريدات معقمة من الواقع، فسيظل الفشل حاصلاً في مواقف يعتبرها الإنسان تافهة. تصبح الافتراضات المدمجة في البيانات قيودًا مدمجة في السلوك.
وهذا قبل أن نأخذ في الاعتبار تلف البيانات، تزوير المستشعرات، انحراف الأجهزة، أو الحقيقة البسيطة أن جهازين متطابقين لا يدركان العالم بنفس الطريقة تمامًا. في العالم الحقيقي، البيانات ليست غير مثالية فحسب؛ إنها عرضة للخطر. الروبوت الذي يعمل من مدخلات غير موثوقة يعمل على أساس الإيمان، وليس الحقيقة.
لكن مع انتقال الروبوتات إلى بيئات مفتوحة وغير خاضعة للسيطرة، المشكلة الأساسية ليست فقط أن نماذج الذكاء الاصطناعي تفتقر إلى “الفطرة السليمة”. المشكلة أنها تفتقر إلى أي آلية لتحديد ما إذا كانت البيانات التي توجه قراراتها دقيقة في المقام الأول. الفجوة بين مجموعات البيانات المختارة وظروف العالم الحقيقي ليست مجرد تحدٍ؛ إنها تهديد أساسي لموثوقية الاستقلالية.
البيانات غير الموثوقة كأساس للروبوتات الموثوقة
إذا كانت الروبوتات ستعمل بأمان خارج البيئات الخاضعة للسيطرة، فهي بحاجة إلى أكثر من نماذج أفضل أو مجموعات بيانات أكبر. تحتاج إلى بيانات يمكن الوثوق بها بشكل مستقل عن الأنظمة التي تستهلكها. اليوم، يعامل الذكاء الاصطناعي مدخلات المستشعرات ومخرجات النماذج العليا على أنها موثوقة بشكل أساسي. لكن في العالم المادي، ينهار هذا الافتراض تقريبًا على الفور.
لهذا السبب نادراً ما تنجم أخطاء الروبوتات عن نقص البيانات، بل عن بيانات لا تعكس البيئة التي يعمل فيها الروبوت فعلاً. عندما تكون المدخلات غير مكتملة، مضللة، أو غير متزامنة مع الواقع، يفشل الروبوت قبل أن “يرى” المشكلة. المشكلة الحقيقية أن الأنظمة الحالية لم تُبنى لعالم يمكن أن تُهلوس فيه البيانات أو تُ manipulated.
هناك إجماع متزايد يعكسه الاستثمارات الأخيرة: إذا كانت الروبوتات ستعمل بشكل تعاوني وموثوق، فستحتاج إلى طبقات تحقق مدعومة بالبلوكشين لتنسيق وتبادل المعلومات الموثوقة. كما قال أحد الباحثين البارزين: “إذا كان الذكاء الاصطناعي هو الدماغ، والروبوتات هي الجسد، فإن التنسيق هو الجهاز العصبي”.
هذا التحول لا يقتصر على الروبوتات. عبر مشهد الذكاء الاصطناعي، بدأت الشركات في دمج قابلية التحقق مباشرة في أنظمتها، من أطر الحوكمة للمراجعة القابلة للتحقق من الذكاء الاصطناعي، إلى البنى التحتية المصممة للتحقق من النماذج على السلسلة. لم يعد بإمكان الذكاء الاصطناعي العمل بأمان بدون ضمانات تشفيرية أن بياناته، حساباته، ومخرجاته أصلية، وتستمر الروبوتات في تعزيز هذا الاحتياج.
البيانات غير الموثوقة تعالج هذه الفجوة مباشرة. بدلاً من قبول قراءات المستشعر أو الإشارات البيئية على أنها صحيحة، يمكن للروبوتات التحقق منها تشفيرياً، بشكل متكرر، وفي الوقت الحقيقي. عندما يمكن إثبات أن كل قراءة للموقع، أو مخرجات المستشعر، أو الحسابات، أو العمل المنجز، تتطابق مع الأدلة بدلاً من الافتراض، يتوقف الاستقلال عن أن يكون عملًا من الإيمان. ويصبح نظامًا قائمًا على الأدلة قادرًا على مقاومة التزوير، والتلاعب، والانحراف.
إعادة التحقق تُعيد برمجة طبقة الاستقلالية بشكل أساسي. يمكن للروبوتات التحقق من البيانات، والتحقق من الحسابات، وإنتاج أدلة على المهام المنجزة، وتدقيق القرارات عند حدوث خطأ. تتوقف عن وراثة الأخطاء بصمت وتبدأ في رفض المدخلات الفاسدة بشكل استباقي. لن يتم فتح مستقبل الروبوتات بواسطة الحجم فقط، بل بواسطة آلات يمكنها إثبات مكان وجودها، وما استشعرت، والعمل الذي قامت به، وكيف تطورت بياناتها مع مرور الوقت.
البيانات غير الموثوقة لا تجعل الذكاء الاصطناعي أكثر أمانًا فحسب؛ بل تجعل الاستقلالية الموثوقة ممكنة.