فيتالik بوتيرين يحذّر من أن أدوات الذكاء الاصطناعي قد تصبح خطرًا جديًا على الخصوصية بالنسبة للمستخدمين

ETH‎-3.45%
  • حذّر فيتاليك بوتيرين من أن العديد من أدوات الذكاء الاصطناعي قد تصبح تهديدًا كبيرًا للخصوصية، لأنّها تعتمد على بنية تحتية عن بُعد لديها وصول إلى بيانات المستخدمين.
  • وقال إن المخاطر تمتد إلى ما هو أبعد من نماذج اللغات الكبيرة نفسها، لتشمل خدمات خارجية وتسريبات للبيانات وهجمات اختراق عبر الاستغلال (jailbreak) يمكن أن تدفع الأنظمة ضد مصالح المستخدمين.

أثار فيتاليك بوتيرين تحذيرًا جديدًا بشأن الذكاء الاصطناعي، وهذه المرة ركّز أقل على المبالغات الإعلامية وأكثر على الخصوصية. في منشور مدونة جديد، جادل المؤسس المشارك لإيثريوم بأن العديد من أدوات الذكاء الاصطناعي بُنيت على بنية تحتية عن بُعد يمكنها الوصول إلى بيانات المستخدمين الحساسة، ما يخلق مخاطر لا يراها معظم الناس بشكل كامل عند كتابة شيء ما في روبوت محادثة، أو تفويض مهمة، أو الاتصال بخدمة خارجية. وتتمثل المشكلة، كما يوضحها، في أنها لا تقتصر على نموذج واحد أو تطبيق واحد. إنها مشكلة بنيوية. تؤدي بنية الذكاء الاصطناعي عن بُعد إلى اتساع سطح الخصوصية يرى بوتيرين أن نقطته مباشرة إلى حد كبير. إذ يعتمد عدد متزايد من منتجات الذكاء الاصطناعي على بنية تحتية تقع خارج جهاز المستخدم وخارج سيطرة المستخدم. وهذا يعني أن الأوامر (prompts) والملفات وتفاصيل الحساب وأنماط الاستخدام يمكن أن تمر جميعها عبر أنظمة قد تقوم بتخزين البيانات أو معالجتها أو إعادة استخدامها بطرق لم يكن المستخدم ينويها. وقد حذّر من أن المشكلة لا تتوقف عند نماذج اللغات الكبيرة. فالتعاملات/الخدمات الخارجية المرتبطة بهذه الأنظمة يمكن أن تُدخل ثغراتها الخاصة، بدءًا من تسريبات البيانات البسيطة وصولًا إلى الاستخدام غير المصرح به للمعلومات الشخصية. وبعبارة أخرى، الخطر ليس النموذج وحده. إنه السلسلة بأكملها حوله. يهم ذلك لأن الذكاء الاصطناعي يُباع بشكل متزايد كطبقة مساعدة عبر التمويل وبرامج الحاسوب والاتصال والهوية الرقمية عبر الإنترنت. كلما أصبح أكثر فائدة، كلما أمكنه امتصاص سياق أكثر خصوصية. عمليات اختراق الاستغلال تحوّل الذكاء الاصطناعي من مساعد إلى عبء أشار بوتيرين أيضًا إلى هجمات اختراق الاستغلال (jailbreak) كتهديد محدد. تستخدم هذه الهجمات مدخلات خارجية للتلاعب بنموذج ليُظهر سلوكًا يتعارض مع مصالح المستخدمين، مما يحوّل المساعد فعليًا إلى شيء أقل موثوقية وأكثر احتمالًا أن يكون مؤذيًا. ويأتي هذا التحذير في وقت تتحرك فيه أدوات الذكاء الاصطناعي نحو التنفيذ، وليس مجرد المحادثة. ومع حصول هذه الأنظمة على إمكانية الوصول إلى الرسائل والمحافظ والمستندات والإجراءات الآلية، قد تتحول إخفاقات الخصوصية بسرعة إلى إخفاقات تشغيلية أيضًا. إن ما يشير إليه بوتيرين فعليًا هنا هو تحوّل في طبيعة المخاطر. لم يعد الذكاء الاصطناعي مجرد مسألة تتعلق بالقدرة. بل أصبح مسألة تتعلق بحدود الثقة: من يتحكم بالبيانات، وأين يعمل النموذج، وماذا يحدث عندما تفشل تلك الحدود.

إخلاء المسؤولية: قد تكون المعلومات الواردة في هذه الصفحة من مصادر خارجية ولا تمثل آراء أو مواقف Gate. المحتوى المعروض في هذه الصفحة هو لأغراض مرجعية فقط ولا يشكّل أي نصيحة مالية أو استثمارية أو قانونية. لا تضمن Gate دقة أو اكتمال المعلومات، ولا تتحمّل أي مسؤولية عن أي خسائر ناتجة عن استخدام هذه المعلومات. تنطوي الاستثمارات في الأصول الافتراضية على مخاطر عالية وتخضع لتقلبات سعرية كبيرة. قد تخسر كامل رأس المال المستثمر. يرجى فهم المخاطر ذات الصلة فهمًا كاملًا واتخاذ قرارات مدروسة بناءً على وضعك المالي وقدرتك على تحمّل المخاطر. للتفاصيل، يرجى الرجوع إلى إخلاء المسؤولية.
تعليق
0/400
لا توجد تعليقات