مقالة خاصة بـ a16: عندما تغزو الذكاء الاصطناعي منصات المحتوى، كيف يمكن للرهان على العملات الرقمية استعادة الثقة؟

وسائل التواصل الاجتماعي تملؤها محتويات غير أخلاقية من الذكاء الاصطناعي، وانخفاض رغبة المستخدمين الحقيقيين في المشاركة. اقترحت شركة رأس المال المخاطر الرائدة a16z مفهوم “وسائل الإعلام المرهونة”، من خلال آلية رهون الأصول المشفرة، لفرز ضوضاء الذكاء الاصطناعي باستخدام أموال حقيقية، وإعادة بناء الثقة في المحتوى من خلال الالتزامات القابلة للتحقق.
(ملخص سابق: انضمام Animal Crossing إلى الذكاء الاصطناعي LLM “زيادة كبيرة في قابلية اللعب”، ومذيعو البث المباشر يجربون: حوار لا يتكرر مدى الحياة)
(معلومات إضافية: هل سرق ألعاب الذكاء الاصطناعي المحتوى من بوكيمون؟ إصدار《幻獸帕魯》على Steam يبيع 2 مليون نسخة، هل ستقوم نينتندو برفع دعوى قضائية؟)

فهرس المقال

  • عندما يبدأ الذكاء الاصطناعي في النسخ الذاتي، يتم غمر الإنترنت بمحتوى “مُعد مسبقًا”
  • في عصر انتشار الذكاء الاصطناعي، بناء الثقة في وسائل الإعلام بأموال حقيقية
  • استخدام آلية الرهن لزيادة تكلفة التزييف، واقتراح إدخال آلية تحقق مزدوجة للمحتوى

حاليًا، تبدو وسائل التواصل الاجتماعي نشطة، لكن “حس الإنسان الحقيقي” يتلاشى تدريجيًا. مع تدفق كميات هائلة من المحتوى غير الأخلاقي من الذكاء الاصطناعي على المنصات الرئيسية، وانتشار المحتوى المزيف الذي يهدف إلى جذب المشاهدات، يفقد المزيد من المستخدمين الحقيقيين رغبتهم في المشاركة، ويبدأون في الهروب.

مواجهة انتشار محتوى الذكاء الاصطناعي غير الأخلاقي، لم تعد عمليات المراجعة الخوارزمية البسيطة كافية. مؤخرًا، اقترحت شركة رأس المال المخاطر الرائدة a16z مفهوم “وسائل الإعلام المرهونة”، باستخدام أموال حقيقية لفرز ضوضاء الذكاء الاصطناعي، مما أثار اهتمام السوق.

عندما يبدأ الذكاء الاصطناعي في النسخ الذاتي، يتم غمر الإنترنت بمحتوى “مُعد مسبقًا”

“بدأ الذكاء الاصطناعي في تقليد الذكاء الاصطناعي.”

مؤخرًا، انهار مشرفو Reddit في “المنتدى الأمريكي” وهم يكافحون ضد تدفق المحتوى الذي تولده الذكاء الاصطناعي بشكل هائل. على سبيل المثال، قسم r/AmItheAsshole الذي يضم 24 مليون مستخدم، يشتكي المشرفون أن أكثر من نصف المحتوى منشأ بواسطة الذكاء الاصطناعي.

حتى النصف الأول من عام 2025، حُذف أكثر من 40 مليون منشور غير مرغوب فيه ومحتوى زائف على Reddit. وانتشرت هذه الظاهرة كالفيروس إلى منصات مثل Facebook وInstagram وX وYouTube وXiaohongshu وTikTok.

في الوقت الحالي، مع انفجار المعلومات، ولكن مع تراجع الأصوات الحقيقية، أصبح المحتوى الذي تنتجه الذكاء الاصطناعي يشكل تقريبًا جزءًا كبيرًا من الإنترنت، ويبدأ في التأثير على أفكار الناس بشكل خفي. في الواقع، مع انتشار أدوات توليد المحتوى مثل ChatGPT وGemini، يتم استبدال الإبداع اليدوي بالمحتوى الذي تنتجه الذكاء الاصطناعي، ليصبح بمثابة “مصنع خط إنتاج”.

وفقًا لأحدث دراسة من شركة تحسين محركات البحث Graphite، منذ أن تم الإعلان عن ChatGPT في نهاية عام 2022، ارتفعت نسبة المقالات التي تولدها الذكاء الاصطناعي بشكل حاد، من حوالي 10% في ذلك الوقت إلى أكثر من 40% في عام 2024. وحتى مايو من هذا العام، ارتفعت النسبة إلى 52%.

ومع ذلك، فإن معظم المحتوى الذي تنتجه الذكاء الاصطناعي يشبه “الوجبات الجاهزة”، له وصفة ثابتة وطرق إنتاج موحدة، لكنه يفتقر إلى الروح، ويشعر القارئ بأنه ممل. والأكثر من ذلك، أن الذكاء الاصطناعي اليوم لم يعد ضعيفًا، بل يمكنه تقليد نغمة الإنسان، وحتى استنساخ المشاعر. من أدلة السفر إلى النزاعات العاطفية، وحتى إثارة الانقسامات الاجتماعية عمدًا لجذب المشاهدات، يمكن للذكاء الاصطناعي أن ينجز ذلك بسهولة.

الأخطر من ذلك، عندما يخلق الذكاء الاصطناعي أوهامًا، فإنه يتحدث بجدية ويقول أشياء غير صحيحة، مما يخلق محتوى غير أخلاقي ويثير أزمة ثقة.

في عصر انتشار الذكاء الاصطناعي، بناء الثقة في وسائل الإعلام بأموال حقيقية

مواجهة انتشار المحتوى غير الأخلاقي من الذكاء الاصطناعي على الإنترنت، على الرغم من تحديث آليات المراجعة وإدخال المساعدة من الذكاء الاصطناعي، إلا أن نتائج الإدارة لا تزال محدودة. في التقرير السنوي المهم الذي أصدرته شركة a16z crypto، قدم روبرت هاكيت مفهوم “وسائل الإعلام المرهونة”.

وأشار التقرير إلى أن النموذج التقليدي لوسائل الإعلام يركز على الحيادية، لكن عيوبه ظهرت بوضوح. سمحت الإنترنت للجميع بالتعبير عن آرائهم، والآن يواجه العديد من المهنيين والممارسين والبنائين مباشرة الجمهور، وتعكس وجهات نظرهم مصالحهم في العالم. ومن المفارقات أن الجمهور يحترم هؤلاء، ليس لأنهم غير مرتبطين بمصالح، بل لأنهم مرتبطون بها.

هذا الاتجاه الجديد لا ينجم عن ظهور وسائل التواصل الاجتماعي، بل عن “ظهور الأدوات المشفرة”، التي تتيح للناس تقديم وعود يمكن التحقق منها علنًا. مع انخفاض تكلفة إنتاج المحتوى الضخم عبر الذكاء الاصطناعي، وسهولة العملية (يمكن إنشاء محتوى من أي منظور، وأي هوية، وتحديد صحته)، لم تعد الاعتماد على تصريحات البشر (أو الروبوتات) كافيًا لإقناع الناس. بدلاً من ذلك، توفر الأصول المرمزة، والقفل القابل للبرمجة، والأسواق التنبئية، والسجلات على السلسلة، أساسًا أكثر صلابة للثقة: حيث يمكن للمعلقين إثبات أن أفعالهم تتوافق مع أقوالهم (باستخدام الأموال لدعم وجهات نظرهم)؛ ويمكن للبودكاستيين قفل رموزهم، لإثبات أنهم لن يغيروا مواقفهم بشكل انتهازي أو يرفعوا الأسعار؛ ويمكن للمحللين ربط توقعاتهم بأسواق التسوية العامة، لإنشاء سجلات قابلة للمراجعة.

هذه هي المرحلة المبكرة من “وسائل الإعلام المرهونة”: فهي لا تعترف فقط بالمصالح ذات الصلة، بل تقدم أيضًا شكلًا من أشكال الإعلام الذي يمكن إثباته بشكل ملموس. في هذا النموذج، لا تأتي المصداقية من الادعاء بالحيادية، ولا من الادعاءات غير المدعومة، بل من الالتزامات المعلنة والشفافة والقابلة للتحقق من المصالح. وسائل الإعلام المرهونة لن تحل محل أشكال الإعلام الأخرى، بل ستكمل النظام البيئي الحالي. فهي ترسل إشارة جديدة: ليست “صدقني، أنا حيادي”، بل “هذه المخاطر التي أتحملها، وهذه هي الطريقة التي يمكنك من خلالها التحقق من صحة كلامي”.

يتوقع روبرت هاكيت أن يستمر هذا المجال في النمو، تمامًا كما سعت وسائل الإعلام الجماهيرية في القرن العشرين لتكييف نفسها مع التقنيات وآليات الحوافز (جذب الجماهير والمعلنين)، وركزت على “الحيادية” و"الحياد الظاهري". الآن، مع تسهيل الذكاء الاصطناعي لإنشاء أو تزوير أي محتوى، فإن الندرة الحقيقية تكمن في الأدلة، وأولئك الذين يمكنهم تقديم وعود قابلة للتحقق ودعم مواقفهم بشكل حقيقي سيكونون في وضع أفضل.

استخدام آلية الرهن لزيادة تكلفة التزييف، واقتراح إدخال آلية تحقق مزدوجة للمحتوى

وقد حظي هذا المفهوم أيضًا بتأييد من خبراء التشفير، وقدموا اقتراحات.

قال محلل التشفير تشن جيان إن، من وسائل الإعلام الكبرى إلى وسائل الإعلام الذاتية، تظهر الأخبار المزيفة بشكل متكرر، ويمكن أن تتغير التقارير حول حدث معين بشكل متكرر. السبب الجذري هو أن تكلفة التزييف منخفضة، والأرباح عالية. إذا اعتبرنا كل ناشر للمعلومات عقدة، فلماذا لا نستخدم آلية اقتصاديات إثبات الحصة (POS) على blockchain لحل المشكلة؟ واقترح، على سبيل المثال، أن يُطلب من كل عقدة أن تودع مبلغًا من المال قبل إبداء رأيها، وكلما زاد المبلغ المودع، زادت الثقة؛ ويمكن للآخرين جمع الأدلة لمواجهتها، وإذا نجحوا في التحدي، يتم مصادرة المبلغ المودع ومكافأة الم challengers. بالطبع، تتعلق هذه العملية بالخصوصية والكفاءة، وهناك حلول حالية مثل Swarm Network التي تجمع بين ZK وAI، لحماية خصوصية المشاركين، واستخدام تحليل البيانات متعدد النماذج للمساعدة في التحقق، على غرار وظيفة التحقق من الحقيقة على تويتر بواسطة Grok.

كما يعتقد خبير التشفير الأزرق الثعلب أن، باستخدام تقنيات التشفير مثل إثبات المعرفة الصفرية (zk)، يمكن للوسائط أو الأفراد إثبات مصداقيتهم عبر الإنترنت، على غرار “كتابة عقد” على الإنترنت، ولا يمكن التلاعب به على السلسلة. لكن وجود عقد فقط غير كافٍ، بل يحتاج أيضًا إلى “رهن” أصول معينة كضمان، مثل ETH أو USDC أو رموز مشفرة أخرى.

منطق آلية الرهن بسيط جدًا: إذا ثبت أن المحتوى مزيف، يتم مصادرة الأصول المرهونة؛ وإذا كان المحتوى حقيقيًا وموثوقًا، فسيتم إرجاع الأصول بعد فترة زمنية معينة، وربما يحصل على مكافأة إضافية (مثل رموز وسائل الإعلام المرهونة أو جزء من الأموال التي تم مصادرتها من المزيفين). يخلق هذا النظام بيئة تشجع على قول الحقيقة. بالنسبة لوسائل الإعلام، فإن الرهن يزيد من تكلفة التمويل، لكنه يكسب ثقة الجمهور الحقيقية، وهو أمر مهم جدًا في عصر انتشار الأخبار المزيفة.

كمثال، يودع منشئ محتوى على يوتيوب ETH أو USDC على شبكة إيثريوم عند نشر فيديو يوصي فيه بمنتج معين. إذا كانت المحتوى غير حقيقي، يُحجز المبلغ المودع، ويمكن للمشاهدين الوثوق بصحة المحتوى. إذا أراد المروج التوصية بهاتف معين، فعليه أن يودع 100 دولار من ETH ويصرح: “إذا لم يحقق الهاتف وظيفة التصوير الجميلة، سأعوض”. عند رؤية المروج يودع الأموال، يثق الجمهور أكثر. وإذا كان المحتوى مزيفًا بواسطة الذكاء الاصطناعي، فسيفقد المروج أمواله المرهونة.

بالنسبة للحكم على صحة المحتوى، يقترح الأزرق الثعلب اعتماد آلية “مزدوجة” للتحقق، تشمل “المجتمع + الخوارزمية”. من ناحية المجتمع، يصوت المستخدمون (الذين يودعون أصولًا مشفرة) على المحتوى على السلسلة، وإذا تجاوزت نسبة التصويت (مثل 60%)، يُعتبر المحتوى زائفًا؛ ومن ناحية الخوارزمية، يتم دعم نتائج التصويت بتحليل البيانات. في حالة الاعتراض على الحكم، يمكن للمنشئ تقديم استئناف أمام لجنة خبراء، وإذا ثبت أن المصوتين يتلاعبون، يتم مصادرة أصولهم. ويُكافأ كل من يشارك في التصويت أو لجنة الخبراء، من خلال غرامات الأموال أو رموز وسائل الإعلام. بالإضافة إلى ذلك، يمكن لمنشئي المحتوى استخدام تقنيات إثبات المعرفة الصفرية لإثبات صحة المحتوى من المصدر، مثل إثبات المصدر الحقيقي للفيديو.

بالنسبة للأشخاص ذوي الموارد المالية الذين يحاولون استغلال آلية الرهن لخلق محتوى مزيف، يقترح الأزرق الثعلب زيادة تكلفة التزييف على المدى الطويل، ليس فقط من حيث التمويل، بل أيضًا من حيث الوقت، والسجلات التاريخية، ونظام السمعة، والمسؤولية القانونية. على سبيل المثال، يتم وسم الحسابات التي تم مصادرتها، ويجب على من ينشر المحتوى لاحقًا أن يودع المزيد من الأموال؛ وإذا تكرر مصادرة حساباتهم، ستنخفض مصداقية محتواهم بشكل كبير؛ وقد يواجهون مسؤولية قانونية خطيرة.

ETH0.9%
شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • تعليق
  • إعادة النشر
  • مشاركة
تعليق
0/400
لا توجد تعليقات
  • تثبيت