وفقًا لمراقبة 1M AI News، تتشارك OpenAI وAnthropic وGoogle معلومات عبر منظمة Frontier Model Forum غير ربحية على مستوى الصناعة، بهدف إجراء كشف مشترك عن سلوك «التقطير العدائي» الذي ينتهك شروط خدماتها. أُنشئت هذه المنظمة بصورة مشتركة في عام 2023 من قِبل الشركات الثلاث المذكورة أعلاه مع مايكروسوفت. يعدّ التقطير تقنية يتم من خلالها تدريب نموذج جديد باستخدام مخرجات النماذج الحالية، لنسخ قدرات النموذج السابق بتكلفة أقل؛ كما تستخدم شركات الذكاء الاصطناعي التقطير كثيرًا أيضًا لإنشاء إصدارات أصغر وأكثر كفاءة من نماذجها، لكن توجد في القطاع مخاوف وخلافات بشأن التقطير غير المصرّح به من جهات ثالثة.
أكدت OpenAI أنها تشارك في هذه الشراكة، واستشهدت بمذكرة كانت قد قدمتها سابقًا إلى الكونغرس الأمريكي، قائلة إن DeepSeek تحاول «الركوب مجانًا للحصول على القدرات التي تطورها OpenAI وغيرها من المختبرات الأمريكية الرائدة». ورفضت Google وAnthropic وFrontier Model Forum جميعها التعليق. قدّر مسؤولون حكوميون أمريكيون أن التقطير غير المصرّح به يسبب خسائر سنوية بمئات المليارات من الدولارات لأرباح مختبرات وادي السيليكون.
استندت هذه الشراكة إلى العرف السائد في قطاع الأمن السيبراني المتمثل في مشاركة معلومات الهجمات بين الشركات. كما دعا كذلك إلى إنشاء مركز متخصص لمشاركة المعلومات والتحليل ما ورد في خطة عمل الذكاء الاصطناعي التي أطلقها فريق ترامب العام الماضي. غير أن نطاق مشاركة المعلومات يبقى محدودًا حاليًا بسبب عدم وضوح حدود المحتوى القابل للمشاركة في ضوء قوانين مكافحة الاحتكار السارية. لم تقدم الشركات الثلاث حتى الآن أدلة علنية توضح إلى أي مدى يعتمد ابتكار نماذج صينية على التقطير، لكنها تقول إن تكرار مثل هذا السلوك يمكن قياسه عبر عدد طلبات البيانات على نطاق واسع.