Google قامت هذا الأسبوع، وبشكل هادئ، برفع تطبيق مجاني للتطبيقات الصوتية بالذكاء الاصطناعي غير المتصل بالإنترنت على متجر تطبيقات iOS بعنوان “AI Edge Eloquent”. يستخدم نموذج Gemma ASR للتعرف على الكلام من جهة الطرف (على الجهاز)، ولا تخرج البيانات الصوتية تمامًا من الجهاز، وبشكل نادر جدًا يسبق إطلاقه منصة Android ويصل أولًا إلى iOS.
(الأحداث السابقة: أصدرت Google أقوى نموذج مفتوح “Gemma 4”! انتقلت بالكامل إلى ترخيص Apache 2.0، والأداء يقترب من نماذج الذكاء الاصطناعي الكبيرة المغلقة المصدر)
(إضافة سياق: كسر احتكار نفيديا؟ تستخدم Google أقوى نماذجها على الإطلاق “Gemma 3” مع وحدة H100 واحدة، وتتفوق على DeepSeek وOpenAI)
فهرس المحتويات
Toggle
بدون أي مؤتمر، وبدون أي إعلان رسمي، قامت Google بهذه الخطوة في وقت سابق من هذا الأسبوع، حيث رفعت تطبيق “AI Edge Eloquent” إلى متجر تطبيقات iOS. هذا التطبيق الخاص بتطبيقات الاستملاء الصوتي بالذكاء الاصطناعي وهو مجاني بالكامل، ويتميز بالتعرف على الكلام دون اتصال. خلفيته هي نموذج Google الخاص بـ Gemma للتعرف على الكلام على الجهاز (ASR)، ويتم تنفيذ جميع معالجة الصوت محليًا على الجهاز ولا يتطلب اتصالًا بالإنترنت.
منطق تشغيل “AI Edge Eloquent” بديهي: بعد فتح التطبيق، تتحدث أمام الميكروفون، وتظهر النصوص بشكل فوري إلى جانب شكل موجة الصوت على الشاشة. بعد إيقاف التسجيل، يقوم التطبيق تلقائيًا بتصفية الحشوات الكلامية مثل “مم” و"آه"، وتصحيح تقسيم الجمل، وتجميع الكلام في نص نظيف يمكن استخدامه مباشرة، ثم يقوم بنسخه تلقائيًا إلى الحافظة.
يُعد تصميم الخصوصية أيضًا أحد أهم نقاط البيع لهذا التطبيق. في وضع عدم الاتصال بالكامل، لا تغادر بيانات الصوت iPhone الخاص بالمستخدم ولا يتم إرسالها إلى أي خوادم. كما توفر Google خيار “وضع السحابة”: يتم تنفيذ التعرف على الكلام على الجهاز كما هو، ثم يتم إرسال النص الناتج عن التعرف (وليس الصوت الخام) إلى نموذج Gemini في السحابة لتنظيفه بشكل إضافي، ما يؤدي إلى جودة أعلى.
الخدمة كاملة مجانية تمامًا، دون اشتراك، ودون حد أقصى للاستخدام.
في الوقت نفسه، لاحظت وسائل الإعلام التقنية ظاهرة نادرة: أن منتجات Google غالبًا ما تكون أول ما يتم إطلاقه على Android، خصوصًا الميزات المتعلقة بالذكاء الاصطناعي على الجهاز، والتي عادةً ما تُطرح أولًا بالتزامن مع أجهزة Pixel ونموذج Gemini Nano. هذه المرة، عكس “AI Edge Eloquent” المسار المعتاد: حتى في وصف التطبيق على App Store، كتب مباشرةً أن إصدار Android قادم.
قدم المحللون تفسيرين محتملين لهذا الأمر. التفسير الأول: اختبار السوق. ربما تختار Google عمدًا iOS، وهي “غير منصة رئيسية” بالنسبة لها، لإجراء تجربة دون الإخلال بنظام Android البيئي، بهدف تقييم مدى تقبّل المستهلكين للكتابة الصوتية بالذكاء الاصطناعي على الجهاز، وعادات الاستخدام لديهم.
التفسير الثاني: جاهزية تقنية. قد يكون نموذج Gemma ASR لإصدار iOS قد وصل إلى معيار قابل للاستخدام في مرحلة التحسين قبل إصدار Android، لذلك اختارت Google طرحه مباشرة بدل الانتظار حتى يتم إطلاقه بالتزامن على النظامين.
من زاوية تقنية، لا تكمن أهمية “AI Edge Eloquent” في مجرد كونه أداة للكتابة الصوتية. فـ Gemma هي سلسلة نماذج ذكاء اصطناعي مفتوحة المصدر وخفيفة من Google، صُممت أساسًا للعمل بكفاءة في البيئات ذات الموارد المحدودة مثل الأجهزة المحمولة. أما AI Edge فهي إطار يتيحه Google للمطورين لتنفيذ نماذج تعلم الآلة على جانب الجهاز.
هذا التطبيق في الواقع ينقل قدرات الاستدلال على الجهاز لدى Gemma إلى سياقات الاستخدام اليومية للمستهلكين.
بالنسبة للمطورين، يُعد AI Edge Eloquent أيضًا نموذجًا مرجعيًا: إذ يوضح طريقة تجسيد نموذج Gemma في المنتجات الفئة الاستهلاكية، وكيف يمكن للبنية الهجينة بين وضع عدم الاتصال ووضع السحابة أن تحقق توازنًا بين الخصوصية وجودة الأداء.