كشفت شركة “مايكروسوفت” عن إتاحة نموذج Phi-3.5-MoE عبر منصة Azure AI Studio وGitHub من خلال واجهة برمجة تطبيقات خالية من الخوادم. يتيح هذا الحل للمطورين دمج نموذج Phi-3.5-MoE بسهولة في سير العمل والتطبيقات الخاصة بهم دون الحاجة إلى القلق بشأن البنية التحتية الأساسية.
وكانت قد أعلنت الشركة الأمريكية الشهر الماضي عن إطلاق عائلة Phi-3.5 الجديدة من النماذج خفيفة الوزن، التي جاءت مع تحسينات ملحوظة. ويعد نموذج Phi-3.5-MoE الأول في هذه العائلة الذي يستفيد من تقنية “مزج الخبراء” (Mixture of Experts – MoE).
نموذج Phi-3.5 هو جزء من عائلة النماذج اللغوية التي طورتها مايكروسوفت، وهو مصمم ليكون نموذجًا خفيف الوزن مع تحسينات كبيرة في الأداء والكفاءة. يعتمد Phi-3.5، وبخاصة Phi-3.5-MoE، على تقنية تسمى Mixture of Experts (MoE)، وهي تقنية حديثة تهدف إلى تحسين أداء النماذج اللغوية الكبيرة من خلال توزيع المهام عبر عدة “خبراء” داخل النموذج، حيث يتم تفعيل مجموعة معينة فقط من هؤلاء الخبراء لمعالجة كل مهمة بدلاً من تشغيل النموذج بأكمله، مما يجعل النموذج أكثر كفاءة من حيث استخدام الموارد.
ومن أهم مميزات Phi-3.5 الكفاءة المحسنة حيث يتم تفعيل أجزاء محددة فقط من النموذج بناءً على المهمة المطروحة، كما أنه أظهر أداءً متفوقا في العديد من معايير الذكاء الاصطناعي على نماذج أخرى مفتوحة المصدر في نفس الفئة، مثل Llama وGemma وMistral.، هذا علاوة على أنه متوفر على Azure AI Studio وGitHub: حيث يمكن للمطورين بكلا سهولة استخدام النموذج من خلال واجهة برمجة تطبيقات خالية من الخوادم، مما يسهل دمجه في التطبيقات وسير العمل دون الحاجة إلى البنية التحتية الخاصة به.
صممت مايكروسوفت هذا النموذج ليكون مرنًا وسهل الدمج في تطبيقات الذكاء الاصطناعي، مما يساعد المطورين في استخدامه بتكلفة منخفضة بناءً على حجم الاستهلاك.
تتوفر نماذج Phi-3.5، بما في ذلك Phi-3.5-MoE، في عدة مناطق من الولايات المتحدة، بما في ذلك شرق الولايات المتحدة 2، شرق الولايات المتحدة، شمال وسط الولايات المتحدة، جنوب وسط الولايات المتحدة، غرب الولايات المتحدة 3، غرب الولايات المتحدة، إضافة إلى منطقة وسط السويد. وكونه عرضًا خاليًا من الخوادم، يتم محاسبة المطورين وفقًا لمعدل استهلاكهم، بتكلفة 0.00013 دولار لكل 1000 رمز إدخال و0.00052 دولار لكل 1000 رمز إخراج.
في اختبارات الأداء على معايير الذكاء الاصطناعي الشائعة، أثبت نموذج Phi-3.5-MoE تفوقه على معظم النماذج المفتوحة في فئته، مثل Llama-3.1 8B وGemma-2-9B وMistral-Nemo-12B، رغم استخدامه عددًا أقل من المعلمات النشطة. كما تزعم مايكروسوفت أن هذا النموذج يقدم أداءً مساوياً أو أفضل بقليل مقارنة بنموذج Gemini-1.5-Flash من جوجل، والذي يعد واحداً من أكثر النماذج المغلقة شيوعاً في هذه الفئة.