واجهة برمجة التطبيقات الخاصة بـ«لاما» في الذكاء الاصطناعي

الوطن البحرينية 0 تعليق ارسل طباعة تبليغ حذف
د. جاسم حاجي

أعلنت شركة «ميتا» عن إطلاق واجهة برمجة التطبيقات الخاصة بـ«لاما» (Llama API)، والمصمّمة لمساعدة المطورين على دمج نماذج الذكاء الاصطناعي من نوع «لاما» في منتجاتهم بشكل أكثر سهولة. وقد تم تقديم هذه الواجهة خلال أول مؤتمر لمطوري الذكاء الاصطناعي تنظمه «ميتا»، وهي متاحة حالياً لمجموعة مختارة من المستخدمين، مع خطة لتوسيع نطاق الإتاحة خلال الأشهر المقبلة.

وبالتوازي مع إطلاق الواجهة، طرحت «ميتا» تطبيقاً مستقلاً لمساعد ذكي يعمل بالذكاء الاصطناعي، وأكدت عزمها اختبار نظام اشتراك مدفوع لمحادثات الذكاء الاصطناعي في وقت لاحق من هذا العام. كما سلّطت الشركة الضوء على التحسينات التي طرأت على أحدث نماذج «لاما»، مركّزة على الكفاءة وتقليل التكاليف.

وأكدت «ميتا» أيضاً أن المطورين سيحتفظون بالتحكم الكامل في النماذج المخصّصة التي يقومون بإنشائها، مع المرونة في نشرها خارج منصات «ميتا».

ويأتي طرح واجهة «لاما» في إطار سعي «ميتا» للحفاظ على ريادتها في سوق النماذج المفتوحة المصدر، الذي يشهد تنافساً حاداً. وعلى الرغم من أن نماذج «لاما» قد تم تحميلها أكثر من مليار مرة حتى الآن وفقاً لميتا، إلا أن منافسين مثل «ديب سيك» (DeepSeek) و«تشيوين» (Qwen) التابع لشركة «علي بابا» يشكّلون تحدياً لطموحات «ميتا» في بناء منظومة واسعة تعتمد على «لاما».

وتوفر واجهة «لاما» أدوات لتخصيص النماذج وتقييم أدائها، بدءاً من نموذج «لاما 3.3 8 B». ويمكن للمستخدمين توليد بيانات تدريبية، والتدرب عليها، ثم استخدام مجموعة أدوات التقييم المضمنة في واجهة «لاما» لاختبار جودة النموذج المخصّص.

وأكدت «ميتا» أنها لن تستخدم بيانات عملاء واجهة «لاما» في تدريب نماذجها الخاصة، وأن النماذج التي يتم إنشاؤها عبر هذه الواجهة يمكن نقلها إلى منصات استضافة أخرى.

وتقوم «ميتا» بإتاحة نماذج «لاما» للمطورين بشكل شبه مجاني، وهي استراتيجية سبق للرئيس التنفيذي مارك زوكربيرغ أن أشار إلى أنها ستؤتي ثمارها عبر تحفيز الابتكار، وتقليل الاعتماد على المنافسين المحتملين، وزيادة التفاعل على شبكات الشركة الاجتماعية الرئيسة.

- شراكة «ميتا - سيريبراس»: تتيح هذه الشراكة للمطورين الذين يعملون على نموذج «Llama 4» من «سيريبراس» عبر واجهة البرمجة التطبيقية (API) تحقيق سرعات تصل إلى 18 ضعفاً مقارنةً بالحلول التقليدية المعتمدة على وحدات معالجة الرسوميات (GPU)، وذلك وفقاً لتصريحات شركة «سيريبراس». وتُعدّ هذه السرعة الفائقة بوابةً نحو جيلٍ جديد بالكامل من التطبيقات التي كان من المستحيل بناؤها باستخدام تقنيات أخرى. وتشمل هذه التطبيقات: المحادثات الصوتية الفورية منخفضة الكمون، وتوليد الشيفرات التفاعلية، والاستدلال الفوري متعدد الخطوات، بالإضافة إلى الوكلاء الذكيين في الزمن الحقيقي – وجميعها تعتمد على سلسلة من استدعاءات النماذج اللغوية الكبيرة (LLM)، والتي أصبح بالإمكان تنفيذها في ثوانٍ بدلاً من دقائق.

إخترنا لك

أخبار ذات صلة

0 تعليق