أعلن باحثو مايكروسوفت تطوير أكبر نموذج ذكاء اصطناعي فائق للمعالجات المركزية (CPUs) بأجهزة الحاسوب، أطلقوا عليه اسم (BitNet b1.58 2B4T) ، ومتاح بشكل مفتوح تحت ترخيص MIT .
ويمكن تشغيل النموذج الجديد على المعالجات المركزية، بما في ذلك معالج Apple M2 .
ما هو "بيت نت"؟
نموذج بيت نت هو نموذج مضغوط مصمم للعمل على الأجهزة ذات المواصفات المنخفضة، وفي النماذج التقليدية، ويتم ضغط "الأوزان" وهي القيم التي تحدد الهيكل الداخلي للنموذج بحيث يتم تنفيذ النماذج بشكل جيد على مجموعة متنوعة من الأجهزة، وعملية ضغط الأوزان تقلل من عدد البتات (الوحدات الأصغر التي يمكن أن يعالجها الكمبيوتر) اللازمة لتمثيل هذه الأوزان، مما يساعد النموذج على العمل على شرائح ذاكرة أقل وبسرعة أعلى.
كيف يعمل بيت نت؟
نموذج بيت نت يقوم بتحويل الأوزان إلى ثلاث قيم فقط: -1، 0، و 1، ووهذا يجعل النموذج أكثر كفاءة من حيث الذاكرة والحوسبة مقارنة بالعديد من النماذج الحالية.
النموذج الأكبر بحجم 2 مليار معلمة
يعد BitNet b1.58 2B4T أول نموذج "بيت نت" يحتوي على 2 مليار معلمة، والمعلمات تعني بشكل رئيسي الأوزان نفسها، وتم تدريب النموذج على مجموعة بيانات تحتوي على 4 تريليونات من الرموز (تعادل حوالي 33 مليون كتاب تقريبًا)، ويقول الباحثون إن النموذج يتفوق على النماذج التقليدية ذات الحجم المماثل.
الاختبارات والنتائج
وعلى الرغم من أنه لا يتفوق بشكل كبير على النماذج الأخرى التي تحتوي على نفس العدد من المعلمات، إلا أن النموذج يظهر أداءً جيدًا.
ووفقًا للاختبارات التي أجراها الباحثون، يتفوق النموذج على بعض النماذج المنافسة مثل Llama 3.2 1B من Meta، و Gemma 3 1B من Google، و Qwen 2.5 1.5B من Alibaba، في اختبارات مثل GSM8K (وهي مجموعة من مسائل الرياضيات الخاصة بالمستوى المدرسي) و PIQA (التي تختبر مهارات التفكير المنطقي).
السرعة والكفاءة
من بين الأمور التي تميز النموذج هو سرعته مقارنةً بنماذج أخرى بنفس الحجم، وفي بعض الحالات يعمل BitNet b1.58 2B4T بسرعة تفوق النماذج الأخرى مرتين، بينما يستخدم جزءًا بسيطًا من الذاكرة.
المتطلبات التقنية
ومع ذلك يوجد تحدٍ أساسي يتمثل في أن تحقيق هذا الأداء يتطلب استخدام إطار عمل مخصص من مايكروسوفت يسمى "bitnet.cpp" والذي يعمل حاليًا فقط مع بعض الأجهزة المحددة، ومن الملاحظ أن معالجات الرسومات (GPUs) التي تهيمن على بنية الذكاء الاصطناعي ليست مدعومة حاليًا.
0 تعليق