ميتا، العازمة على اللحاق بالمنافسين في مجال الذكاء الاصطناعي التوليدي، تنفق مليار على جهود الذكاء الاصطناعي الخاصة بها. جزء من هذه المليارات يذهب إلى توظيف باحثين في مجال الذكاء الاصطناعي. ولكن يتم تخصيص جزء أكبر لتطوير الأجهزة، وخاصة الرقائق لتشغيل وتدريب نماذج الذكاء الاصطناعي الخاصة بشركة Meta.
كشفت Meta اليوم عن أحدث ثمار جهودها في تطوير الرقائق، على ما يبدو بعد يوم واحد من Intel. إعلان أحدث أجهزة تسريع الذكاء الاصطناعي. يُطلق عليه اسم “الجيل القادم” من برنامج Meta Training and Inference Accelerator (MTIA)، وهو خليفة MTIA v1 من العام الماضيتعمل الشريحة على تشغيل النماذج، بما في ذلك تصنيف الإعلانات الصورية والتوصية بها على خصائص Meta (مثل Facebook).
بالمقارنة مع MTIA v1، الذي تم بناؤه على عملية 7 نانومتر، فإن الجيل التالي من MTIA هو 5 نانومتر. (في تصنيع الرقائق، تشير كلمة “العملية” إلى حجم أصغر مكون يمكن بناؤه على الشريحة.) يعد الجيل التالي من MTIA تصميمًا أكبر ماديًا، ويضم نوى معالجة أكثر من سابقه. وعلى الرغم من أنه يستهلك المزيد من الطاقة – 90 واط مقابل 25 واط – إلا أنه يحتوي أيضًا على ذاكرة داخلية أكبر (128 ميجابايت مقابل 64 ميجابايت) ويعمل بمتوسط سرعة ساعة أعلى (1.35 جيجا هرتز مقابل 800 ميجا هرتز).
تدعي Meta أن الجيل التالي من MTIA يعمل حاليًا في 16 منطقة من مناطق مراكز البيانات الخاصة به ويقدم أداءً إجماليًا أفضل بما يصل إلى 3x من MTIA v1. إذا كان هذا الادعاء “3x” يبدو غامضًا بعض الشيء، فأنت لست مخطئًا – فنحن نعتقد ذلك أيضًا. لكن ميتا قالت فقط إن هذا الرقم جاء من اختبار أداء “أربعة نماذج رئيسية” على الشريحتين.
“نظرًا لأننا نتحكم في المجموعة بأكملها، يمكننا تحقيق كفاءة أكبر مقارنة بوحدات معالجة الرسوميات المتاحة تجاريًا،” كتب ميتا في منشور مدونة تمت مشاركته مع TechCrunch.
عرض أجهزة Meta – والذي يأتي بالكاد بعد 24 ساعة من المؤتمر الصحفي مبادرات الذكاء الاصطناعي التوليدية المختلفة والمستمرة للشركة – غير عادي لعدة أسباب.
Premièrement, Meta révèle dans le billet de blog qu’elle n’utilise pas le MTIA de nouvelle génération pour les charges de travail de formation en IA générative pour le moment, bien que la société affirme avoir « plusieurs programmes en cours » pour explorer ce فاعل. ثانيًا، تعترف Meta بأن الجيل التالي من MTIA لن يحل محل وحدات معالجة الرسومات لتشغيل النماذج أو تدريبها، بل سيكملها.
عندما تقرأ ميتا ما بين السطور، تتحرك ببطء، وربما أبطأ مما تريد.
من المؤكد تقريبًا أن فرق الذكاء الاصطناعي في Meta تتعرض لضغوط لتقليل التكاليف. الشركة تستعد للإنفاق مُقدَّر 18 مليار دولار بحلول نهاية عام 2024 لوحدات معالجة الرسومات لتدريب وتشغيل نماذج الذكاء الاصطناعي التوليدية، و- مع تكاليف التدريب على النماذج التوليدية المتطورة التي تقدر بعشرات الملايين من الدولارات – تقدم الأجهزة الداخلية بديلاً مثيرًا للاهتمام.
وبينما تتأخر أجهزة ميتا، فإن المنافسين يتقدمون، الأمر الذي يثير استياء المديرين التنفيذيين في ميتا، على ما أعتقد.
قامت شركة جوجل بتصنيع شريحة الجيل الخامس المخصصة لتدريب نماذج الذكاء الاصطناعي هذا الأسبوع، تي بي يو v5pمتاحة بشكل عام لعملاء Google Cloud، وكشفت عن أول شريحة مخصصة لتشغيل النماذج، أكسيون. أمازون لديها عديد مخصص شريحة الذكاء الاصطناعي الأسر إلى رصيده. وفي العام الماضي، قفزت مايكروسوفت إلى المعركة مع Azure Maia AI Accelerator ومعالج Azure Cobalt 100.
في منشور المدونة، تدعي Meta أن الأمر استغرق أقل من تسعة أشهر “للانتقال من السيليكون الأول إلى نماذج الإنتاج” من الجيل التالي من MTIA، والذي، لكي نكون منصفين، أقصر من النافذة النموذجية بين TPU من Google. لكن أمام Meta الكثير من العمل للحاق بالركب إذا كانت تأمل في تحقيق بعض الاستقلال عن وحدات معالجة الرسومات التابعة لجهات خارجية – والتنافس مع منافستها الشديدة.
Source link