تعمل شرائح الذكاء الاصطناعي الجديدة من Meta بشكل أسرع من ذي قبل
تعد شركة Meta بأن الجيل القادم من شرائح الذكاء الاصطناعي المخصصة الخاصة بها سيكون أكثر قوة وقدرة على تدريب نماذج التصنيف الخاصة بها بشكل أسرع بكثير.
تم تصميم Meta Training and Inference Accelerator (MTIA) للعمل بشكل أفضل مع نماذج التصنيف والتوصيات الخاصة بـ Meta. يمكن أن تساعد الرقائق في جعل التدريب أكثر كفاءة والاستدلال – المعروف أيضًا باسم مهمة الاستدلال الفعلي – أسهل.
قالت الشركة في منشور بالمدونة إن MTIA جزء كبير من خطتها طويلة المدى لبناء بنية تحتية حول كيفية استخدام الذكاء الاصطناعي في خدماتها. إنها تريد تصميم شرائحها للعمل مع البنية التحتية التكنولوجية الحالية والتطورات المستقبلية في وحدات معالجة الرسومات.
وقالت ميتا في منشورها: “إن تلبية طموحاتنا فيما يتعلق بالسيليكون المخصص لدينا يعني الاستثمار ليس فقط في حوسبة السيليكون ولكن أيضًا في النطاق الترددي للذاكرة والشبكات والسعة بالإضافة إلى أنظمة أجهزة الجيل التالي الأخرى”.
أعلنت Meta عن MTIA v1 في مايو 2023، مع التركيز على توفير هذه الرقائق لمراكز البيانات. من المحتمل أيضًا أن تستهدف شريحة MTIA من الجيل التالي مراكز البيانات. ولم يكن من المتوقع أن يتم إصدار MTIA v1 حتى عام 2025، لكن ميتا قالت إن رقاقتي MTIA قيد الإنتاج الآن.
في الوقت الحالي، تقوم MTIA بشكل أساسي بتدريب خوارزميات التصنيف والتوصية، لكن ميتا قالت إن الهدف هو توسيع قدرات الشريحة في النهاية لبدء تدريب الذكاء الاصطناعي التوليدي مثل نماذج لغة اللاما.
وقال ميتا إن شريحة MTIA الجديدة “تركز بشكل أساسي على توفير التوازن الصحيح بين الحوسبة وعرض النطاق الترددي للذاكرة وسعة الذاكرة.” ستحتوي هذه الشريحة على ذاكرة سعة 256 ميجا بايت على الشريحة بسرعة 1.3 جيجا هرتز مقارنة بذاكرة الإصدار الأول التي تبلغ 128 ميجا بايت و800 جيجا هرتز. أظهرت نتائج الاختبار المبكرة من Meta أن أداء الشريحة الجديدة أفضل بثلاث مرات من إصدار الجيل الأول عبر أربعة نماذج قامت الشركة بتقييمها.
أكدت المنافسة لشراء رقائق قوية الحاجة إلى شرائح مخصصة لتشغيل نماذج الذكاء الاصطناعي. لقد نما الطلب على الرقائق بشكل كبير لدرجة أن شركة Nvidia، التي تهيمن على سوق شرائح الذكاء الاصطناعي في الوقت الحالي، تبلغ قيمتها 2 تريليون دولار.