اختبار سرعة تطبيقات الذكاء الاصطناعي بمعايير أداء حديثة

كشفت مجموعة الذكاء الاصطناعي MLCommons عن معيارين جديدين قالت إنهما سيساعدان في تحديد مدى سرعة تشغيل أفضل الأجهزة والبرمجيات لتطبيقات الذكاء الاصطناعي.
منذ إطلاق OpenAI لـ ChatGPT قبل أكثر من عامين، بدأت شركات الرقائق بتحويل تركيزها إلى تصنيع أجهزة قادرة على تشغيل الشيفرة البرمجية بكفاءة، مما يسمح لملايين الأشخاص باستخدام أدوات الذكاء الاصطناعي. ونظرًا لأن النماذج الأساسية يجب أن تستجيب لعدد أكبر من الاستعلامات لتشغيل تطبيقات الذكاء الاصطناعي، مثل برامج الدردشة الآلية ومحركات البحث، فقد طورت MLCommons نسختين جديدتين من معايير MLPerf لقياس السرعة.
يعتمد أحد المعيارين الجديدين على ما يسمى بنموذج الذكاء الاصطناعي Llama 3.1 من Meta ذي 405 مليارات معلمة، ويستهدف الاختبار الإجابة على الأسئلة العامة، والعمليات الحسابية، وتوليد الشيفرة البرمجية. يختبر الشكل الجديد قدرة النظام على معالجة الاستعلامات الكبيرة وتوليف البيانات من مصادر متعددة.
قدمت شركة إنفيديا العديد من رقائقها لاختبار المعيار، وكذلك فعلت شركات بناء الأنظمة مثل ديل تكنولوجيز . ولم تقدم شركة أدفانسد مايكرو ديفايسز أي طلبات لاختبار المعيار الكبير الذي يضم 405 مليارات معلمة، وفقًا للبيانات التي قدمتها MLCommons.
في الاختبار الجديد، كان أحدث جيل من خوادم الذكاء الاصطناعي من إنفيديا – المسمى جريس بلاكويل، والذي يحتوي على 72 وحدة معالجة رسومات من إنفيديا – أسرع بمقدار 2.8 إلى 3.4 مرة من الجيل السابق، حتى عند استخدام ثماني وحدات معالجة رسومات فقط في الخادم الأحدث لإجراء مقارنة مباشرة مع الطراز القديم، وفقًا لما ذكرته الشركة في إحاطة يوم الثلاثاء.
تعمل إنفيديا على تسريع اتصالات الرقائق داخل خوادمها، وهو أمر مهم في أعمال الذكاء الاصطناعي حيث يعمل روبوت المحادثة على رقائق متعددة في وقت واحد.
يعتمد المعيار الثاني أيضًا على نموذج ذكاء اصطناعي مفتوح المصدر من تطوير Meta، ويهدف إلى محاكاة توقعات الأداء التي تحددها تطبيقات الذكاء الاصطناعي الاستهلاكية مثل ChatGPT بدقة أكبر.
الهدف هو تقليل زمن الاستجابة للمعيار وجعله قريبًا من الاستجابة الفورية.