تنهي إنفيديا عبر منصة DGX Rubin الجديدة سباق الأرقام النظرية في الذكاء الاصطناعي لتنتقل إلى مرحلة «التفوق بالكثافة»، حيث يقدم سوبر حاسوب SuperPOD قدرة 28.8 إكساFLOPS باستخدام 576 معالج رسوميات فقط. هذا التفوق التقني يعني عملياً تجاوز قدرة نظام Huawei Atlas 950 بنسبة تقترب من 80% مع استهلاك مساحة مادية أقل، مما يحل أزمة مراكز البيانات التي تعاني من ضيق المساحة وارتفاع تكاليف التبريد والربط الشبكي المعقد.
مواصفات DGX Rubin NVL72: كيف تحقق إنفيديا 50 بيتاFLOPS في وحدة واحدة؟
يعتمد نظام DGX Vera Rubin NVL72 على دمج 36 معالج Vera CPU مع 72 معالج رسوميات Rubin GPU و18 معالج BlueField 4 DPU داخل رف واحد يعمل كمحرك ذكاء اصطناعي موحد. تصل قدرة المعالجة في الوحدة الواحدة إلى 50 بيتاFLOPS بدقة FP4، مدعومة بعرض حزمة NVLink يبلغ 260 تيرابايت/ثانية، ما يحول الرف بالكامل إلى فضاء ذاكرة متماسك يلغي فجوات نقل البيانات التقليدية بين المعالجات.
تستخدم معالجات Rubin الجيل الثالث من محرك Transformer Engine ومسرعات ضغط عتادية، وهي ميزة تقنية ترفع كفاءة تدريب النماذج اللغوية الضخمة (LLMs) والاستدلال دون الحاجة لزيادة عدد العقد الحوسبية، مما يقلل من زمن التأخير (Latency) في التطبيقات الحساسة.
مقارنة إنفيديا Rubin وهواوي Atlas 950: لماذا تتفوق الكثافة على التوسع الأفقي؟
يكمن الفارق الجوهري بين العملاقين في استراتيجية التوسع؛ فبينما تعتمد هواوي في نظام SuperCluster على التوسع الأفقي عبر زيادة عدد وحدات NPU لتصل إلى 16 إكساFLOPS، تحقق إنفيديا 28.8 إكساFLOPS بكثافة أعلى وعقد أقل. هذا التباين يمنح إنفيديا أفضلية في تقليص عدد الخزائن (Racks) المطلوبة، مما يخفض تكلفة البنية التحتية والتعقيد الهندسي لتوصيل الكابلات.
| وجه المقارنة | Nvidia DGX Rubin SuperPOD | Huawei Atlas 950 SuperPod |
|---|---|---|
| الأداء الأقصى (FP4) | 28.8 إكساFLOPS | 16 إكساFLOPS |
| كفاءة الجيل | 5.5 أضعاف جيل Blackwell | – |
| استراتيجية النمو | كثافة عالية (Vertical) | توسع عددي (Horizontal) |
تأثير منصة Rubin على تكاليف تشغيل مراكز بيانات الذكاء الاصطناعي
بعيداً عن لغة الأرقام الضخمة، يمثل نظام Rubin حلاً عملياً لمشكلة «اختناق الشبكات» في مراكز البيانات؛ فاستخدام تقنيات Spectrum‑6 Ethernet وQuantum‑X800 InfiniBand يضمن تدفق البيانات بشكل حتمي ومنخفض الكمون. هذا التكامل يقلل من احتمالات تعطل التدريب نتيجة فشل العقد، وهي مخاطرة تزداد طردياً مع زيادة عدد الوحدات في الأنظمة المنافسة.
من الناحية التشغيلية، دمج برمجيات Nvidia AI Enterprise ومنظومة Mission Control يسمح بأتمتة استعادة الأعطال وإدارة العناقيد الضخمة، مما يحول السوبر حاسوب من مجرد عتاد صلب إلى بيئة تشغيل جاهزة لوكيلات الذكاء الاصطناعي (Agentic AI) والنماذج متعددة الأنماط التي تتطلب تفكيراً طويل السياق.
يجب على مديري تقنية المعلومات إدراك أن القيمة الحقيقية هنا ليست في سرعة المعالجة فحسب، بل في تقليل عدد نقاط الفشل المحتملة؛ فإدارة 576 معالجاً للوصول إلى هذه القدرة الحوسبية أسهل بكثير وأكثر استقراراً من محاولة ضبط آلاف المعالجات الموزعة للوصول إلى نفس النتيجة.
