كتب : وائل مجدي
كشفت شركة "ريد هات" (Red Hat Inc.)، المزود العالمي لحلول البيانات مفتوحة المصدر، عن إطلاق خادم استدلال الذكاء الاصطناعي من ريد هات، في خطوة نوعية لإتاحة الذكاء الاصطناعي التوليدي على نطاق أوسع عبر بيئات السحابة الهجينة.
ويُمثّل الخادم الجديد إضافةً جديدة لمجموعة حلول ريد هات للذكاء الاصطناعي، ويشكل منصة متطورة تعتمد على مشروعvLLM مع أداء معزز من خلال تقنياتNeural Magic ، بما يتيح سرعة أكبر وكفاءة أعلى، وتكلفة أقل في تشغيل أي نموذج ذكاء اصطناعي توليدي على أي مسرّع ذكاء اصطناعي، وفي أية بيئة سحابية.
وسواءً تم اعتماده كحل مستقل أو من ضمن نظامي Red Hat Enterprise Linux AI (RHEL AI) وRed Hat OpenShift AI، يُمكّن هذا الحل المُبتكر المؤسسات من توسيع نطاق استخدام الذكاء الاصطناعي التوليدي بثقة أكبر في البيئات الإنتاجية.
ويعتبر الاستدلال محركاً أساسياً لتطبيقات الذكاء الاصطناعي، حيث تتولى النماذج المُدرَّبة مسبقاً تحويل البيانات إلى طور التأثير الفعلي، كما يشكّل الاستدلال نقطةً محورية لتعزيز تفاعل المستخدم من خلال استجابات سريعة ودقيقة. ومع تزايد تعقيد نماذج الذكاء الاصطناعي التوليدي وانتشارها على نطاق أوسع في بيئات الإنتاج، يمثّل الاستدلال تحدياً كبيراً للشركات، حيث يمكن أن يؤدي إلى استنزاف موارد الأجهزة، ورفع التكاليف التشغيلية، وإضعاف الأداء.
ولم تعد خوادم الاستدلال القوية خياراً، بل ضرورة لإطلاق العنان للإمكانات الحقيقية للذكاء الاصطناعي على نطاق واسع، والتعامل مع التعقيدات التقنية بسهولةٍ أكبر.
وتعمل ريد هات على مواجهة هذه التحديات من خلال خادم استدلال الذكاء الاصطناعي من ريد هات، وهو حل استدلال مفتوح يوفر أداءً عالياً بفضل أدواته المتقدمة لضغط النماذج وتحسينها. ويساهم هذا الابتكار في تمكين المؤسسات من الاستفادة المثلى من إمكانات الذكاء الاصطناعي التوليدي من خلال تقديم تجارب مستخدم أكثر استجابة، وتوفير حرية غير مسبوقة في اختيار مسرّعات الذكاء الاصطناعي، والنماذج وبيئات تقنية المعلومات.
vLLM: توسيع نطاق الابتكار في الاستدلال
يعتمد خادم استدلال الذكاء الاصطناعي من ريد هات على مشروعvLLM الرائد الذي أطلقته جامعة كاليفورنيا، بيركلي في منتصف العام 2023، والذي يُعدّ نقطة تحول بارزة في توفير استدلال عالي الإنتاجية لنماذج الذكاء الاصطناعي التوليدي. ويتمتع هذا الابتكار بقدرة عالية في دعم السياقات النصية الطويلة، وتسريع نماذج وحدات معالجة الرسومات المتعددة، إلى جانب تسهيل التجميع المستمر والعديد من المزايا المتقدمة.
ويشكّل vLLM معياراً بارزاً للابتكار المستقبلي في مجال استدلال الذكاء الاصطناعي بفضل الدعم الواسع الذي يقدّمه للنماذج مفتوحة المصدر، وتكامله الفوري مع أبرز نماذج الذكاء الاصطناعي الرائدة مثل DeepSeek، وGemma، وLlama، وLlama Nemotron وMistral، وPhi وغيرها، إلى جانب نماذج الاستدلال المؤسسية المفتوحة مثل Llama Nemotron. ويحظى هذا المشروع بثقةٍ عالية من جانب مزودي النماذج المتقدمة بما يعزّز دوره المحوري في تشكيل مستقبل الذكاء الاصطناعي التوليدي.
إطلاق خادم استدلال الذكاء الاصطناعي من ريد هات
يتيح خادم استدلال الذكاء الاصطناعي من ريد هات مزايا مشروع vLLM الرائد، ويحوّلها إلى قدراتٍ مؤسسية متكاملة وفقاً لأعلى المعايير، ويتوفر كحلٍ مستقل أو من ضمن منصتي RHEL AI وRed Hat OpenShift AI.
ويوفر خادم استدلال الذكاء الاصطناعي من "ريد هات" للمستخدمين توزيعاً مُعززاً ومدعوماً من النموذج اللغوي الافتراضي الكبير (vLLM) ضمن أي بيئة للنشر، بالإضافة إلى:
● أدوات ضغط ذكية للنماذج اللغوية الكبيرة لتقليل حجم نماذج الذكاء الاصطناعي الأساسية والمعدلة بشكل كبير، مع الحد من استهلاك الحوسبة، والحفاظ على دقة النموذج واحتمالية تحسينها.
● مستودع نماذج محسّن، مستضاف في مؤسسة "ريد هات للذكاء الاصطناعي" على منصة شركة Hugging Face، والذي يقدم وصولاً فورياً إلى مجموعة موثوقة ومحسّنة من نماذج الذكاء الاصطناعي الرائدة الجاهزة لنشر الاستدلال، مما يساعد على تسريع الكفاءة بمعدل يتراوح بين 2 إلى 4 مرات، دون المساس بدقة النموذج.
● دعم "ريد هات" للمؤسسات وإتاحة خبراتها الرائدة التي تمتد لعقود في تحويل مشاريع المجتمعات التخصصية إلى بيئات إنتاجية.
● الدعم الخارجي لزيادة مرونة النشر، مما يتيح نشر خادم استدلال الذكاء الاصطناعي من "ريد هات" على منصات "لينكس" و"كوبيرنيتس" غير التابعة لـ "ريد هات" وفقاً لسياسة الدعم من الطرف الثالث الخاصة بشركة "ريد هات".
رؤية ريد هات: خياراتٌ مفتوحة للنماذج والمسرِّعات والمنظومات السحابية
إن مستقبل الذكاء الاصطناعي يجب أن يتسم بفرص غير محدودة، وليس بقيود البنية التحتية. وتمهد "ريد هات" الطريق أمام تمكين المؤسسات من نشر أي نموذج، على أي مسرع، وعبر أي سحابة، لتقديم تجربة مستخدم استثنائية وأكثر اتساقاً دون تكاليف باهظة. ويتطلب إطلاق العنان للإمكانات الفعالية لاستثمارات الذكاء الاصطناعي التوليدي توجُّه المؤسسات نحو منصةٍ استدلالية عالمية لتكون بمثابةٍ معيارٍ للابتكار في الذكاء الاصطناعي بسلاسةٍ وأداءٍ عالٍ، اليوم وفي السنوات القادمة.
وعلى هذا الصعيد، تحظى "ريد هات" بمكانةٍ رائدة في مجال المؤسسات المفتوحة عبر تحويل نظام "لينوكس" إلى حجر الأساس للبنية التحتية الحديثة لتكنولوجيا المعلومات، كما تستعد الشركة اليوم لتصميم مستقبل استدلال الذكاء الاصطناعي. وباعتبار النموذج اللغوي الافتراضي الكبير الركيزة الأساسية لمعيارية الاستدلال في الذكاء الاصطناعي التوليدي، تلتزم "ريد هات" ببناء منظومة مزدهرة حول مجتمع النموذج اللغوي الافتراضي الكبير، وكذلك النموذج اللغوي الكبير للاستدلال الموزع على نطاق واسع.
وتستند "ريد هات" إلى رؤيةٍ واضحة، بصرف النظر عن نموذج الذكاء الاصطناعي، والمُسرِّع الأساسي وبيئة النشر، حيث تهدف الشركة إلى جعل النموذج اللغوي الافتراضي الكبير بمثابة المعيار المفتوح الرئيسي للاستدلال عبر البيئة السحابية الهجينة الجديدة.
قمة "ريد هات"
ندعوكم لحضور الجلسات الرئيسية في قمة "ريد هات" للتعرف عن كثب على أحدث المستجدات من مسؤولي وعملاء وشركاء "ريد هات":
o الجلسة الرئيسية لليوم الأول - (يوتيوب، لينكد إن)
o الجلسة الرئيسية لليوم الثاني - (يوتيوب، لينكد إن)
من جهته قل جو فرنانديز، نائب الرئيس والمدير العام، قسم أعمال الذكاء الاصطناعي في "ريد هات" إن الاستدلال هو المرحلة التي تتحقق فيها الآفاق الواعدة للذكاء الاصطناعي التوليدي، حيث تلتقي تفاعلات المستخدمين باستجابات سريعة ودقيقة يقدمها النموذج المخصص.
ويتطلب ذلك انتهاج طريقةٍ فعالة وموفرة للتكاليف؛ وفي ضوء ذلك، تم تصميم خادم استدلال الذكاء الاصطناعي من «ريد هات» لتلبية الطلب على عمليات استدلال عالية الأداء وسريعة الاستجابة على نطاق واسع، مع الحفاظ على متطلبات الموارد عند أدنى مستوى، مما يتيح طبقة استدلال مشتركة تدعم أي نموذج يعمل على أي مسرع في أي بيئةٍ كانت."
من ناحيته قال رامين رون، نائب الرئيس المؤسسي، إدارة منتجات الذكاء الاصطناعي، AMD بالتعاون مع ريد هات، تقدم AMD حلولاً مبتكرة لتعزيز كفاءة الذكاء الاصطناعي التوليدي للمؤسسات. وعلى هذا الصعيد، يتيح خادم واجهة الذكاء الاصطناعي من ريد هات على وحدات معالجة رسومات AMD Instinct™ إمكانية تزويد المؤسسات بقدرات واجهات ذكاء اصطناعي مؤسسية وموجَّهة للمجتمع، بدعم من مُسرِّعات برامج مُثبَتَة بالكامل."
من ناحية اخرى قال جريمي فوستر، المدير العام والنائب الأول للرئيس، Cisco " تتطلب أحمال عمل الذكاء الاصطناعي السرعة والاتساق والمرونة، وهي خصائص تجتمع في خادم واجهة الذكاء الاصطناعي من ريد هات.
ويتيح هذا الحل المبتكر لكل من Cisco وريد هات فُرص مواصلة التعاون بطرق جديدة لتسهيل الوصول إلى منظومات نشر الذكاء الاصطناعي، والارتقاء بكفاءتها وإمكانية تطويرها وتوسيعها، وتعزيز جاهزية المؤسسات للمستقبل."
من جهته قال بيل بيرسون، نائب الرئيس، منظومة وحلول برمجيات الذكاء الاصطناعي ومراكز البيانات، Intel " نتطلع في انتل قُدُماً لتطوير تعاوننا مع ريد هات وتمكين خادم واجهة الذكاء الاصطناعي من ريد هات على مسرِّعات Intel® Gaudi®. ويتيح هذا التعاون لعملائنا حلاً أكثر كفاءة لتطوير واجهة الذكاء الاصطناعي وزيادة سلاستها، وتوفير مستوى متقدم من الأداء والفعالية لطيفٍ واسع من تطبيقات الذكاء الاصطناعي المؤسسية."
من ناحية اخرى قال جون فانيلي، نائب الرئيس، البرمجيات المؤسسية، NVIDIA " تتيح الواجهة عالية الأداء للنماذج ووكلاء الذكاء الاصطناعي إمكانية الاستجابة للتحديات والاستدلال والمواءمة خلال الوقت الفعلي. ومن خلال منظومات NVIDIA للحوسبة المفتوحة والمتكاملة والمُسرَّعة وخادم واجهة الذكاء الاصطناعي من ريد هات، يمكن للعملاء إجراء عمليات الاستدلال بكفاءة وعلى نطاقٍ واسع يشمل الأوساط السحابية والهجينة، وتنفيذ عمليات النشر بثقة، باستخدام خادم واجهة الذكاء الاصطناعي من ريد هات والتصميم الجديد المُثبت من Enterprise NVIDIA للذكاء الاصطناعي."