كتب : أمير طه
برزت وكلاء الذكاء الاصطناعي كأبرز الاتجاهات في الذكاء الاصطناعي في عام 2025، حيث أصدرت عدة شركات مثل جوجل وOpenAI وPerplexity وX.AI نماذج من هذه الوكلاء مصممة للبحث العميق. وتتيح كافة هذه الأدوات للمستخدمين توليد تقارير مفصلة حول أي موضوع يختارونه طالما أن البيانات متاحة علناً. ومع ذلك، هناك ثلاث عقبات رئيسية تواجه المؤسسات عند استخدام هذه الأدوات اليوم:
الأمان: إن نسبة كبيرة من بيانات المؤسسات هي بيانات حساسة ويجب حفظها على الأنظمة الداخلية للمؤسسة، وبالتالي فهي غير متاحة أمام أدوات البحث العميق الحالية.
السرعة: أدوات البحث العميق اليوم غالباً ما تكون بطيئة جداً ولا يمكن استخدامها للتكرار السريع أو الحالات الطارئة.
التكلفة: تتطلب وكلاء الذكاء الاصطناعي المصممة للبحث العميق التعامل مع عدد كبير من الرموز (Tokens)، مما يجعل تكاليف تشغيل هذه الأنظمة مرتفعاً للغاية، وخاصة مع OpenAI.
ولمواجهة هذه التحديات، قامت شركة سامبا نوفا بمساعدة المؤسسات في إجراء البحث العميق بسرعة أكبر ثلاث مرات من تلك التي توفرها وحدات معالجة الرسوميات (GPU)، وبكفاءة أعلى في التعامل مع البيانات، حيث عملت سامبا نوفا مع شركة CrewAI لتطوير وإطلاق إطار عمل للبحث العميق مفتوح المصدر، والذي يساعد المؤسسات الآن في حل أكبر تحدياتها، ويوفر الحل الجديد المزايا التالية:
وكلاء مع بيانات المؤسسات: كحل مفتوح المصدر، يمكن للمؤسسات بناء مجموعة وكلائها الخاصة والوصول إلى بياناتها ونشر هذه الحلول بشكل آمن على الأنظمة الداخلية باستخدام أجهزة سامبا نوفا.
استنتاج أسرع ثلاث مرات مقارنة بوحدات معالجة الرسوميات: تتيح منصة سامبا نوفا كلاود تشغيل وكلاء الذكاء الاصطناعي بسرعة أكبر ثلاث مرات أكثر من أي منصة أخرى تعتمد على وحدات معالجة الرسوميات، مما يسمح للمستخدمين بأداء المهام المتكررة بشكل أكثر كفاءة أثناء البحث.
توفير التكاليف: باستخدام منصة سامبا نوفا كلاود والنماذج مفتوحة المصدر مثل Llama 3.3 70B، يمكن للمؤسسات توفير ملايين الدولارات سنوياً مقارنة بنماذج OpenAI مثل GPT-4o.
من جهته قال توني كيبيمبوي، كبير مهندسي علاقات المطورين لدى CrewAI: "هذه خطوة كبيرة في مجال الذكاء الاصطناعي للمؤسسات، إذ تبحث المؤسسات منذ فترة عن طريقة أكثر كفاءة وأماناً لنشر وكلاء الذكاء الاصطناعي مع بياناتها، والآن أصبح لديها أخيراً حل مفتوح المصدر بالكامل. نحن متحمسون لشراكتنا مع سامبا نوفا لمساعدة المؤسسات في استخدام CrewAI لتحسين عمل وكلاء الذكاء الاصطناعي في مجال البحث العميق بما يتيح لها العمل بكفاءة أكبر والاستدلال بصورة أسرع وأكثر أماناً اعتماداً على بياناتها".
لماذا نحتاج إلى استدلال أسرع في البحث العميق؟
تعريفاً، الهدف من البحث العميق هو التعمق في موضوع ما وتقديم تقرير وتحليل مقنع للمستخدم عادةً يستغرق وقتًا طويلاً لإنتاجه. على عكس تطبيقات المحادثة التقليدية باستخدام النماذج اللغوية الكبيرة (LLM)، تتطلب وكلاء الذكاء الاصطناعي للبحث العميق التعامل مع عدد من الرموز يبلغ 10 أضعاف (وفي بعض الأحيان 100 ضعف) عدد الرموز لتوليد ردود مقنعة في المحادثات التقليدية. وتهدف تطبيقات البحث العميق إلى توليد نفس التقرير المقنع الذي يحتاج إلى أيام من البحث البشري خلال وقت قصير لا يتعدى الزمن اللازم لاحتساء كوب من القهوة.
يتيح الاستنتاج الأسرع باستخدام منصة سامبا نوفا إمكانية البحث العميق وتنفيذ المهام المتكررة بسرعات مذهلة، فباستخدام إطار العمل للبحث العميق، يمكن توليد تقارير في ثوانٍ بفضل شرائح RDU من سامبا نوفا والتي توفر سرعة أكبر بـ 10 مرات من تلك التي توفرها وحدات معالجة الرسوميات. هذا يعني أن المستخدمين يمكنهم إتمام عملهم بسرعة أكبر بـ 10 مرات، مما يوفر الوقت والتكاليف، وهذا الفرق شبيه بالفرق بين تشغيل فيديو مباشرة أو الانتظار دقائق لتحميله.
بالنسبة للمؤسسات، فإن الوقت والكفاءة عاملان مهمان للقيام بالمزيد من المهام باستخدام موارد أقل، وقد عملنا مع واحدة من أكبر شركات الاستثمار في أمريكا الشمالية، والتي تضم مئات من المحللين في مكاتب التداول الذين يقومون بإجراء بحوث يومية. ويجب على هؤلاء المحللين إجراء العديد من الاستفسارات بسرعة كبيرة لمواكبة تقلبات السوق اليومية. وقد ساعدتهم حلولنا للبحث العميق والأسرع من غيرها 10 مرات على الحصول على ميزة تنافسية والوصول إلى معلومات أكثر دقة لاتخاذ قرارات أفضل في بشكل فوري ولحظي.
التوجيه عبر وكلاء الذكاء الاصطناعي يحسن الكفاءة
كجزء من الإطار، قمنا أيضاً بتضمين ميزة التوجيه اعتمادا على الوكلاء (Agentic Router) والتي تخطط وتوجه الطلبات إلى وكلاء مختلفين يمكنهم تقديم نتائج بدقة أعلى.
يأتي الإطار بشكل افتراضي مع ثلاثة وكلاء: وكيل البحث العام، وكيل البحث العميق، ومحلل مالي. ونظراً لأن الإطار مفتوح المصدر، فبإمكان أي شخص إضافة وكلاء إضافيين متصلين بمصدر بياناته الخاص.
لفهم كيفية عمل هؤلاء الوكلاء، دعونا نفترض أننا نعمل كمحللين في مكتب تداول يحتاج إلى توليد تقرير عن أحدث اتجاهات السوق. قد نبدأ يومنا بإجراء بحث سريع عما حدث في السوق طوال الليل مع استفسار مثل "تلخيص آخر أخبار السوق عن أمازون". يتم توجيه الاستفسار إلى وكيل من نوع "مولّد معزز بالاسترجاع" أو RAG العام مع أدوات البحث التي تحتاج فقط إلى ثلاث استفسارات للعثور بدقة على إجابة في الوقت الفعلي باستخدام حوالي 1,000 رمز.
بعد الحصول على بعض المعلومات الأساسية، سيبدأ المحلل في إجراء بحث أكثر تفصيلًا، ويطرح استفساراً مثل "توليد تحليل مالي عن أمازون". سيقوم هذا بتوجيه الاستفسار إلى وكيل المحلل المالي المسؤول عن إجراء بحث أكثر تعمقاً. يقدم هذا الوكيل المزيد من التفاصيل باستخدام حوالي 15 استفساراً لتوليد إجابة أكثر تفصيلًا باستخدام عدد من الرموز أكبر بـ 20 مرة.
وأخيراً، بناءً على هذا التحليل، يرغب محلل مكتب التداول في توليد تقرير شامل يلخص ويستشهد بالنتائج من مقالات مختلفة. باستخدام وكيل البحث العميق، يقوم النظام بتجميع المعلومات من مجموعة واسعة من المصادر واستخدامها لتوليد التقرير النهائي للمحلل، الذي يمكن ترتيبه وتقديمه للمراجعة. يتطلب توليد التقرير النهائي أكثر من 50,000 رمز. على الرغم من أن عشرات الآلاف من الرموز تم توليدها، فإن كل خطوة تتم بسرعة البرق، في ثوانٍ بدلاً من دقائق، مما يوفر بيانات مفيدة ويسمح بإنجاز المهام المتكررة بسرعة أثناء إنشاء التقرير النهائي.
مدراء الشؤون المالية يرغبون بتوفير ملايين الدولارات سنوياً باستخدام النماذج مفتوحة المصدر
نظراً لأن وكلاء البحث العميق تستهلك الكثير من الرموز والنماذج المختلفة، تحتاج المؤسسات إلى طريقة أكثر كفاءة لنشر هذه الحلول. وتزداد تكلفة استخدام النماذج من مزودي المصادر المغلقة باستمرار، بينما في الوقت نفسه، تتجاوز النماذج مفتوحة المصدر مثل Llama من Meta وDeepseek R1 أداء النماذج المغلقة في بعض الحالات، مما يوفر بدائل أقل تكلفة.
افترض أن موظفًا في مؤسسة يقوم فقط بإجراء 20 استفساراً للبحث العميق يومياً، مع كل استفسار يتطلب 20,000 رمز من المخرجات، وإذا كان لدينا في المؤسسة 200 موظف فقط، فإنهم سيولدون حوالي 80 مليون رمز مخرجات يومياً. تتوافق هذه الأرقام تقريبًا مع الأنماط التي يتم ملاحظتها في Open Router اليوم، والذي يعالج 3 مليارات رمز مدخلات يوميًا و90 مليون رمز مخرجات على نموذج Llama 3.3 70B. هذه الأرقام تشير إلى توفير محتمل يزيد عن مليون دولار سنوياً ببساطة عن طريق استخدام نموذج Llama 3.3 على منصة سامبا نوفا بدلاً من نموذج GPT-4o من شركة OpenAI.
جرّب عرض البحث العميق الأسرع مجاناً عبر سامبا نوفا اليوم
يعد البحث العميق عبر منصة سامبا نوفا تقدماً مثيراً للمؤسسات لحل العديد من التحديات المتعلقة باستخدام الذكاء الاصطناعي اليوم. لتجربة العرض، قم بتسجيل الدخول إلى التطبيق عبر الإنترنت وابدأ في إجراء بحث عميق بسرعة البرق اليوم. لاستخدام التطبيق، ستحتاج إلى مفاتيح مجانية لواجهة التطبيقات البرمجية (API) لبعض الأدوات المستخدمة في العرض مثل سامبا نوفا كلاود وExa وSerper. بالنسبة للمؤسسات المهتمة بنشر الحلول بأنفسها لاستخدام بياناتها، يمكنها استنساخ أداة Github repo وبدء دمج وكلائها.
وتشجع شركة سامبا نوفا بشدة على الإسهامات في هذا المشروع لجعله أفضل أداة بحث عميق مفتوحة المصدر على هذا الكوكب. وبإمكان الراغبين في المساهمة كتابة الكود البرمجي الخص بهم واستخدامه وفق مبدأ "إحضار وكيلك الخاص"، كما يمكنهم نشر وكيل سامبا نوفا الخاص بهم، ومشاركة إنجازاتهم عبر الإنترنت والتواصل مع سامبا نوفا عبر وسائل التواصل الاجتماعي، وستنظم الشركة مسابقات وجوائز لأفضل الإسهامات في المشروع!