الذكاء الاصطناعي التحليلي: فرصتك في عصر وكلاء LLM – من الخوف من فقدان الفرصة (FOMO) إلى اغتنامها

لماذا لا يجعل الاندفاع نحو وكلاء نماذج اللغات الكبيرة (LLM) الذكاء الاصطناعي التحليلي قديمًا

0

هل تشعر بـ “الخوف من فقدان الفرصة” (FOMO) عندما يتعلق الأمر بوكلاء نماذج اللغات الكبيرة (LLM)؟ حسنًا، هذا ما شعرت به لفترة طويلة.

في الأشهر الأخيرة، يبدو أن خلاصات الأخبار عبر الإنترنت الخاصة بي قد غمرتها تمامًا “وكلاء نماذج اللغات الكبيرة (LLM)”: تحاول كل مدونة تقنية أخرى أن تريني “كيفية بناء وكيل في 5 دقائق”. تسلط كل قطعة أخرى من الأخبار التقنية الضوء على شركة ناشئة لامعة أخرى تبني منتجات تعتمد على وكلاء نماذج اللغات الكبيرة (LLM)، أو شركة تقنية كبيرة تطلق بعض المكتبات الجديدة لبناء الوكلاء أو بروتوكولات الوكلاء ذات الأسماء الفاخرة (هل رأيت ما يكفي من MCP أو Agent2Agent؟).

يبدو فجأة أن وكلاء نماذج اللغات الكبيرة (LLM) في كل مكان. تعرض كل هذه العروض التوضيحية البراقة أن هذه الوحوش الرقمية تبدو أكثر من قادرة على كتابة التعليمات البرمجية وأتمتة سير العمل واكتشاف الرؤى، ويبدو أنها تهدد باستبدال… حسنًا، كل شيء تقريبًا.

لسوء الحظ، يشارك العديد من عملائنا في العمل هذا الرأي أيضًا. إنهم يطلبون بنشاط دمج الميزات الوكيلة في منتجاتهم. إنهم لا يترددون في تمويل مشاريع تطوير الوكلاء الجديدة، بسبب الخوف من التخلف عن منافسيهم في الاستفادة من هذه التكنولوجيا الجديدة.

بصفتي ممارسًا للذكاء الاصطناعي التحليلي، بعد رؤية عروض الوكلاء المثيرة للإعجاب التي بناها زملائي والتعليقات المتحمسة من العملاء، يجب أن أعترف بأنني شعرت بحالة خطيرة من الخوف من فقدان الفرصة (FOMO).

لقد تركتني أتساءل بصدق: هل العمل الذي أقوم به أصبح غير ذي صلة؟

بعد صراعي مع هذا السؤال، توصلت إلى هذا الاستنتاج:

لا، هذا ليس هو الحال على الإطلاق.

في منشور المدونة هذا، أود أن أشارك أفكاري حول سبب عدم تقليل الصعود السريع لـ وكلاء نماذج اللغات الكبيرة (LLM) من أهمية الذكاء الاصطناعي التحليلي. في الواقع، أعتقد أنه يفعل العكس: فهو يخلق فرصًا غير مسبوقة لكل من الذكاء الاصطناعي التحليلي والذكاء الاصطناعي الوكيلي.

دعنا نستكشف السبب.

قبل الخوض في التفاصيل، دعونا نوضح المصطلحات بسرعة:

  • الذكاء الاصطناعي التحليلي (Analytical AI): أشير بشكل أساسي إلى النمذجة الإحصائية وتقنيات تعلم الآلة المطبقة على البيانات الكمية والرقمية. فكر في التطبيقات الصناعية مثل الكشف عن الحالات الشاذة، والتنبؤ بالسلاسل الزمنية، وتحسين تصميم المنتجات، والصيانة التنبؤية، والتوائم الرقمية (Digital Twins)، إلخ.
  • وكلاء نماذج اللغات الكبيرة (LLM Agents): أشير إلى أنظمة الذكاء الاصطناعي التي تستخدم نماذج اللغات الكبيرة (LLM) كنواة أساسية يمكنها أداء المهام بشكل مستقل من خلال الجمع بين فهم اللغة الطبيعية والاستدلال والتخطيط والذاكرة واستخدام الأدوات.
  • الذكاء الاصطناعي التحليلي (Analytical AI): أشير بشكل أساسي إلى النمذجة الإحصائية وتقنيات تعلم الآلة المطبقة على البيانات الكمية والرقمية. فكر في التطبيقات الصناعية مثل الكشف عن الحالات الشاذة، والتنبؤ بالسلاسل الزمنية، وتحسين تصميم المنتجات، والصيانة التنبؤية، والتوائم الرقمية (Digital Twins)، إلخ.
  • وكلاء نماذج اللغات الكبيرة (LLM Agents): أشير إلى أنظمة الذكاء الاصطناعي التي تستخدم نماذج اللغات الكبيرة (LLM) كنواة أساسية يمكنها أداء المهام بشكل مستقل من خلال الجمع بين فهم اللغة الطبيعية والاستدلال والتخطيط والذاكرة واستخدام الأدوات.

 

وجهة نظر 1: الذكاء الاصطناعي التحليلي يوفر الأساس الكمي الحاسم لوكلاء نماذج اللغات الكبيرة (LLM).

على الرغم من القدرات الرائعة في فهم اللغة الطبيعية وتوليدها، تفتقر نماذج اللغات الكبيرة (LLM) بشكل أساسي إلى الدقة الكمية المطلوبة للعديد من التطبيقات الصناعية. وهنا يصبح الذكاء الاصطناعي التحليلي لا غنى عنه، حيث يمنح وكلاء نماذج اللغات الكبيرة (LLM) الأساس الرياضي القوي اللازم.

هناك بعض الطرق الرئيسية التي يمكن للذكاء الاصطناعي التحليلي من خلالها تعزيز الأداء، وتزويد وكلاء نماذج اللغات الكبيرة (LLM) بأسس رياضية دقيقة وضمان عملهم وفقًا للواقع:

 

🛠️ الذكاء الاصطناعي التحليلي كأدوات أساسية

يُعد دمج الذكاء الاصطناعي التحليلي كأدوات متخصصة وقابلة للاستدعاء النمط الأكثر شيوعًا لتزويد وكلاء نماذج اللغات الكبيرة (LLM) بأسس كمية.

لطالما كان هناك تقليد راسخ (قبل الضجة الحالية حول نماذج اللغات الكبيرة) لتطوير أدوات الذكاء الاصطناعي التحليلي المتخصصة في مختلف الصناعات لمعالجة التحديات باستخدام بيانات التشغيل الواقعية. تتطلب هذه التحديات، سواء كانت تتنبأ بصيانة المعدات أو تتوقع استهلاك الطاقة، دقة عددية عالية وقدرات نمذجة متطورة. بصراحة، تختلف هذه القدرات اختلافًا جوهريًا عن نقاط القوة اللغوية والاستدلالية التي تميز نماذج اللغات الكبيرة اليوم.

هذا الأساس الراسخ للذكاء الاصطناعي التحليلي ليس مجرد ذي صلة، بل ضروري لتأسيس وكلاء نماذج اللغات الكبيرة في الدقة الواقعية والموثوقية التشغيلية. الدافع الأساسي هنا هو فصل الاهتمامات: دع وكلاء نماذج اللغات الكبيرة يتعاملون مع الفهم والاستدلال والتخطيط، بينما تقوم أدوات الذكاء الاصطناعي التحليلي بإجراء التحليل الكمي المتخصص الذي تم تدريبها عليه.

في هذا النموذج، يمكن لأدوات الذكاء الاصطناعي التحليلي أن تلعب أدوارًا حاسمة متعددة. أولاً وقبل كل شيء، يمكنهم تعزيز قدرات الوكيل بقوى تحليلية خارقة يفتقر إليها بطبيعته. أيضًا، يمكنهم التحقق من مخرجات/فرضيات الوكيل مقابل البيانات الحقيقية والأنماط التي تم تعلمها. أخيرًا، يمكنهم فرض قيود مادية، مما يضمن عمل الوكلاء في حيز ممكن واقعيًا.

لإعطاء مثال ملموس، تخيل وكيل نموذج لغة كبير مكلف بتحسين عملية تصنيع أشباه الموصلات المعقدة لزيادة الإنتاجية والحفاظ على الاستقرار. بدلاً من الاعتماد فقط على السجلات النصية/ملاحظات المشغل، يتفاعل الوكيل باستمرار مع مجموعة من أدوات الذكاء الاصطناعي التحليلي المتخصصة للحصول على فهم كمي وغني بالسياق للعملية في الوقت الفعلي.

على سبيل المثال، لتحقيق هدفه المتمثل في تحقيق إنتاجية عالية، يستعلم الوكيل عن نموذج XGBoost مُدرَّب مسبقًا للتنبؤ بالإنتاجية المحتملة بناءً على مئات من قراءات المستشعرات ومعلمات العملية. هذا يعطي الوكيل البصيرة في نتائج الجودة.

في الوقت نفسه، لضمان استقرار العملية للحصول على جودة متسقة، يستدعي الوكيل نموذج autoencoder (تم تدريبه مسبقًا على بيانات العملية العادية) لتحديد الانحرافات أو الأعطال المحتملة في المعدات قبل أن تعطل الإنتاج.

عند ظهور مشكلات محتملة، كما هو موضح بواسطة نموذج الكشف عن الحالات الشاذة، يجب على الوكيل إجراء تصحيح للمسار بطريقة مثالية. للقيام بذلك، فإنه يستدعي نموذج التحسين القائم على القيود، والذي يستخدم خوارزمية Bayesian optimization للتوصية بالتعديلات المثلى لمعلمات العملية.

في هذا السيناريو، يعمل وكيل نموذج اللغة الكبير بشكل أساسي كمنسق ذكي. فهو يفسر الأهداف عالية المستوى، ويخطط للاستعلامات إلى أدوات الذكاء الاصطناعي التحليلي المناسبة، ويستدل على مخرجاتها الكمية، ويترجم هذه التحليلات المعقدة إلى رؤى قابلة للتنفيذ للمشغلين أو حتى يؤدي إلى تعديلات تلقائية. يضمن هذا التعاون بقاء وكلاء نماذج اللغات الكبيرة راسخين وموثوقين في معالجة المشكلات الصناعية المعقدة في العالم الحقيقي.

 

🪣 الذكاء الاصطناعي التحليلي كبيئة اختبار رقمية

بالإضافة إلى كونه أداة قابلة للاستدعاء، يوفر الذكاء الاصطناعي التحليلي قدرة حاسمة أخرى: إنشاء بيئات محاكاة واقعية حيث يتم تدريب وتقييم وكلاء نماذج اللغات الكبيرة (LLM) قبل تفاعلهم مع العالم المادي. وهذا ذو قيمة خاصة في البيئات الصناعية حيث يمكن أن يؤدي الفشل إلى عواقب وخيمة، مثل تلف المعدات أو حوادث السلامة. تعتبر هذه المحاكاة الرقمية ضرورية لضمان سلامة العمليات وتحسين الأداء.

تتمتع تقنيات الذكاء الاصطناعي التحليلي بقدرة عالية على بناء تمثيلات عالية الدقة للأصول أو العمليات الصناعية من خلال التعلم من كل من بيانات التشغيل التاريخية والمعادلات الفيزيائية الحاكمة (فكر في طرق مثل الشبكات العصبية المستنيرة بالفيزياء). هذه التوائم الرقمية تلتقط المبادئ الفيزيائية الأساسية وقيود التشغيل والتباين المتأصل في النظام. إن استخدام هذه التوائم الرقمية يسمح بتحليل دقيق وتنبؤات موثوقة.

في هذا العالم الافتراضي المدعوم بالذكاء الاصطناعي التحليلي، يمكن تدريب وكيل نموذج اللغة الكبير (LLM) من خلال تلقي بيانات استشعار محاكاة أولاً، واتخاذ قرارات بشأن إجراءات التحكم، ثم مراقبة استجابات النظام التي تحسبها محاكاة الذكاء الاصطناعي التحليلي. ونتيجة لذلك، يمكن للوكلاء التكرار خلال العديد من دورات التعلم بالتجربة والخطأ في وقت أقصر بكثير والتعرض بأمان لمجموعة متنوعة من ظروف التشغيل الواقعية. هذا يسرع عملية التطوير ويقلل المخاطر.

إلى جانب تدريب الوكلاء، توفر عمليات المحاكاة هذه المدعومة بالذكاء الاصطناعي التحليلي بيئة خاضعة للرقابة من أجل تقييم ومقارنة أداء ومتانة إصدارات إعداد الوكلاء المختلفة أو سياسات التحكم بدقة قبل النشر في العالم الحقيقي. هذا التقييم الشامل يضمن أفضل أداء وموثوقية.

لإعطاء مثال ملموس، ضع في اعتبارك حالة إدارة شبكة الطاقة. يمكن اختبار وكيل نموذج اللغة الكبير (LLM) (أو وكلاء متعددين) المصمم لتحسين تكامل الطاقة المتجددة داخل مثل هذه البيئة المحاكاة المدعومة بنماذج الذكاء الاصطناعي التحليلية المتعددة: يمكن أن يكون لدينا نموذج شبكة عصبية مستنيرة بالفيزياء (PINN) لوصف تدفقات الطاقة الديناميكية المعقدة. قد يكون لدينا أيضًا نماذج تنبؤ احتمالية لمحاكاة أنماط الطقس الواقعية وتأثيرها على توليد الطاقة المتجددة. في هذه البيئة الغنية، يمكن لوكيل (أو وكلاء) نموذج اللغة الكبير (LLM) تعلم تطوير سياسات صنع قرار متطورة لموازنة الشبكة خلال الظروف الجوية المختلفة، دون المخاطرة بتعطيل الخدمة الفعلي. هذا يتيح إدارة فعالة ومستدامة لشبكة الطاقة.

الخلاصة هي أنه بدون الذكاء الاصطناعي التحليلي، لن يكون أي من هذا ممكنًا. إنه يشكل الأساس الكمي والقيود المادية التي تجعل تطوير الوكلاء الآمن والفعال حقيقة واقعة. الذكاء الاصطناعي التحليلي هو حجر الزاوية في تطوير أنظمة ذكية وموثوقة.

 

📈 الذكاء الاصطناعي التحليلي كأداة تشغيلية

الآن، إذا نظرنا إلى الصورة الأكبر من منظور جديد، أليس وكيل نموذج اللغة الكبير (LLM) – أو حتى فريق منهم – مجرد نوع آخر من الأنظمة التشغيلية، التي تحتاج إلى إدارة مثل أي أصل/عملية صناعية أخرى؟

وهذا يعني بشكل فعال: أن جميع مبادئ التصميم والتحسين والمراقبة للأنظمة لا تزال سارية. وخمن ماذا؟ الذكاء الاصطناعي التحليلي هو بالضبط الأدوات اللازمة لذلك.

مرة أخرى، يتمتع الذكاء الاصطناعي التحليلي بالقدرة على نقلنا إلى ما وراء التجربة والخطأ التجريبي (الممارسات الحالية) ونحو طرق موضوعية ومدفوعة بالبيانات لإدارة الأنظمة الذكية. ماذا عن استخدام خوارزمية التحسين البايزية لتصميم بنية الوكيل وتكويناته؟ ماذا عن اعتماد تقنيات بحوث العمليات لتحسين تخصيص الموارد الحسابية أو إدارة قوائم انتظار الطلبات بكفاءة؟ ماذا عن استخدام طرق الكشف عن الحالات الشاذة في السلاسل الزمنية لتنبيه السلوك في الوقت الفعلي للوكلاء؟

إن التعامل مع وكيل نموذج اللغة الكبير (LLM) كنظام معقد يخضع للتحليل الكمي يفتح العديد من الفرص الجديدة. هذا الانضباط التشغيلي على وجه التحديد الذي يتيحه الذكاء الاصطناعي التحليلي هو الذي يمكن أن يرفع هؤلاء الوكلاء من مجرد “عرض توضيحي” إلى شيء موثوق وفعال و”مفيد حقًا” في العمليات الصناعية الحديثة.

 

وجهة نظر 2: يمكن تضخيم الذكاء الاصطناعي التحليلي بواسطة وكلاء نماذج اللغة الكبيرة (LLM) بفضل ذكائهم السياقي.

لقد ناقشنا باستفاضة مدى أهمية الذكاء الاصطناعي التحليلي للنظام البيئي لوكلاء نماذج اللغة الكبيرة. ولكن هذا التآزر القوي يسري في كلا الاتجاهين. يمكن للذكاء الاصطناعي التحليلي أيضًا الاستفادة من نقاط القوة الفريدة لوكلاء نماذج اللغة الكبيرة لتعزيز قابليته للاستخدام وفعاليته، وفي نهاية المطاف، تأثيره الواقعي. هذه هي النقاط التي قد لا يرغب ممارسو الذكاء الاصطناعي التحليلي في تفويتها بشأن وكلاء نماذج اللغة الكبيرة، حيث يمكنهم تحسين عمليات تحليل البيانات واتخاذ القرارات بشكل كبير.

 

🧩 من الأهداف الغامضة إلى المشكلات القابلة للحل

في كثير من الأحيان، تبدأ الحاجة إلى التحليل بهدف عمل رفيع المستوى وغامض، مثل “نحن بحاجة إلى تحسين جودة المنتج”. لجعل هذا الهدف قابلاً للتنفيذ، يجب على ممارسي الذكاء الاصطناعي التحليلي طرح أسئلة توضيحية بشكل متكرر للكشف عن وظائف الهدف الحقيقية والقيود المحددة وبيانات الإدخال المتاحة، مما يؤدي حتماً إلى عملية تستغرق وقتاً طويلاً للغاية. يتطلب ذلك فهمًا عميقًا لمقاييس الأداء الرئيسية (KPIs) ذات الصلة.

الخبر السار هو أن وكلاء نماذج اللغات الكبيرة (LLM) يتفوقون هنا. يمكنهم تفسير طلبات اللغة الطبيعية الغامضة هذه، وطرح أسئلة توضيحية، وصياغتها في مشكلات كمية جيدة التنظيم يمكن لأدوات الذكاء الاصطناعي التحليلي معالجتها مباشرة. هذا يسرع بشكل كبير عملية تحديد المشكلات وصياغتها، مما يوفر وقتًا ثمينًا لفرق تحليل البيانات.

 

📚 إثراء نماذج الذكاء الاصطناعي التحليلية بالسياق والمعرفة

تعمل نماذج الذكاء الاصطناعي التحليلية التقليدية بشكل أساسي على البيانات الرقمية. وبالنسبة للبيانات غير المهيكلة غير المستغلة إلى حد كبير، يمكن أن تكون وكلاء نماذج اللغات الكبيرة (LLM) مفيدة جدًا لاستخراج معلومات مفيدة لتغذية التحليل الكمي.

على سبيل المثال، يمكن لوكلاء نماذج اللغات الكبيرة (LLM) تحليل المستندات/التقارير/السجلات النصية لتحديد الأنماط الهامة، وتحويل هذه الملاحظات النوعية إلى ميزات كمية يمكن لنماذج الذكاء الاصطناعي التحليلية معالجتها. غالبًا ما تعزز خطوة هندسة الميزات هذه بشكل كبير أداء نماذج الذكاء الاصطناعي التحليلية من خلال منحها إمكانية الوصول إلى الرؤى المضمنة في البيانات غير المهيكلة التي قد تفوتها بخلاف ذلك. تعتبر هندسة الميزات المتقدمة ضرورية لتحسين دقة النماذج.

حالة استخدام أخرى مهمة هي تسمية البيانات. هنا، يمكن لوكلاء نماذج اللغات الكبيرة (LLM) إنشاء تسميات وتعليقات توضيحية دقيقة للفئات تلقائيًا. من خلال توفير بيانات تدريب عالية الجودة، يمكنهم تسريع تطوير نماذج التعلم الخاضعة للإشراف عالية الأداء بشكل كبير.

أخيرًا، من خلال الاستفادة من معرفة وكلاء نماذج اللغات الكبيرة (LLM)، سواء كانت مدربة مسبقًا في نموذج اللغات الكبيرة (LLM) أو تم البحث عنها بنشاط في قواعد البيانات الخارجية، يمكن لوكلاء نماذج اللغات الكبيرة (LLM) أتمتة إعداد خط أنابيب التحليل المتطور. يمكن لوكلاء نماذج اللغات الكبيرة (LLM) التوصية بالخوارزميات المناسبة وإعدادات المعلمات بناءً على خصائص المشكلة [1]، أو إنشاء تعليمات برمجية لتنفيذ استراتيجيات مخصصة لحل المشكلات، أو حتى تشغيل التجارب تلقائيًا لضبط المعلمات الفائقة [2].

 

💡من المخرجات التقنية إلى رؤى قابلة للتنفيذ

تميل نماذج الذكاء الاصطناعي التحليلية إلى إنتاج مخرجات كثيفة، ويتطلب تفسيرها بشكل صحيح خبرة ووقتًا. من ناحية أخرى، يمكن لوكلاء نماذج اللغات الكبيرة (LLM) أن يكونوا بمثابة “مترجمين” عن طريق تحويل هذه النتائج الكمية الكثيفة إلى تفسيرات واضحة بلغة طبيعية يسهل الوصول إليها.

يلعب دور إمكانية التفسير هذه وظيفة حاسمة في شرح القرارات التي تتخذها نماذج الذكاء الاصطناعي التحليلية بطريقة يمكن للمشغلين البشريين فهمها والتصرف بناءً عليها بسرعة. بالإضافة إلى ذلك، يمكن أن تكون هذه المعلومات ذات قيمة عالية لمطوري النماذج للتحقق من صحة مخرجات النموذج، وتحديد المشكلات المحتملة، وتحسين أداء النموذج. هذه العملية تعزز فهم أعمق لعمليات الذكاء الاصطناعي.

إلى جانب التفسير التقني، يمكن لوكلاء نماذج اللغات الكبيرة (LLM) أيضًا إنشاء استجابات مخصصة لأنواع مختلفة من الجمهور: ستتلقى الفرق التقنية تفسيرات منهجية مفصلة، وقد يحصل موظفو العمليات على آثار عملية، بينما قد يحصل المسؤولون التنفيذيون على ملخصات تسلط الضوء على مقاييس تأثير الأعمال. هذا التخصيص يضمن وصول المعلومات الصحيحة إلى أصحاب المصلحة المناسبين.

من خلال العمل بمثابة مترجمين بين الأنظمة التحليلية والمستخدمين البشريين، يمكن لوكلاء نماذج اللغات الكبيرة (LLM) تضخيم القيمة العملية للذكاء الاصطناعي التحليلي بشكل كبير.

 

وجهة نظر 3: ربما يكمن المستقبل في التعاون الحقيقي بين الذكاء الاصطناعي التحليلي والذكاء الاصطناعي الوكيلي.

سواء كانت وكلاء نماذج اللغات الكبيرة (LLM) تستدعي أدوات الذكاء الاصطناعي التحليلي أو تستخدم الأنظمة التحليلية وكلاء نماذج اللغات الكبيرة للتفسير، فإن الأساليب التي ناقشناها حتى الآن كانت دائمًا تدور حول نوع واحد من الذكاء الاصطناعي يكون مسؤولاً عن الآخر. وقد أدخل هذا في الواقع العديد من القيود التي تستحق الدراسة.

أولاً وقبل كل شيء، في النموذج الحالي، تُستخدم مكونات الذكاء الاصطناعي التحليلي كأدوات سلبية فقط، ويتم استدعاؤها فقط عندما يقرر نموذج اللغات الكبيرة ذلك. وهذا يمنعها من المساهمة بشكل استباقي برؤى أو التشكيك في الافتراضات.

أيضًا، حلقة الوكيل النموذجية المتمثلة في “التخطيط-الاستدعاء-الاستجابة-التصرف” هي متسلسلة بطبيعتها. وقد يكون هذا غير فعال للمهام التي يمكن أن تستفيد من المعالجة المتوازية أو التفاعل غير المتزامن بين الذكاء الاصطناعي.

هناك عامل مقيد آخر هو عرض النطاق الترددي المحدود للاتصال. قد لا تتمكن استدعاءات واجهة برمجة التطبيقات (API) من تقديم السياق الغني اللازم للحوار الحقيقي أو تبادل الاستدلال الوسيط.

أخيرًا، غالبًا ما يعتمد فهم وكلاء نماذج اللغات الكبيرة لأداة الذكاء الاصطناعي التحليلي على سلسلة وثائق موجزة ومخطط للمعلمات. من المحتمل أن يرتكب وكلاء نماذج اللغات الكبيرة أخطاء في اختيار الأدوات، بينما تفتقر مكونات الذكاء الاصطناعي التحليلي إلى السياق اللازم للتعرف على متى يتم استخدامها بشكل خاطئ.

مجرد أن انتشار اعتماد نمط استدعاء الأدوات اليوم لا يعني بالضرورة أن المستقبل يجب أن يبدو متشابهًا. ربما يكمن المستقبل في نموذج تعاون حقيقي بين الأقران حيث لا يكون أي نوع من الذكاء الاصطناعي هو المسيطر.

كيف يمكن أن يبدو هذا في الواقع العملي؟ أحد الأمثلة المثيرة للاهتمام التي وجدتها هو حل قدمته شركة سيمنز [3].

في نظام المصنع الذكي الخاص بهم، يوجد نموذج توأم رقمي يراقب باستمرار صحة المعدات. عندما تتدهور حالة علبة التروس، لا ينتظر نظام الذكاء الاصطناعي التحليلي حتى يتم الاستعلام عنه، ولكنه يطلق تنبيهات بشكل استباقي. يراقب وكيل Copilot LLM نفس ناقل الأحداث. عند التنبيه، فإنه (1) يقوم بالرجوع المتقاطع إلى سجلات الصيانة، (2) “يطلب” من التوأم إعادة تشغيل عمليات المحاكاة مع أنماط المناوبة القادمة، ثم (3) يوصي بتعديلات الجدول الزمني لمنع التوقف المكلف. ما يجعل هذا المثال فريدًا هو أن نظام الذكاء الاصطناعي التحليلي ليس مجرد أداة سلبية. بل يبدأ الحوار عند الحاجة.

بالطبع، هذا مجرد بنية نظام محتملة واحدة. اتجاهات أخرى، مثل أنظمة الوكلاء المتعددين ذات الوظائف المعرفية المتخصصة، أو ربما حتى التدريب المتبادل لهذه الأنظمة لتطوير نماذج هجينة تستوعب جوانب كلا نظامي الذكاء الاصطناعي (تمامًا مثلما يطور البشر تفكيرًا رياضيًا ولغويًا متكاملًا)، أو ببساطة استلهام الإلهام من تقنيات تعلم المجموعة الراسخة من خلال معاملة وكلاء نماذج اللغات الكبيرة والذكاء الاصطناعي التحليلي كأنواع نماذج مختلفة يمكن دمجها بطرق منهجية. الفرص المستقبلية لا حصر لها.

ولكن هذه تثير أيضًا تحديات بحثية رائعة. كيف نصمم تمثيلات مشتركة؟ ما هي البنية التي تدعم بشكل أفضل تبادل المعلومات غير المتزامن؟ ما هي بروتوكولات الاتصال المثالية بين الذكاء الاصطناعي التحليلي والوكلاء؟

تمثل هذه الأسئلة آفاقًا جديدة تحتاج بالتأكيد إلى خبرة من ممارسي الذكاء الاصطناعي التحليلي. مرة أخرى، المعرفة العميقة لبناء نماذج تحليلية بدقة كمية لا تصبح قديمة، ولكنها ضرورية لبناء هذه الأنظمة الهجينة للمستقبل.

 

وجهة النظر الرابعة: دعونا نتبنى المستقبل التكاملي.

كما رأينا خلال هذا المقال، فإن المستقبل ليس “الذكاء الاصطناعي التحليلي ضد وكلاء نماذج اللغات الكبيرة (LLM)”، بل هو “الذكاء الاصطناعي التحليلي + وكلاء نماذج اللغات الكبيرة (LLM)”.

لذلك، بدلاً من الشعور بالخوف من فقدان الفرصة (FOMO) بشأن وكلاء نماذج اللغات الكبيرة (LLM)، وجدت الآن حماسًا متجددًا بشأن الدور المتطور للذكاء الاصطناعي التحليلي. فالأسس التحليلية التي بنيناها لا تصبح قديمة، بل هي مكونات أساسية لنظام بيئي للذكاء الاصطناعي أكثر قدرة.

هيا بنا نبني.

المراجع

[1] Chen et al., PyOD 2: A Python Library for Outlier Detection with LLM-powered Model Selection. arXiv, 2024.

[2] Liu et al., Large Language Models to Enhance Bayesian Optimization. arXiv, 2024.

[3] Siemens unveils breakthrough innovations in industrial AI and digital twin technology at CES 2025. Press release, 2025.

 

اترك رد

لن يتم نشر عنوان بريدك الإلكتروني.