المستخدمون الأوائل: وكلاء الذكاء الاصطناعي الحاليون لا يرتقون لمستوى الوعود التسويقية

⬤ يواجه مستخدمو وكلاء الذكاء الاصطناعي فجوة كبيرة بين الوعود التسويقية والواقع بسبب مشكلات الموثوقية.

⬤ يشكل التكامل مع الأنظمة القائمة تحدياً رئيسياً، حيث تفتقر أدوات وكلاء الذكاء الاصطناعي للتوافق السلس والفعال.

⬤ يثير الأمان والوصول مخاوف متزايدة، مع توقعات يتزايد الاختراقات بسبب إساءة استخدام هذه التقنيات مستقبلاً.

رغم الضجة المستمرة حول خدمات وكلاء الذكاء الاصطناعي التي يجري الترويج لها بوصفها ثورة في سير العمل، تشير تقارير حديثة وآراء العملاء إلى أن الواقع الحالي لهذه الأدوات لم يرقَ إلى مستوى التوقعات بعد. وفي حين تواصل شركات مثل Salesforce وAmazon وOracle، إلى جانب العديد من الشركات الناشئة، الترويج المكثف لهذه التقنيات، يتزايد عدد المستخدمين الذين باتوا يشككون في قدرتها على الوفاء بوعودها على المدى القريب.

في تقرير جديد صادر عن CB Insights، شمل استطلاعاً لآراء أكثر من 40 من مستخدمي وكلاء الذكاء الاصطناعي خلال شهر مارس، تم تسليط الضوء على «الفجوة الكبيرة بين التسويق والواقع.» وبين التقرير أن المشكلات الأساسية التي يواجهها المستخدمون تتعلق بالموثوقية والتكامل والأمان. وتجد هذه المخاوف صداها في وقائع حديثة، مثل خيبة الأمل التي أعقبت الحماس الأولي تجاه Manus، الوكيل الذكي الذي وُصف في البداية بأنه اختراق في مجال الذكاء الاصطناعي العام المستقل.

مواضيع مشابهة

تتجلى الموثوقية كأحد أبرز بواعث القلق، حيث أوضح الرئيس التنفيذي في DeepMind، ديميس هاسابيس، أن بإمكان نسبة خطأ ضئيلة في نموذج الذكاء الاصطناعي أن تتفاقم عبر عدة خطوات، مما يؤدي في النهاية إلى مخرجات غير دقيقة أو «عشوائية.» وبالنسبة للشركات التي تعتمد على المعلومات الدقيقة، فإن هذا المستوى من عدم اليقين قد يكون غير مقبول إطلاقاً. كما كشف تقرير CB Insights أن نحو نصف العملاء الذين شملهم الاستطلاع أشاروا إلى الموثوقية كمشكلة رئيسية، فيما أفاد أحدهم بأن الوكيل الذي استخدمه قدم معلومات غير مكتملة أو وقع في «هلوسات» ذكاء اصطناعي.

أما تكامل هذه الأدوات مع الأنظمة القائمة، فيشكل تحدياً آخر لا يقل أهمية، إذ أن قدرة وكلاء الذكاء الاصطناعي على العمل بكفاءة تعتمد بشكل كبير على توفر التكامل مع المنصات الحالية، وهو ما لا يكون متاحاً بسهولة في كثير من الأحيان.

فيما يتعلق بالأمان، يبرز القلق حيال وصول هذه الأدوات إلى بيانات حساسة، لا سيما أنها مصممة لاتخاذ قرارات وتنفيذ إجراءات بشكل مستقل. وتشير توقعات Gartner إلى أن نسبة كبيرة من الاختراقات الأمنية التي ستواجهها المؤسسات بحلول عام 2028 قد تعود إلى إساءة استخدام وكلاء الذكاء الاصطناعي.

يفاقم من التحديات الحالية غياب تعريف موحد لماهية «وكيل الذكاء الاصطناعي،» إذ يُستخدم المصطلح بشكل فضفاض في الصناعة، مما يخلق التباساً بين الأنظمة المستقلة بالكامل وتلك التي تعمل وفق مسارات عمل محددة مسبقاً. ويؤدي هذا الغموض إلى صعوبة لدى قادة تكنولوجيا المعلومات في تقييم هذه التقنيات ومقارنتها وتبنيها بفعالية.

رغم أن بعض الشركات بدأت تجني فوائد مبدئية من وكلاء الذكاء الاصطناعي، يسود شعور عام بأن هذه التقنية لا تزال في مراحلها الأولى. ويبدو أن الضجة الإعلامية المحيطة بها تفوق بكثير قدراتها الحالية وأداءها الفعلي، مما يستدعي تبني توقعات أكثر واقعية وفهماً أعمق لحدود إمكاناتها.

شارك المحتوى |
close icon