
محركات البحث المعتمدة على الذكاء الاصطناعي تشبه ذلك الصديق الذي يدعي أنه خبير في مجموعة واسعة من المواضيع، ويتحدث بسلطة حتى عندما لا يعرف حقًا عما يتحدث. وقد وجدت تقرير بحثي من مراجعة الصحافة في كولومبيا (CJR) أن نماذج الذكاء الاصطناعي من أمثال OpenAI وxAI، عندما تُسأل عن حدث إخباري محدد، غالبًا ما تختلق قصة أو تُخطئ في تفاصيل مهمة.
قام الباحثون بتزويد نماذج مختلفة بمقتطفات مباشرة من قصص إخبارية فعلية ثم طلبوا منها تحديد المعلومات، بما في ذلك عنوان المقال، والناشر، ورابط URL. أعادت Perplexity معلومات غير صحيحة بنسبة 37 في المئة من الوقت، بينما في أقصى الحالات، اختلقت Grok التابعة لـ xAI التفاصيل بنسبة 97 في المئة من الوقت. شملت الأخطاء تقديم روابط لمقالات لم تؤد إلى أي مكان لأن الروبوت اختلق عنوان URL نفسه. بشكل عام، وجد الباحثون أن نماذج الذكاء الاصطناعي أصدرت معلومات خاطئة في 60 في المئة من استفسارات الاختبار.
أحيانًا، تتجاوز محركات البحث مثل Perplexity الجدران المدفوعة لمواقع مثل National Geographic حتى عندما استخدمت تلك المواقع نصوص “لا تتبع” التي تحترمها عادةً محركات البحث. وقد واجهت Perplexity مشكلات بسبب ذلك في الماضي لكنها زعمت أن الممارسة تعتبر استخدامًا عادلًا. لقد حاولت تقديم صفقات تقاسم الإيرادات لتهدئة الناشرين لكنها لا تزال ترفض إنهاء هذه الممارسة.

أي شخص استخدم روبوتات المحادثة في السنوات الأخيرة يجب ألا يتفاجأ. روبوتات المحادثة تميل إلى تقديم إجابات حتى عندما لا تكون واثقة. يتم تفعيل البحث في روبوتات المحادثة من خلال تقنية تُسمى “توليد مدعوم بالاسترجاع”، والتي، كما يشير الاسم، تبحث في الويب عن معلومات في الوقت الحقيقي أثناء إنتاجها للإجابة، بدلاً من الاعتماد على مجموعة بيانات ثابتة قدمها صانع نموذج الذكاء الاصطناعي. قد يؤدي ذلك إلى تفاقم مشكلة عدم الدقة حيث تقوم دول مثل روسيا بتغذية محركات البحث بالدعاية.
من بين أكثر الأمور سلبية التي لاحظها بعض مستخدمي روبوتات المحادثة هو أنه عند مراجعة نص “المنطق” الخاص بهم، أو سلسلة المنطق التي يستخدمها الروبوتات للإجابة على سؤال، فإنهم غالبًا ما يعترفون بأنهم يختلقون الأمور. تم ضبط Claude التابعة لشركة Anthropic وهو يُدخل “بيانات مؤقتة” عندما يُطلب منه إجراء عمل بحثي، على سبيل المثال.
عبّر مارك هاوارد، المدير التنفيذي في مجلة Time، عن قلقه لمراجعة الصحافة في كولومبيا (CJR) بشأن قدرة الناشرين على التحكم في كيفية استيعاب محتواهم وعرضه في نماذج الذكاء الاصطناعي. يمكن أن يضر ذلك بعلامة الناشرين التجارية إذا، على سبيل المثال، اكتشف المستخدمون أن القصص الإخبارية التي يُزعم أنهم يتلقونها من The Guardian غير صحيحة. كانت هذه مشكلة حديثة لـ BBC، التي تناولت Apple بسبب ملخصات إشعارات Apple Intelligence التي أعادت كتابة تنبيهات الأخبار بشكل غير دقيق. لكن هاوارد أيضًا اللوم على المستخدمين أنفسهم. من Ars Technica:
ومع ذلك، قام هاوارد أيضًا بتوجيه اللوم إلى المستخدمين، مشيرًا إلى أنه إذا لم يكن المستخدمون مشككين في دقة أدوات الذكاء الاصطناعي المجانية، فإن ذلك يكون خطأهم: “إذا كان أي شخص كمستهلك يعتقد الآن أن أيًا من هذه المنتجات المجانية ستكون دقيقة بنسبة 100 في المئة، فإن العار عليهم.”
يجب وضع التوقعات هنا في الحد الأدنى. الناس كسالى، وتجيب روبوتات المحادثة على الاستفسارات بطريقة تبدو واثقة يمكن أن تُدخل المستخدمين في حالة من الرضا. تُظهر المشاعر على وسائل التواصل الاجتماعي أن الناس لا يريدون النقر على الروابط ويفضلون الحصول على إجابة فورية من أمثال نظرة الذكاء الاصطناعي من Google؛ تقول CJR إن واحدًا من كل أربعة أمريكيين يستخدمون الآن نماذج الذكاء الاصطناعي للبحث. وحتى قبل إطلاق أدوات الذكاء الاصطناعي التوليدية، كانت أكثر من نصف عمليات بحث Google “بحثًا بدون نقر”، مما يعني أن المستخدم حصل على المعلومات التي يحتاجها دون النقر على موقع ويب. لقد أثبتت مواقع أخرى مثل ويكيبيديا على مر السنين أن الناس سيقبلون شيئًا قد يكون أقل موثوقية إذا كان مجانيًا وسهل الوصول إليه.
لا ينبغي أن تكون أي من هذه النتائج من CJR مفاجئة. تواجه نماذج اللغة تحديًا لا يمكن التغلب عليه في فهم أي شيء تقوله لأنها مجرد أنظمة تكملة متقدمة تحاول إنشاء شيء يبدو صحيحًا. إنهم يرتجلون.
اقتباس آخر من هاوارد برز للواجهة عندما قال إنه يرى مجالًا لتحسينات مستقبلية في روبوتات المحادثة. “اليوم هو أسوأ ما سيكون عليه المنتج على الإطلاق”، مشيرًا إلى جميع الاستثمارات التي تُبذل في هذا المجال. لكن يمكن أن يُقال ذلك عن أي تقنية على مر التاريخ. لا يزال من غير المسؤول نشر هذه المعلومات المُختلقة في العالم.