
إذا كنت تشعر بالتعب من نتائج بحث غوغل المدعومة بالذكاء الاصطناعي التي تقودك إلى معلومات سيئة من مصادر غير موثوقة، فهناك خبر جيد. يبدو أنه إذا قمت بإدراج أي كلمات نابية في استعلام البحث الخاص بك، فلن تعود غوغل بنتيجة ملخص الذكاء الاصطناعي، كما يسمى، في أعلى صفحة النتائج.
على سبيل المثال، إذا بحثت عن “ما حجم عدد الطلاب في جامعة ييل؟” ستظهر صفحة نتائج البحث ملخصًا كبيرًا تم إنشاؤه بواسطة الذكاء الاصطناعي أعلى الروابط الزرقاء. ولكن إذا بحثت عن “ما حجم عدد الطلاب اللعين في جامعة ييل؟” فستحصل بدلاً من ذلك على قائمة عادية من نتائج الروابط الزرقاء، بدون ملخص الذكاء الاصطناعي.
هذه ليست المرة الأولى التي يكتشف فيها مستخدمو الإنترنت طريقة لتعطيل نتائج غوغل المدعومة بالذكاء الاصطناعي. هناك طرق أخرى أكثر تعقيدًا، مثل إضافة سلسلة محددة من الأحرف إلى عنوان URL لصفحة نتائج البحث. ولكن هذه الطريقة في الشتائم والرجاء من غوغل “أن تعطني الروابط اللعينة فقط” تكون أكثر تفريغًا للأعصاب.
سنذهب هنا إلى القول بأنه إذا كان الناس يجدون بانتظام تقنيات لتعطيل ملخصات الذكاء الاصطناعي في عمليات البحث في غوغل، فقد يعني ذلك أنهم لا يريدونها في المقام الأول؟ لم تكن نتائج بحث غوغل مثالية أبدًا، بالطبع—لا يزال هناك الكثير من المعلومات السيئة عبر الويب. ولكن ملخصات الذكاء الاصطناعي تقدم للمستخدمين نصًا بارزًا في أعلى بحثهم يبدو موثوقًا، بينما في الحقيقة، فإنها تخاطر بتعزيز مشكلة المعلومات المضللة بمزيد من الفوضى الخاطئة.
الأمر نفسه ينطبق على كيفية تدهور أداء سيري بسبب تكاملها مع ChatGPT. على الأقل في الماضي، عندما لم يكن المساعد الصوتي يعرف كيفية الإجابة على سؤال، كان يوجه المستخدمين إلى الويب. الآن، تقدم سيري ردودًا تم إنشاؤها بواسطة ChatGPT بدلاً من ذلك، وأحيانًا تخرج معلومات غير صحيحة بدلاً من الاعتراف بأنها غير متأكدة. لكن هذا يتم فرضه على المستخدمين سواء أحبوا ذلك أم لا. من مستندات غوغل إلى X وإنستغرام، هناك أزرار وصناديق بحث للذكاء الاصطناعي في كل مكان الآن، لأن كل شركة تقنية تحتاج إلى استراتيجية للذكاء الاصطناعي. هل يعد البحث باستخدام كلمة مفتاحية أساسية أمرًا مفرطًا في الطلب؟

عندما قدمت غوغل أول مرة ملخصات الذكاء الاصطناعي في البحث، أصبحت شائعة بسبب تقديمها ردود غير منطقية، مثل اقتراح أنه يمكن منع الجبنة من الانزلاق عن البيتزا باستخدام الغراء أو تحسين صحة الأمعاء عن طريق تناول الحصى. يُعتقد أن نموذج غوغل استند إلى المعلومات من تعليقات Reddit. لا يعرف الذكاء الاصطناعي كيفية التعرف على السخرية أو الكوميديا.
أرس تكنيكا قد أبلغت عن الثغرة الجديدة، التي، إذا كنا نتخيل، ناتجة عن توجيه غوغل المفرط الحذر لنموذج الذكاء الاصطناعي الخاص بها. بينما يكون بوت مثل Grok من xAI سعيدًا تمامًا بالشتائم ومناقشة المواضيع الحساسة، يبقي نموذج Gemini من غوغل الأمور في نطاق المقبول. من المحتمل أن غوغل قد دربت Gemini لتجنب تكرار الكلمات النابية، لذا فهي ببساطة معطلة في البحث عندما يكون هناك كلمة شتيمة لتجنب ذلك.
تجادل غوغل بأن ملخصات الذكاء الاصطناعي، كما تسمى، لا تقلل من حركة المرور المرسلة إلى المواقع الإلكترونية لأن المستخدمين سيشاهدون الملخصات وسيكونون مهتمين بالاستكشاف بشكل أعمق في المصدر بعد العثور على شيء يثير اهتمامهم. لكن هذه المنطق لم يُهدئ وسائل الإعلام، التي كانت تتقاضي دعاوى ضد أمثال OpenAI وPerplexity بسبب استخدامها محتواهم في نماذج اللغة الكبيرة.
نتخيل أن غوغل ستغلق ثغرة الكلمات النابية في النهاية، ولكن في هذه الأثناء، إذا كنت تشعر بالملل من الذكاء الاصطناعي، فأنت الآن تعرف طريقة سهلة لتجنبه. فقط قل لغوغل أن تعطيك الروابط اللعينة.