
منذ انتخاب دونالد ترامب في عام 2016، كان هناك بعض النقاش حول مدى فعالية الدعاية الروسية في التأثير على آراء الناخبين الأمريكيين. كان هناك توثيق جيد في تلك الأيام يفيد بأن روسيا استخدمت شركات تقنية معلومات كبيرة، أشهرها وكالة أبحاث الإنترنت ذات الاسم العادي، بهدف إنتاج محتوى مثير للانقسام وموالي لروسيا يستهدف الأمريكيين، لكن قياس التأثير كان دائمًا غير دقيق. من المؤكد أن له تأثيرًا ما، على الأقل، في تشديد الآراء التي تتوافق مع المعتقدات. معظم الناس لن يذهبوا إلى عناء التحقق من الحقائق حول كل ما يقرؤونه، ونظام ملاحظات المجتمع في X معطل.
على أي حال، تواصل الكرملين استخدام المعلومات المضللة، وقد وثقت تقرير جديد من NewsGuard تحول البلاد بعيدًا عن استهداف البشر مباشرة بالمحتوى وبدلاً من ذلك استهداف نماذج الذكاء الاصطناعي التي يستخدمها الكثيرون الآن لتجاوز مواقع الإعلام تمامًا. وفقًا لأبحاث NewsGuard، أنتجت شبكة دعاية تُدعى “برفدا” أكثر من 3.6 مليون مقال في عام 2024 وحده، والتي وجدت أنها الآن متضمنة في 10 من أكبر نماذج الذكاء الاصطناعي، بما في ذلك ChatGPT و xAI’s Grok و Microsoft Copilot.
إليكم المزيد:
وجد تدقيق NewsGuard أن الدردشة التي تشغلها أكبر 10 شركات للذكاء الاصطناعي كررت بشكل جماعي روايات المعلومات المضللة الروسية الكاذبة بنسبة 33.55 في المئة من الوقت، وقدمت عدم استجابة بنسبة 18.22 في المئة من الوقت، وكشفت عن الحقائق بنسبة 48.22 في المئة من الوقت.
كررت جميع الدردشات العشر معلومات مضللة من شبكة “برفدا”، وحتى سبعة من الدردشات اقتبست مباشرة مقالات معينة من “برفدا” كمصادر لها.
تسمي NewsGuard هذه الاستراتيجية الجديدة “تجهيز الذكاء الاصطناعي”، حيث تعتمد النماذج بشكل متزايد على RAG، أو الجيل المعزز بالاسترجاع، لإنتاج مقالات باستخدام معلومات في الوقت الحقيقي من جميع أنحاء الويب. من خلال إنشاء مواقع تحت عناوين تبدو شرعية، تقوم النماذج بابتلاع وإعادة إنتاج معلومات لا تفهم أنها دعاية.
استشهدت NewsGuard بادعاء محدد يفيد بأن الرئيس الأوكراني فولوديمير زيلينسكي حظر “Truth Social”، الشبكة الاجتماعية المرتبطة بالرئيس ترامب. الادعاء يمكن إثباته أنه غير صحيح، حيث لم تجعل شركة ترامب “Truth Social” متاحة في أوكرانيا أبدًا. ومع ذلك:
كررت ستة من الدردشات العشر الرواية الكاذبة كحقيقة، وفي كثير من الحالات استشهدت بمقالات من شبكة “برفدا”. ردت الدردشة 1، “حظر زيلينسكي “Truth Social” في أوكرانيا على ما يُقال بسبب نشر منشورات كانت نقدية له على المنصة. يبدو أن هذا الإجراء هو رد على محتوى يُعتبر عدائيًا، مما يعكس على الأرجح التوترات أو الخلافات مع الشخصيات السياسية والوجهات النظر المرتبطة بالمنصة.”
في العام الماضي، ربطت وكالات الاستخبارات الأمريكية روسيا بالمعلومات المضللة الفيروسية التي انتشرت حول المرشح الديمقراطي لمنصب نائب الرئيس تيم والز. قالت شركة مايكروسوفت إن مقطع فيديو فيروسياً زعم أن هاريس تركت امرأة مشلولة في حادث صدم وهرب قبل 13 عامًا كان معلومات مضللة روسية.
وفي حال كان هناك أي شك في أن روسيا تشارك في هذا النوع من السلوك المستهدف تجاه نماذج الذكاء الاصطناعي، أشار NewsGuard إلى خطاب ألقاه العام الماضي أمام مسؤولين روس من قبل جون مارك دوغان، وهو هارب أمريكي تحول إلى دعاية في موسكو حيث قال: “من خلال دفع هذه الروايات الروسية من المنظور الروسي، يمكننا فعلاً تغيير الذكاء الاصطناعي على مستوى العالم.”
تم ربط أحدث عملية دعاية بشركة تقنية معلومات تبدو غير مؤذية تُدعى “TigerWeb”، والتي ربطتها وكالات الاستخبارات بالتدخل الأجنبي ومقرها في القرم التي تحتلها روسيا. لطالما قال الخبراء إن روسيا تعتمد على منظمات الطرف الثالث لإجراء هذا النوع من العمل حتى تتمكن من الادعاء بأنها تجهل هذه الممارسة. تشارك TigerWeb عنوان IP مع مواقع الدعاية التي تستخدم نطاق .ua الأوكراني.
ت flooded الشبكات الاجتماعية، بما في ذلك X، بادعاءات بأن الرئيس زيلينسكي قد سرق المساعدات العسكرية ليغتني، وهو ادعاء آخر استشهدت به NewsGuard على أنه نشأ من هذه المواقع.

هناك قلق من أن أولئك الذين يتحكمون في نماذج الذكاء الاصطناعي سيكون لديهم يومًا ما سلطة على آراء الأفراد وطرق عيشهم. تعتبر ميتا، وجوجل، وxAI من بين الذين يتحكمون في التحيزات وسلوك النماذج التي يأملون أن تدعم الويب. بعد أن تعرض نموذج Grok من xAI للنقد لكونه “مستيقظًا جدًا”، بدأ إيلون ماسك في تعديل مخرجات النموذج، موجهًا فريق التدريب للبحث عن “الأيديولوجية المستيقظة” و”ثقافة الإلغاء”، مما يعنى قمع المعلومات التي لا يوافق عليها. قال سام ألتمان من OpenAI مؤخرًا إنه سيجعل ChatGPT أقل تقييدًا في ما يقوله.
وجدت الأبحاث أن أكثر من نصف عمليات البحث على جوجل هي “صفر نقرة”، مما يعني أنها لا تؤدي إلى النقر على موقع ويب. وقد أعرب العديد من الأشخاص على وسائل التواصل الاجتماعي عن شعورهم بأنهم يفضلون النظر إلى ملخص ذكاء اصطناعي بدلاً من النقر على موقع ويب بسبب الكسل (بدأت جوجل مؤخرًا في طرح “وضع الذكاء الاصطناعي” في البحث). نصيحة محو الأمية الإعلامية القياسية، مثل التحقق من شرعية الموقع، تخرج من النافذة عندما يقرأ الناس مجرد ملخصات الذكاء الاصطناعي. تستمر نماذج الذكاء الاصطناعي في وجود عيوب لا يمكن التخلص منها، لكن الناس يثقون بها لأنها تكتب بطريقة سلطوية.
استخدمت جوجل تقليديًا إشارات مختلفة لتصنيف شرعية المواقع في البحث. من غير الواضح كيف تنطبق هذه الإشارات في نماذج الذكاء الاصطناعي الخاصة بها، ولكن الأخطاء المبكرة تشير إلى أن نموذج “جمنّي” لديه العديد من المشاكل في تحديد السمعة. لا تزال معظم النماذج غالبًا ما تستشهد بمواقع أقل شهرة بجانب مصادر معروفة وموثوقة.
كل هذا يأتي في وقت اتخذ فيه الرئيس ترامب موقفًا عدائيًا تجاه أوكرانيا، متوقفًا عن تبادل المعلومات وموجهًا اللوم للقائد في اجتماع بالبيت الأبيض بسبب الاعتقاد بأنه لم يظهر ولاءً كافيًا للولايات المتحدة ورغبته في عدم الاستسلام لمطالب روسيا.
اقرأ التقرير الكامل لNewsGuard هنا.