
تقول ميتا إن نموذجها الجديد للذكاء الاصطناعي، لاما 4، أقل تحيزًا سياسيًا من سابقيه. وأضافت الشركة أنها حققت ذلك جزئيًا من خلال السماح للنموذج بالإجابة على المزيد من الأسئلة المثيرة للجدل سياسيًا، وأكدت أن لاما 4 يقارن بشكل إيجابي مع عدم الانحياز السياسي الموجود في غروك، وهو روبوت محادثة “غير مستيقظ” من شركة إيلون ماسك الناشئة xAI.
تواصل ميتا قائلة: “هدفنا هو إزالة التحيز من نماذج الذكاء الاصطناعي لدينا والتأكد من أن لاما يمكنه فهم وتوضيح كلا جانبي القضية المثيرة للجدل”. “كجزء من هذا العمل، نحن نستمر في جعل لاما أكثر استجابة بحيث يجيب على الأسئلة، ويمكنه الاستجابة لمجموعة متنوعة من وجهات النظر المختلفة دون إصدار حكم، ولا يفضل بعض الآراء على غيرها.”
أحد المخاوف التي أثيرت من قبل المشككين في النماذج الكبيرة التي تطورها بعض الشركات هو نوع السيطرة على مجال المعلومات الذي يمكن أن تنتجه. من يتحكم في نماذج الذكاء الاصطناعي يمكنه بشكل أساسي التحكم في المعلومات التي يتلقاها الناس، مما يحرك المؤشرات كما يشاء. هذا ليس جديدًا، بالطبع. لقد استخدمت منصات الإنترنت منذ فترة طويلة الخوارزميات لتحديد المحتوى الذي سيتم عرضه. لهذا السبب لا تزال ميتا تتعرض للهجوم من قبل المحافظين، الذين يصر العديد منهم على أن الشركة قد كتمت الآراء ذات الميول اليمينية على الرغم من أن المحتوى المحافظ كان تاريخيًا أكثر شعبية على فيسبوك. يعمل الرئيس التنفيذي مارك زوكربيرغ بجهد كبير لكسب ود الإدارة على أمل تجنب الصداع التنظيمي.
في مدونة الشركة، أكدت ميتا أن تغييراتها على لاما 4 تهدف بشكل خاص إلى جعل النموذج أقل ليبرالية. “من المعروف أن جميع نماذج اللغة الكبيرة الرائدة قد واجهت مشاكل مع التحيز – على وجه التحديد، كانت في تاريخها تميل إلى اليسار عندما يتعلق الأمر بالمواضيع السياسية والاجتماعية المثيرة للجدل”، كتبت. “هذا بسبب أنواع بيانات التدريب المتاحة على الإنترنت.” لم تكشف الشركة عن البيانات التي استخدمتها لتدريب لاما 4، ولكن من المعروف أن ميتا وغيرها من شركات النماذج تعتمد على الكتب المقرصنة وجمع المعلومات من المواقع دون إذن.
واحدة من المشاكل المتعلقة بتحسين “التوازن” هي أنها يمكن أن تخلق معادلة زائفة وتمنح مصداقية للآراء السيئة النية التي لا تستند إلى بيانات علمية تجريبية. يُعرف هذا بشكل عام باسم “توازن الجانبين“، يشعر البعض في وسائل الإعلام بمسؤولية تقديم وزن متساوٍ للوجهات النظر المتعارضة، حتى لو كانت إحدى الجانبين تقدم حجة قائمة على البيانات والآخر يتحدث عن نظريات مؤامرة. مجموعة مثل كيو أنون مثيرة للاهتمام، لكنها تمثل حركة هامشية لم تعكس آراء عدد كبير من الأمريكيين، وربما حصلت على المزيد من وقت البث أكثر مما تستحق.
لا تزال النماذج الرائدة في الذكاء الاصطناعي تعاني من مشكلة ضارة في إنتاج معلومات دقيقة من الناحية الواقعية، حتى يومنا هذا، لا تزال غالبًا ما تختلق المعلومات وتكذب بشأنها. لدى الذكاء الاصطناعي العديد من التطبيقات المفيدة، ولكن كنظام لاسترجاع المعلومات، فإنه يبقى خطرًا للاستخدام. تقوم البرامج اللغوية الكبيرة بإصدار معلومات غير صحيحة بثقة، وتم إلقاء جميع الطرق السابقة المستخدمة لاستخدام الحدس لتقييم ما إذا كان الموقع شرعيًا في سلة المهملات.
تواجه نماذج الذكاء الاصطناعي مشكلة مع التحيز – حيث تُعرف نماذج التعرف على الصور بأنها تعاني من مشاكل في التعرف على الأشخاص من ذوي البشرة الملونة، على سبيل المثال. وغالبًا ما تُصوَّر النساء بطرق جنسية، مثل ارتداء ملابس مكشوفة. يظهر التحيز حتى في أشكال أقل خطورة: يمكن أن يكون من السهل التعرف على النص المولد بواسطة الذكاء الاصطناعي من خلال الظهور المتكرر للشرطتين الطوليتين، وهو علامة ترقيم مفضلة من قبل الصحفيين وكتّاب آخرين ينتجون الكثير من المحتوى الذي يتم تدريب النماذج عليه. تظهر النماذج وجهات النظر الشعبية، السائدة لدى الجمهور العام.
لكن زوكربيرغ يرى فرصة لكسب ود الرئيس ترامب ويفعل ما هو مناسب سياسيًا، لذا فإن ميتا تشير بشكل خاص إلى أن نموذجها سيكون أقل ليبرالية. لذا، في المرة القادمة التي تستخدم فيها أحد منتجات الذكاء الاصطناعي من ميتا، قد يكون مستعدًا للاحتجاج لصالح علاج COVID-19 من خلال تناول مهدئات الخيول.