الوكالات الفيدرالية تفتقر إلى معلومات حيوية حول بعض من أخطر أنظمة الذكاء الاصطناعي لديها

تقوم الوكالات الفيدرالية بشراء العشرات من خوارزميات الذكاء الاصطناعي المملوكة للقطاع الخاص لأداء مهام يمكن أن تؤثر على السلامة البدنية وحقوق المدنيين للناس دون أن يكون لديها وصول إلى معلومات تفصيلية حول كيفية عمل هذه الأنظمة أو كيفية تدريبها، وفقًا لبيانات تم إصدارها حديثًا.

لا تمتلك إدارة الجمارك وحماية الحدود وإدارة أمن النقل وثائق تتعلق بجودة البيانات المستخدمة لبناء وتقييم الخوارزميات التي تفحص أجساد المسافرين بحثًا عن التهديدات، وفقًا لجرد الذكاء الاصطناعي لعام 2024 الخاص بهذه الوكالات التقارير.

تقوم إدارة صحة المحاربين باكتساب خوارزمية من شركة خاصة يُفترض أنها تتنبأ بالأمراض المزمنة بين المحاربين، لكن الوكالة قالت إنه “غير واضح كيف حصلت الشركة على البيانات” المتعلقة بسجلات المحاربين الطبية التي استخدمتها لتدريب النموذج.

ولأكثر من 100 خوارزمية يمكن أن تؤثر على سلامة الناس وحقوقهم، لم يكن لدى الوكالة التي تستخدم النماذج وصول إلى الشيفرة المصدرية التي تفسر كيفية عملها.

بينما تستعد إدارة ترامب القادمة لإلغاء القواعد التي تم تنفيذها مؤخرًا بشأن الشراء والسلامة في الذكاء الاصطناعي الفيدرالي، تُظهر بيانات الجرد مدى اعتماد الحكومة بشكل كبير على الشركات الخاصة لأنظمتها الأكثر خطورة في الذكاء الاصطناعي.

قال فارون ماثور، الذي كان حتى وقت سابق من هذا الشهر مستشارًا كبيرًا في الذكاء الاصطناعي للبيت الأبيض مسؤولًا عن تنسيق عملية جرد الذكاء الاصطناعي: “أنا قلق حقًا بشأن الأنظمة المملوكة التي تنتزع السلطة الديمقراطية من الوكالات لإدارة وتقديم الفوائد والخدمات للناس.” “علينا أن نعمل جنبًا إلى جنب مع البائعين المملوكين. في كثير من الأحيان يكون ذلك مفيدًا، لكن في كثير من الأحيان لا نعرف ما الذي يفعلونه. وإذا لم يكن لدينا السيطرة على بياناتنا، كيف سنتمكن من إدارة المخاطر؟”

وجدت دراسات داخلية وتحقيقات خارجية مشاكل خطيرة مع بعض الخوارزميات عالية المخاطر التي تستخدمها الوكالات الفيدرالية، مثل نموذج المتسمة بالتحيز العنصري الذي استخدمته إدارة الإيرادات الداخلية لتحديد أي دافعي ضرائب يتم تدقيقهم ونموذج الوقاية من الانتحار الذي استخدمته إدارة شؤون المحاربين والذي أعطى الأولوية للرجال البيض على المجموعات الأخرى.

توفر جرد 2024 نظرة أكثر تفصيلًا حول كيفية استخدام الحكومة الفيدرالية للذكاء الاصطناعي وما تعرفه عن هذه الأنظمة. للمرة الأولى منذ بدء الجرد في عام 2022، كان يتعين على الوكالات الإجابة على مجموعة من الأسئلة حول ما إذا كان لديهم وصول إلى وثائق النموذج أو الشيفرة المصدرية وما إذا كانوا قد قيموا المخاطر المرتبطة بأنظمة الذكاء الاصطناعي الخاصة بهم.

من بين 1,757 نظام ذكاء اصطناعي أفادت الوكالات بأنها تستخدمه على مدار العام، تم اعتبار 227 منهم من المحتمل أن يؤثروا على الحقوق المدنية أو السلامة البدنية، وأكثر من نصف تلك الأنظمة ذات المخاطر العالية تم تطويرها بالكامل بواسطة بائعين تجاريين. (بالنسبة لـ 60 من الأنظمة عالية المخاطر، لم تقدم الوكالات معلومات حول من قام ببنائها. كما أن بعض الوكالات، بما في ذلك وزارة العدل ووزارة التعليم ووزارة النقل، لم تنشر بعد جرد الذكاء الاصطناعي الخاص بها، ولا يُطلب من الوكالات العسكرية والاستخباراتية القيام بذلك).

بالنسبة لـ 25 نظامًا على الأقل تؤثر على السلامة أو الحقوق، أفادت الوكالات بأنه “لا توجد وثائق تتعلق بالصيانة أو التركيب أو الجودة أو الاستخدام المقصود لبيانات التدريب والتقييم.” بالنسبة لـ 105 منهم على الأقل، قالت الوكالات إنها لم يكن لديها وصول إلى الشيفرة المصدرية. ولم تجب الوكالات على سؤال الوثائق لـ 51 من الأدوات أو سؤال الشيفرة المصدرية لـ 60 من الأدوات. لا تزال بعض الأنظمة عالية المخاطر في مرحلة التطوير أو الاكتساب.

تحت إدارة بايدن، أصدرت مكتب الإدارة والميزانية (OMB) توجيهات جديدة للوكالات تتطلب منها إجراء تقييمات شاملة للأنظمة عالية المخاطر في الذكاء الاصطناعي والتأكد من أن العقود مع بائعي الذكاء الاصطناعي تمنح الوصول إلى المعلومات اللازمة حول النماذج، والتي يمكن أن تشمل وثائق بيانات التدريب أو الشيفرة نفسها.

تكون القواعد أكثر صرامة من أي شيء قد يواجهه بائعو الذكاء الاصطناعي عند بيع منتجاتهم لشركات أخرى أو للحكومات المحلية (على الرغم من أن العديد من الولايات ستنظر في مشاريع قوانين تتعلق بسلامة الذكاء الاصطناعي في عام 2025) وقد اعترض بائعي البرمجيات الحكومية على هذه القواعد، بحجة أنه يجب على الوكالات أن تقرر ما هو نوع التقييم والشفافية اللازمة على أساس كل حالة على حدة.

قال بول ليكاس، رئيس السياسة العامة العالمية لجمعية صناعة البرمجيات والمعلومات: “ثق ولكن تحقق.” “نحن حذرون من المتطلبات المرهقة على مطوري الذكاء الاصطناعي. في نفس الوقت، نعترف بأنه يجب أن يكون هناك اهتمام بدرجة الشفافية المطلوبة لبناء ذلك النوع من الثقة الذي يحتاجه الحكومة لاستخدام هذه الأدوات.”

قالت غرفة التجارة الأمريكية، في تعليقات قدمتها إلى OMB بشأن القواعد الجديدة، “يجب على الحكومة ألا تطلب أي بيانات تدريب محددة أو مجموعات بيانات حول نماذج الذكاء الاصطناعي التي تشتريها الحكومة من البائعين.” كتبت شركة بالانتير، وهي مزود رئيسي للذكاء الاصطناعي، أنه ينبغي على الحكومة الفيدرالية “تجنب وصف أدوات الوثائق بشكل مفرط، وبدلاً من ذلك منح مقدمي خدمات الذكاء الاصطناعي والبائعين المرونة اللازمة لتوصيف المخاطر الخاصة بالسياق.”

بدلاً من الوصول إلى بيانات التدريب أو الشيفرة المصدرية، يقول بائعو الذكاء الاصطناعي أنه في معظم الحالات، يجب أن تشعر الوكالات بالراحة مع بطاقات تقييم النماذج—وهي وثائق تصف البيانات وتقنيات التعلم الآلي التي يستخدمها نموذج الذكاء الاصطناعي ولكن لا تتضمن تفاصيل تقنية تعتبرها الشركات أسرار تجارية.

وصفت كاري ميلر، التي ساعدت في تطوير معايير دولية لشراء الخوارزميات وأسست مختبر شراء الذكاء الاصطناعي غير الربحي، بطاقات التقييم بأنها حل لوبي “ليس نقطة انطلاق سيئة، ولكنه مجرد نقطة انطلاق” لما يجب على بائعي الخوارزميات عالية المخاطر الالتزام بالإفصاح عنه تعاقديًا.

قالت: “الشراء هو أحد أهم آليات الحوكمة، إنه المكان الذي تلتقي فيه الأمور الواقعية، إنه المدخل الرئيسي، حيث يمكنك أن تقرر ما إذا كنت ستسمح بدخول الأمور السيئة أم لا.” “تحتاج إلى فهم ما إذا كانت البيانات في ذلك النموذج تمثل، هل هي متحيزة أم غير متحيزة؟ ماذا فعلوا بتلك البيانات ومن أين جاءت؟ هل جاءت كلها من ريديت أو كورا؟ لأنه إذا كانت كذلك، فقد لا تكون ما تحتاجه.”

كما أشارت OMB عند طرح قواعدها الخاصة بالذكاء الاصطناعي، فإن الحكومة الفيدرالية هي أكبر مشتري منفرد في الاقتصاد الأمريكي، حيث تتحمل مسؤولية أكثر من 100 مليار دولار في مشتريات تكنولوجيا المعلومات في عام 2023. الاتجاه الذي تتخذه بشأن الذكاء الاصطناعي—ما تطلبه من البائعين للإفصاح عنه وكيف تختبر المنتجات قبل تنفيذها—من المحتمل أن يحدد المعيار حول مدى شفافية شركات الذكاء الاصطناعي عن منتجاتها عند بيعها لوكالات حكومية أصغر أو حتى لشركات خاصة أخرى.

أشار الرئيس المنتخب ترامب بقوة إلى نيته في التراجع عن قواعد OMB. لقد قام بحملة على منصة حزبية دعت إلى “إلغاء [أمر] جو بايدن التنفيذي الخطير الذي يعيق الابتكار في الذكاء الاصطناعي، ويفرض أفكار اليسار الراديكالي على تطوير هذه التكنولوجيا.”

قال ماثور، المستشار السابق للذكاء الاصطناعي في البيت الأبيض، إنه يأمل ألا تلتزم الإدارة القادمة بهذا الوعد وأشار إلى أن ترامب أطلق جهودًا لبناء الثقة في أنظمة الذكاء الاصطناعي الفيدرالية مع أمره التنفيذي في عام 2020.

كان مجرد إقناع الوكالات بإجراء جرد لأنظمة الذكاء الاصطناعي الخاصة بها والإجابة على أسئلة حول الأنظمة المملوكة التي تستخدمها مهمة ضخمة، وفقًا لماثور، الذي قال إنها كانت “مفيدة بشكل عميق” ولكنها تتطلب المتابعة.

قال: “إذا لم يكن لدينا الشيفرة أو البيانات أو الخوارزمية، فلن نتمكن من فهم التأثير الذي نحدثه.”

المصدر

  • ذات صلة

    مراقبة الدماغ قد تكون مستقبل العمل الديستوبي

    على الرغم من كل الاهتمام بالتقنيات التي تقلل من الدور العملي للبشر في العمل – مثل المركبات ذاتية القيادة، الروبوتات العاملة، الذكاء الاصطناعي وما إلى ذلك – يقوم الباحثون في…

    لماذا ‘تفكر’ خوارزمية تشات جي بي تي باللغة الصينية؟

    كشفت شركة OpenAI مؤخرًا عن خوارزمية جديدة، o1، والتي تسميها نموذج “التفكير”. الفكرة وراء هذه الخوارزمية هي أنها تقضي “وقتًا أطول في التفكير” قبل أن تستجيب، مما يؤدي إلى تقديم…

    اترك تعليقاً

    لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

    فاتك

    مراقبة الدماغ قد تكون مستقبل العمل الديستوبي

    • يناير 30, 2025
    مراقبة الدماغ قد تكون مستقبل العمل الديستوبي

    لماذا ‘تفكر’ خوارزمية تشات جي بي تي باللغة الصينية؟

    • يناير 30, 2025
    لماذا ‘تفكر’ خوارزمية تشات جي بي تي باللغة الصينية؟

    تواصل آبل الدفاع عن براءتها رغم اتهامات التجسس

    • يناير 30, 2025
    تواصل آبل الدفاع عن براءتها رغم اتهامات التجسس

    مواصفات كاميرا Galaxy Z Flip 7 جعلتنا نشعر بالقلق

    • يناير 30, 2025
    مواصفات كاميرا Galaxy Z Flip 7 جعلتنا نشعر بالقلق

    خبير أوزمبك يشرح ما تحتاج لمعرفته قبل تناول أدوية GLP-1

    • يناير 29, 2025
    خبير أوزمبك يشرح ما تحتاج لمعرفته قبل تناول أدوية GLP-1

    أوبن أيه آي تدعو الحكومة الأمريكية لتغذية بياناتها في أنظمة الذكاء الاصطناعي

    • يناير 29, 2025
    أوبن أيه آي تدعو الحكومة الأمريكية لتغذية بياناتها في أنظمة الذكاء الاصطناعي