
من الطائرات بدون طيار التي توصل الإمدادات الطبية إلى المساعدات الرقمية التي تؤدي المهام اليومية، أصبحت الأنظمة المدعومة بالذكاء الاصطناعي متجذرة بشكل متزايد في الحياة اليومية. يعد مبتكرو هذه الابتكارات بفوائد تحويلية. بالنسبة لبعض الأشخاص، يمكن أن تبدو التطبيقات الشائعة مثل ChatGPT وClaude وكأنها سحر. لكن هذه الأنظمة ليست سحرية، وليست محصنة من الأخطاء – فهي يمكن أن تفشل بانتظام في العمل كما هو مقصود.
يمكن أن تعاني أنظمة الذكاء الاصطناعي من تعطل بسبب عيوب تصميم تقنية أو بيانات تدريب متحيزة. كما يمكن أن تعاني من ثغرات في كودها، والتي يمكن استغلالها من قبل القراصنة الخبيثين. إن عزل سبب فشل الذكاء الاصطناعي أمر ضروري لإصلاح النظام.
لكن أنظمة الذكاء الاصطناعي عادة ما تكون غير شفافة، حتى لمبدعيها. التحدي هو كيفية التحقيق في أنظمة الذكاء الاصطناعي بعد فشلها أو تعرضها للهجوم. هناك تقنيات لفحص أنظمة الذكاء الاصطناعي، لكن هذه تتطلب الوصول إلى البيانات الداخلية لنظام الذكاء الاصطناعي. هذا الوصول ليس مضمونًا، خاصة للمحققين الجنائيين الذين يتم استدعاؤهم لتحديد سبب فشل نظام الذكاء الاصطناعي المملوك، مما يجعل التحقيق مستحيلاً.
نحن علماء حاسوب ندرس علم الطب الشرعي الرقمي. لقد أنشأت فريقنا في معهد جورجيا للتكنولوجيا نظامًا، الطب النفسي للذكاء الاصطناعي، أو AIP، الذي يمكنه إعادة إنشاء السيناريو الذي فشل فيه الذكاء الاصطناعي لتحديد ما حدث بالضبط. يعالج النظام تحديات الطب الشرعي للذكاء الاصطناعي من خلال استعادة وإعادة “إحياء” نموذج الذكاء الاصطناعي المشتبه به حتى يمكن اختباره بشكل منهجي.
عدم اليقين في الذكاء الاصطناعي
تخيل سيارة ذاتية القيادة تنحرف عن الطريق دون سبب واضح ثم تصطدم. قد تشير السجلات وبيانات المستشعرات إلى أن كاميرا معيبة تسببت في سوء فهم الذكاء الاصطناعي لإشارة المرور كأمر للانحراف. بعد فشل حرج مثل تحطم مركبة ذاتية القيادة، يحتاج المحققون إلى تحديد ما الذي تسبب بالخطأ بالضبط.
هل كان التحطم ناتجًا عن هجوم خبيث على الذكاء الاصطناعي؟ في هذه الحالة الافتراضية، قد تكون عيوب الكاميرا نتيجة ثغرة أمنية أو خطأ في برنامجها تم استغلاله من قبل هاكر. إذا وجد المحققون مثل هذه الثغرة، يتعين عليهم تحديد ما إذا كانت هي التي تسببت في التحطم. لكن اتخاذ هذا القرار ليس بالأمر السهل.
على الرغم من وجود طرق جنائية لاستعادة بعض الأدلة من فشل الطائرات بدون طيار، والمركبات الذاتية، وغيرها من الأنظمة المعروفة بالنظم السيبرانية الفيزيائية، لا يمكن لأي منها التقاط الأدلة المطلوبة للتحقيق الكامل في الذكاء الاصطناعي في ذلك النظام. يمكن للذكاءات الاصطناعية المتقدمة حتى تحديث اتخاذ قراراتها – وبالتالي الأدلة – بشكل مستمر، مما يجعل من المستحيل التحقيق في النماذج الأكثر حداثة باستخدام الطرق الموجودة.
علم الأمراض للذكاء الاصطناعي
يطبق الطب النفسي للذكاء الاصطناعي سلسلة من الخوارزميات الجنائية لعزل البيانات خلف اتخاذ قرارات نظام الذكاء الاصطناعي. ثم يتم إعادة تجميع هذه الأجزاء إلى نموذج وظيفي يؤدي بشكل مطابق للنموذج الأصلي. يمكن للمحققين “إعادة إحياء” الذكاء الاصطناعي في بيئة محكومة واختباره بمدخلات خبيثة لمعرفة ما إذا كان يظهر سلوكيات ضارة أو مخفية.
يستقبل الطب النفسي للذكاء الاصطناعي كمدخل صورة ذاكرة، وهي لقطة للبتات والبايتات المحملة عندما كان الذكاء الاصطناعي يعمل. تحتوي صورة الذاكرة في وقت التحطم في سيناريو المركبة الذاتية على أدلة حاسمة حول الحالة الداخلية وعمليات اتخاذ القرارات للذكاء الاصطناعي الذي يتحكم في المركبة. مع الطب النفسي للذكاء الاصطناعي، يمكن للمحققين الآن استرداد النموذج الدقيق للذكاء الاصطناعي من الذاكرة، وتفكيك بتاته وبايته، وتحميل النموذج في بيئة آمنة للاختبار.
اختبر فريقنا الطب النفسي للذكاء الاصطناعي على 30 نموذج ذكاء اصطناعي، 24 منها تم “إدخالها” عمدًا لإنتاج نتائج غير صحيحة تحت محفزات محددة. كان النظام قادرًا بنجاح على استرداد وإعادة استضافة واختبار كل نموذج، بما في ذلك النماذج المستخدمة عادة في السيناريوهات الواقعية مثل التعرف على إشارات المرور في المركبات الذاتية.
حتى الآن، تشير اختباراتنا إلى أن الطب النفسي للذكاء الاصطناعي يمكن أن يحل اللغز الرقمي وراء فشل مثل تحطم سيارة ذاتية القيادة كانت ستترك سابقًا المزيد من الأسئلة أكثر من الإجابات. وإذا لم يجد ثغرة في نظام الذكاء الاصطناعي الخاص بالسيارة، يسمح الطب النفسي للذكاء الاصطناعي للمحققين باستبعاد الذكاء الاصطناعي والبحث عن أسباب أخرى مثل كاميرا معيبة.
ليس فقط للمركبات الذاتية
الخوارزمية الرئيسية للطب النفسي للذكاء الاصطناعي عامة: تركز على المكونات العالمية التي يجب أن تحتوي عليها جميع نماذج الذكاء الاصطناعي لاتخاذ القرارات. هذا يجعل نهجنا قابلاً للتوسيع بسهولة ليشمل أي نماذج ذكاء اصطناعي تستخدم أطر تطوير الذكاء الاصطناعي الشائعة. يمكن لأي شخص يعمل على التحقيق في فشل محتمل للذكاء الاصطناعي استخدام نظامنا لتقييم نموذج دون معرفة مسبقة بهندسته الدقيقة.
سواء كان الذكاء الاصطناعي روبوتًا يقدم توصيات للمنتجات أو نظامًا يوجه أساطيل الطائرات بدون طيار الذاتية، يمكن للطب النفسي للذكاء الاصطناعي استرداد وإعادة استضافة الذكاء الاصطناعي للتحليل. الطب النفسي للذكاء الاصطناعي مفتوح المصدر تمامًا لأي محقق للاستخدام.
يمكن أن يكون الطب النفسي للذكاء الاصطناعي أيضًا أداة قيمة لإجراء تدقيقات على أنظمة الذكاء الاصطناعي قبل حدوث المشكلات. مع تكامل الوكالات الحكومية من إنفاذ القانون إلى خدمات حماية الطفل في أنظمة الذكاء الاصطناعي ضمن سير العمل الخاصة بها، أصبحت عمليات تدقيق الذكاء الاصطناعي تتطلب إشرافًا متزايدًا على مستوى الدولة. مع أداة مثل الطب النفسي للذكاء الاصطناعي في اليد، يمكن للمراجعين تطبيق منهجية جنائية متسقة عبر منصات ونشر ذكاء اصطناعي متنوعة.
على المدى الطويل، ستحقق هذه الجهود فوائد ملموسة لكل من مبتكري أنظمة الذكاء الاصطناعي وكل من يتأثر بالمهام التي تؤديها.
ديفيد أوغينبليك، طالب دكتوراه في الهندسة الكهربائية وعلوم الحاسوب، معهد جورجيا للتكنولوجيا وبريندان سالتافورماجيو، أستاذ مشارك في الأمن السيبراني والخصوصية، والهندسة الكهربائية وعلوم الحاسوب، معهد جورجيا للتكنولوجيا
تم إعادة نشر هذه المقالة من المحادثة بموجب ترخيص المشاع الإبداعي. اقرأ المقال الأصلي.
