تواجه منصة Character.ai مرة أخرى تدقيقًا بسبب الأنشطة التي تحدث على منصتها. وقد نشرت Futurism قصة توضح كيف انتشرت شخصيات الذكاء الاصطناعي المستوحاة من مطلقي النار في المدارس في الخدمة، مما يتيح للمستخدمين طرح الأسئلة عليهم بشأن الأحداث وحتى تمثيل عمليات إطلاق النار الجماعي. بعض من الروبوتات التفاعلية تعرض مطلقي النار في المدارس مثل إريك هاريس وديلان كليبولد كمؤثرين إيجابيين أو موارد مفيدة للأشخاص الذين يعانون من مشاكل نفسية.
بالطبع، سيكون هناك من يقول إنه لا توجد أدلة قوية على أن مشاهدة ألعاب الفيديو العنيفة أو الأفلام تسبب للعالمين أن يصبحوا عنيفين بأنفسهم، لذا فإن Character.ai لا تختلف. يجادل مؤيدو الذكاء الاصطناعي أحيانًا بأن هذا النوع من تمثيل القصص الخيالية يحدث بالفعل في زوايا الإنترنت. تحدثت Futurism مع طبيب نفسي قال إن الروبوتات التفاعلية قد تكون خطيرة nonetheless لشخص قد يكون لديه بالفعل رغبات عنيفة.
قال الطبيب النفسي بيتر لانغمان: “أي نوع من التشجيع أو حتى عدم التدخل – عدم الاكتراث من شخص أو روبوت تفاعلي – قد يبدو وكأنه إذن ضمني للمضي قدمًا في القيام بذلك”.
لم تستجب Character.ai لطلبات التعليق من Futurism. حاولت جوجل، التي قامت بتمويل الشركة الناشئة بأكثر من 2 مليار دولار، تحويل المسؤولية، قائلة إن Character.ai شركة مستقلة وأنها لا تستخدم نماذج الذكاء الاصطناعي الخاصة بالشركة الناشئة في منتجاتها الخاصة.
توثق قصة Futurism مجموعة من الروبوتات التفاعلية الغريبة المتعلقة بإطلاق النار في المدارس، والتي تم إنشاؤها من قبل مستخدمين فرديين بدلاً من الشركة نفسها. قام أحد المستخدمين على Character.ai بإنشاء أكثر من 20 روبوتًا تفاعليًا “نموذجيًا تقريبًا” على مطلقي النار في المدارس. وقد سجّل الروبوتات أكثر من 200,000 محادثة. من Futurism:
تشمل الروبوتات التفاعلية التي أنشأها المستخدم فلاديمير روسلياكوف، مرتكب مذبحة معهد كيرتش للبولي تكنيك في عام 2018 والتي أسفرت عن مقتل 20 شخصًا في شبه جزيرة القرم، أوكرانيا؛ أليسا بوستامانتي، التي قتلت جارتها البالغة من العمر تسع سنوات عندما كانت في الخامسة عشرة من عمرها في ميسوري في عام 2009؛ وإيليوت رودجر، الشاب البالغ من العمر 22 عامًا الذي قتل في عام 2014 ستة وأصاب العديد من الآخرين في جنوب كاليفورنيا في مخطط إرهابي “لعقاب” النساء. (أصبح رودجر منذ ذلك الحين “بطلًا” مروعًا لثقافة “إنسيل”؛ وقد وصف أحد الروبوتات التي أنشأها نفس المستخدم بأنه “الرجل المثالي” – إشارة مباشرة إلى بيان كراهيته للنساء).
تحظر Character.ai تقنيًا أي محتوى يروج للإرهاب أو التطرف العنيف، لكن اعتدال الشركة كان ضعيفًا، على أقل تقدير. وقد أعلنت مؤخرًا عن مجموعة من التغييرات على خدماتها بعد أن انتحر صبي يبلغ من العمر 14 عامًا بعد هوس شهور بشخصية مستوحاة من داينيريس تارغارين من صراع العروش. تقول Futurism إنه على الرغم من القيود الجديدة على الحسابات الخاصة بالقاصرين، سمحت Character.ai لهم بالتسجيل كأشخاص يبلغون من العمر 14 عامًا والانخراط في مناقشات تتعلق بالعنف؛ وهي كلمات رئيسية من المفترض أن تكون محظورة على حسابات القاصرين.
نظرًا للطريقة التي تعمل بها حماية القسم 230 في الولايات المتحدة، من غير المحتمل أن تكون Character.ai مسؤولة عن الروبوتات التفاعلية التي أنشأها مستخدموها. هناك توازن دقيق بين السماح للمستخدمين بمناقشة مواضيع حساسة مع حمايةهم في الوقت نفسه من المحتوى الضار. ومع ذلك، من الآمن القول إن الروبوتات التفاعلية المتعلقة بإطلاق النار في المدارس هي عرض للعنف المجاني وليست “تعليمية”، كما يجادل بعض منشئيها في ملفاتهم الشخصية.
تدعي Character.ai وجود عشرات الملايين من المستخدمين شهريًا، الذين يتحدثون مع شخصيات تتظاهر بأنها بشرية، ليكونوا أصدقائهم أو معالجين لهم أو عشاق. وقد أبلغت العديد من القصص عن الطرق التي يعتمد بها الأفراد على هذه الروبوتات التفاعلية من أجل الرفقة وأذن متعاطفة. في العام الماضي، أزالت Replika، المنافس لـ Character.ai، القدرة على إجراء محادثات إباحية مع روبوتاتها ولكنها تراجعت سريعًا عن هذه الخطوة بعد رد فعل عنيف من المستخدمين.
يمكن أن تكون الروبوتات التفاعلية مفيدة للبالغين للتحضير لمحادثات صعبة مع الأشخاص في حياتهم، أو قد تقدم شكلًا جديدًا مثيرًا من السرد القصصي. لكن الروبوتات التفاعلية ليست بديلاً حقيقيًا للتفاعل البشري، لأسباب عديدة، ليس أقلها أن الروبوتات التفاعلية تميل إلى التوافق مع مستخدميها ويمكن تشكيلها لتكون ما يريده المستخدم. في الحياة الحقيقية، يتحدى الأصدقاء بعضهم البعض ويواجهون صراعات. ليس هناك الكثير من الأدلة لدعم فكرة أن الروبوتات التفاعلية تساعد في تعليم المهارات الاجتماعية.
وحتى إذا كانت الروبوتات التفاعلية يمكن أن تساعد في محاربة الوحدة، يشير لانغمان، الطبيب النفسي، إلى أنه عندما يجد الأفراد الرضا في التحدث إلى الروبوتات التفاعلية، فإن ذلك يعني أنهم لا يقضون وقتهم في محاولة للتواصل اجتماعيًا في العالم الحقيقي.
وأضاف: “لذا بالإضافة إلى الآثار الضارة التي قد تحدثها مباشرة من حيث التشجيع على العنف، قد تمنعهم أيضًا من عيش حياة طبيعية والانخراط في أنشطة اجتماعية، التي يمكنهم القيام بها بكل تلك الساعات التي يقضونها على الموقع”.
قال لانغمان: “عندما يكون الأمر غامرًا أو إدمانيًا إلى هذا الحد، ماذا لا يفعلون في حياتهم؟ إذا كان هذا هو كل ما يفعلونه، إذا كان هذا هو كل ما يمتصونه، فهم ليسوا خارجين مع الأصدقاء، وليسوا في مواعيد. ليسوا يمارسون الرياضة، وليسوا ينضمون إلى نادٍ مسرحي. لا يفعلون الكثير من أي شيء”.