كل فترة من الزمن، تظهر دراسة تدعي أن الذكاء الاصطناعي أفضل في تشخيص المشاكل الصحية من طبيب الإنسان. هذه الدراسات جذابة لأن نظام الرعاية الصحية في أمريكا مكسور بشكل مؤسف والجميع يبحث عن حلول. يقدم الذكاء الاصطناعي فرصة محتملة لجعل الأطباء أكثر كفاءة من خلال القيام بالكثير من الأعمال الإدارية لهم، مما يمنحهم الوقت لرؤية المزيد من المرضى وبالتالي خفض التكلفة النهائية للرعاية. هناك أيضًا إمكانية أن تساعد الترجمة الفورية غير الناطقين باللغة الإنجليزية في الحصول على وصول أفضل. بالنسبة لشركات التكنولوجيا، قد تكون الفرصة لخدمة صناعة الرعاية الصحية مربحة للغاية.
ومع ذلك، في الواقع، يبدو أننا بعيدون عن استبدال الأطباء بالذكاء الاصطناعي، أو حتى تعزيزهم حقًا. تحدثت صحيفة واشنطن بوست مع عدة خبراء، بما في ذلك الأطباء، لمعرفة كيف تسير الاختبارات المبكرة للذكاء الاصطناعي، وكانت النتائج غير مطمئنة.
إليكم مقتطف من أستاذ سريري، كريستوفر شارب من كلية الطب بجامعة ستانفورد، وهو يستخدم GPT-4o لصياغة توصية لمريض اتصل بمكتبه:
اختار شارب استفسار مريض عشوائي. يقول: “أكلت طماطم وشفتاي حاكّة. هل لديك أي توصيات؟”
يقدم الذكاء الاصطناعي، الذي يستخدم نسخة من GPT-4o، ردًا: “أنا آسف لسماع أن شفتيك حاكّة. يبدو أنك قد تكون تعاني من رد فعل تحسسي خفيف تجاه الطماطم.” يوصي الذكاء الاصطناعي بتجنب الطماطم، واستخدام مضاد هيستامين عن طريق الفم – واستخدام كريم ستيرويد موضعي.
يحدق شارب في شاشته لبرهة. “سريريًا، لا أوافق على جميع جوانب ذلك الرد”، يقول.
“أتفق تمامًا على تجنب الطماطم. من ناحية أخرى، فإن الكريمات الموضعية مثل الهيدروكورتيزون الخفيف على الشفاه لن تكون شيئًا أوصي به”، يقول شارب. “الشفاه هي نسيج رقيق جدًا، لذا نحن حذرون جدًا عند استخدام كريمات الستيرويد.”
“سأحذف تلك الجزئية فقط.”
وهنا مقتطف آخر، من أستاذة الطب والعلوم البيانات في ستانفورد، روكسانا دانشجو:
فتحت جهاز الكمبيوتر المحمول الخاص بها إلى ChatGPT وكتبت سؤال مريض تجريبي. “عزيزي الطبيب، لقد كنت أُرضع وأعتقد أنني أصبت بالتهاب الثدي. ثديي أصبح أحمر ومؤلم.” رد ChatGPT: استخدمي الكمادات الساخنة، وقومي بالتدليك وعملي رضاعة إضافية.
لكن ذلك غير صحيح، تقول دانشجو، التي هي أيضًا طبيبة جلدية. في عام 2022، أوصت أكاديمية طب الرضاعة بالعكس: الكمادات الباردة، الامتناع عن التدليك وتجنب التحفيز المفرط.
المشكلة مع المتفائلين في التكنولوجيا الذين يدفعون الذكاء الاصطناعي إلى مجالات مثل الرعاية الصحية هي أنه ليس مثل صنع برامج المستهلك. نحن نعلم بالفعل أن مساعد Microsoft Copilot 365 يحتوي على أخطاء، لكن خطأ صغير في عرض PowerPoint الخاص بك ليس بالأمر الكبير. ولكن ارتكاب الأخطاء في الرعاية الصحية يمكن أن يقتل الناس. أخبرت دانشجو صحيفة بوست أنها اختبرت ChatGPT مع 80 شخصًا آخر، بما في ذلك علماء الكمبيوتر والأطباء الذين طرحوا أسئلة طبية على ChatGPT، ووجدت أنه قدم ردودًا خطيرة بنسبة عشرين في المئة من الوقت. “عشرون في المئة من الردود الإشكالية ليست، بالنسبة لي، كافية للاستخدام اليومي الفعلي في نظام الرعاية الصحية”، قالت.
بالطبع، سيقول المؤيدون إن الذكاء الاصطناعي يمكن أن يعزز عمل الطبيب، لا أن يحل محله، ويجب عليهم دائمًا التحقق من النتائج. ومن الصحيح أن قصة بوست أجرت مقابلة مع طبيب في ستانفورد قال إن ثلثي الأطباء هناك الذين لديهم وصول إلى منصة يسجلون ويعتمدون على اجتماعات المرضى باستخدام الذكاء الاصطناعي حتى يتمكنوا من النظر إلى عيونهم أثناء الزيارة وعدم النظر إلى الأسفل، يأخذون ملاحظات. ولكن حتى هناك، يبدو أن تقنية Whisper من OpenAI تدخل معلومات مختلقة تمامًا في بعض التسجيلات. قال شارب إن Whisper أدخل بشكل خاطئ في نص أن مريضًا نسب سعالًا إلى تعرضه لطفله، وهو ما لم يقوله أبدًا. لقد كان التحيز الناتج عن بيانات التدريب مصدر قلق طويل الأجل بين متشككي الذكاء الاصطناعي، ووجدت دانشجو في الاختبارات أن أداة النسخ الصوتي للذكاء الاصطناعي افترضت أن مريضًا صينيًا كان مبرمج كمبيوتر دون أن يقدم المريض أي معلومات من هذا القبيل.
يمكن أن يساعد الذكاء الاصطناعي بشكل محتمل في مجال الرعاية الصحية، ولكن يجب التحقق من نتائجه بدقة، ثم كم من الوقت يوفره الأطباء فعليًا؟ علاوة على ذلك، يجب على المرضى أن يثقوا في أن طبيبهم يتحقق فعلاً مما ينتجه الذكاء الاصطناعي – يجب على أنظمة المستشفيات أن تضع ضوابط للتأكد من أن ذلك يحدث، أو قد تتسرب اللامبالاة.
أساسًا، الذكاء الاصطناعي التوليدي هو مجرد آلة تنبؤ بالكلمات، تبحث في كميات كبيرة من البيانات دون فهم حقيقي للمفاهيم الأساسية التي تعيدها. إنه ليس “ذكيًا” بنفس المعنى الذي يميز إنسانًا حقيقيًا، وهو بالتأكيد ليس قادرًا على فهم الظروف الفريدة لكل فرد محدد؛ إنه يعيد المعلومات التي عممها ورآها من قبل.
“أعتقد أن هذه واحدة من تلك التقنيات الواعدة، لكنها لم تصل إلى هناك بعد”، قال آدم رودمان، طبيب الطب الداخلي وباحث الذكاء الاصطناعي في مركز بيت إسرائيل ديكونيس الطبي. “أنا قلق من أننا سنقوم بتدهور ما نقوم به من خلال إدخال ‘هراء الذكاء الاصطناعي’ المتوهم في رعاية المرضى ذات المخاطر العالية.”
في المرة القادمة التي تزور فيها طبيبك، قد يكون من المفيد أن تسأله إذا كان يستخدم الذكاء الاصطناعي في سير عمله.