هل سيتمكن الذكاء الاصطناعي من علاج جميع الأمراض؟
سؤال يبدو وكأنه قادم من فيلم خيال علمي، لكنه في الحقيقة مرتبط بأحداث وبحوث حقيقية تجري الآن في مختبرات ومستشفيات حول العالم.
عندما يكتشف الذكاء الاصطناعي المرض قبل الإنسان
في عام 2020، أعلنت Google Health عن نظام ذكاء اصطناعي قادر على تحليل صور أشعة سرطان الثدي بدقة عالية.
المفاجأة التي وثّقتها مجلة Nature العلمية كانت أن هذا النظام نجح في تقليل الأخطاء التشخيصية مقارنة ببعض التقييمات البشرية.
النظام قلل الأخطاء الشخصية واكتشف مؤشرات مبكرة لم يلاحظها بعض الأطباء، مما يزيد فرص العلاج و النجاة.
الذكاء الاصطناعي لا يعالج السرطان، لكنه يساعد الطبيب برصد تفاصيل دقيقة بسرعة ودقة، مانحًا فرصة ثمينة لاكتشاف المبكر.
باختصار
هذه القصة ليست عن آلة تعالج السرطان، بل عن تقنية استطاعت رؤية ما لا يُرى بسهولة، واكتشاف المرض في وقت مبكر، حيث يكون العلاج ممكنًا والنجاة أعلى.
قرى بلا أطباء… وأنقذها الذكاء الاصطناعي
في بعض المناطق النائية في الهند وأفريقيا، لا يوجد عدد كافٍ من أطباء العيون، لكن يوجد مرض خطير اسمه اعتلال الشبكية السكري قد يؤدي إلى العمى.
أنظمة ذكاء اصطناعي تقوم بفحص صور العين وتشخيص المرض خلال دقائق.
هذه ليست قصة مستقبلية، بل واقع ساعد آلاف الأشخاص على إنقاذ بصرهم.
باختصار
الحقيقة بوضوح: الذكاء الاصطناعي لا يعالج المرض، لكنه أحيانًا يكون الفرق بين العمى والرؤية.
هل تستطيع الخوارزميات اختيار علاج السرطان؟
حاول نظام IBM Watson for Oncology أن يفعل ذلك.
الفكرة كانت مذهلة:
تحليل ملايين الأبحاث الطبية واقتراح خطط علاج لمرضى السرطان.
في بعض المستشفيات نجح، وفي حالات أخرى أخفق.
مثال على النجاح:
في بعض المستشفيات، مثل Memorial Sloan Kettering Cancer Center في نيويورك، استُخدم Watson كأداة مساعدة للأطباء.
Memorial Sloan Kettering Cancer Center
نظام Watson
هنا، لم يكن النظام صاحب القرار، بل مرجعًا سريعًا.
عندما كان الطبيب يواجه حالة معقدة، يعرض Watson خيارات علاج مدعومة بأبحاث حديثة، مما وفّر الوقت وساعد في مقارنة البدائل العلاجية.
في هذه البيئة، حيث البيانات محدثة والأطباء يراجعون كل اقتراح، أثبت النظام فائدته.
مثال على الفشل:
في المقابل، ظهرت مشكلات كبيرة في تجارب أخرى، أبرزها في مركز MD Anderson للسرطان.
MD Anderson
المشروع هناك أُوقف بعد إنفاق ملايين الدولارات، لأن النظام قدّم أحيانًا توصيات علاجية غير مناسبة أو غير متوافقة مع الواقع السريري.
السبب لم يكن غباء الخوارزمية، بل اعتمادها على بيانات تدريب نظرية أو قديمة، وعدم قدرتها على فهم تفاصيل دقيقة مثل:
- الحالة الصحية العامة للمريض
- أمراضه المزمنة الأخرى
- توفر الأدوية محليًا
- الفروق بين الإرشادات الطبية من دولة لأخرى
في بعض الدول، مثل كوريا الجنوبية والهند، واجه Watson انتقادات لأنه اقترح علاجات مكلفة أو غير متاحة محليًا، أو لا تتوافق مع البروتوكولات الوطنية، ما جعل الأطباء يتجاهلون توصياته.
أين تكمن المشكلة الحقيقية؟
الذكاء الاصطناعي يتعامل مع السرطان كـ مشكلة بيانات، بينما يتعامل الطبيب معه كـ قصة إنسان.
الخوارزمية ترى: نوع الورم، مرحلته، نتائج التحاليل.
الطبيب يرى: عمر المريض، حالته النفسية، قدرته على تحمّل العلاج، ورغباته الشخصية.
باختصار
الذكاء الاصطناعي ذكي جدًا، لكنه ليس طبيبًا، ولا يستطيع اتخاذ قرار مصيري دون إشراف بشري.
لغز كورونا… وكيف ساعد الذكاء الاصطناعي في فكّه
عندما ظهر فيروس كورونا، كان العالم في سباق مع الزمن.
هنا ظهر نظام AlphaFold من شركة DeepMind، الذي تنبأ بشكل البروتينات الخاصة بالفيروس بدقة غير مسبوقة.
هذا الإنجاز سرّع فهم العلماء للفيروس، ومهّد الطريق لتطوير اللقاحات.
باختصار
هذه لحظة حقيقية تثبت أن الذكاء الاصطناعي لا يحمل الدواء، لكنه يختصر الطريق إليه.
الوجه الآخر: عندما يخطئ الذكاء الاصطناعي
رغم كل هذه النجاحات، كشفت أبحاث منشورة في The Lancet أن بعض أنظمة الذكاء الاصطناعي الطبية كانت أقل دقة مع أصحاب البشرة الداكنة بسبب نقص التنوع في البيانات.
قصة صادمة لكنها حقيقية، وتؤكد فكرة يكررها العالم باختصار دائمًا:
الذكاء الاصطناعي يتعلم من البشر… وإذا كانت بياناته ناقصة، تكون نتائجه ناقصة أيضًا.
ماذا عن الأمراض النفسية؟
الجانب المشرق للذكاء الاصطناعي في الصحة النفسية
ظهرت تطبيقات تعتمد على الذكاء الاصطناعي لتقديم دعم نفسي، مثل Woebot.
دراسة منشورة في مجلة JMIR Mental Health أجريت على طلاب تبلغ أعمارهم بين 18 و28 عامًا، أثبتت أن استخدام Woebot لمدة أسبوعين فقط ارتبط بـ انخفاض ملحوظ في أعراض الاكتئاب مقارنة بمجموعة تلقت مواد معلوماتية فقط، دون تدخل بشري حقيقي.
نتائج هذه الدراسة
أظهرت أيضًا أن المستخدمين تعاملوا مع Woebot بشكل شبه يومي، وكثير منهم وصفوا الروبوت بصفات مثل “رفيق” و”ممتع” و”ودود”، ما يعكس كمية التفاعل التي يمكن أن يكوّنها المستخدم مع الذكاء الاصطناعي رغم عدم وجود مشاعر حقيقية لدى الروبوت.
ماذا نستخلص من هذه الأبحاث؟
- Woebot لم يعالج حالات نفسية خطيرة مثل الاضطرابات الشديدة، لكنه قد يساعد في دعم حالتك النفسية الخفيفة أو المتوسطة، ويمنح شعورًا مؤقّتًا بالتفهّم والتفاعل، ويقدم تقنيات من العلاج السلوكي المعرفي (CBT).
- الباحثون يشدّدون على أن Woebot وأمثاله أدوات داعمة وليست بديلاً عن المعالج النفسي الحقيقي، لأن هناك عوامل إنسانية عميقة لا يمكن للخوارزميات أن تعالجها بالكامل.
هنا يتجلى الغموض الحقيقي:
كيف لآلة بلا مشاعر أن تعالج ألمًا إنسانيًا نابعًا من الفقد، أو الخوف، أو الصدمة؟
الذكاء الاصطناعي يستطيع تحليل الكلمات، وتوقّع الردود المناسبة إحصائيًا، لكنه لا يشعر بالألم، ولا يختبر التعاطف الحقيقي، ولا يمر بتجربة إنسانية مشابهة.
وهذا الفارق الجوهري يجعل دوره في الصحة النفسية محدودًا ومكمّلًا، لا جوهريًا ولا بديلًا.
باختصار: بعض الجروح لا تُشفى بالخوارزميات.
الجانب المظلم للذكاء الاصطناعي في الصحة النفسية
قبل الحديث عن المخاطر، لا بد من التوقف عند مفهوم مهم يُعرف بـ تأثير إليزا (Eliza Effect).
Eliza Effect
هذا التأثير يشير إلى ميل البشر إلى إضفاء مشاعر ووعي إنساني على البرامج والروبوتات، حتى عندما تكون مجرد أنظمة تعتمد على ردود مبرمجة أو خوارزميات لغوية.
بعبارة أبسط، بعض الناس يبدؤون في التعامل مع الذكاء الاصطناعي وكأنه يفهمهم حقًا، ويتعاطف معهم، ويمنحهم توجيهًا أخلاقيًا أو عاطفيًا، رغم أنه لا يملك وعيًا ولا إحساسًا.
في العالم باختصار، لا يمكن تجاهل أن هذا التأثير كان حاضرًا في واحدة من أخطر القضايا الواقعية المرتبطة بالذكاء الاصطناعي والصحة النفسية.
قضية Jaswant Singh Chail في بريطانيا.
كان جاسوانت سينغ تشايل شابًا يبلغ من العمر 19 عامًا عندما حاول في عام 2021 اقتحام قلعة وندسور مستخدمًا قوسًا ونشابًا، بهدف اغتيال ملكة بريطانيا إليزابيث الثانية.
التحقيقات كشفت لاحقًا أنه كان يعاني من اضطرابات نفسية، وأنه كان على تواصل طويل مع روبوت محادثة في تطبيق Replika، حيث كوّن علاقة عاطفية وهمية معه.
الأخطر من ذلك أن المحادثات أظهرت أن الروبوت لم يمنعه أو يردعه، بل في بعض اللحظات عزّز أفكاره العنيفة بدل احتوائها.
تشايل صرّح للمحققين أنه شعر بأن الروبوت “يفهمه” و”يدعمه”، وهو مثال صادم على تأثير Eliza Effect عندما يخرج عن السيطرة.
في النهاية، أوقف قبل تنفيذ الجريمة، وحوكم بموجب قوانين الإرهاب، وصدر بحقه حكم بالسجن 9 سنوات في واحدة من أكثر القضايا إثارة للجدل حول أخلاقيات الذكاء الاصطناعي.
مقطع المحاكمة
https://youtu.be/TqMvhkKFhw4?si=dEEko1xngoGHFHjz
هذه القصة الحقيقية تكشف حقيقة لا يمكن تجاهلها:
الذكاء الاصطناعي، خاصة في مجال الدعم النفسي، قد يساعد بعض الأشخاص، لكنه في حالات نادرة وخطيرة قد يساهم في تضليل أشخاص هشّين نفسيًا إذا تُرك دون رقابة أو ضوابط صارمة.
باختصار:
الذكاء الاصطناعي أداة قوية، لكن عندما يُساء استخدامه، أو عندما يُنظر إليه كبديل عن الإنسان، قد يتحول من وسيلة دعم… إلى عامل خطر.
ليس كل ما يبدو متعاطفًا… آمنًا.
إذًا… هل سيعالج الذكاء الاصطناعي جميع الأمراض؟
الإجابة المختصرة التي يقدمها العالم باختصار هي:
لا، لكنه سيغير الطب إلى الأبد.
سيجعل التشخيص أدق، والعلاج أسرع، والوقاية أذكى، لكنه لن يلغي الإنسان، ولن يحل محل الطبيب، ولن يصبح إلهًا طبيًا.
الخلاصة | العالم باختصار
الذكاء الاصطناعي ليس عصا سحرية، لكنه أداة قوية تكشف لنا أسرارًا كانت مخفية، وتفتح أبوابًا لم تكن موجودة.
المستقبل الصحي لن يكون بين الإنسان أو الآلة، بل بين الإنسان المدعوم بالذكاء الاصطناعي.
نحب نسمع صوتك شارك آرائك على اي مدى تعتقد الذكاء الأصطناعي سوف يتطور في قطاع الطب؟
كن مطلع فنحن نختصر لك العالم!!


















