صدمة في الوسط الطبي: دراسة تكشف فشل الذكاء الاصطناعي في تشخيص 80% من الأمراض المبكرة

صدمة في الوسط الطبي: دراسة تكشف فشل الذكاء الاصطناعي في تشخيص 80% من الأمراض المبكرة
مقدمة: هل يحل الروبوت محل الطبيب؟
مع الطفرة الهائلة في تقنيات الذكاء الاصطناعي، لجأ الملايين حول العالم إلى روبوتات الدردشة للحصول على استشارات طبية سريعة. إلا أن دراسة حديثة نشرت في مجلة Jama Network Open المرموقة يوم الاثنين 13 أبريل 2026، وضعت حداً لهذا الاندفاع، مؤكدة أن “الطبيب البشري” لا يزال صمام الأمان الوحيد والضروري للتشخيص الصحيح.
نتائج صادمة: 80% معدل فشل في المراحل المبكرة
كشفت الدراسة أن روبوتات الذكاء الاصطناعي أخطأت في أكثر من 80% من الحالات الطبية عندما كانت البيانات المقدمة عنها محدودة أو في مراحلها الأولية. وأوضحت النتائج أن هذه النماذج تعاني من “ضيق أفق رقمي”، حيث تميل لتقديم إجابة واحدة محددة بسرعة كبيرة، بدلاً من طرح مجموعة من التشخيصات المحتملة (ما يعرف طبياً بالتشخيص التفريقي).
التشخيص التفريقي: نقطة ضعف الذكاء الاصطناعي
اختبر الباحثون 21 نموذجاً من رواد التكنولوجيا مثل (OpenAI, Google, Anthropic, xAI, DeepSeek) عبر 29 حالة سريرية افتراضية. وكانت النتائج كالتالي:
في غياب البيانات الكاملة: تجاوز معدل الفشل 80%، حيث عجزت الروبوتات عن قراءة الغموض في الأعراض الأولية.
عند اكتمال البيانات: انخفض معدل الفشل إلى أقل من 40%، بل ووصلت دقة بعض النماذج المتطورة إلى 90% في تحديد التشخيص النهائي فقط.
تحليل الخبراء: الذكاء الاصطناعي “تلميذ” يفتقر للخبرة السريرية
تقول آريا راو، الباحثة في نظام “ماس جنرال بريغهام” والمؤلفة الرئيسية للدراسة: “هذه النماذج ممتازة في تسمية المرض عندما تكون الصورة كاملة، لكنها تتعثر بشدة في البداية عندما تكون المعلومات غامضة أو مجتزأة”. وهذا يعني أن الروبوت ينجح كموسوعة طبية ولكنه يفشل كـ “طبيب فاحص”.
ردود شركات التكنولوجيا: نحن لسنا أطباء
تفاعلت الشركات المطورة لهذه النماذج مع النتائج، مؤكدة على سياسات الاستخدام الخاصة بها:
Anthropic (كلود): أكدت أن نموذجها مدرب لتوجيه المستخدمين دائماً إلى المختصين.
Google (جيميني): أوضحت وجود تذكيرات مدمجة تحث المستخدمين على التحقق من المعلومات طبياً.
OpenAI (ChatGPT): شددت على أن خدماتها لا تقدم مشورة طبية مهنية ويجب إشراك مختص مؤهل.
مخاطر الاعتماد على “الطبيب الرقمي”
يكمن الخطر الأكبر في أن مستخدمي هذه الروبوتات قد يتلقون تشخيصاً خاطئاً يؤدي لتأخير العلاج الفعلي أو تناول أدوية غير مناسبة. فالذكاء الاصطناعي لا يمتلك “الحس السريري” ولا يستطيع إجراء فحص جسدي أو ملاحظة لغة جسد المريض، وهي عناصر حاسمة في الوصول للحقيقة الطبية.
الخلاصة: نصيحة ذهبية لكل مستخدم
رغم التطور المذهل، يبقى الذكاء الاصطناعي أداة مساعدة للطبيب وليس بديلاً عنه. إن استخدام هذه الروبوتات يجب أن يقتصر على التثقيف العام وليس التشخيص الشخصي. تذكر دائماً: البيانات الطبية المضللة قد تكون أخطر من المرض نفسه.
لا توجد آراء بعد. كن أول من يُبدي رأيه!





