الذكاء الاصطناعي والصحة الرقمية: تحديات أخلاقية ومسؤولية القرار الطبي في صلب استراتيجية منظمة الصحة العالمية


هذا الخبر بعنوان "الذكاء الاصطناعي في الصحة الرقمية.. تحديات أخلاقية في القرار الطبي" نشر أولاً على موقع sana.sy وتم جلبه من مصدره الأصلي بتاريخ ٣ نيسان ٢٠٢٦.
لا يتحمل موقعنا مضمونه بأي شكل من الأشكال. بإمكانكم الإطلاع على تفاصيل هذا الخبر من خلال مصدره الأصلي.
لم يعد النقاش حول دمج الذكاء الاصطناعي في القطاع الصحي مقتصراً على الجوانب التقنية فحسب، بل توسع ليشمل تساؤلات جوهرية تتعلق بطبيعة القرار الطبي وحدود تدخل الخوارزميات، وذلك في خضم التحول العالمي المتسارع نحو الصحة الرقمية. يتزامن هذا التطور مع توجهات دولية حديثة، أبرزها الاستراتيجية المرتقبة لمنظمة الصحة العالمية للصحة الرقمية للأعوام 2028-2033، التي تؤشر إلى تحول في التركيز من مجرد تطوير الأدوات التكنولوجية إلى معالجة الأبعاد الأخلاقية العميقة المرتبطة بتطبيقها.
تُظهر مناقشات منظمة الصحة العالمية، كما ورد في تقارير وإرشادات منشورة على موقعها الإلكتروني، أن التحول في مجال الصحة الرقمية يركز الآن على دمج الأخلاقيات في صميم تصميم الأنظمة الذكية. يأتي هذا في ظل تساؤلات متزايدة حول الجهة المسؤولة عن اتخاذ القرار النهائي عند استخدام الخوارزميات في عمليات التشخيص والعلاج. وتؤكد هذه المناقشات أن الجوانب الأخلاقية غدت مكوناً أساسياً من بنية التكنولوجيا نفسها، بينما لا يزال العالم يسعى جاهداً للتوصل إلى معايير موحدة تحكم القرار الطبي في هذا السياق.
وفقاً لمنظمة الصحة العالمية، تعكس الاستراتيجية الجديدة تحولاً في بؤرة الاهتمام نحو مفاهيم أساسية مثل العدالة، الثقة، الشمول، وحوكمة البيانات. لم يعد التساؤل المحوري يدور حول كيفية استخدام التقنيات، بل حول كيفية تنظيمها وضبطها بفعالية. وتدعو الاستراتيجية أيضاً إلى تبني نموذج متعدد الأطراف يجمع بين الحكومات والقطاع الخاص والمجتمع المدني والمؤسسات الأكاديمية، على الرغم من التحديات التي قد يثيرها هذا النموذج فيما يخص توزيع المسؤوليات.
يشير خبراء، استناداً إلى ما نشرته مجلة Harvard Business Review الصادرة عن كلية إدارة الأعمال في جامعة هارفارد والمتخصصة في الإدارة والاستراتيجيات المؤسسية، إلى أن النموذج متعدد الأطراف قد يؤدي إلى تشتت المسؤولية. في المقابل، يظل القرار الطبي في جوهره مسؤولية فردية واضحة، لا سيما في مراحل التشخيص والتدخل العلاجي الحساسة. هنا يبرز التباين الجوهري بين طبيعة الخوارزميات التي تميل إلى توزيع القرار، والممارسة الطبية التي تستلزم تحمل النتائج بشكل مباشر وفردي.
كشفت دراسات نشرتها مجلة The Lancet Digital Health الطبية العالمية أن الذكاء الاصطناعي يمتلك قدرة فائقة على تحليل البيانات الطبية بدقة عالية، وقد يتفوق في أداء بعض المهام المحددة. ومع ذلك، لا يعني هذا امتلاكه فهماً كاملاً للسياق السريري للمريض. تعتمد هذه الأنظمة بشكل أساسي على البيانات دون استيعاب شامل للتجربة الإنسانية للمريض، مما يؤكد ضرورة التمييز الواضح بين القدرة الحسابية البحتة والفهم الطبي المتكامل الذي يتطلبه الرعاية الصحية.
لا تزال هناك تساؤلات أساسية مطروحة بوضوح، منها كيفية تحديد المسؤولية في حال حدوث خطأ، وآلية إيقاف الأنظمة الذكية عند انحرافها عن المسار الصحيح، وكذلك الحالات التي يجب أن يمتنع فيها الذكاء الاصطناعي عن تقديم أي توصيات. هذه التساؤلات وردت في دراسات نشرتها مجلة Nature Machine Intelligence المتخصصة في أبحاث الذكاء الاصطناعي. وفي هذا السياق، يبرز مفهوم "الصمت الخوارزمي"، الذي يدعو إلى ضرورة توقف الأنظمة عن العمل عندما تتجاوز البيانات المتاحة حدود الموثوقية المطلوبة.
تُظهر بيانات الاتحاد الدولي للاتصالات (ITU) أن حوالي 30 بالمئة فقط من سكان العالم يمتلكون البنية التحتية الرقمية الضرورية لتطبيق تقنيات الصحة الذكية، مما يثير تساؤلات جدية حول العدالة الرقمية. وتحذر هذه البيانات من أن التوسع في استخدام الذكاء الاصطناعي قد يؤدي إلى تعميق الفجوة القائمة بين الأنظمة الصحية المتقدمة وتلك التي تعاني من محدودية الإمكانات.
تشير دراسات نشرتها مجلة The BMJ الطبية إلى أن القرار الطبي لا يتوافق دائماً مع المفهوم النظري للعدالة، حيث قد يجد الطبيب نفسه مضطراً لاتخاذ قرارات سريعة بناءً على ظروف فردية خاصة بكل مريض. في المقابل، تعتمد الخوارزميات على تحليل الأنماط العامة للبيانات، مما يسلط الضوء على الفارق الجوهري بين القرار الإحصائي القائم على البيانات والقرار الإنساني الذي يأخذ في الاعتبار السياقات الفردية المعقدة.
تُشير تحليلات نشرتها مجلة Fast Company المتخصصة في التكنولوجيا والابتكار والأعمال إلى أن الذكاء الاصطناعي، على الرغم من أهميته البالغة، لا يمكن أن يحل محل الحكم البشري بشكل كامل، نظراً لارتباط القرار الطبي بعوامل إنسانية معقدة ومتشابكة. ويؤكد الخبراء أن التحدي الحقيقي لا يقتصر على تطوير التقنيات المتقدمة، بل يمتد ليشمل تحديد الأطر والمرجعيات الأخلاقية التي يجب أن تحكم استخدامها.
تستند ملامح الاستراتيجية الجديدة لمنظمة الصحة العالمية إلى قرار الجمعية العامة للصحة العالمية الصادر في أيار 2025، مع بدء المشاورات العالمية في نيسان 2026. تركز هذه الاستراتيجية على محاور رئيسية تشمل حوكمة البيانات، والاستخدام الأخلاقي للذكاء الاصطناعي، وبناء بنية رقمية متكاملة، وتعزيز التعاون الدولي. وتهدف هذه الجهود مجتمعة إلى المساهمة في بناء أنظمة صحية تتسم بمزيد من الكفاءة والعدالة والاستدامة على مستوى العالم.
اقتصاد
علوم وتكنلوجيا
تكنولوجيا
علوم وتكنلوجيا