أصبح الذكاء الاصطناعي أداة قوية في الصحة العامة، إذ يوفر قدرات جديدة في التصوير التشخيصي، والتنبؤ بتفشي الأمراض، ودعم اتخاذ القرارات السريرية، والتدخلات الصحية عبر الهواتف المحمولة.
خصوصًا في البلدان التي تعاني من أنظمة صحية مثقلة، يُنظر إلى الذكاء الاصطناعي كوسيلة لتحقيق المزيد بموارد محدودة.
ووفق خبراء يعملون في تقاطع الذكاء الاصطناعي، والصحة العامة، والبحوث التي تركز على الإنسان، فإن العوائق الرئيسة أمام نشر الذكاء الاصطناعي بشكل فعال ليست تقنية، بل أخلاقية.
وبحسب تقرير نشرته صحيفة “Business Day”، فإنه رغم التقدم السريع في دقة النماذج والأداء الحسابي، أصبح من الواضح أن الأدوات الذكية التي تفشل في بناء الثقة بين المستخدمين في النهاية لا تنجح في تحقيق الاعتماد الفعلي، ولن يتم استخدامها بشكل فعال أو مستمر في الواقع العملي.
التحيز في الخوارزميات
ووجد الخبراء أنه بينما تتركز الجهود عادة على تحسين الخوارزميات، يتم إيلاء اهتمام غير كافٍ للأسئلة المتعلقة بالعدالة والشمولية والتصميم الأخلاقي.
ونتيجة لذلك، يحذر الخبراء من احتمالية فشل الذكاء الاصطناعي في الرعاية الصحية، ليس بسبب وجود خلل في التعليمات البرمجية، بل بسبب إهمال الحاجة الماسة للثقة.
ووفق الصحيفة، فمن أكثر القضايا الأخلاقية إلحاحًا هي التحيز في أنظمة الذكاء الاصطناعي، إذ يشير المحللون إلى أن التحيز ليس مجرد منتج جانبي غير مرغوب فيه من التعلم الآلي، بل هو انعكاس لعدم المساواة النظامية المعززة على نطاق واسع.
وشددت على خطورة هذا الأمر خصوصًا في الرعاية الصحية، بحيث يمكن أن تؤدي الخوارزميات المنحازة إلى التشخيصات الخاطئة، والعلاجات غير المناسبة، وتدهور النتائج.
ومن العوامل الرئيسة التي تسهم في ذلك، نقص مجموعات البيانات المتنوعة، فالنماذج التي يتم تدريبها بشكل رئيس على بيانات من سكان غربيين غالبًا ما يكون أداؤها ضعيفًا في مناطق مثل نيجيريا والهند وأمريكا الجنوبية الريفية.
التفاعل مع المستخدمين
كما أظهرت الدراسات الحديثة التي تقيّم تطبيقات الصحة المحمولة، مثل تلك الخاصة بإدارة مرض السكري، أن التقنيات المبنية على افتراضات حول مستويات القراءة والكتابة، واستخدام الهواتف الذكية، والمعتقدات الصحية غالبًا ما تفشل في التفاعل مع المستخدمين المستهدفين.
ولاحظ الباحثون أن المشكلة لم تكن في القيود التكنولوجية، بل في الفشل بعكس الواقع الذي يعيشه المستخدمون المتنوعون.
ويحذر الخبراء من أنه عندما يتم تضمين التحيز في البيانات، يمكن لأنظمة الذكاء الاصطناعي أن تعزز التفاوتات الصحية الموجودة وتزيد من فقدان الثقة، خاصة في المجتمعات التي تشكك بالفعل في الرعاية الصحية المؤسسية.
علاوة على ذلك، أصبحت مشكلة القابلية للتفسير، التي يشار إليها غالبًا بمشكلة “الصندوق الأسود”، عائقًا كبيرًا، إذ تقدم العديد من أنظمة الذكاء الاصطناعي تنبؤات دون تقديم تبرير شفاف، وهو التنازل الذي قد يقبله علماء البيانات، لكنه غير مقبول في الممارسة السريرية.
ووفق الصحيفة، يرجع ذلك إلى أن المرضى والأطباء يجب أن يتمكنوا من فهم سبب تقديم توصية معينة، خاصة عندما تؤثر القرارات مباشرة في حياتهم، ودون تفسيرات واضحة، يخاطر الذكاء الاصطناعي بعزل الأشخاص الذين يهدف إلى دعمهم.
تعزيز الشفافية
ولمعالجة هذه القضايا، يدعو الخبراء إلى إعادة تفكير شاملة في كيفية تصميم ونشر أنظمة الذكاء الاصطناعي في الرعاية الصحية.
ويوصي الخبراء بإنشاء فرق تطوير متنوعة تضم ليس فقط المهندسين، ولكن أيضًا المرضى والممرضين والأطباء، وخبراء الصحة العامة، والأخلاقيات.
كما يجب أن يكون بناء القابلية للتفسير جزءًا من دورة حياة النموذج، مع اختبار الأدوات التي توضح كيفية اتخاذ القرارات جنبًا إلى جنب مع معايير الدقة.
بالإضافة إلى ذلك، يجب أن تُعامل المراجعات الأخلاقية بنفس جدية المراجعات التقنية، إذ تم اقتراح تشكيل لجان أخلاقية مستقلة، وتقارير شفافية، ولجان استشارية مجتمعية كآليات لضمان مسؤولية أنظمة الذكاء الاصطناعي.
وفي سياقات الصحة العالمية، يولي الخبراء أهمية كبيرة لتصميم حلول الذكاء الاصطناعي بالتعاون مع المجتمعات التي تهدف إلى مساعدتها، باستخدام أساليب التصميم التشاركي وتكييف التقنيات لتتناسب مع القيم المحلية والقيود.
في النهاية، ستعتمد نجاحات الذكاء الاصطناعي في الصحة العامة على الابتكار التقني، وأيضًا على كسب ثقة المجتمعات التي يسعى لخدمتها.
ويدعو الباحثون إلى توسيع معايير التقييم لتشمل العدالة، والاحترام، والشفافية، إلى جانب الدقة.
ووفقًا للخبراء، فإن هذا التحول ليس مجرد ضرورة تقنية، بل هو التزام أخلاقي، إذ سيعتمد نجاح الذكاء الاصطناعي في الصحة على قدرته على توفير العدالة والاحترام للمستخدمين من خلال تصميم يتسم بالشفافية والمساواة، وفق ما أوردته الصحيفة.
بين الأخلاق والتقنية.. لماذا قد يفشل الذكاء الاصطناعي في الصحة العامة؟ .