يعمل الذكاء الاصطناعي على إحداث نقلةٍ في مجال الرعاية الصحية، إلّا أن ذلك يطرح تحدياتٍ تتمثّل في دمجه على نحوٍ مسؤول. وتتمتّع هذه التقنية بالقدرة على زيادة كفاءة التشخيص، وعلاج المرضى، وحتّى خفض تكلفة الرعاية، بيد أنّ الاستفادة من هذه الفوائد تتطلّب الالتفات للمخاطر الأخلاقية التي تثيرها. في هذه الورقة البحثية سأحاول تسليط الضوء على التحديات الأخلاقية للذكاء الاصطناعي في الرعاية الصحية، وأفترض أنّه من أجل الوصول للاستفادة القصوى التي تُفضي إلى تحسين صحّة المرضى، نحن بحاجةٍ لتماهي هذه التقنية مع المبادئ الأخلاقية للطب. ومن الممكن حصْر التحديات الأخلاقية ضمن المبادئ الأخلاقية الأربعة التي يشيع الالتزام بها في الطب: احترام الاستقلالية، الإحسان، عدم الإضرار، والعدالة [1]. ومن شأن النظر بعنايةٍ للآثار المترتّبة على هذه المبادئ أن يسمح لنا بتبيان فوائد الذكاء الاصطناعي في الرعاية الصحية بشكلٍ أعمق.
احترام الاستقلالية
يستلزم مبدأ احترام الاستقلالية تمكين المرضى من اتّخاذ قراراتهم الخاصة بشأن التدخّلات الطبية التي قد يتلقّونها. ويعكس ممارسو الرعاية الصحية التزامهم بذلك من خلال مساعدة المرضى على اتّخاذ قراراتٍ مستنيرة وهذا ما يُعرف بعملية "الموافقة المستنيرة" (Informed Consent). وقبل القيام بأيّ اختبارٍ أو تقديم علاج، ينبغي على الكادر الطبي استحصال إذن المريض (المؤهّل) وذلك بشكلٍ إراديّ، وإخباره بكلّ فوائد ومخاطر الإجراء الطبي [2]. ومن خلال تبادل تلك المعلومات، وإشراك المرضى في عملية صنع القرار المشترك، يقوم الكادر بتوجيه المرضى للقرارات التي تتوافق مع أهدافهم وقيَمهم. غير أنّه مع دمج نظم الذكاء الاصطناعي في الرعاية الصحية، تنشأ تساؤلات حول ضرورة إبلاغ المرضى باستخدام هذه التقنية في توجيه عملية اتخاذ القرارات الطبية، وإذا ما كان ذلك يتطلّب موافقتهم أم لا.
إنّ "الموافقة المستنيرة" في سياق الذكاء الاصطناعي تطرح تحدياتٍ عملية مرتبطة بإمكانية الشرح للمرضى، حيث يمكن أن تكون المخرَجات المستمدة من النظم أمر يصعب تفسيره [3]. وعلى سبيل المثال، عند نشر خوارزمية مدرَّبة على كشف الخلايا السرطانية، قد يكون الأطباء غير قادرين على تحديد السمات التي تعتمدها هذه الخوارزمية لاكتشاف الخلايا الخبيثة. وفي حين قد يكون هناك محدودية في المعلومات حول كيفية اشتقاق مخرجات الذكاء الاصطناعي، إلّا أنّ هناك سمات مهمة ينبغي مشاركتها مع المرضى في معظم الحالات. إنّ تفاصيل مدى حساسية الخوارزمية وتحديدها بالنسبة لبعض المرضى، ومعدّل الخطأ فيها، وكيفية مقارنة دقّة الخوارزمية بقرارات الأطباء، والضمانات الموضوعة لكشف الأخطاء والحؤول دون وقوعها، والعواقب على صحّتهم إذا ما كانت الخوارزمية متحيزة؛ تعدّ أكثر أهمية بالنسبة للمرضى من معرفة كيفية توصّل الخوارزمية إلى قرارها. وفي هذا السياق، أُجريَت دراسة بحثية نُشرَت نتائجها في دورية "نيتشر مديسن" (Nature Medicine) لخوارزمية تستطيع التعرّف على 50 نوعًا مختلفًا من أمراض العين، بنسبةٍ بلغت 94.5% وتضاهي دقّة أطباء العيون، ولم تتخّذ قرارات خاطئة خطيرة سريريًا [4]. إنّ هذا النوع من المعلومات حول أداء الخوارزميات قد يكون مفيدًا في سبيل اتخاذ القرارات في الرعاية الصحية ومن المهمّ مشاركته مع المرضى.
وينبغي أيضًا الكشف عن حدود الخوارزمية للمرضى التي تتعلّم من بيانات التدريب. وعلى للأطباء الحذر من الاعتماد المفرط على توصيات الخوارزميات، كاستقراء فوائد الدواء، حيث لا بدّ من فهم البيانات التي تمّ تدريب الخوارزمية على أساسها، حتى يتمكن الأطباء من التنبّؤ وإبلاغ المرضى إذا كانت النتائج ستكون ذات قيمة لمريضٍ ما [5]. كما سيكون من المفيد تبادل الأدلّة على فاعليّة خوارزمية معينة في التجارب السريرية. إنّ النطاق الكامل لمعرفة فوائد ومخاطر الذكاء الاصطناعي في الرعاية السريرية قد يكون واضحًا ومفيدًا عندما يتم دمج الخوارزميات في البيئات السريرية المعقّدة. وكجزءٍ من عملية الحصول على إذن المرضى قبل أيّ إجراء، لا بدّ للأطباء تزويدهم بمعلوماتٍ عن خصائص وطبيعة بيانات الحالات المرضية التي تمّ على أساسها تطوير الخوارزمية، وتبيان مدى احتمالية أن تكون ضعيفة الأداء على الفئات التي لم يتم اختبارها عليها. وبما أنّ خوارزميات الذكاء الاصطناعي يتمّ توسيعها لتشمل مجموعات سكانية متنوعة بغية تحسين النتائج، نفترض أن تصبح جزءًا من نسيج الرعاية الصحية في المستقبل بحيث لا تتطلّب الموافقة المستنيرة الصريحة.
الإحسان
هو مبدأٌ أساسي من مبادئ الرعاية الصحية. ويترتّب على ممارسي الرعاية واجب أخلاقي للعمل بهذا الاتّجاه، من أجل إفادة المرضى والتصرّف وفق مصلحتهم. وتحمِل العديد من التدخّلات الطبية قدرًا من احتمالية إلحاق الضرر، مما يتطلّب تقييمًا للمخاطر، والموازنة بين الفوائد والأضرار المحتمَلة بالنسبة للمرضى.
إنّ الذكاء الاصطناعي يَعِد بتحسين صحة المرضى وجودة الرعاية. ويجري بالفعل استعماله لتقييم الأعراض، وتقديم التوجيه للمرضى حول ما إذا كان ينبغي عليهم طلب الرعاية في قسم الطوارئ [6]. كما يتمّ دمجه مع الأنظمة التي تقيّم درجة اعتلال الشبكية السكري لدى المرضى [7]، وتحسين اكتشاف حالات سرطان الثدي وإظهار كفاءة في تقليص الأخطاء [8]، ومساعدة الأطباء على تشخيص الحالات المرضية الجلدية [9]. كما سيتيح التعلّم الآلي وهو مجموعة فرعية من الذكاء الاصطناعي بالتعرّف على أنماطٍ في حالات التشخيص المعقّدة، لا يتعرّف عليها حتى أفضل الأطباء إلى جانب أنّه قد يسمح لهم بإفادة المرضى عن طريق صقل بروتوكولات الفحص، والوقاية من أجل تخفيف عبء المرض بشكلٍ كبير عبر الكشف المبكر عن السرطان.
ونظرًا لأنّ أنظمة الرعاية الصحية تدمج الذكاء الاصطناعي في دعم القرارات السريرية، فإنّ الفوائد المحتمَلة للسكان بما فيها تحسين جودة الرعاية، دقة التشخيص، الكفاءة، وتكلفة الرعاية قد تتعارض مع احتمالية إلحاق الضرر بحالاتٍ فردية من المرضى. وقد توصي الخوارزميات بالتدخّل الذي يزيد من الفوائد بشكلٍ عام، لكن ذلك يترافق مع احتمالية توليد ضررٍ لفئةٍ من المرضى الذين يعانون من حالاتٍ قد لا تأخذها الخوارزميات بالحسبان. ولئن كان للذكاء الاصطناعي القدرة على تحسين صحّة السكان، فمن الأهمية بمكانٍ أيضًا النظر في كيفية التخفيف من المخاطر المحتملة على الأفراد والتي لا ينبغي أن تكون أكبر مما قد يُفرض عند عدم استخدام هذه التقنية.
عدم الإضرار
هو المبدأ الثالث ضمن المبادئ الأخلاقية في الطب. وينبغي النظر في فوائد الذكاء الاصطناعي بالرعاية الصحية في سياق احتمال حدوث ضرر. في هذا الشقّ، سأركّز على إمكانية وقوع ذلك انطلاقًا من مفهومَي الخصوصية والأمان:
– الخصوصية
تعتمد العديد من الخوارزميات على كمياتٍ كبيرة من بيانات المرضى الشخصية. ففي الولايات المتحدة على سبيل المثال، يوجّه قانون نقل التأمين الصحي والمسؤولية (HIPAA) استعمال بيانات المرضى والكشف عنها، بهدف حماية معلوماتهم الصحية [10]. وفي أوروبا، تحمي اللائحة العامة لحماية البيانات (GDPR) الصادرة عام 2018 المعلومات الشخصية للمقيمين ضمن دول الاتحاد الأوروبي [11]. وحتّى عربيًا، صدرت العديد من القوانين والتشريعات التي تنصّ على حماية البيانات الشخصية بما فيها الصحية كما هو الحال مع نظام حماية البيانات الشخصية والذي تمّ إقراره عام 2021 في السعودية [12]. وقانون رقم (13) بشأن حماية خصوصية البيانات الشخصية في دولة قطر وما إلى ذلك [13].
وبالعودة للقانون الأميركي "HIPAA" فهو يعدّ ضيّقًا في نطاقه، حيث يغطّي معلوماتٍ صحية معينة يمكن تحديدها، ويتمّ إنشاؤها والاحتفاظ بها من قبل "الكيانات المغطاة" وشركائها في الأعمال. غير أنّ هذا القانون لا ينطبق على البيانات غير المحدَّدة، ولا بدّ لتلك للكيانات أن تحرص على ضمان عدم إمكانية إعادة تركيبها وصياغتها. وبالنسبة للائحة العامة لحماية البيانات (GDPR) فهي تشكّل نظامًا تنظيميًا مختلفًا عن قانون نقل التأمين الصحي والمسؤولية الأميركي، مع متطلّبات لا بدّ من تلبيتها لمعالجة البيانات الشخصية الحسّاسة، بما فيها البيانات الصحية. وعلى سبيل المثال، لا يمكن معالجة البيانات الصحية إلّا في ظروفٍ معينة، مثل تقديم الشخص لموافقةٍ صريحة بهذا الخصوص، أو لأغراض البحث العلمي أو التاريخي أو الإحصائي، وما إلى ذلك. وفي معظم الحالات، يجب على الأفراد الموافقة على جمع بياناتهم واستعمالها في اتّخاذ القرارات الآلية التي قد تؤثر عليهم تأثيرًا كبيرًا. كما يحقّ لهم الحصول على التدخّل البشري عبر الاستعانة بالقضاء والطعن في القرارات الناتجة عن برمجيات الذكاء الاصطناعي وفق ما تنصّ المادة 22 من اللائحة العامة.
وعلى نحوٍ متزايد، يطالب المرضى بقدرٍ أكبر من الشفافية حول ماهية البيانات الصحية الشخصية التي يجري جمعها، أو من يستطيع الوصول إليها، وكيفية استخدامها. من جهةٍ أخرى، يتمّ دمج تطبيقات معالجة اللغة الطبيعية[1] (NLP) في الإعدادات السريرية ورفع اعتبارات الخصوصية. وبينما تحاول نظم الرعاية الصحية تعزيز الكفاءة باستخدام روبوتات المحادثة للتواصل مع المرضى وتحسين الصحة العقلية بهم، يُعرب المرضى عن مخاوفهم بشأن المشاركة الإلكترونية للمعلومات السرية [14].
– الأمان
يحتاج الباحثون بشكلٍ متزايدٍ للتحقّق من صحة الخوارزميات حتّى يتمكنوا من وضع التنبؤات على مختلف المجموعات سكانية. إنّ البيانات المستخدَمة لتدريب أيّ خوارزمية معينة، لها آثار كبيرة على مخرَجات النموذج. ويمكن أن تؤدّي الاختلافات الدقيقة بين البيانات التي يتم الاستعانة بها لتدريب خوارزمية، وبين بيانات العالم الحقيقي التي يتمّ تحصيلها أثناء العلاج السريري بعمليات تنبّؤ خاطئة للخوارزميات من الصعب تحديدها. وعلى سبيل المثال، في الولايات المتحدة ظهر نموذج تنبؤ بالتسمّم الغذائي تمّ وضعه في مئات المستشفيات غير أنّه تمتّع بأداءٍ أسوأ مما أشارت إليه الدراسات الأولية حوله [15]. وأظهرت دراسة أخرى أُجريَت حول تنبؤات الذكاء الاصطناعي بشأن العدوى المكتسَبة من المستشفيات إلى أنّ المتغيرات المرتبطة بالمخاطر في مشفًى معين كانت وقائية في مشفًى آخر [16]. كما وأنّه نتيجةً لاستعمال بياناتٍ مصطنعة (Synthetic Data) غير دقيقة، بدل بيانات المرضى الحقيقية، صدرت توصيات خاطئة عن خوارزمية لعلاج مرض السرطان [17]. مثل هذه الأمثلة تؤكّد على أهمية الاختبار الواسع النطاق للخوارزميات على مختلف مجموعات المرضى واعتماد إجراءاتٍ وقائية، مثل الاستعانة بالذكاء الاصطناعي كعنصرٍ مساعدٍ فقط في اتخاذ القرارات السريرية، إلى حين الوثوق في تنبؤات النموذج. ويمكن أن تشكّل الخوارزميات غير القابلة للتعميم على مختلف الفئات تهديدًا لسلامة المرضى. وعلى غرار التدخلات السريرية الأخرى ينبغي اختبارها على مجموعاتٍ كبيرة من مجموعات المرضى المتنوّعة [18، 19]. لذلك، فالواجب الأخلاقي للطواقم الطبية المتمثّل في عدم إلحاق أيّ ضرر، يتطلّب تطوير وإدماج نظم إدارة نوعية تكون استباقية ومستجيبة بالتوازي مع نشر الذكاء الاصطناعي في الرعاية الصحية.
العدالة
يشكّل وجود التحيّز على أساس العِرق، أو الجنس، أو حالة التأمين وما إلى ذلك، أحد المخاوف الأخلاقية فيما يتعلّق بدمج الذكاء الاصطناعي في الرعاية الصحية [20]. وقد لا يظهر ذلك إلّا عندما يتمّ استعمال الخوارزمية على نطاقٍ واسعٍ يشمل فئاتٍ سكانية مختلفة، ومن نتائج ذلك أنه يؤدي إلى تفاقم التفاوتات الصحية بين المرضى [21]. إنّ المبدأ الأخلاقي للعدالة في الرعاية الصحية يعني تحقيق الإنصاف في توفير الرعاية دون تمييز، وسيكون من الظلم تفضيل فئةٍ ما من المرضى للحصول على التدخّل التشخيصي أو العلاجي وحجبها عن فئاتٍ أخرى تعاني من ذات المرض. وعلى الرغم من أهمية مبدأ العدالة، إلا أنّ التحيز قد تسلّل إلى نماذج للتنبؤ السريري. وفي دراسةٍ بحثية حول استخدام خوارزمية الذكاء الاصطناعي للتنبؤ بالمخاطر وتوجيه قرارات الإحالة إلى برامج إدارة الرعاية عالية المخاطر المستخدمة في الولايات المتحدة، وجد المحققون أنّ المرضى من ذوي البشرة السمراء والذين حدّدتهم الخوارزمية ضمن نفس مستوى الخطر كما المرضى من ذوي البشرة البيضاء كانوا أكثر مرضًا [22]. وقد أدّى هذا التحيّز العرقي لتقليل عدد المرضى من السود الذين تمّ تحديدهم للحصول على رعايةٍ إضافية بأكثر من النصف. وبحسب الدراسة، يُعتقد أنّ هذا الخطأ حدث لأنّ الخوارزمية استخدمت تكاليف الرعاية الصحية كبديلٍ للاحتياجات الصحية، حيث أنه تمّ "إنفاق أموال أقلّ" على المرضى السود مع أنّهم لديهم نفس المستوى من الحاجة للاستشفاء. وعليه، خلُصت الخوارزمية زورًا إلى أنّ المرضى من ذوي البشرة السمراء يتمتّعون بصحةٍ أفضل من المرضى البيض على حدّ سواء. وقد اعتمد نموذج التنبؤ على تكلفة الرعاية كبديلٍ لاحتياجات الرعاية الصحية، ولم يدرك أولئك الذين أنشأوا النموذج أنّ هذا القرار الذي يبدو بسيطًا قد تترتّب عليه عواقب بعيدة المدى على رعاية المرضى. وتُبرز هذه الدراسة الحاجة لضرورة إجراء تقييماتٍ صارمةٍ ودقيقة للنماذج قبل دمجها في الرعاية، وأهمية اتّباع نهجٍ واعٍ اجتماعيًا لتطوير الخوارزميات، بحيث لا يؤدي ذلك إلى زيادة التمييز وعدم الإنصاف.
من العوامل الأخرى التي قد تدفع إلى التحيّز، هناك نقص التمثيل لمختلف الفئات في مجموعات بيانات التدريب المستخدَمة في النماذج والتحقق من دقّتها [23]. وعليه، ففوائد الذكاء الاصطناعي في الرعاية الصحية سوف تتّصف بالمحدودية بفعل ندرة البيانات الغير الممثّلة بشكلٍ كافٍ لأفراد مرضى من مختلف الأعمار، والجنس، والعرق، وغيرها [24]. وفي هذا السياق، يمكن لممارسي الرعاية الصحية مواجهة هذا التحدي عن طريق زيادة الوعي بقيمة مشاركة البيانات لدى الفئات السكانية الأقلّ تمثيلًا، مع إيلاء الأهمية لبناء الثقة مع المرضى حيال ذلك عبر التواصل الشفاف والشامل.
العلاقة بين الطبيب والمريض
ينظر المرضى إلى الأطباء بأنّهم مؤتمَنون على حياتهم. ومع زيادة الاعتماد على مخرَجات الخوارزميات، قد يشعر ممارسو الرعاية الصحية بأنهم أقلّ قدرة على تحدّي قرارات الذكاء الاصطناعي وتأييد مريضٍ معين. كذلك، إنّ تبادل البيانات الطبية دون موافقةٍ صريحةٍ من قِبل المرضى قد يقوّض ثقتهم في ممارسي الرعاية الصحية ومهنة الطب. وقد يعرب المرضى عن قلقهم المفهوم بشأن صعوبة تفسير دور الخوارزميات وتأثيره على قرارات الرعاية الصحية، كما قد يخفّف الأطباء من حدّة هذه المخاوف بشرح كيفية إدماج الذكاء الاصطناعي في عملية صنع قراراتهم وتوصياتهم. إلّا أنّ هناك خطر قد يطفو على السطح، وهو أنّ الاعتماد المفرط على التقنية من شأنه أن يقلّل من المهارات السريرية للكادر الطبي، وأنّ الدفْع المستمر لزيادة الكفاءة سيسمح بمشاركة مخرجات أنظمة الذكاء الاصطناعي بشكلٍ مباشر مع المرضى دون السياق المناسب، والتفسير الذي يوفّره الأطباء عادةً، خصوصًا أنّ المرضى بطبيعتهم يفضلّون تلقي المعلومات السريرية وتوصيات العلاج من أطباء يبدون حالة التعاطف معه [25]. وبالتالي، فلدى الطاقم الطبي دورٌ مهمٌّ في تثقيف المرضى حول فوائد ومخاطر الذكاء الاصطناعي في الرعاية الصحية. وصحيحٌ أنه يمكن لهذه التقنية أن تغير ممارسة الطب بشكلٍ جذري من خلال تطبيقات التشخيص والعلاج وغيرها. لكنّ يكمن التحدّي في مدى إمكانية التوفيق بين دمج الذكاء الاصطناعي مع المبادئ الأخلاقية الأربعة التي ذكرتها أعلاه، وهذا من شأنه أن يسرّع التبني المسؤول للذكاء الاصطناعي في الممارسات السريرية لمهنة الطبّ ككلّ.
– قائمة المراجع تجدونها في ملف PDF المرفق أعلى الصفحة
تواصل مع الكاتب: mohamadmaaz1991@gmail.com
الآراء الواردة في هذا المقال هي آراء المؤلفين وليست، بالضرورة، آراء منظمة المجتمع العلمي العربي.
يسعدنا أن تشاركونا أرائكم وتعليقاتكم حول هذهِ المقالة عبر التعليقات المباشرة بالأسفل أو عبر وسائل التواصل الإجتماعي الخاصة بالمنظمة