للبحث الدقيق يمكنك استخدام البحث المتقدم أدناه

يعتمد البحث السريع على الكلمات الموجودة داخل عنوان المادة فقط، أما البحث المتقدم فيكون في كافة الحقول المذكورة أعلاه

الذكاء الاصطناعي في الرعاية الصحية : الإعتبارات الأخلاقية

  • الكاتب : محمد معاذ

    زميل سياسات غوغل وباحث وكاتب تقني في مجال الذكاء الاصطناعي – لبنان

  • ما تقييمك؟

    • ( 5 / 5 )

  • الوقت

    10:16 م

  • تاريخ النشر

    27 أكتوبر 2020

الملخّص

يعدّ مصطلح الذكاء الاصطناعي من المصطلحات إثارةً للجدل حول العالم، لا سيّما من حيث القضايا الأخلاقية في مهنة الطب. ويستعين العاملون في الرعاية الصحية بهذه التقنية في تنفيذ المهام على اختلافها. ترسم هذه الورقة البحثية مناقشةً في بعض الاعتبارات الأخلاقية والقيَمية ذات الصّلة بالذكاء الاصطناعي في الطب.

  1. المقدمة

هناك نوعان من الذكاء الاصطناعي في مجال الرعاية الصحية. النوع الأول هو عبارة عن أدوات إلكترونية يستخدمها العاملون في القطاع الصحي لمساعدتهم على تأدية مهامهم. أمّا النوع الثاني، فهو كيان مستقلّ يعمل إلى حدّ كبير مثل البشر، باستثناء أنه ليس بيولوجيًا بل إلكترونيًّا بطبيعته.

 ويأتي النوع الأول بأشكالٍ مختلفة، دعونا نطلق عليه اسم "الذكاء الاصطناعي المحدود" أو غير الكامل. ويأتي بعضها تشخيصي بطبيعته، مثل تلك المستخدمة في تحديد مرض السرطان، وتحليل صور الأشعة، والتعرّف على الالتهابات البكتيرية... وبشكلٍ عام، فهذا النوع من الذكاء الاصطناعي لديه القدرة على تصنيف الخيارات المتاحة للتعامل مع الحالة وتحديد رتبتها، حيث يتمّ تحديد ما يشكّل نتيجة، من خلال بنية "القيمة" التي تمّت برمجته عليها1. كما يستخدم أيضًا في تطوير بروتوكولات العلاج، وكذلك مراقبة المرضى في المستشفيات ورعايتهم. ويندرج تحت هذا النوع أيضًا المدربون الافتراضيون للصحة الشخصية، حيث يمكن للمرضى الوصول إليهم عبر جهاز لوحي أو من خلال جهاز تلفزيون بالمستشفى للتفاعل معهم بلغة طبيعية2. ومن الأمثلة على ذلك، "ICare Navigator" الذي يعتمد على السجلّات الطبية الإلكترونية للمريض، ويرتكز على تقنية التعلّم الآلي لبناء علاقةٍ شخصية مع المريض، وتحديد متى يكون أكثر تقبّلًا لمعرفة الحالة الصحية أو الطريقة الأفضل لإدارة الرعاية. كذلك يندرج تحت هذا النوع ما هو مصمَّمٌ لمسح مجموعات البيانات الضخمة من أجل تحديد الأنماط والاتجاهات والروابط، وهو ما يفيد بشكلٍ خاص في سياقات البحث وتخطيط الرعاية الصحية وما إلى ذلك. حتى أنه يمكنه إجراء تدخّلات طبية مثل الجراحة3. وتسمح كل البرامج التي تتمّ فيها كتابة هذا النوع بتحسين أدائها، كلما توفّر المزيد من البيانات لتغذيته، بحيث تصبح استنتاجاته أكثر دقّة، وكل هذا يعمل تحت إشرافٍ بشري4.

أمّا النوع الثاني من الذكاء الاصطناعي، فهو ما أسماه عالم الفيزياء البريطاني "ستيفن هوكينج" بـ "الذكاء الاصطناعي الكامل"، ويختلف اختلافًا جوهريًا عن النوع الأوّل، فهو جهازٌ إلكتروني مستقلّ بذاته، لا يقوم فقط بما يمكن أن يفعله الذكاء الاصطناعي المحدود، بل يمكنه أيضًا العمل بمفرده، تمامًا مثل "هال" (HAL) في الفيلم الأميركي "أوديسة الفضاء: 2001" الذي تمّ إنتاجه عام 19685. بعبارةٍ أخرى، إنه معادِل وظيفي لمتخصّص بشري في مجال الصحة، حيث يكون على درايةٍ بالمرضى، ويقيّم حالتهم الصحية باستخدام الأدوات المتاحة، ويتوصّل إلى التشخيص الطبي، ويقترح خيارات العلاج الممكنة للمرضى. وبطبيعة الحال، لا يتعلّم من أخطائه فحسب، بل يغيّر إطاره التقييمي أيضًا نتيجة البيانات الجديدة المتأتّية ونتائج أفعاله السابقة. كما أن لديه إرادة مستقلّة قائمة على مفهوم القيمة التي تسمح له بالاختيار من بين الأدوات الممكنة، لتقييم خيارات العلاج وتقديمها للمرضى بناءً على نظم القيمة بدلاً من اتباع تعليمات مبرمجة بحتة. إلّا أنّ مثل هذا الذكاء الاصطناعي الكامل غير متوفّر حتى الآن، ولكن هناك إمكانية في تطوير هذا النوع من الأنظمة بمجرد أن تصبح الحوسبة الكمومية أكثر نضجًا في المستقبل6.

  1. الإعتبارات الأخلاقية

تتداخل القضايا الأخلاقية التي تنشأ مع كلا النوعين من أنظمة الذكاء الاصطناعي إلى حدّ ما؛ ولكنّها تختلف في نواحٍ مهمة. وتركز القضايا ذات البعد الأخلاقي التي تنشأ مع الذكاء الاصطناعي المحدود على مصمميه ومستخدميه، وليس على الأنظمة نفسها. ففي نهاية المطاف، هي مجرّد أدوات، ولا يستطيع المرء أن ينسب الخصائص الأخلاقية للأدوات نفسها، لأنها ليست أشخاصًا. وهذا هو وجه الاختلاف مع أنظمة الذكاء الاصطناعي الكاملة، على اعتبار أنها أنظمة مستقلّة، والقضايا التي تنشأ نتيجتها هي قضايا مرتبطة بالعملاء من البشر. ولوضع هذا في السياق، قد يكون من المفيد النظر إلى السبب وراء ذلك.
 

2.1 العلاقة بين الطبيب والمريض

في سياق الرعاية الصحية العمليّة، يدخل الأطباء في علاقةٍ بين الطبيب والمريض عندما يتفاعلون مع مرضاهم7. وتتّسم هذه العلاقة بطبيعةٍ ائتمانية ذات ثقة من الناحية الأخلاقية، حيث يمكن للمرضى أن يكونوا واثقين من أن الأطباء سيعملون دائمًا في مصلحة المرضى 8. ونظرًا لأنّ الذكاء الاصطناعي الكامل سيعمل مستقبلًا كالأطباء، فهذا يعني أنه سيخضع لذات الاعتبارات الأخلاقية التي يواجهها الأطباء البشر، وسيتمّ قياس العلاقة مع المرضى وفق المعايير ذاتها. ولن يتعيّن فقط التأكّد من أنّ مؤهلات الأنظمة الذكية، كانت مناسبة للتعامل مع الحالات التي تواجهها، بل سيكون عليها أيضًا أن تكون قادرةً على طلب المشورة، عندما يتمّ تجاوز هذه المؤهلات أو عند وجود شكوكٍ في التشخيص، وكذلك قابلية إجراء الإحالات عند الاقتضاء9. والأهمّ من ذلك - من الناحية الأخلاقية - أن يكون الذكاء الاصطناعي قادرًا على ضمان قضايا السرية والخصوصية وغيرها. بعبارةٍ أخرى، لن يكون من الضروري أن تتمكّن الأنظمة من معالجة المسائل الطبية المرتبطة بالمرضى فحسب، بل سيكون عليها التعامل أيضًا مع مسائل أخلاقية وقانونية، والقدرة على معالجتها بطريقةٍ مناسبة. ولأنّ العلاقة الائتمانية بين الطبيب والمريض تتطلّب أن يتصرّف الأطباء البشر دائمًا بما يخدم مصلحة مرضاهم، ينبغي على أنظمة الذكاء الاصطناعي الكاملة أيضًا أن تكون قادرةً على تحديد ما يصبّ  في مصلحة المرضى، بمعزلٍ عن أساس القيم المبرمجة عليها سابقًا من منظورٍ طبيّ محض، بل  على أساس معرفة ما هي قيم واحتياجات المرضى الفعليّة 10.

وفي المقابل، لا يعني هذا أنّ مشكلاتٍ مماثلة لن تنشأ مع أنظمة الذكاء الاصطناعي المحدود. ولكن، نظرًا لأنها مجرد أدوات، فإنّ أيّ مشكلات قد تظهر في حالة هذا النوع، ستواجه أيّ مستخدِمٍ للأداة: هل هي الأداة التقنية المناسبة لاستخدامها؟ هل تمّ التحقق من صحتها؟ هل هي دقيقة بما فيه الكفاية؟ هل يلبّي استخدامها القيود الأخلاقية التي تحكم إجراءات المستخدم؟ وكلّ هذه الإشكاليات لن يتمّ معالجتها من خلال تعزيز التعلّم الذاتي لهذا النوع من الذكاء الاصطناعي، أو تزايد دقّة وموثوقية هذه الأنظمة، حتى لو تفوّقت على المستخدمين البشريين في هذا الصدد11. وبالتالي فهذه قضايا أخلاقية تقع على عاتق الأطباء الذين يستخدمونها، وليس على أنظمة الذكاء الاصطناعي نفسها.
 

2.2 القضايا القيَمية

ترتبط ارتباطًا وثيقًا بالقضايا الأخلاقية التي تنشأ على مستوى أعلى من التصميم. ويتمّ تضمينها قضايا مثل نوع البيانات التي سيتمّ الاعتراف بها من قبل نظام الذكاء الاصطناعي، والوزن الذي سيُعطى للبيانات من حيث النظريات العلمية الحالية. كل هذا مكتوب في "منطق" الذكاء الاصطناعي المحدود، وهو يشكّل تحيزًا قيَميًّا لا يمكن تجاوزه بواسطة النظام نفسه. لذلك، إذا كان التصميم غير مكتمل أو معيب بطريقةٍ أخرى، فقد يؤدي ذلك إلى تشخيصٍ مشكوكٍ فيه، أو توصيات متحيّزة أو إجراءات غير ملائمة. وخير مثالٍ على ذلك كانت كارثة طائرة "بوينغ 737 ماكس" حيث جرى إدخال تغييرات "عدوانية وأكثر خطورة"  على نظام ذكيّ معني بالسلامة، وكانت هذه التغييرات أحد أسباب تحطّم الطائرة العام الماضي ومثلها كان في عام 201812. ويعمل النظام بالطريقة التي تمّ تصميمه بها، إلّا أن المشكلة تكمن في منطق التصميم نفسه. ولم يكن العبء الأخلاقي يرفَق بالبرنامج، بل بالمصممين وأولئك الذين يضعونه في الإطار العام الذي يستخدم فيه. وبالمثل ستنشأ المشكلة العامة المتعلّقة بالتحيّز القيَمي والقضايا ذات الصلة مع أنظمة الذكاء الاصطناعي الكاملة، بل إنّ الأمر يحصل أيضاً مع الأطباء البشرييين الذين يطوّرون ويكتسبون منظورًا معينًا للأمور، بسبب تدريبهم وخبرتهم. ومع ذلك، يتمتّع الأطباء البشريون بالقدرة على الفحص الذاتي، ومن المفترض أن يزوّدهم التدريب بالأدوات اللازمة لفعل ذلك، حتى يتسنّى لهم أن يقرروا متى يتخلوا عن القيم التي درسوها وأن يحترموا مثل هذه القضايا. لذلك، من المتوقّع أن تتمتع أنظمة الذكاء الاصطناعي الكاملة بقدرةٍ مماثلة، وبالتالي يجب تصميمها على أعلى مستوى حتى تتمكن من إجراء فحص ذاتي مشابه، وأن تكيّف نفسها تمامًا مثل الأطباء البشر في مثل هذه القضايا القيَمية13. وهنا، لا يقتصر ذلك على المسائل الفنية فحسب، بل إنها تشتمل أيضًا القضايا الأخلاقية والقانونية.
 

  1. الخاتمة

بالمحصّلة، وفيما يتعلّق بالسؤال العام حول ما إذا كان - من الناحية الأخلاقية - استخدام الذكاء الاصطناعي في الممارسة الفعلية، فإن الإجابة واضحة: كل ذلك يعتمد على كيف نقرّر استخدامه. إنّ الذكاء الاصطناعي الموجود حاليًا هو عبارة عن أدوات، ويكمن السؤال حول مدى الملاءمة الأخلاقية لاستخدامها. أما بالنسبة للذكاء الاصطناعي الكامل - إذا توفّر ومتى ما أصبح متاحًا - فهذه مسألة أخرى. ولكن بالتأكيد، سيكون للذكاء الاصطناعي القدرة على إحداث تغييرات في مجال الطبّ، إلّا أنها تبقى مرهونة بمدى الالتزام بالأخلاق لا سيّما في قطاعٍ حسّاس وحيوي هو الرعاية الصحية.


المراجع

  1. Kaplan, A., & Haenlein, M. (2019). Siri, Siri, in my hand: Who’s the fairest in the land? On the interpretations, illustrations, and implications of artificial intelligence. Available from: https://doi.org/10.1016/j.bushor.2018.08.004  
  2. Abbott, M.B., & Shaw, P. (2016). Virtual Nursing Avatars: Nurse Roles and Evolving Concepts of Care. Available from: https://doi.org/10.3912/ojin.vol21no03ppt39,05
  3. Aruni, G., Amit, G., & Dasgupta, P. (2018). New surgical robots on the horizon and the potential role of artificial intelligence. Available from https://doi.org/10.4111/icu.2018.59.4.221
  4. Mirnezami, R., & Ahmed, A.M. (2018). Surgery 3.0, artificial intelligence and the next-generation surgeon. Available from: https://bit.ly/2TbtD3i
  5. Hawking, S. Brief Answers to the Big Questions.
  6. مرصد المستقبل. ما هي الحوسبة الكمومية؟  متاح في : https://bit.ly/3m4F3Ct
  7. Brody, H. The physician patient relationship. In: Veatch, RM, ed. Medical Ethics. Available from: https://bit.ly/2TaEOJS
  8. Veatch, R. (1972). Models for ethical medicine in a revolutionary age. What physician-patient roles foster the most ethical relationship? Available from: https://pubmed.ncbi.nlm.nih.gov/4679693/
  9. Loh, E. (2018). Medicine and the rise of the robots: a qualitative review of recent advances of artificial intelligence in health. Available from: https://bmjleader.bmj.com/content/2/2/59
  10. Weng, S., Reps, J., Kai, J., Garibaldi, J., & Qureshi, N. (2017). Can machine-learning improve cardiovascular risk prediction using routine clinical data? Available from: https://bit.ly/2HfUskD 
  11.  Esteva, A., Kuprel, B., Novoa, R., KO, J., Swetter, S., Blau, H., & Thrun, S. (2017). Dermatologist-level classification of skin cancer with deep neural networks. Available from: https://www.nature.com/articles/nature21056
  12.  Jack N., Natalie, K., David G., and James, G. (2019).Boeing Built Deadly Assumptions into 737 Max, Blind to a Late Design Change. Available from: https://nyti.ms/3jfbegw
  13. Heever, P.V. (2005). Pleading the defense of therapeutic privilege. Available at: https://pubmed.ncbi.nlm.nih.gov/16100889/

     

     

  • عن الكاتب "محمد معاذ":
    زميل غوغل وباحث في مجال الذكاء الاصطناعي. كاتب تقني. يرتكز عمله المهني على توفير المهارات الإستراتيجية لدعم وفهم تقنية الذكاء الاصطناعي في المنطقة العربية. أنجز العديد من الدراسات والمقالات العلمية في الذكاء الاصطناعي، وتركّز أبحاثه على التأثير الحقيقي لهذه التقنية في مختلف المجالات.
     

البريد الإلكتروني للكاتب: mohamadmaaz1991@gmail.com

مواضيع ذات علاقة

0 التعليقات

أضف تعليقك