*محمد معاذ
زميل غوغل
باحث في مجال الذكاء الاصطناعي
البريد الإلكتروني: mohamadmaaz1991@gmail.com
الملخّص
يسجّل الذكاء الاصطناعي عددًا من النجاحات والاختراقات العلمية في الكثير من المجالات. ولكن إلى جانب الآمال والوعود المرتبطة، هناك عددٌ من التحديات وأوجه القصور التي تعيب هذه التقنية. بدايةً من المفاهيم غير الصحيحة والمبالَغ فيها حول قدراته، وصولًا إلى القيود التقنية في تطويره واستخدامه. تهدف هذه الورقة البحثية إلى تقديم نظرة عامة على أبرز التحديات الحالية التي يتعيّن أن تواجهها مراكز الأبحاث والتطوير في مجال الذكاء الاصطناعي والتعلّم الآلي.
- المقدمة
هناك مجموعة من المهارات قد اكتسبتها أنظمة الذكاء الاصطناعي في السنوات الأخيرة. يبدأ هذا بالقدرة على "النظر" عبر الجدران لتحديد موقع الأجسام، وتحديد حركة ووضعية الأشخاص1. وتُظهِر أبحاث أخرى أنّ تقنيات التعلّم الآلي يمكن استخدامها لإعداد نوعٍ من التواصل الدماغي (Brain – Brain) والتي يمكن من خلالها نقل الأفكار البسيطة2. كما يمكن استخدامها لأغراضٍ أخرى مثل قراءة الشفاه، أو التعرّف على تعابير الوجه التي تكشف عن العواطف الخفية3. كما يتمّ الاستعانة بالتعلّم الآلي لهزيمة البشر في الألعاب المعقّدة كما حصل مع بطل العالم في الشطرنج "غاري كاسباروف"4. ويمكن إضافة العديد من الأمثلة الأخرى التي تظهر القدرات التي يتمتع بها الذكاء الاصطناعي.
وبين الحين والآخر، تغري قدرات الذكاء الاصطناعي، وسائل الإعلام لإنتاج عناوين إخبارية مثيرة، ولكن مع مرور الوقت برزت فجوة يمكن ملاحظتها بين الكيفية التي تصوّر بها وسائل الإعلام هذه التقنية، وبين كيف ينظر الباحثون إليها. فمن ناحية، يتمّ تصوير الأفكار حول الفرص والمخاطر والقدرات وحتى التهديدات بطريقةٍ مختلفة، ولا علاقة لها بالظروف الفنية الواقعية. ومن ناحيةٍ أخرى، فإنّ بعض الخطاب العلمي يميل أحيانًا إلى تقديم وعودٍ مبالَغٍ فيها فيما يتّصل بإمكانيات وقدرات هذه التقنية. وفي هذا السياق، أصبحت رسالة"Deep Mind" الرائدة في مجال الذكاء الاصطناعي والتي تتبع "غوغل"، معروفة جدًا في الوسط التقني، وهي تتكوّن من خطوتين بسيطتين هما "الحلّ الذكي" و "استخدام هذا الحل لحلّ كلّ شيء آخر"5. ولكن يكمن وراء هذا الاعتبار الافتراض بإمكانية إيجاد حل تقني للمشاكل الاجتماعية مثلًا، ما يدلّ على أنه قد يتمّ التعامل مع المشكلات الإجتماعية بنظرةٍ تقنية بدلًا من السعي إلى إيجاد حلولٍ اجتماعية حقيقية لهذه المشكلات6. وصحيح، أنه يمكن للحلول التقنية التقليدية للمشكلات الاجتماعية، مثل كاميرات المراقبة، وبرامج التشفير وما إلى ذلك من تقنيات، أن تكون قادرة على التخفيف من أعراض المشاكل الاجتماعية وبالتالي تخفيفها، لكن نفترض أنها لا تستطيع حلّها.
ومن الممكن افتراض الشيء نفسه على أنظمة الذكاء الاصطناعي. ففي الوقت الراهن، لا يبدو واضحًا قدرة هذه الأنظمة على تحقيق وتعزيز الصالح العام على نطاقٍ واسع رغم بعض الإنجازات التي يجري تسجيلها7. وعليه، فهذه الورقة البحثية تقدّم نظرةً عامة على حدود الذكاء الاصطناعي وتحلّل التحديات التي تواجه هذه التقنية. وتجدر الإشارة إلى أنّ بعضها يجري بالفعل استعراضه بشكلٍ مكثّف في الأوساط العلمية والأكاديمية إلّا أنّ البعض الآخر فبالكاد يتمّ ذكره.
- تحديات منهجية
2.1 التحدي الأول: عدم توافق البيانات المستخدمة في أنظمة الذكاء الاصطناعي مع الواقع
بين جمع البيانات والمخرجات المتأتّية من البرامج الذكية (Outputs)، هناك العديد من عمليات الترجمة التي يتم فيها تجميع البيانات ومعالجتها وإجراء العمليات الحسابية وعرض النتائج بصريًا. وفي سياق عمليات الترجمة المعقدة هذه، يتم إنشاء البنية التكنولوجية للواقع والتي يمكن أن تتناقض مع واقع الأفراد أو المجموعات.
إنّ جمع البيانات وحده ينطوي دائمًا على الاختيار بين العوامل التي يتمّ قياسها، وتلك التي يجري تجاهلها8. وبالتالي، لا يتمّ استخدام البيانات الشخصية إلّا لبناء الخصائص والاهتمامات وغيرها، لدى الشخص المعني. ويتمّ تقسيم الأفراد بناءً على تدفّقات بيانات مختلفة. وبعد ذلك وباستخدام تصنيفات وفئات مختلفة تتم إعادة بناء "شخصية رقمية"، أي تكوين ملف تعريف افتراضي لشخص معين9. وبهذه الطريقة يكون للبيانات تأثير فاعل10. لكن هذا يحمل في طياته ثغرات، ذلك أنه ينطوي على خطر أن تؤدي عمليات جمع ومعالجة البيانات إلى بناء شخصية افتراضية "مجزّأة" أو "مشوّهة" أو "غير صحيحة" من جوانب معينة، ما قد يتناقض بشكلٍ واضح مع صورة هوية الشخص الحقيقي11. خصوصًا أنّ البيانات الشخصية عادةً تكون ناتجة من سياق منصات التواصل الاجتماعي، التي غالباً ما تتّسم بتمثيلٍ غير دقيق أو ضعيف نسبيًا12. كما يمكن أن تكون مجموعات البيانات متحيّزة، حيث قد يتمّ تزييف البيانات بسبب أخطاء الجهاز أو بواسطة حسابات وهمية أو برامج روبوت إلخ… والنتيجة في هذه الحالة ستكون بيانات مجتزأة ومشوّهة يتم جمعها ومعالجتها ودمجها في أنظمة التعلّم الآلي. وعليه، فإنّ أحد التحديات التي تواجه أنظمة الذكاء الاصطناعي هي النتائج المنبثقة عن هذه البيانات ما يمكن أن يتناقض تمامًا مع معطيات الواقع، وهذا شيء نادر ما يفكر فيه الناس13.
- تحديات إجتماعية
3.1 التحدي الثاني: الحاجة لمعرفة بالتبعات التكنولوجية
غالبًا ما يقوم مهندسو البرمجيات بتطوير حلولٍ لمختلف المجالات، والتي قد تؤثر في كثيرٍ من الأحيان على عددٍ كبير من الأشخاص. ولكن في الوقت نفسه، لا يتمتّع هؤلاء المهندسون عادةً إلّا بخلفيةٍ علمية في علوم الحاسوب فقط وليس في العلوم الأخرى14. ويمكن أن يؤدي ذلك إلى الوقوع في مواقف لا يكون لدى مهندسي البرمجيات خلفية كافية عنها، سواء كانت اجتماعية أو نفسية أو أخلاقية أو حتى سياسية. وبالتالي لن يستطيعوا فهم التفاعلات والسياقات في المجالات التي سيتمّ فيها تطبيق التكنولوجيا15. لذلك، فغالبًا ما يؤدي ذلك إلى نقاطٍ عمياء أو سوء فهم لحالات معينة.كما أنّه في مرحلة تطبيق التقنيات الرقمية، قد تحدث عواقب غير مرغوب بها أو مخطّط لها، وهذا ينطبق على مجال تطوير التكنولوجيا بصفةٍ عامة16. وبما أنّ الباحثين في مجال الذكاء الاصطناعي يطورون تطبيقات ليتمّ تنفيذها في مجالات مختلفة من الحياة، فإنهم يحتاجون إلى فهمٍ منهجي للمجتمعات، والعلاقات الإنسانية، وكذلك الأخلاقية. طبعاً لا ننفي أنّ المجتمعات العلمية التقنية تستحقّ التقدير، لكن ينبغي إيلاء الاعتراف بأهمية تقاطع علم الحاسوب مع العلوم الأخرى، وتشجيع مشاريع البحوث متعددة التخصصات17.
3.2 التحدي الثالث: انعكاس القيم المتضمنة في تقنيات الذكاء الاصطناعي
تجلب تطبيقات الذكاء الاصطناعي نوايا مطوّريها إلى حيّز الوجود بشكلٍ أو بآخر. ويتمّ توجيه تلك النوايا بافتراضات وأهداف القيمة الذاتية لهؤلاء المطورين. وهذه بدورها مرتبطة بثقافاتهم وظروف التنشئة الاجتماعية وما إلى ذلك. ونظرًا لأن مجالات الحياة الاجتماعية قد تؤثر على تطبيقات الذكاء الاصطناعي فهذا أيضًا قد ينقل المشكلات الاجتماعية بشكلٍ متزايد إلى وظائف تلك التقنية. وبعد ذلك تتحول هذه الاعتبارات إلى تساؤلاتٍ تتعلّق بتصاميم الخوارزميات وطبيعتها على مستويات عدة مثل الإنصاف، أو العدالة، أو الشفافية، أو التحيّز. وتكمن المشكلة في أنّ الحديث عن بناء خوارزميات عادلة وغير تمييزية، يصرف الانتباه عن حقيقة مفادها أنّ الخوارزميات ليست هي المثال التوجيهي الفعلي للسياقات الاجتماعية، بل الموجهون هم مهندسو البرمجيات المسؤولين عن كتابة وتكويد لغة البرامج (Software Coding). ولكن ليست فقط الافتراضات والقيم التي يقوم بها مهندسو البرمجيات هي التي تشكل تصميم التكنولوجيات، بل أيضاً هناك عامل البيئة، وحيثما يتمّ وضع بيانات التدريب، يجري دمج الافتراضات الثقافية لهؤلاء لأشخاص الذين يقومون بوضع هذه البيانات18 .علاوةً على ذلك، فإنّ العديد من عمليات البحث والتطوير في تطبيقات الذكاء الاصطناعي لا تعني فقط حساب الصيغ المجردة، بل تتعلّق بافتراضات القيمة الذاتية عند الاختيار لبيانات التدريب أو لمجموعات البيانات قبل المعالجة واختيار نماذج معينة أو تفسير النتائج19.
3.3 التحدي الرابع: نقص التنوع في مجال بحوث وصناعة الذكاء الاصطناعي
تسود حالة من نقص التنوّع في مجال البحث والتطوير في هذا الحقل التقني، وكذلك في ثقافات مكان العمل التي تشكل صناعة الذكاء الاصطناعي20. وحالياً، فإن 80% من العاملين في المجال من أساتذة في جامعات العالم الرائدة مثل "ستانفورد" أو "أكسفورد" أو "بيركلي" وغيرها، هم من فئة الذكور. وفي الولايات المتحدة على سبيل المثال، يشكّل الرجال أكثر من 70% من المتقدمين لوظائف الذكاء الاصطناعي21. وفي الولايات المتحدة هناك 14% فقط من الموظفين من ذوي البشرة الداكنة أو ذوي الأصول الأسبانية على الرغم من أنهم يمثلون 27% من إجمالي عدد السكان في البلاد22. ويقدم المكتب الإحصائي في ألمانيا بيانات إضافية تؤكّد هذا النوع من التفاوت، حيث تبلغ نسبة النساء بين طلاب علوم الحاسوب في السنة الأولى حوالي 20% فقط23. ما يؤكد الحاجة إلى زيادة عاجلة في نسبة مطوري البرمجيات من الإناث، من أجل تمثيل مصالحهنّ وقيمهنّ بشكلٍ أفضل في مجتمعات الذكاء الاصطناعي وتقليل فجوة النقص.
3.4 التحدي الخامس: محدودية الكفاءات التكنولوجية
إنّ الأشخاص القادرين على البحث وتطوير تطبيقات الذكاء الاصطناعي نادرون في الوقت الحالي مقارنةً مع مجالات أخرى. ذلك أنّ هذه العمليات لا تتمّ عن طريق استخدام برنامج معين بحدّ ذاته، بل ينبغي تكييف البرامج الذكية مع مجموعة بياناتٍ محددة يتمّ جمعها واستخدامها في سياقٍ معيّن. ومن أجل تنفيذ عملية التكيّف هذه، يلزم توافر مهارات ومواهب معينة لا يمتلكها سوى عدد قليل نسبياً من الناس حول العالم24. ولعلّ هذا النقص يفسّر لماذا تتنافس الشركات والجامعات لتوظيف الخبراء في مجال الذكاء الاصطناعي والتعلّم الآلي. وفي النهاية ترتبط الإمكانيات التقنية التي يمكن تحقيقها في هذا المجال بكمية رأس المال البشري الذي يمكن استثماره في تطوير هذه البرمجيات25.
3.5 التحدي السادس: نجاح التطبيقات مرتبط بمدى قبولها في المجتمع
من بين أوجه القصور الأخرى التي تحدّ من نطاق القدرات التي يمكن أن تغطيها تطبيقات الذكاء الاصطناعي، هو مدى القبول الاجتماعي. فمثلاً هناك برامج يمكنها اكتشاف بعض الأمراض بشكل قد يكون أفضل من الأطباء إلا أنّ الكثيرين من المرضى يفضّلون في أكثر الحالات التشخيص الذي يقوم به الأطباء البشر26. ويأتي هذا، في ظل وجود روبوتات تتحرك بطريقةٍ مشابهة للإنسان وقادرة على أداء سلسلة من الإجراءات المعقدة مثل روبوت "دافنشي" الجراحي، لكن يبقى هناك أناس لا يرغبون في رؤية أمور تؤدّيها هذه الآلات. ولإعطاء مثال آخر، وعلى الرغم أنّه من الممكن السماح للأشخاص الذين تمّ جمع الكثير من بياناتهم الشخصية ليتم تشكيل تجسيدات رقمية على شكل روبوت محادثة (Chabot) أو شخصية رقمية متحركة ثلاثية الأبعاد بعد وفاتهم27 كما هو الحال مع تطبيق "Replika". إلا أنّ هناك العديد منهم يرفضون فكرة التفاعل بعد الوفاة مع هذه الصور الرمزية الرقمية أو يجدونها غريبة28. بعبارةٍ آخر، لن تسود تطبيقات الذكاء الاصطناعي إلا إذا تمّ استخدامها لأغراض تكون مقبولة اجتماعيًا. وفي المواضع التي لن يقبل فيها الأشخاص الطبيعيين هذه الأنظمة، نفترض أنه لن يكون هناك مزيد من التطوير، كما لن تنجح الأنظمة الذكية في المواقف التي يمكن أن تحدث فيها تفاعلات حادة قد لا تؤخذ فيها الفروق العاطفية والتعاطف والحساسيات الشخصية بعين الاعتبار.
3.6 التحدي السابع: الأنظمة لا تعمل بدون تكاليف غير ظاهرة
الذكاء الاصطناعي ليس مجرد تقنية، بل يعمل أيضًا كفكرة ذات شخصية "أسطورية" متكاملة29. وترتبط هذه الفكرة بمفهوم زيادة الأتمتة للإجراءات والعمليات الأكثر تعقيدًا. ومع ذلك، لا ينحصر عمل الأنظمة الذكية في الواقع بعمل مطوري التكنولوجيا الذين يتقاضون أجوراً عاليةً في شركات التكنولوجيا والجامعات بل يرتبط أيضًا بعدد من التكاليف المستترة. فمثلًا لا بدّ من جمع البيانات التي تعد الركيزة الأساسية، وهذا يحتاج إلى مجموعات عمل قد لا تكون مرتبطة بشركات الذكاء الصناعي، وعادةً ما يقوم بذلك العمال ذوو الأجور المنخفضة في الصين وبنغلادش ونيبال والهند ودول نامية أخرى30. ثمّ إن التكاليف الخفية لا تقتصر على رأس المال البشري فحسب، بل هناك أمور أخرى، إذ تتطلّب الأنظمة توافر أجهزةٍ بمواصفات معينة قادرة على تشغيلها، وعليه يجب تصنيع هذه الأجهزة بطريقة أو بأخرى من مواد أولية وأيضاً تزويدها بالطاقة والحفاظ عليها31. وكل هذه التكاليف الخفية هي ما تكون "ثمن" الذكاء الاصطناعي.
3.7 التحدي الثامن: بنى تحتية غير مستقرة ومتطلّبات مادية عالية
في الوقت الراهن، ينشأ اتجاه نحو تجهيز المزيد من الأجهزة التي تشكّل "إنترنت الأشياء" ببرامج ذكية، فهناك السيارات والطائرات والسفن وإشارات الطرق وأنظمة الأسلحة والأقمار الصناعية والمستشفيات ومحطات الطاقة والآلات الزراعية وغيرها الكثير والذي بات ينتمي إلى شبكة "انترنت الأشياء". ومع ذلك، فإنّ توافر عوامل مثل السرية والنزاهة المطلوبة حيال البيانات التي يتم معالجتها ليست مضمونة، بل على العكس من ذلك، غالبًا ما تكون هذه الأنظمة عرضة للهجمات الإلكترونية32. وهناك إشكال حقيقي في هذا الإطار يتمثل في إنشاء أنظمة أكثر تعقيدًا وأمانًا من جهة، والحدّ من التعقيد من جهة ثانية.
ومن أجل بناء التعقيد التكنولوجي والحفاظ على أمانه، يلزم توفير عدد من المتطلّبات المادية. ومن الواضح أنّ المتطلبات الأساسية لتحقيق نظم ذكية تكلفتها عالية جدًا، فهناك حاجة لاستقدام المواد الخام من أجل إنتاج أجهزة حاسوبية، ومطلوب أيضاً إمدادات مستمرة من الطاقة لعددٍ لا يحصى من الحواسيب، وكذلك توافر شبكات إلكترونية تربط بين هذه الحواسيب؛ ولا بدّ أن يكون هناك أساس لكمياتٍ كبيرة من البيانات التي يمكن الاستعانة بها لتدريب الخوارزميات، والتي يفترض بدورها تشغيل الملايين من أجهزة الاستشعار (المجسّات) من أجل انترنت الأشياء33. وبالتالي، هناك عدد من الشروط الأساسية فيما يتعلق بالبنية التحتية المستقرة بحيث يمكن تطوير وتشغيل أنظمة الذكاء الاصطناعي بالشكل المطلوب. ونظرًا للتطورات السياسية والإيكولوجية الحالية حول العالم، ليس هناك ما يضمن أنّ هذه البنية التحتية ستحافظ على الاستقرار في المستقبل .
- تحديات تقنية
4.1 التحدي التاسع: التفكير البشري مختلف تمامًا عن الآلات الذكية
رغم أنه تجري المقاربة بين الدماغ والآلة، إلّا أنّ الشبكات العصبية الحالية التي يمكن أن تكون الأكثر تطوراً في بناء الآلات الذكية لا تمثّل سوى شيء بسيط جدًا من أنسجة المخ البشري. وإذا كان الدماغ البيولوجي هو الهيكل الذي يتمّ من خلاله تعريف الذكاء، فإن الذكاء الاصطناعي لا يزال في بداياته.
وعند الكتابة عن الذكاء الاصطناعي، كثيرًا ما يُقال إن الأجهزة الحاسوبية عبارة عن "آلات تفكير" قادرة على "فهم الأشياء وتعلّمها". وفي كثيرٍ من الأحيان، يتمّ رسم القياس وفق الدماغ البشري، أو يقف المخ كرمزٍ للذكاء الاصطناعي. لكن في الواقع، تختلف الأساليب الإحصائية للتعلّم الآلي بطرقٍ عديدة عن المفاهيم البيولوجية للتفكير أو الفهم أو التعلّم. وفي سبعينيات القرن العشرين اعترض الفيلسوف الأميركي "هوبرت دريفاك" في كتابه الكلاسيكي "What Computers Can’t Do؟" أي (ما الذي لا تستطيع أجهزة الحاسوب فعله) في سبعينيات القرن الماضي، على افتراضٍ مفاده أنّ الدماغ ممكن معالجته وفقًا لقواعد، ومن ثمّ يمكن إعادة استنساخه عن طريق محاكاة الحاسوب34. وقد لاقت اعتباراته صدًى حتى يومنا هذا. لذلك، فعند الحديث عن برامج "التعرّف على الوجوه" على سبيل المثال، سيكون من الأدقّ القول إنها "عملية ضبط لمجموعة من قيم البكسل (Pixels) المرتبطة في كثيرٍ من الأحيان بوجود الوجوه في بيانات التدريب التي تم جمعها سابقاً، ذلك لأنّ أجهزة الحاسوب لا تتعرّف أو تدرك أو تعلم أساساً ما هو الوجه35. ومن المهم أن نذكر أنّ هناك مقترحات بشأن كيفية تحقيق تقارب أكبر بين التفكير والتعلّم بين البشر والآلة. وقد اقترح باحثون ثلاث خطوات لنهج يشمل كلا العنصرين:
- أولاً: لا بدّ من تحويل التركيز بعيدًا عن تطوير أساليب التعرف على الأنماط، والاتجاه نحو التركيز على العلاقات السببية.
- ثانياً: يجب العمل على تعليم الآلات السمات الأساسية للنظريات الفيزيائية والنفسية حتى يتسنّى إثراء المعرفة المولّدة بخلفية معرفية مناسبة، وبنفس الطريقة التي لا يدرك بها الناس ببساطة البيانات الحسيّة البسيطة، ولكنهم يفسرونها دائمًا، ولذلك ينبغي أن لا تقوم الأجهزة الذكية بمعالجة أجزاء البيانات المجرّدة فحسب بل أيضًا الكشف عن السياقات الشاملة للمعنى.
- ثالثاً: ينبغي للآلات تعلّم كيف تتعلّم بحيث يمكن تطبيق المعرفة بشكلٍ أسرع وأكثر دقة على المواقف والمهام الجديدة36.
فضلًا عن ذلك، هناك بعض الاختلافات الأخرى بين القدرات العقلية للإنسان والقدرات "المعرفية" لأجهزة الحاسوب. ذلك أنّه رغم التطورات السريعة في مجال الذكاء الاصطناعي ، يتفوق البشر حتى الآن على هذه اللأجهزة، في مهام مثل تعلّم اللغة، الإبداع، الحدس، التعرّف البصري على السياقات المعقدة وغير ذلك. وفي حين أنّ الناس يتشابهون في عمليات التعلم بفهمٍ أساسي لمفاهيم عامة مثل الفضاء، أو الوقت، أو العدد، أو ديمومة الأشياء أو السببية… فإنّ أجهزة الحواسيب لا تمتلك هذه المعرفة الأساسية ويجب تنفيذها ميكانيكيًّا من خلال البرمجة المناسبة37.
4.2 التحدي العاشر: العديد من خوارزميات التعلّم لا تتّسم بالمرونة في وظائفها
قبل استخدام التطبيقات الذكية، لا بدّ أولًا من تدريب الخوارزميات الأساسية. ومع ذلك، تؤدي عملية التدريب مع مجموعات البيانات الممثّلة إلى تخصّص خوارزميات التعلّم تلك. وهذا يعني أنه بمجرد تغيير اللون، أو تغيير قاعدة في لعبة ما، أو حذف الأحرف في النصوص سيؤدي إلى معالجة غير صحيحة للآلة38. ولكن بالنسبة للبشر فإنّ التكيّف مع مثل هذه التغييرات سيكون سهلاً للغاية. وصحيحٌ، أنه يمكن للبرمجيات التي يتمّ تدريبها، عبر اعتماد التكرار الكافي للعبة من تطوير قدراتها وهزيمة خصومها المحترفين من البشر39. لكن تطبيقات التعلّم الآلي ما تزال محصورة في تلقّي مدخلات محددة للغاية، كما أنها تحتاج إلى تحقيق أهدافٍ تكون محددة أيضًا. وبينما يستطيع اللاعبون من البشر التكيّف بمرونة مع الاختلافات في اللعبة، أو دخول قواعد جديدة وذلك في غضون فترةٍ زمنية قصيرة للغاية، تحتاج أجهزة الحاسوب إلى مراحل التدريب الخاصة بها، وهذا ما يكون نتيجته إنفاق وقت وموارد مختلفة40. وحقيقة أن اللاعبين البشريين هم أكثر مرونةً، فيمكن تفسيرها أنه لديهم بعض المعرفة السابقة الواقعية عن العلاقات السببية، والهندسة وما إلى ذلك، في حين أنّ خوارزمية التعلّم في كثير من الحالات تبدأ عملية التعلّم من الصفر41.
4.3 التحدي الحادي عشر: قيود تصنيف البيانات على أنظمة الذكاء الاصطناعي
إنّ أحد المجالات التي يتم فيها الإشادة بإمكانيات أنظمة الذكاء الاصطناعي على وجه الخصوص هو مجال التعرّف على الصور. وبناءً على المراجعات الأدبية، فالأبحاث التي توضح كيف تتفوق أدوات التعرّف على الصور على المشغّلين من البشر، كما الحال في مجال الأشعة مثلًا، تولّد باستمرار الانطباع بوجود قدرات بصرية "خارقة" للحواسيب42. لكن المشكلات والإمكانات اللازمة للتحسين هي أيضاً موضع إدراك الباحثين وهذا ما تؤكده المعطيات، عندما يتم اكتشاف أنّ الصور التي تدور فيها الأجسام بطريقةٍ غير معتادة، قد أسيء تصنيف بياناتها43. أو أنّ برامج التعرّف على الوجه التي تمّ إنشاؤها أقل قدرة من التعرّف على النساء ذوي البشرة الداكنة بالمقارنة مع ذوي البشرة الفاتحة44. وفي هذه الحالات، فإنّ الأمر يتعلّق عادةً بتحسين مجموعات بيانات التدريب المتحيّزة حتىى يصبح بالإمكان التعويض عن العجز في تدريب البيانات وتصنيفها. والحقيقة هو أنّ التعلّم الآلي يفشل تمامًا عندما يتعلّق الأمر بالتعرّف على العناصر الموجودة في الصور الغير واضحة المعالم. ورغم أنّ البشر قادرون على إدراك الخفايا الجمالية، أو الشذوذ، أو السياق التاريخي وحتى السياسي للصور، وذلك بسبب خلفية معارفهم الثقافية، فإنّ برامج التعرّف على الصور تخفق في حالاتٍ مشابهة، لأنه يتعذر الحصول على عددٍ كاف من تصنيفات الصور للتدريب45. بالإضافة إلى ذلك، تختلف الطريقة التي يتمّ بها إدراك الأشياء أو الأبعاد المعروضة في الصور وفقًا للخلفية الثقافية أو الاجتماعية للمشاهد. وبالتالي، ستظل هناك قيود قائمة دائمًا، فيما يتعلّق ببرنامج التعرف على الصور وتصنيف بياناتها.
4.4 التحدي الثاني عشر: إشكالية الذكاء الاصطناعي مع الاستثناءات
هي قضية أخرى تضاف إلى تحديات الذكاء الاصطناعي. وعلى سبيل المثال يعمل برنامج التعرّف على الصور على الوجه المحدَّد بشكلٍ جيد، ولكن تكمن إشكالية فيما يتعلّق بالصور التي تحوي على عناصر زخرفية. حيث لا يمكن لهذه الصور أن يتمّ تضمينها في مجموعات بيانات التدريب. و في هذا الإطار، يمكن العثور على العديد من الأمثلة، والتي يصف فيها برنامج التعرّف على الصور عناصر خاطئة. ومعظم هذا النوع من الصور تشترك في كونها تصوّر مشاهد غير مألوفة، ولا يمكن فهم معانيها أو جمالياتها أو آثارها، إلّا من خلال خلفية ثقافية معينة. وعليه، فإنّ معرفة السياقات المعقّدة حول الظروف الثقافية، النفسية، وحتى الاقتصادية ليست متوفرة حتى الآن في برامج الذكاء الاصطناعي. ونذكر مثال آخر وهو حالة الأوهام البصرية في الصور46. وهذا أيضاً لا يمكن لأجهزة الحاسوب التعرّف عليه وخاصةً أنها عاجزة عن إنشاء هذه الأوهام في الصور واستخدامها. ورغم أنه لا توجد مشكلة في توليد الوجوه الاصطناعية، أو مقاطع الفيديو، أو الكلام وغيرها… إلا أن الحواسيب تفشل في توليد أوهام بصرية اصطناعية. والسبب وراء هذا، هو أن الأجهزة ببساطة لا "ترى"، فالنظر إلى البشر يختلف اختلافًا جوهريًا عن الطريقة التي تعمل بها الرؤية الحاسوبية.
4.5 التحدي الثالث عشر: بناء تطبيقات آمنة يكاد يكون مستحيلًا
حتى الآن، ليس من الممكن العثور على جميع الشوائب (Bugs) في رموز البرمجة، سواء كان ذلك بمساعدة البشر أو عبر الوسائل التكنولوجية. وهذا يعني أنّ تقنيات الذكاء الاصطناعي ستكون عرضة لأشكالٍ معينة من الهجمات الحاسوبية بطريقةٍ أو بأخرى. فمن ناحية يتم استخدام التطبيقات الذكية نفسها بشكلٍ متزايد لمنع الهجمات واكتشافها واتخاذ اجراءاتٍ دفاعية تحول دون وقوعها. ومن الأمثلة على ذلك نذكر برنامج "Watson for Cyber Security" الذي يتبع شركة "IBM" أو "For-tiguard Artificial Intelligence" من شركة "Fortinet" ومن ناحيةٍ أخرى، يمكن أن تعمل ذات التقنية على تحليل وكشف طرق الدفاع السيبراني وحتى الالتفاف عليها.
لكن، وبمعزلٍ عن سباق التسلح الذي نشهده في مجال أمن تكنولوجيا المعلومات بين الدول، فإنّ التطبيقات القائمة على الذكاء الاصطناعي لها نقاط ضعف مختلفة في حد ذاتها47. ويمكن أن تنطوي نقاط الضعف هذه، على مخاطر جسيمة، ومن الأمثلة على ذلك، نذكر حالات هجمات "تسميم" البيانات حيث يتم تخريب بيانات التدريب للخوارزميات48. وهناك أيضاً قيام المهاجمين بوضع مدخلاتٍ بيانية زائفة قد تؤدي إلى الإساءة49. كما أنه من الممكن خداع برامج معالجة النصوص عن طريق إضافة مقتطفات نصية صغيرة إلى النصوص50. وبالتالي، يؤدي هذا التلاعب البسيط إلى "فهم" خاطئ تمامًا للنصوص. والشيء نفسه ينطبق على أنظمة التعرّف على الصوت أو الوجه أو الصورة، حيث أنّ التعديلات الطفيفة لملفات الصوت أو الصور تؤدي إلى تفسيرات خاطئة تمامًا. كما أنّ هناك تهديد آخر يتمثّل في سرقة النماذج لإعادة بناء أساليب التعلم الآلي المستخدَمة بالفعل، وذلك من أجل التلاعب بالنظام فيما بعد51. باختصار، لا يستطيع الذكاء الاصطناعي جعل العالم أكثر أمانًا فيما يتعلّق بأمن المعلومات ومنع وقوع هجماتٍ إلكترونية.
- الخاتمة
على الرغم من الدعاية و الضجيج حول قدرات الذكاء الاصطناعي في الخطاب العام الذي نشهده حاليًّا، لكن هناك العديد من الجوانب التي لا تستطيع هذه التقنية تحقيقها في الوقت الراهن. فأولًا، تنشأ أوجه القصور عن التناقضات بين الاعتبارات المعرفية والإمكانات المعلَنة لأساليب معالجة البيانات. وثانيًا، تنشأ عن السياقات الاجتماعية التي تشكّل البحث والتطوير لهذه التقنية. وثالثًا، هناك أوجه القصور التقنية. ورغم أن العديد من القيود التقنية نفترض أنه سيتمّ التغلّب عليها في المستقبل، لكن أوجه القصور الأخرى ستظلّ قائمة بصرف النظر عن عمليات التطوير.
المصادر:
- Zhao M, Li T, Alsheikh MA, et aI (2018). Through wall human pose estimation using radio signals. In: Computer vision and pattern recognition (CVPR). Available from: https://bit.ly/3bGsTOl
- Jiang L, Stocco A, Losey DM, et aI (2018). BrainNet: a multiperson brain to brain interface for direct collaboration between brains. Available from: https://go.nature.com/38LMxXh
- Shillingford B, Assael Y, Hoffman MW, et aI (2018). Large scale visual speech recognition. Available from: https://arxiv.org/abs/1807.05162
- Silver D, Schrittwieser J, Simonyan K, et aI (2017). Mastering the game of go without human knowledge. Available from: https://bit.ly/3suq1d8
- Simonite, T. (2016) How google plans to solve artificial intelligence. Available from: https://bit.ly/2KjsaqW
- Belliger A, Krieger DJ. (2018). Network public governance: on privacy and the informational self. Available from: https://bit.ly/3nNrmIz
- Elish MC, Boyd D. (2017). Situating methods in the magic of big data and AI.Available from: https://bit.ly/3nQL06m
- Gitelman L, Jackson V. (2013). Introduction. In: Gitelman L (ed) “Raw Data” is an oxymoron. Available from: https://bit.ly/35LXmGW
- Roe, D. (2020). The Role of AI in Ensuring Data Privacy. Available from: https://bit.ly/3bLGmUP
- Raley, R. (2013). “Raw Data” is an oxymoron. The MIT Press, Cambridge. Available from: https://bit.ly/39A9aNu
- Los, M. (2006). Looking into the future: surveillance, globalization and the totalitarian potential. In: Lyon D (Ed) Theorizing surveillance: the panopticon and beyond. Available from: https://bit.ly/2LUN14i
- Boyd D, Crawford K. (2012). Critical questions for big data: provocations for a cultural, technological, and scholarly phenomenon. Available from: https://bit.ly/2LGzJIR
- Rouvroy, A. (2013). The end(s) of critique: data behaviourism versus due process. Available from: https://bit.ly/3nXrd5D
- Burton E, Goldsmith J, Koening S, et aI. (2017). Ethical considerations in artificial intelligence courses. Available from: https://bit.ly/2N1M6zy
- Goldsmith J, Burton E. (2017). Why teaching ethics to AI practitioners is important. Available from: https://bit.ly/38KOrYa
- Hyysalo S. (2016). Representations of use and practice bound imaginaries in automating the safety of the elderly. Available from: https://bit.ly/39vd0r2
- Campolo A, Sanfilippo M, Whittaker M, et aI. (2017). AI now 2017 report. Available from: https://bit.ly/3sD6jMH
- Kitchin R. (2014).Thinking critically about and researching algorithms. Available from: https://stanford.io/3oQ3562
- Gebru T, Morgenstern J, Vecchione B, et aI. (2018). Datasheets for datasets. Available from: https://arxiv.org/abs/1803.09010
- Whittaker M, Crawford K, Dobbe R, et aI. (2018). AI now report 2018. Available from: https://bit.ly/3ifi0Eo
- Shoham Y, Perrault R, Brynjolfsson E, et aI. (2018). the AI Index 2018 Annual Report. Available from: https://bit.ly/2XKGQ5x
- Khan B, Gawalt JR, Cook FL. (2016). Science & engineering indicators. National Science Foundation. Available from: https://bit.ly/3sD7hbN
- Lundberg S, Stearns J. (2018). Women in Economics: Stalled Progress. IZA Institute of Labor Economics. Available from: http://ftp.iza.org/dp11974.pdf
- Markow W, Braganza S, Taska B, et aI. (2017).The quant crunch: how the demand for data science skills is disrupting the job market. Available from: https://bit.ly/2XKyvyP
- Metz C. (2017). Tech giants are paying huge salaries for scarce A.I. talent. Available from: https://nyti.ms/39GsIQg
- Litjens GJS, Barentsz JO, Karssemeijer N, et aI. (2015). Clinical evaluation of a computer-aided diagnosis system for determining cancer aggressiveness in prostate MRI. Available from: https://bit.ly/2XHO8XQ
- Humphries, C. (2018). Digital immortality: how your life’s data means a version of you could live forever. Available from: https://bit.ly/38OphYP
- Öhman C, Floridi L. (2018). An ethical framework for the digital after life industry. Available from: https://bit.ly/3bKoqu0
- Emmert-Streib F, Yli-Harja O, Dehmer M. (2020). Artificial Intelligence: A Clarification of Misconceptions, Myths and Desired Status. Available at: https://bit.ly/2XRHzBP
- Casilli, A. (2017). Digital labor studies go global: toward a digital decolonial turn. Available from: https://bit.ly/3oTzEAa
- Crawford K, Joler V. (2018). Anatomy of an AI system. Available from: https://anatomyof.ai/
- Schneier, B. (2018). Click here to kill everybody. Available from: https://bit.ly/35LoG8l
- Steffen W, Rockström J, Richardson K, et aI. (2018). Trajectories of the earth system in the anthropocene. Available from: https://www.pnas.org/content/115/33/8252
- Dreyfus, H. (1972).what computers can’t do: a critique of artificial reason? Available from: https://bit.ly/38Qp6fe
- Advani, V. (2020). What is Artificial Intelligence? How does AI work, Types and Future of it. Available from: https://bit.ly/3svxJUr
- Lake B, Ullman T, Tenenbaum J, et aI. (2016). Build-ing machines that learn and think like people. Available from: https://arxiv.org/abs/1604.00289
- Jkjdskdjsdkx
- Kansky K, Silver D, Mély D, et aI. (2017). Schema networks: zero shot transfer with a generative causal model of intuitive physics. Available from: https://arxiv.org/abs/1706.04317
- Mnih V, Kavukcuoglu K, Silver D, et aI. (2015). Human level control through deep reinforcement learning. Available from: https://bit.ly/39AgDfu
- Domingos P. (2012). A Few useful things to know about machine learning. Available from: https://bit.ly/38KW40K
- إم آي تي تكنولوجي ريفيو (2020). ما هو التعلّم العميق؟ متاح في : https://bit.ly/2LGDoX4
- Alcorn M, Li Q, Gong Z, et aI. (2018). Strike (with) a pose: neural networks are easily fooled by strange poses of familiar objects.Available from: www.arxiv.org/abs/1811.11553
- Buolamwini J, Gebru T. (2018). Gender shades: intersectional accuracy disparities in commercial gender classification. Available from: https://bit.ly/2XHRBWm
- Marcus G. (2018). Deep learning: a critical appraisal. Available from: https://arxiv.org/abs/1801.00631
- Williams R, Yampolskiy R. (2018). Optical illusions images dataset. Available from: https://arxiv.org/abs/1810.00415
- Jagielski M, Oprea A, Biggio B, et aI. (2018). Manipulating machine learning: poisoning attacks and counter measures for regression learning.Available at: https://arxiv.org/abs/1804.00308
- Goodfellow I, McDaniel P, Papernot N. (2018). Making machine learning robust against adversarial inputs. Available from: https://bit.ly/3sy2YOA
- إم آي تي تكنولوجي ريفيو (2018). الذكاء الاصطناعي للأمن السيبراني.. الجديد المثير والمقامرة الخطيرة. متاح في: https://bit.ly/35MPu7V
- Goswami G, Ratha N, Agarwal A, et aI. (2018). Unravelling robustness of deep learning based face recognition against adversarial attacks. Available from: https://arxiv.org/abs/1803.00401
- Tramér F, Zhang F, Juels A, et aI. (2016). Stealing machine learning models via prediction APIs. In: Proceedings of the 25th USENIX security symposium, Austin. Available from: https://bit.ly/2LZGAwL
- Brundage M, Avin S, Clark J, et aI. (2018). the malicious use of artificial intelligence: forecasting, prevention, and mitigation. Available from: https://arxiv.org/abs/1802.07228
محمد معاذ*
زميل غوغل وباحث في مجال الذكاء الاصطناعي. كاتب تقني. يرتكز عمله المهني على توفير المهارات الإستراتيجية لدعم وفهم تقنية الذكاء الاصطناعي في المنطقة العربية. أنجز العديد من الدراسات والمقالات العلمية في الذكاء الاصطناعي، وتركّز أبحاثه على التأثير الحقيقي لهذه التقنية في مختلف المجالات.
يسعدنا أن تشاركونا أرائكم وتعليقاتكم حول هذهِ المقالة عبر التعليقات المباشرة بالأسفل
أو عبر وسائل التواصل الإجتماعي الخاصة بالمنظمة