لقد خلق تشات جي بي تي (ChatGPT) وهو بوت دردشة مدعوم بالذكاء الاصطناعي، العديد من التساؤلات على الساحتين العلمية والأكاديمية. إذ تعلو أصوات في المجتمع الأكاديمي من أن يكون للإنتاج "الغير بشري" تبعات خطيرة على نزاهة المنشورات العلمية وأصالتها. وقد يؤدي ذلك إلى زيادة الانتحال العلمي، والذي يعدّ في الأساس مرتفعًا حتى قبل ظهور "تشات جي بي تي". وفي هذا السياق، قرّرت مجلات علمية مرموقة مثل "نيتشر" و "جاما" (JAMA Network Science) أنها لن تقبل على الإطلاق أي أوراق أو مقالاتٍ تم إنشاؤها بواسطة تشات جي بي تي، بينما طالب البعض الآخر بوجود كشفٍ مصاحب لاستخدامه في المضمون.
منظمة المجتمع العلمي العربي
وترى مجلة "ساينس" (Science) أنّ أي مخطوطة من إنتاج برنامج ذكاء اصطناعي سيكون "سوء سلوك علمي، لا يختلف عن الانتحال"، وأنّ النشر العلمي يجب أن يظل "مسعى بشري" حصرًا. ولا يقتصر ذلك على المجلات العلمية، بل على الجامعات أيضًا، حيث حظرت جامعة "هونغ كونغ" في فبراير 2023، استخدامه من قبل الطلاب، واعتبرت ذلك يوازي الانتحال.
ولكن هل هذه المخاوف مبرّرة، أم أنها رد فعلٍ مبالغ به؟ يشهد التاريخ على أنه كلّما جرى وضع تصورٍ لتقنية قد تكون مزعزِعة (Disruptive Technology)، كانت هناك مقاومة كبيرة لاعتمادها. فمثلًا، لم يكن اكتشاف المصباح الكهربائي من قبل اديسون موضع ترحيبٍ بل سخرية من قبل لجنة برلمانية بريطانية عام 1878، والتي رأت أنه "لا يستحق اهتمام الرجال العمليين والعلميين". كما أخطأ اللورد كالفن رئيس الجمعية الملكية عام 1883 وهي واحدة من أقدم الهيئات العلميّة في العالم، عندما قال وقتها: "سنثبت أن الأشعة السينية (X ray) هي خدعة". هذه الشواهد التاريخية قد تكون مؤشرًا على أن التاريخ ربما يعيد نفسه.
إنّ مسألة ملكية حقوق الطبع والنشر في المحتوى الذي يتم إنشاؤه بواسطة الذكاء الاصطناعي تعدّ قضية معقدة، وتتطلب دراسة متأنية من قبل الخبراء القانونيين وصانعي السياسات على حدّ سواء. وذلك نظرًا لأن النماذج اللغوية الكبيرة تتزايد قدرتها بشكلٍ ملحوظ، وباتت قادرة على توليد محتوى لا يمكن تمييزه عن الكتابة البشرية. ولذلك، فطرح الملكية الفكرية الناتجة تصبح أكثر إلحاحًا.
وفي مجال البحث العلمي، قد يؤدي التأليف والمساءلة عن المحتوى الناتج عن الذكاء الاصطناعي والقضايا القانونية إلى رياحٍ معاكسة، حيث يفتقر إلى الشفافية وإمكانية التتبّع بشأن مصادر البيانات، وقد يؤدي إلى عدم مراعاة الآثار الأخلاقية مثل حقوق النشر لضمان استخدامها المسؤول والأخلاقي في النشر الأكاديمي. وهنا، تحذّر دراسة علمية نشرت في مارس 2023، أنّ نماذج اللغة التي يحركها الذكاء الاصطناعي مثل تشات جي بي تي، تشكّل تهديدًا كبيرًا لسلامة العلم، حيث يتم تدريب هذه النماذج على كمياتٍ هائلة من البيانات، بشكلٍ أساسي من الإنترنت، مما قد يؤدي إلى تحيّز في البيانات. وفي هذه الحالة، إذا كان مصدر البيانات متحيزًا أو غير مكتمل، فسينعكس هذا التحيّز في مخرجات النموذج. كما أنه أحيانًا تكون طبيعة ردوده مقنعة ولكنها مختلَقة تمامًا وهذا ما يسمّى بهلوسات الذكاء الاصطناعي (AI Hallucination). بمعنى آخر، تشير الهلوسة إلى توليد مخرجات قد تبدو معقولة، لكنها تكون إمّا غير صحيحة في الواقع، أو لا علاقة لها بالسياق المحدد. ومن الأمثلة على ذلك، نذكر أن "تشات جي بي تي" قام بإنتاج مقالات أكاديمية بدون مراجع، وهذا قد يؤدي إلى اضطرابٍ في النشر العلمي والتشكيك في نزاهة ومصداقية البحوث.
ومن أجل معالجة هذه المخاوف، قد يكون من الضروري وضع أطرٍ قانونية ومبادئ توجيهية تراعي التحديات التي يطرحها المحتوى الناجم عن الذكاء الاصطناعي. ويمكن أن تتضمن هذه العملية توضيح قوانين حقوق النشر الحالية لمراعاة استخدام خوارزميات التعلم الآلي وبيانات التدريب، أو وضع لوائح جديدة للتأكّد من أنّ المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي وإسناده بشكلٍ صحيح.
يمكن لـ "تشات جي بي تي" أن يؤثر بشكلٍ كبيرٍ على الوسط الأكاديمي والبحث العلمي. ومن المهم النظر في الآثار الأخلاقية لهذه التقنية، لا سيما فيما يتعلّق باستخدامه من قبل الباحثين والأكاديميين. ونفترض أنّ التعاون بين الباحثين والناشرين ومطوري نماذج اللغات قد يكون مفيدًا في وضع مبادئ توجيهية تضمن حُسن الاستخدام المسؤول والشفاف لمثل هذه التقنيات. ذلك أن غياب وضع مثل هذه السياسات سيؤدي إلى تقويض الثقة في مسار العملية العلمية. وبالتالي، سيكون هناك عواقب بعيدة المدى على البحث والابتكار في المستقبل.
تواصل مع الكاتب: m.maaz@arsco.org
يسعدنا أن تشاركونا أرائكم وتعليقاتكم حول هذهِ المقالة عبر التعليقات المباشرة بالأسفل أو عبر وسائل التواصل الإجتماعي الخاصة بالمنظمة