.
في إنجاز علمي مميز نشرته مجلة Nature في يونيو 2025، قدم باحثو MIT CSAIL (مختبر علوم الحاسب والذكاء الاصطناعي بجامعة MIT) تقنية مبتكرة تُدعى Neural Jacobian Fields (NJF).
تأتي جامعة MIT كأحد أبرز المنارات البحثية التي تقود هذا التحوّل. ومن بين أحدث ابتكاراتها التي أثارت اهتمامًا عالميًا، تبرز تقنية Neural Jacobian Fields (NJF) كنقلة نوعية في كيفية تعليم الروبوتات فهم أجسامها والتحكم بها دون الحاجة إلى نماذج فيزيائية دقيقة أو مستشعرات متطورة. ما يجعل هذا الابتكار مثيرًا بحق هو قدرته على تمكين الروبوت من “معرفة نفسه” ببساطة عبر الرؤية، باستخدام كاميرا واحدة فقط، ليكتسب وعيًا حركيًا ذاتيًا مشابهًا – وإن كان بدائيًا – لما يمتلكه البشر. هذه التقنية لا تعيد تعريف طريقة تصميم الروبوتات فحسب، بل تفتح الباب أيضًا أمام جيل جديد من الأنظمة الذكية القادرة على التكيّف مع البيئات المعقدة وغير المتوقعة من دون تجهيزات ضخمة أو تدخل برمجي مباشر.
في هذا المقال، نستعرض تفاصيل هذا الإنجاز العلمي المميز، آلية عمله، تجاربه، تطبيقاته المستقبلية، والتحديات التي لا تزال أمامه. حيث تعتمد هذه التقنية على التدريب الذاتي للروبوت باستخدام كاميرا واحدة فقط، مما يمكنه من فهم حركته داخليًا والتحكم بجسمه دون الحاجة إلى حساسات مدمجة أو نماذج فيزيائية مفصلة.
الفلسفة الجديدة: من برمجة الروبوت إلى تعليمه
نظام NJF يمثل قفزة نوعية في طريقة بناء الروبوتات الذكية. بدلاً من اعتماد برمجة مخصصة لكل جسم روبوتي، يعتمد NJF على مبدأ “تعليم الروبوت” من خلال الملاحظة والتجربة العشوائية. الباحث Sizhe Lester Li ويوضح أن ذلك مشابه لكيفية تعلم الإنسان لحركة أصابعه والتكيف معها بشكل تدريجي.
كيف يعمل NJF؟
تجميع بيانات التدريب: يقوم الروبوت بتنفيذ حركات عشوائية أثناء تسجيلها بواسطة عدة كاميرات RGB‑D (عدة وجهات). تُستخدم هذه المشاهد لبناء ما يُعرف بـ “visuomotor Jacobian field”، وهي خريطة تربط نقاط الجسم المرئية بالمحركات المستخدمة لتحريكها.
التعلم الذاتي
يتم تدريب شبكة عصبية عميقة تلتقط البنية ثلاثية الأبعاد للجسم واستجاباته للأوامر الحركية. النتائج تظهر كيف تتحرك أجزاء الجسم استجابة للتحكم في المحركات.
التحكم في الزمن الحقيقي
بعد التدريب، يمكن للنظام العمل باستخدام كاميرا أحادية (monocular) واحدة فقط ووظيفة التحكم تعمل بسرعة تقريبية حوالي 12 هرتز، مما يتيح تحكمًا ذاتيًا في الزمن الحقيقي دون حساسات اضافية.
التطبيقات التجريبية
اختبَر NJF على مجموعة متنوعة من الروبوتات، منها:
1- يد ناعمة (soft pneumatic hand) قادرة على القبض.
2- يد Allegro صلبة.
3- ذراع روبوتية مطبوعة بتقنية ثلاثية الأبعاد.
4- منصة دوارة لا تحتوي على أي حساسات مدمجة.
في كل حالة، تعلّم النظام شكل الروبوت وكيفية تحريكه فقط من خلال المراقبة البصرية والتجربة العشوائية.
مزايا النظام
1- خفض تكلفة الأجهزة: يلغي الحاجة لمستشعرات باهظة أو هندسة متقدمة للنموذج.
2- مرونة في التصميم: يدعم الروبوتات ذات الجسم الناعم أو غير المنتظم.
3- التكيف البيئي: قابلية العمل في بيئات معقدة مثل المواقع الإنشائية، الزراعة، وخدمات التوصيل دون البنية التحتية التقليدية
القيود والتحديات الحالية
1- النظام يتطلب عدة كاميرات خلال مرحلة التدريب، ويجب تدريبه مجددًا لكل روبوت على حدة.
2- يفتقر إلى الإدراك الحسي مثل القوة أو اللمس، مما يحد من فعاليته في المهام التي تتطلب تلامسًا مباشرًا.
3- لا يدعم التعميم عبر روبوتات متعددة؛ إذ أن النموذج الحالي يخص الروبوت الذي درّب عليه فقط.
نحو المرحلة القادمة
يخطّط الفريق البحثي إلى:
1- تحسين قدرات التعميم عبر عدة تصميمات روبوتية.
2- معالجة الإخفاء الجزئي (occlusion).
3- توسيع نطاق التعلّم ليمتد عبر أبعاد زمنية ومكانية أكبر.
4- تقليل عدد الكاميرات المطلوبة، بحيث يمكن استخدام هاتف ذكي بسيط لتسجيل التدريب مستقبلاً.
التطبيقات المستقبلية المتوقعة
1- روبوتات زراعية ذات تحكّم دقيق دون أجهزة استشعار متقدمة.
2- روبوتات تعمل ضمن مواقع البناء بفهم بصري كامل دون الحاجة لنظم تعقب ثابتة.
3- آليات مستقلة تستطيع العمل في البيئات المزدحمة أو غير المنظمة، مثل المستودعات أو البيئات المنزلية.
الخلاصة
نظام Neural Jacobian Fields (NJF) من MIT يقدم انتقالًا جذريًا من برمجة الروبوتات إلى تعليمها بصريًا بذاتها. من خلال الاستفادة من كاميرا واحدة فقط للتدريب والتحكم، يفتح NJF آفاقًا جديدة نحو روبوتات أكثر تكلفة منخفضة ومرونة عالية وقدرة على التكيف بدون بنى حساسية معقدة. مع ذلك، فإن الاعتماد الحالي على التدريب المتعدد الكاميرات والتحديات في الإدراك الحسي والتعميم تفرض العمل على تحسينات مستقبلية.
.
المصادر
1- MIT News (“Robot, know thyself…”) – Nature.
2- The Robot Report / Robotics & Automation News.
3- Petapixel / Live Science.
.
.
تواصل مع الكاتب: mohamedmouradgamal@gmail.com