
أفاد بحث طرحته شركة “آبل” الأمريكية حول تقنيات التفكير العميق في نماذج الذكاء الاصطناعي بأن نماذج الاستدلال الكبيرة للذكاء الاصطناعي غير قادرة على التفكير العميق بشكل جيد.
وأشارت “آبل”، في البحث الذي طرحته قبيل انعقاد مؤتمر المطورين السنوي التابع لها، إلى أن النماذج مثل “أوين إيه آي أو 1″ و”أو 3″ و”ديب سيك آر 1” تفشل بشكل كامل في حل المشاكل المعقدة مع ازدياد درجة الفشل كلما ازداد تعقيد المشكلة.
ويأتي هذا البحث من الفريق الذي نشر ورقة بحثية سابقة أظهرت قصور نماذج الذكاء الاصطناعي اللغوية الكبيرة في العام الماضي.
ويوضح بحث “آبل” بالتجربة أن أداء نماذج التفكير العميق أفضل قليلا من النماذج اللغوية المعتادة للذكاء الاصطناعي في مواجهة المشاكل البسيطة، لكن مع ازدياد معدل التعقيد ووصول المشكلة إلى مرحلة متوسطة من التعقيد يفشل في حل التحديات والوصول إلى النتائج المرغوبة.
ويصف البحث هذا الفشل بكون نماذج التفكير العميق تتمتع بأداء جيد عند مواجهة المشاكل البرمجية أو الحسابية، لكنها تفشل في مواجهة المشكلات المنطقية.
ومن أجل تنفيذ هذه الاختبارات، اعتمدت “آبل” بشكل كامل على المشاكل المنطقية التقليدية، مثل برج هانوي أو مشكلة عبور النهر التي تتضمن في العادة مجموعة من الحيوانات الأليفة وحيوانا مفترسا وبعض النباتات وتكديس الكتل في تكوين محدد.
وبينما وجد المشككون في قدرات الذكاء الاصطناعي غايتهم بهذا البحث، فإن خبراء الذكاء الاصطناعي يجدون أن البحث لا يعني بالضرورة أن نماذج التفكير العميق سيئة ولا تؤدي عملها بشكل جيد، لكنها تشير إلى أن هذه النماذج في الوقت الحالي أضعف في التفكير المنطقي من البشر.