يمكنك الاستماع إلى المقال عوضاً عن القراءة
لماذا تقول المساعدات الرقمية أشياء غبية؟

اختبار جديد يمكن أن يثبت أنه عندما يتعلق الأمر باللغة، فإنّ أفضل أنظمة الذكاء الاصطناعي اليوم تُعَدُّ محدودة بشكل كبير.

من الواضح أن سيري Siri (المساعدة الرقمية الذكية من شركة آبل Apple)، وأليكسا Alexa (المساعدة الرقمية الذكية من شركة آمازون Amazon) ليستا مثاليتين، لكن هناك أمل بأن التقدم الثابت في تعلم الآلة سوف يحولهما إلى مساعدتين فصيحتين قريباً، ولكن هناك اختبار جديد قد يظهر الحاجة إلى اعتماد مفهوم مختلف تماماً حتى تتقن أنظمة الذكاء الاصطناعي اللغة فعلياً.

طوَّر هذا الاختبارَ الباحثون في معهد آلن للذكاء الاصطناعي "Allen Institute for AI "AI2 غير الربحي الذي يقع في مدينة سياتل Seattle الأمريكية، ويُدعَى تحدي الذكاء الاصطناعي المنطقي "AI2 Reasoning Challenge "ARC، فهذا الاختبار سيطرح أسئلة علمية متعددة الإجابات على مستوى المدارس الابتدائية، فكل سؤال يتطلب فهماً معقولاً للعالم، وقد شُرِح هذا المشروع في ورقة بحثية (يمكن الاطلاع عليها هنا).

وهذا أحد هذه الأسئلة: "أي من هذه العناصر لا تُصنَع باستخدام مواد موجودة في الطبيعة؟"

  • (أ) القميص القطني
  • (ب) الكرسي الخشبي
  • (ج) الملعقة البلاستيكية
  • (د) السلة القصبية


مثل هذا السؤال يعتبر سهلاً لأي شخص يعرف أن البلاستيك لا ينمو في الطبيعة، حيث أن الجواب مضمن في الصورة المنطقية للعالم التي يمتلكها حتى الأطفال الصغار.

هذا النوع من المنطق هو ما ينقص الذكاء الاصطناعي المسؤول عن المساعدات الرقمية الصوتية وربوتات المحادثة وبرمجيات الترجمة.

يمكن أن توفر أنظمة اللغة التي تعتمد على تعلم الآلة في أغلب الأوقات أجوبة مقنعة للأسئلة إذا شاهدت ما يكفي من الأمثلة المشابهة من قبل، فعلى سبيل المثال قد يستطيع برنامج دُرِّب على الآلاف من محادثات الدعم التقني من العمل كمساعد دعم تقني في حالات محدودة، ولكن هذا النظام سيفشل إذا طُرِح عليه سؤال يتطلب معرفة أوسع.

يقول بيتر كلارك Peter Clark قائد البحث في مشروع ARC: "علينا أن نستخدم المنطق الذي نملكه لملء الفجوات حول اللغة التي نراها لتكوين صورة مترابطة لما يُقال، إن الآلات لا تمتلك هذا النوع من المنطق، وبالتالي ترى فقط ما هو مكتوب بشكل واضح، ولا ترى التضمينات والافتراضات المتعددة الكامنة وراء المقطع النصي".

إن هذا الاختبار الجديد هو جزء من مبادرة AI2 لزرع هذا النوع من فهم العالم ضمن أنظمة الذكاء الاصطناعي، وهذا شيء مهم لأنه من الصعب تحديد مدى فهم نظام اللغة للكلام الذي يقوله.

على سبيل المثال، في شهر كانون الثاني/يناير من العام الحالي طور باحثون في مايكروسوفت Microsoft، وآخرون في علي بابا Alibaba برامج أسئلة وأجوبة تفوّقت على البشر في اختبار بسيط اسمه "مجموعة بيانات ستانفورد للإجابة عن الأسئلة Stanford Question Answering Dataset"، فقد نتج عن هذه التطورات مقالات تصرّح بأن برامج الذكاء الاصطناعي يمكنها الآن القراءة أفضل من البشر، ولكن هذه البرامج لم تتمكن من الإجابة عن أسئلة أكثر تعقيداً أو تستمد المعرفة من مصادر أخرى.

سوف تتابع الشركات التقنية مراقبة قدرات أنظمة الذكاء الاصطناعي في هذه الطريقة، وحالياً أعلنت مايكروسوفت أنها قد طورت برمجيات قادرة على ترجمة القصص الإخبارية باللغة الإنكليزية إلى الصينية والعكس صحيح، ومع نتائج يعتبرها المتطوعون المستقلون تعادل عمل مترجم محترف، استخدم باحثو الشركة تقنيات التعلم العميق المتقدمة في الوصول إلى مستوى جديد من الدقة، وبينما يُعَدُّ هذا شيئاً مفيداً للغاية إلا أن النظام قد يعاني إذا طُلِب منه ترجمة محادثة حرة النطاق أو نصاً من مجال غير مألوف كالملاحظات الطبية.

يقول البروفيسور غاري ماركوس Gary Marcus من جامعة نيويورك NYU المناصر لأهمية المنطق في الذكاء الاصطناعي والذي شجعه تحدي AI2: "أعتقد أن هذا علاجٌ عظيمٌ للمعايير السطحية التي أصبحت شائعة جداً في مجال تعلم الآلة، هذا سيكون دافعاً حقيقياً لباحثي الذكاء الاصطناعي لتحسين مستوى عملهم".

إمسح وإقرأ

المصادر

شارك

المساهمون


اترك تعليقاً () تعليقات