كيف يمكن للتعلم العميق أن يتطور؟

يتم العمل على تطوير تكنولوجيا التعلم العميق، حيث يؤكّد الخبراء أنّ هذه التطورات ستسمح بالتعرّف على الصوت واللغة.

التعلّم العميق "Deep Learning" هي واحدة من تقنيات الذكاء الصناعي التي تسمح بالتعرف على الوجوه، وكان لها تأثيرها الضخم على وسائل التواصل الاجتماعي. فمثلاً، يمكن لفيسبوك Facebook أن يتعرف على الوجوه بناءً على الصور التي تم تحميلها سابقاً.


قد لايبدو الموضوع ثورياً، ولكنّه بالتأكيد يساعدنا على اختصار بعض الوقت.


والآن، يخطّط الباحثون في مايكروسوفت Microsoft لنقل تقنيات التعلّم العميق إلى مرحلة جديدة تماماً.

لكن، كيف بدأ كل ذلك؟


في العام 2012، فاز باحثون بالذكاء الصنعي من جامعة تورونتو Toronto University بمنافسة تدعى "ImageNet".


كانت المنافسة عبارة عن مجموعة من الآلات تتنافس فيما بينها في مهمّات محدّدة.


استخدم كل من الباحث أليكس كريزيفسكي Alex Krizhevsky والبروفيسور جوف هينتون Geoff Hinton شبكات عصبونية عميقة للحصول على برامج فائقة الدقّة في التعرّف على الصور.


ركزّت هذه التقنيّة في عمليّة التعرّف وبشكل أساسي على تفحّصها لعدد كبير من الصور ورؤية ميول تلك الصور (إيجاد طابع لها)، بدلاً من الاعتماد على برامج (كودات) كتبها البشر، وبالتأكيد، لقد ربحوا في تلك المسابقة.


وفي النهاية، شكّلت تلك الأبحاث خارطة الطريق لشركات عملاقة أخرى مثل فيسبوك وتويتر Twitter وجوجل Google لتتبع خطواتها في هذه التكنولوجيا.


يقول بيتر لي Peter Lee رئيس الباحثين في مايكروسوفت: "لا يمكننا الادعاء بأنّ النظام –يرى– كما الأشخاص، ولكن ما يمكننا قوله إنّه وبالنسبة لمهام محدّدة وضيقة، يمكن أن يتعلم ليملك جودة الرؤية ذاتها عند البشر".

تستخدم الشبكات العصبونيّة عتاداً وبرامج لتقترب من شبكة العصبونات الموجودة في العقل البشري.


هذه الفكرة موجودة منذ ثمانينات القرن الماضي، لكنّها بُنيت للمرّة الأولى في العام 2012.


كما طوّر كل من كريزيفسكي وهينتون هذه التقنية بتشغيل شبكتهما العصبونية مع وحدات معالجة رسوميّة GPUs، حيث في البداية كانت موجّهة لتطبيقها على الألعاب وبعض البرامج الرسومية الأخرى المعقّدة، كما أنّها مناسبة أيضاً للمعالجات الرسومية الكبيرة التي طالما كانت تبحث عنها الشركات الضخمة مثل فيسبوك ومايكروسوفت.
انضم كل من كريزيفسكي وهينتون إلى جوجل.

طريقة جديدة للتعلم العميق


أخذ باحثو مايكروسوفت التقنية الفائزة في المسابقة وطوروها وأسموها شبكة البقاء العميق "deep residual network"، حيث قاموا بتصميم شبكة عصبونيّة أكثر تعقيداً بشكل كبير من التصاميم العادية –تمتد حتّى 152 طبقة من العمليات الرياضيّة، بالمقارنة مع ست أو سبع طبقات في الشبكات العادية.


تتكون الشبكات العصبونيّة العميقة من عدّة طبقات، تحتوي كل منها على مجموعة من الخوارزميات.

 
تكون مُخرجة إحدى الطبقات هي المُدخلة في الطبقة التالية. فإذا تمّ استخدامها للتعرّف على الصور، فستقوم إحدى الطبقات في البداية بالنظر إلى مجموعة محدّدة من الصور، ومن ثم تتابع لتتفحّص مجموعة أخرى. يقول أليكس بيرغ Alex Berg الباحث في جامعة نورث كارولاينا University of North Carolina والذي يساعد في الإشراف على مسابقة ImageNet: "الفكرة بشكل عام هي أنّه إذا قمت بزيادة عمق هذه الشبكات، فسيسهل عليها عمليّة التعلّم".

في عصرنا التكنولوجي الحالي، وكما ذكرنا سابقاً، بشكل اعتيادي يوجد ست إلى سبع طبقات، لكنّها قد تصل حتّى 30 طبقة، أما الوصول إلى 152 طبقة فيعتبر قفزة كبيرة.

قيّدت المشاكل في السابق تطوير التعرّف على الصور، لأنّ الخوارزميات كانت تتجاوز الطبقات. يقول بيتر لي Peter Lee: "عندما تقوم بهذا النوع من التجاوز، فستكون قادراً على الحفاظ على قوة الإشارة بشكل أفضل، ويبدو أنّ لهذه الطريقة فائدة هائلة في تحسين الدقّة".

كما تعتبر عملية إنشاء الخوارزميات الصحيحة في كل طبقة عملية مملة، وسبباً آخر في إعاقة تطويرها، فكما يوضّح جان سن Jian Sun إنّ الباحثين يستطيعون تحديد تدابير واعدة لشبكات عصبونية ضخمة، ومن ثم يمكن للنظام أن يدخل دوامة من الإمكانات المتشابهة إلى أن يستقر على أفضلها.

حيث يقول: "في معظم الحالات، يتعلم الباحثون (شيئاً ما) بعد عدّة محاولات، ثم يفكرون جيداً، ويتخذون قرارات جديدة في المحاولة التالية، حيث يمكن اعتبار ذلك كبحث مدعوم بشرياً Human-Assisted Search".

تدل التنبؤات المستقبلية أنّه يمكن تشغيل الذكاء الصنعي بشكل عميق جداً، بحيث تصبح قادرة حتّى على إدراك الكلام البشري وفهم اللغات أثناء نطقها والتحدث معهم بشكل طبيعي.
 

إمسح وإقرأ

المصادر

شارك

اترك تعليقاً () تعليقات