هل من الممكن أن تتقن السيارات الذاتية القيادة عملها بشكل مثالي؟

استُخدمَت المركبات الآلية في البيئات الخطرة لعقود من الزمن، بدءًا من إيقاف تشغيل محطة الطاقة النووية في فوكوشيما أو فحص البنية التحتية للطاقة المائية في بحر الشمال.

حقق تحوّل المركبات الذاتية من القوارب إلى عربات التوصيل في الآونة الأخيرة نقلةً نوعيةً، فتحولت مراكز الأبحاث حينها إلى العالم الحقيقي بنسبةٍ قليلةٍ جدًا من الأخطاء. مع ذلك، فإن الوصول الموعوّد للسيارات ذاتية القيادة المثالية لم يتجاوز مرحلة الاختبار.

في تجربة القيادة لإحدى سيارات أوبر Uber ذاتية القيادة في عام 2018، دهست السيارة أحد المشاة.

على الرغم من أن هذه الحوادث تحدث كل يوم عندما يكون البشر خلف عجلة القيادة، فإن الجمهور يحمّل السيارات بدون سائق مسؤوليةً كونها أكثر أمانًا، ما يفسر الحوادث الطرقية التي تحدث لمرةٍ واحدةٍ كدليلٍ على أن هذه المركبات غير آمنةٍ للغاية بحيث لا يمكن إصدارها للعامة بعد.

تُعدّ برمجة السيارة المثالية ذاتية القيادة التي ستتخذ القرار الأكثر أمانًا مَهمّةً تقنيةً ضخمةً.

على عكس المركبات الذاتية الأخرى، والتي تُطرَح عمومًا في بيئاتٍ تحت السيطرة. يجب أن تعمل السيارات ذاتية القيادة في شبكة طرق لا يمكن التنبؤ بها، وتعالج بسرعة العديد من المتغيرات المعقّدة لتظل ضمن الحدود الآمنة للقيادة.

يعمل الباحثون على مجموعةٍ من القواعد التي ستساعد السيارات ذاتية القيادة على اتخاذ القرارات الأكثر أمانًا في كل سيناريو من الممكن تصوره أثناء القيادة بأن تكون مستوحاة من قواعد وقوانين الطرق السريعة. التحقق من عمل هذه القواعد هو العقبة الأخيرة التي يجب التغلب عليها للحصول على سيارات ذاتية القيادة جديرة بالثقة على الطرق بأمان وثبات.


قانون عظيموف Asimov الأول


صاغ مؤلف الخيال العلمي إسحاق عظيموف Isaac Asimov "القوانين الثلاثة للروبوتات" في عام 1942.

ينص القانون الأول والأهم على ما يلي: "لا يجوز للروبوت أن يؤذي إنسانًا، أو أن يسمح لإنسان من خلال التقاعس عن عمله أن يلحق الأذى به".

عندما تدهس السيارات ذاتية القيادة البشر، فمن الواضح أنها تنتهك القانون الاول.

يطوّر الباحثون في مركز الروبوتات الوطني بحثًا يهدف إلى ضمان أن المركبات ذاتية القيادة ستتخذ قرارات تلتزم دائمًا بتلك القوانين.

مثل هذا الضمان من شأنه أن يوفر الحل لمخاوف السلامة التي تمنع السيارات ذاتية القيادة من القيادة في جميع أنحاء العالم.

يُعدّ برنامج الذكاء الصنعي جيدًا في الواقع في التعرف على السيناريوهات التي لم يواجهها من قبل.

باستخدام "الشبكات العصبية" التي تستلهم من تخطيط الدماغ البشري، يمكن لمثل هذه البرامج تحديد أنماط معينة من البيانات، مثل حركات السيارات والمشاة وثم تتذكر هذه الأنماط في سيناريوهات جديدة.

لكن لا تزال هناك حاجة إلى الإثبات بأن تلك القواعد الآمنة التي تُدرَّس للسيارات ذاتية القيادة ستعمل في هذه السيناريوهات. للقيام بذلك، يمكننا اللجوء إلى التحقق الأساسي وهو الطريقة التي يستخدمها علماء الكمبيوتر لإثبات أن القاعدة تعمل في جميع الظروف.

يمكن للقواعد في الرياضيات على سبيل المثال أن تثبت أن (س+ص) يساوي (ص+س) دون اختبار كل قيمةٍ ممكنةٍ لكلٍّ من (س) و(ص).

يفعل التحقق الاساسي شيئًا مشابهًا لذلك، فهو يسمح بإثبات كيفية تفاعل برامج الذكاء الصنعي مع السيناريوهات المختلفة دون الحاجة إلى اختبار شامل لكل سيناريو يمكن أن يحدث على الطرق السريعة والعامة.

أحد أكثر النجاحات الملحوظة في هذا المجال هو التحقق من نظام الذكاء الصنعي الذي يستخدم الشبكات العصبية لتجنب الاصطدامات بين الطائرات الذاتية القيادة، فقد نجح الباحثون في التحقق رسميًا من أن النظام سيستجيب دائمًا بشكل صحيح، بغض النظر عن المناورات الأفقية والعمودية للطائرة المدروسة.
 


ترميز الطريق السريع


يتبع السائقون رموز الطريق السريع للحفاظ على سلامة الجميع، ويُعتمَد على العقل البشري لتعلم هذه القواعد وتطبيقها بشكل معقول في سيناريوهات لا حصر لها في عالمنا.

يمكن تعليم السيارات ذاتية القيادة رمز الطريق السريع أيضًا. يتطلب ذلك إلغاء اختيار كلّ قاعدة في الترميز، وتعليم الشبكات العصبية للمركبات فهم كيفية اللجوء لكل قاعدة، ثم التحقق من أنه يمكن الاعتماد عليها لأداء هذه القواعد بأمان في جميع الظروف.

ومع ذلك، فإن التحدي المتمثل في التحقق من اتّباع هذه القواعد بأمان أمرٌ معقد عند فحص نتائج عبارة "يجب ألا" في رموز الطريق السريعة.

لجعل السيارة ذاتية القيادة تفاعلية مثل السائق الحقيقي في أي سيناريو يحدث، يجب برمجة هذه القواعد بطريقة تراعي الفروق الدقيقة والمخاطر المرجّحة والسيناريو، إذ تتعارض القواعد المختلفة بشكلٍ مباشرٍ، ما يتطلب من السيارة أن تتجاهل واحدًا أو أكثر من هذه القواعد.

لا يمكن ترك مثل هذه المهمة للمبرمجين فقط، فهي تتطلب المساهمة من المحامين وخبراء الأمن ومهندسي الأنظمة والسياسيين.

يصمم فريق من الباحثين ضمن مشروع AISEC الذي تشكل حديثًا أداةً لتسهيل نوع النظام متعدد التخصصات اللازم لإنشاء معايير أخلاقية وقانونية للسيارات ذاتية القيادة.

سيكون تعليم السيارات ذاتية القيادة لتكون مثالية وعملية وديناميكية، فهي تعتمد على كيفية تعريف الخبراء القانونيين والثقافيين والتكنولوجيين للمثالية بمرور الزمن. تُبنى أداة AISEC مع وضع ذلك في الاعتبار، إذ تقدم "لوحة تحكم" لرصد وتنظيم ووضع القواعد الأكثر نجاحًا التي تتحكم بالسيارات ذاتية القيادة، والتي ستُتاح بعد ذلك للصناعة.

يأمل الباحثون بتقديم أول نموذج تجريبي لأداة AISEC بحلول عام 2024، لكن ما زالت هناك حاجة إلى إنشاء طرق للتحقق من كيفية معالجة مخاوف السلامة والأمن المتبقية، ومن المرجح أن يستغرق بناؤها وإضافتها في السيارات ذاتية القيادة سنوات عدة.

دائمًا ما تتصدر الحوادث التي تنطوي على سيارات ذاتية القيادة عناوين الأخبار. تُعتبر السيارات ذاتية القيادة التي تتعرف على المشاة وتتوقف قبل أن تصطدم بهم 99% من المرات سببًا للنجاحات في مختبرات الأبحاث، ولكنها آلة قد تقتل في العالم الحقيقي.

من خلال إنشاء قواعد أمان قوية يمكن التحقق من أمان السيارات ذاتية القيادة لتكون نسبة 1% من الحوادث شيئًا من الماضي.

إمسح وإقرأ

المصادر

شارك

المساهمون


اترك تعليقاً () تعليقات