يمكنك الاستماع إلى المقال عوضاً عن القراءة
إيلون ماسك يذكرنا بمخاطر الذكاء الاصطناعيّ المحتملة

الآلات هي من سينتصر في النهاية


قام إيلون ماسك في وقتٍ متأخرٍ من ليلة الجمعة بتغريد صورةٍ تعيد النقاش حول أمان الذكاء الاصطناعي. الطريف في الأمر أنها احتوت على صورةِ إعلانٍ لإدمان المقامرة تقول: "الآلات هي من سينتصر في النهاية"، مع العلم بأن ذلك لا يشير بوضوحٍ إلى آلات القمار. ويقول ماسك في خطابه الأكثر خطورةً: "إن الخطر الذي يشكّله الذكاء الاصطناعي أكبر من الخطر الذي تشكّله كوريا الشمالية".

حقوق الصورة: Futurism
حقوق الصورة: Futurism


يشرح ماسك، في تغريدةٍ مرافقةٍ، الحاجةَ إلى التنظيم في تطويرِ أنظمةِ الذكاءِ الاصطناعي. وهذا يكرّر تصريحاته في وقتٍ سابقٍ من هذا الشهر عند قوله: "إن الذكاء الاصطناعي شيءٌ ما وأعتقد إن أيّ شيءٍ يمثّل خطرًا على الناس يستحقُّ أن تلقي الحكومةُ عليه نظرةً عن قرب، لأن إحدى مهام الحكومة هي سلامةُ الناس".

حقوق الصورة: Futurism
حقوق الصورة: Futurism


وبمتابعة التعليقات على تلك التغريدات، بدا معظم الناس متفقين مع تقييم ماسك وبدرجاتٍ متفاوتةٍ من تحقيقها. وأعرب أحد المستخدمين دانييل بيدراز Daniel Pedraz عن الحاجة لأن تكونَ أيّة جهودٍ تنظيميةٍ تُبذل قابلةً للتكيّف، حيث يقول: "نحن بحاجةٍ إلى إطارٍ قابلٍ للتكيّف، لا مجموعةٍ واحدة ثابتة من القواعد أو القوانين أو المبادئ التي ستكون في صالح الذكاء الاصطناعي في حال سيطرته. المجال يتغيّر ويتكيّف باستمرارٍ، وأيّة مجموعةٍ ثابتةٍ من القواعد التي تتضمّن المخاطر ستصبح غير فعّالة بسرعةٍ كبيرة".

يحذّر العديد من الخبراء من تطوير الذكاء الاصطناعي بسرعةٍ كبيرةٍ. قد تبدو التهديدات المحتملة التي يمكنه تشكيلها كالخيال العلمي، ولكنها يمكن أن تثبت في نهاية المطاف أنها مخاوفُ صحيحةٌ.



تثبيط الذكاء الاصطناعيّ الواعي


حذّر خبراء مثل ستيفن هوكينغ Stephen Hawking منذ فترةٍ طويلةٍ من قدرة الذكاء الاصطناعي على تدمير البشرية. في مقابلة أجراها عام 2014، ذكر الفيزيائي الشهير: "أن تطوير الذكاء الاصطناعي بإمكانه إنهاء الجنس البشري".

 

بل إنه يرى أن انتشار الأتمتة سيشكّل ضررًا على الطبقة المتوسطة. وقال خبيرٌ آخر هو مايكل فاسار Michael Vassar، كبير موظفي العلوم في ميتامد ريسيرتش MetaMed Research: "إذا اختُرعَ ذكاءٌ اصطناعيٌّ عامٌ artificial general intelligence أعظم من الإنسان دون حذرٍ كافٍ، فمن المؤكد أن الأجناس البشرية سوف تنقرض في وقتٍ قصيرٍ جدًا".

ومن الواضح، على الأقل في المجتمع العلمي، أن التنمية غير المقيدة للذكاء الاصطناعي قد لا تكون في مصلحة البشرية. وتُبذل حاليًا جهودٌ للبدء في صياغة بعض هذه القواعد لضمان تطوير الذكاء الاصطناعي، الموجَّه أخلاقيًا، فقدّم معهد مهندسي الكهرباء والإلكترونيات Institute of Electrical and Electronics Engineers أوّل مسودةٍ من المبادئ التوجيهيةِ التي يُؤمل أن توجِّه المطورين في الاتجاه الصحيح.

يقول ستيفن هوكينج: "تطوير الذكاء الاصطناعي بإمكانه إنهاء الجنس البشري". بالإضافة إلى ذلك، فإن أكبر الأسماء في التكنولوجيا تجتمع معًا للتنظيم الذاتي قبل اتخاذ الحكومات أيّة خطواتٍ. وقد بدأ بالفعل الباحثون والعلماء من شركات التكنولوجيا الكبيرة مثل غوغل Google، وأمازون Amazon، ومايكروسوفت Microsoft ، وآي بي إم IBM ، وفيسبوك Facebook بمناقشاتٍ لضمان تحقيق الذكاء الاصطناعي المنفعة للإنسانية وليس تهديدها.

مازال الطريق طويلًا أمام الذكاء الاصطناعي قبل تشكيله تهديدًا، ومع ذلك، فإنّ التقدّم يمضي نحو الأمام على قدمٍ وساقٍ. ويتوقّع الخبير راي كورزويل Ray Kurzweil أن أجهزة الحاسوب سوف تكون أكثر ذكاءً من البشر بحلول عام 2045. تحوّلٌ نموذجيٌّ يُعرف باسم التفرد Singularity.

 

وبالرغم من ذلك لا يُعتقد أن هذا الأمر يدعو للقلق. وربما تكون شركات التكنولوجيا ذاتية المسؤولية كافيةً لضمان عدم صحّة هذه المخاوف، أو ربما سنحتاج في نهاية المطاف للاستعانة بالحكومات. أيًّا كانت الطريقة التي تشعر بها، فإنه ليس من السابق لأوانه البدء في إجراء هذه المحادثات. في تلك الأثناء، وعلى الرغم من ذلك، حاول ألّا تقلق كثيراً، إلّا إذا كنت بالطبع لاعبًا تنافسيًّا.

 

إمسح وإقرأ

المصادر

شارك

المساهمون


اترك تعليقاً () تعليقات