مخاوف باحث: هل سيدمرنا الذكاء الاصطناعي؟

يصف باحث الذكاء الاصطناعي أريند هينتز Arend Hintze في حواره في 17 يوليو/تموز الماضي مخاطر الذكاء الاصطناعي فيقول: كباحثٍ في الذكاء الاصطناعي، تصادفني غالبًا فكرة تخوّف الناس من نتائج الذكاء الاصطناعي.

إذا أخذنا صناعة الأفلام بعين الاعتبار، فمن غير المفاجئ تخوُّفنا من سيطرة الآلات التي ستجبر البشر على العيش كمصدرٍ للطاقة كما في فيلم الماتريكس Matrix. كما أجد صعوبةً في إيجاد نماذج الحواسيب المتطورة التي تُستخدم لتحسين منظومة الذكاء الاصطناعي للتفكير في آلية تحوّل الكائنات الافتراضية إلى وحوشٍ في المستقبل. هل يمكن أن أكون "مدمِّرًا للعالم" كما أعرب أوبنهايمر Oppenheimer عن أسفه بعد قيادة عملية بناء القنبلة النووية الأولى؟ 

لذا لا ينبغي لي تجنُّب السؤال التالي: كخبيرٍ في الذكاء الاصطناعي ما الذي أخشاه من الذكاء الاصطناعي؟

الخوف من المجهول


يُعتبر الحاسب هال 9000 HAL9000 الذي يحلم به مؤلف الخيال العلمي آرثر كلارك Arthur C. Clarke والذي أخرجه إلى النور المخرج السينمائي ستانلي كوبريك Stanley Kubrick في عام 2001 في ملحمة الفضاء A Space Odyssey مثالًا جيّدًا عن فشلِ نظامٍ بسبب عواقبَ غيرِ مقصودةٍ.

ففي العديد من النظم المعقدة، كتيتانيك آر أم أس RMS Titanic، مكوك الفضاء ناسا، ومحطة تشرنوبيل للطاقة النووية The Chernobyl nuclear powerplant، قد يعرف المصممون جيدًا طريقة عمل كلّ عنصرٍ على حدة، إلا أنهم لم يصلوا بعد لمعرفة ما يكفي لعمل هذه العناصر معًا! وقد أدّى ذلك إلى إيجاد نظمٍ لا يمكن فهمها أبدًا! ويمكن أن تفشل بطرقٍ غير متوقعةٍ. ففي كلّ كارثةٍ، كغرق سفينةٍ، أو تفجير مكوكين ونشر التلوث الإشعاعي في جميع أنحاء أوروبا وآسيا، فإن مجموعةً من المحاولات الفاشلة الصغيرة نسبيًا قد اجتمعت لخلق كارثةٍ حقيقيةٍ.

أستطيع رؤية إمكانية وقوعنا في فخ بحوث الذكاء الاصطناعي نفسه ونحن ننظر إلى أحدث أبحاث العلوم المعرفية ونترجم ذلك إلى خوارزمياتٍ ونضيفه إلى نظامٍ قائمٍ، إننا نحاول في البداية هندسة الذكاء الاصطناعي دون وعيٍ أو ذكاءٍ.

تزوّد أنظمةٌ مثل واتسون آي بي إم IBM's Watson وألفا غوغل Google's Alpha الشبكات العصبية الاصطناعية بقوة حوسبةٍ هائلةٍ، وتحقق إنجازاتٍ مثيرةٍ للإعجاب. لكن قيام هذه الآلات بأيّ خطأٍ سيجعلها خطرةً. ولا تُعتبر هذه العواقب متغيرةً عالميًا، في الواقع إن أسوأ ما قد يحدث لشخصٍ عاديٍّ نتيجة ذلك هو فقدان بعض المال المرهون على نجاحها.

لكن على الرغم من أن تصاميم الذكاء الاصطناعي معقدةٌ وبحاجة آليةٍ أسرع، فإن مهاراتها ستتحسن وسيقودنا هذا إلى منحها مزيدًا من المسؤولية، حتى مع ازدياد خطر النتائج غير المقصودة. فنحن نعلم الخطر البشري الكامن لذا فمن المستحيل بالنسبة لنا خلق نظامٍ آمنٍ تمامًا.

الخوف من سوء الاستخدام


لست قلقًا بشأن العواقب غير المقصودة في أنواع الذكاء الاصطناعي التي أطورها، وذلك لاستخدامي نهجًا يُسمّى التطور العصبي، فأنا أنشئ بيئاتٍ افتراضيةً وأطور الكائنات الرقمية وأسخّر نشاطها العقلي لحل مهامٍ متزايدة التعقيد. ثم يُقيَّم أداء الكائنات واختيار تلك التي تؤدي أفضل إنتاجٍ لتُستخدم في الجيل القادم. فقد تطورت القدرات المعرفية لهذه الكائنات على مدى أجيالٍ عديدةٍ.

الآن نتخذ خطواتٍ أوليةً لتطوير الآلات التي يمكن أن تقوم بمهام الملاحة البسيطة واتخاذ قراراتٍ بسيطةٍ أو تذكّر بضع بتات Bites. لكن سرعان ما ستتطور الآلات لتصبح أكثر ذكاءً وقدرةً على تنفيذ مهامَ أكثر تعقيدًا. نأمل في نهاية المطاف تعزيز مستوى الذكاء البشري.

سنجد على طول الطريق الحلول للقضاء على الأخطاء والمشاكل من خلال عملية التطوير. سنحصل مع كلّ جيلٍ على آلاتٍ قادرةٍ على التعامل مع المشاكل بشكلٍ أفضل من الآلات السابقة، ما يزيد فرص وجود نتائجَ غير مقصودةٍ في أساليب المحاكاة، يمكن التغلّب عليها قبل دخول هذه الآلات أروقة العالم الحقيقي.

وهناك احتمالٌ آخر هو استخدام التطوّر للتأثير في أخلاقيات الذكاء الاصطناعي، حيث يمكننا إعداد بيئاتٍ افتراضيةٍ لإعطاء مزايا تطويريةٍ للآلات التي تُظهر الجانب الإنساني كاللطف والصدق والتعاطف. ربما هذه وسيلةٌ لضمان تطوّر الخوادم الرقمية كرفقاء جديرين بالثقة وإنقاص عدد الروبوتات القاتلة.

في حين أن التطور العصبي قد يقلّل احتمال النتائج غير المقصودة إلا أنه لا يمنع سوء الاستخدام، إلا أن ذلك يُعتبر قضيةً أخلاقيةً وليست علميةً.
كعالِمٍ يجب أن ألتزم بالحقيقة والإبلاغ عما أجده في تجاربي، سواءً أُعْجِبتُ بالنتائج أم لا! تركيزي ليس على تحديد الأشياء التي تعجبني بل يهمني فقط مقدرتنا على كشف النقاب عن تلك الأشياء.

التخوف من الأولويات الاجتماعية الخاطئة


إن عالم ولكن هذا لا يجردني من إنسانيتي، ولا بد لي أن أعيد التواصل بآمالي ومخاوفي. بصفتي الأخلاقية والسياسية يجب أن أعتبر الآثار المحتملة لعملي على المجتمع، وبصفتنا باحثين وأفراد مجتمع فإننا لم نتوصل بعد إلى فكرةٍ واضحةٍ عما نريد للذكاء الاصطناعي أن يصل إليه! بالطبع، ذلك لأننا لا نعرف حتى الآن ما هو قادرٌ عليه، لكننا نحتاج إلى أن نقرر ماهي النتيجة المرجوة من تقدمه.

يولي الناس اهتمامًا كبيرًا للعمل، تستطيع الروبوتات القيام بالعمل البدني من مثل لحام قطع غيار السيارات، ولربما يؤدون في يومٍ من الأيام بالمهام المعرفية التي نظنها قاصرةً على العنصر البشري، حيث يمكن للسيارات ذاتية القيادة أن تحل محل سائقي سيارات الأجرة والطائرات التي تحلّق ذاتيًا دون الحاجة إلى الطيارين. وبدلًا من الحصول على المساعدة الطبية في غرفة الطوارئ، يمكن أن يفحص المرضى ويشخص أمراضهم نظامٌ خبير مع إمكانية الوصول الفوري إلى جميع المعلومات الطبية التي جُمِعت، إضافةً إلى إجراء الروبوتات بالعميات الجراحية باستخدام يدٍ ثابتةٍ تمامًا ودون تعبٍ.

كما يمكن أن تأتي المشورة القانونية من قاعدة بياناتٍ لدائرة المعرفة القانونية، وتأتي المشورة الاستثمارية من نظام التنبؤ بالسوق.

ربما في يومٍ من الأيام ستقوم الآلات بجميع الوظائف البشرية، حتى أن وظيفتي الخاصة يمكن أن تُجرى أسرع بواسطة مجموعةٍ من الآلات التي تبحث بلا كللٍ في كيفية توظيفها لتصبح أكثر ذكاءً.

في مجتمعنا الحالي يتسبب التشغيل الآلي في تسريح عددٍ من الناس من الوظائف، ما يجعل مالكي الآلات أكثر ثراءً والباقين أكثر فقرًا، تلك ليست مشكلةً علميةً إلا أنها مشكلةٌ سياسيةٌ اجتماعيةٌ ينبغي علينا كمجتمعٍ حلّها.

إن بحثي لن يغيّر ذلك على الرغم من اتجاه سياسة دولتي، جنبًا إلى جنبٍ مع بقية البشرية، لكنه قد يخلق الظروف التي تجعل الذكاء الاصطناعي مفيدًا على نطاقٍ واسعٍ بدلًا من زيادة فجوة التناقض الحاصلة.

التخوف من سيناريو الكابوس


هناك تخوفٌ أخيرٌ يتجسد في هال 9000، الترميناتور Terminator وأيّ عددٍ من أنظمة الذكاء الخارق الأخرى التي نستنبط منها هذا التساؤل: إذا استمر الذكاء الاصطناعي في التحسن حتى يتجاوز الذكاء البشري فهل سيجد نظام الذكاء الفائق، أو أكثر من واحد منهم، أنه لم يعد بحاجةٍ للجنس البشري؟

كيف نبرر وجودنا في مواجهة الذكاء الخارق الذي يستطيع القيام بأشياء لا يمكن للبشر القيام بها؟ هل يمكن أن نتجنب محو وجه الأرض بواسطة آلاتٍ ساعدنا في إنشائها؟ والسؤال الرئيس في هذا السيناريو هو لماذا يجب أن نبقي الذكاء الخارق حولنا؟

أود أن أقول إنني شخصٌ جيدٌ قد ساعدت في إحضار الذكاء الخارق وأود أن أناشدكم الرحمة والتعاطف بأن الذكاء الخارق أبقاني كشخصٍ رحيمٍ متعاطفٍ وعلى قيد الحياة. وأود أيضًا أن أناقش بأن التنوع له قيمةً في حدّ ذاته وأن الكون أكبر من كل تلك السخافات لدرجة أن وجود البشرية فيه ربما لا يهم على الإطلاق. إلا أنني لا أتكلم عن البشرية جمعاء ومن الصعب أيضًا أن أجد مبررًا مقنعًا لنا جميعًا.

أستشف خطأً كبيرًا عندما ألقي نظرة حادةً علينا جميعًا، نحن نكره بعضنا، ونشن الحروب على بعضنا، ولا نوزع الغذاء والمعرفة أو المعونة الطبية بمساواةٍ، إننا فقط نلوث هذا الكوكب!

هناك العديد من الأشياء الجيّدة في هذا العالم لكن وجود كلّ سيئةٍ يُضعف حجتنا. ولحسن الحظ لا نحتاج إلى تبرير وجودنا حتى الآن، لدينا بعض الوقت ما بين 50 و250 عامًا، وهذا يتوقف على مدى تطور الذكاء الاصطناعي كأنواعٍ يمكن أن تجتمع معًا، والتوصل إلى إجابةٍ جيدةٍ عن السبب في أن الذكاء الاصطناعي لا ينبغي أن يشملنا فقط.

إلا أن ذلك سيكون صعبًا، إن القول بأننا نعتنق التنوّع وممارستنا ذلك فعليًا أمران مختلفان، كقولنا إننا نريد إنقاذ الكوكب ونجاحنا في ذلك.

نحتاج جميعنا، أفرادٌ ومجتمعٌ، إلى الاستعداد لسيناريو الكابوس، وذلك لاستخدام الوقت لشرح ماهية نوع تلك الإبداعات التي يجب أن تسمح لنا بالاستمرار في الوجود أو يمكننا أن نقرر الاعتقاد بأنه لن يحدث أبدًا فينبغي التوقف عن القلق تمامًا.

لكن بغض النظر عن التهديدات المادية التي قد تواجه الذكاء الخارق فإنها تشكل أيضًا خطرًا سياسيًا واقتصاديًا، وإذا لم نجد طريقةً لتوزيع ثرواتنا بشكلٍ أفضل فإننا سنعمل على تغذية الرأسمالية بعمال الذكاء الاصطناعي، الأمر الذي لا يخدم إلا القليل جدًّا ممن يملكون جميع وسائل الإنتاج.

إمسح وإقرأ

المصادر

شارك

المساهمون


اترك تعليقاً () تعليقات