يمكنك الاستماع إلى المقال عوضاً عن القراءة
عندما يرتكب الذكاء الاصطناعي الجرائم، من يتحمل العقوبة؟

يتناقش علماء القانون حول القوانين التي يجب تطبيقها لجريمة الذكاء الاصطناعي.

إليك السؤال الغريب: تخيل أنه بحلول 2023 سنجد السيارات ذاتية القيادة تنتقل ضمن أحياء مدينتنا، لأول مرة تصدم إحداها أحد المشاة وتقتله، من المحتمل وجود دعوةٍ قضائيةٍ بارزةٍ في إطار تغطيةٍ إعلاميةٍ ضخمةٍ. لكن دعونا نتساءل ما هي القوانين التي ينبغي تطبيقها؟

نملك اليوم إجابةً عن ذلك بفضل جون كينغستون John Kingston في جامعة برايتون University of Brighton في المملكة المتحدة، إذ كشف تحليله الستار عن مجموعةٍ من الجوانب الهامة التي تسبب مشاكل جديةً في مجالاتٍ عدةٍ، كمجال صناعة السيارات والحوسبة والمجال القضائي، هذا إن لم تكن المشاكل قد بدأت بالفعل.

وفي صميم النقاش حول إمكانية اعتبار نظام الذكاء الاصطناعي مسؤولًا جنائيًا عن أفعاله يقول كينغستون بأن غابرييل هاليفي Gabriel Hallevy، من كلية أونو الأكاديمية Ono Academic College، قد بحث هذه المسألة بالتفصيل.

Artificial intelligence
Artificial intelligence


وعادةً ما تتطلب المسؤولية الجنائية الفعل والنية الإجرامية. وفي هذا الصدد يقول كينغستون بأن هاليفي يستكشف ثلاثة مخططاتٍ افتراضيةٍ يمكن تطبيقها لأنظمة الذكاء الاصطناعي. أولها هو استخدام وسيطٍ لارتكاب الجريمة، فعندما يرتكب الجريمة شخصٌ قاصرٌ عقليًا أو حيوان، يُعتبر بريئًا. ولكن يمكن اعتبار أيّ شخصٍ أصدر التعليمات للجاني مسؤولًا جنائيًا. على سبيل المثال، صاحب الكلب الذي أصدر تعليماتٍ للحيوان بمهاجمة فردٍ آخر. وهذا يؤثر في أولئك الذين يصممون آلاتٍ ذكيةً وأولئك الذين يستخدمونها.

يُعرَف السيناريو الثاني بإساءة استخدام النظام لارتكاب الجريمة، ويحدث عندما تُستخدم الإجراءات العادية لنظام الذكاء الاصطناعي بشكلٍ غير مناسبٍ لأداء عملٍ إجراميٍّ. ويقدم كينغستون مثالًا عن روبوت ذكاء اصطناعي في معمل دراجاتٍ يابانيٍّ قتل عاملًا بشريًا، ويقول: "حدد الروبوت الموظف بشكلٍ خاطئٍ واعتبره تهديدًا لمهمته، واعتبر أن الطريقة الأكثر فاعليةً للقضاء على هذا التهديد هي دفعه إلى آلة التشغيل المجاورة. دفع الروبوت العاملَ باستخدام ذراع الهيدروليك القوية جدًا باتجاه الآلة، ما أدى إلى مقتله على الفور ثم تابع واجباته".

السؤال الرئيس هنا هو ما إذا عَلِمَ مبرمج الآلة باحتمالية ظهور هذه النتيجة؟ السيناريو الثالث هو المسؤولية المباشرة والذي يتطلب الفعل والنية. يلزم عندها إثبات ما إذا كان نظام الذكاء الاصطناعي يتخذ إجراءً يؤدي إلى عملٍ إجراميٍّ أو يخفق في اتخاذ الإجراء.

يُعتبر تحديد النية أكثر صعوبةً، يقول كينغستون: "السرعة هي جريمةٌ صارمةٌ المسؤولية. لذا وفقًا لـ هاليفي إذا وُجدت سيارةٌ ذاتية القيادة قد تجاوزت حدود السرعة على الطريق الذي تسير عليه، قد يحيل القانون المسؤولية الجنائية إلى برنامج الذكاء الاصطناعي الذي كان يقود السيارة في ذلك الوقت". في هذه الحالة، قد لا يكون المالك مسؤولًا.

ثم هناك مسألة الدفاع، إذا جُرِّم نظام الذكاء الاصطناعي ما الدفاع الذي يمكن استخدامه؟ يثير كينغستون عددًا من الاحتمالات مثل هل يمكن للبرنامج الذي يعمل بشكلٍ خاطئٍ أن يدعي دفاعًا مماثلًا للدفاع البشري بحجة الجنون؟ هل يمكن للذكاء الاصطناعي المتأثر بفيروس إلكتروني أن يدعي دفاعاتٍ مشابهةً للإكراه أو التسمم؟

هذه الأنواع من الدفاعات ليست نظريةً على الإطلاق. يسلط كينغستون الضوء على عددٍ من الحالات في المملكة المتحدة، حيث نجح الأشخاص المتهمون بجرائمَ متعلقةٍ بالحاسوب في القول بأن أجهزتهم قد أُصيبت ببرامجَ ضارةٍ كانت مسؤولةً عن الجريمة.

في إحدى الحالات، ادعى أحد قراصنة الحاسب المراهقين المتهم بتنفيذ هجوم تعطيل الخدمة، بأن برنامج طروادة هو من كان مسؤولًا عن ذلك، وقد مسح البرنامج نفسه قبل أن يُحلَّل بوساطة التحليل الجنائي. يقول كينغستون: "أقنع محامي المُدّعى عليه هيئة المحلفين بنجاحٍ أن مثل هذا السيناريو لا يدع مجالًا للشك".

أخيرًا، هناك قضية العقوبة. من أو ما الذي يمكن أن يعاقب على الجريمة التي يكون نظام الذكاء الاصطناعي مسؤولًا عنها مباشرةً، وما هو الشكل الذي ستتخذه هذه العقوبة؟ في الوقت الراهن، لا توجد أجوبةٌ لهذه الأسئلة. لكن قد لا تُطبَّق المسؤولية الجنائية، في هذه الحالة يجب تسوية المسألة بالقانون المدني. ثم سيكون السؤال الحاسم هو ما إذا كان نظام الذكاء الاصطناعي يمثل خدمةً أو منتجًا. إذا كان منتجًا، فسيُطبَّق قانون تصميم المنتج بناءً على الضمان، على سبيل المثال.

أما إذا كانت خدمةً، فإن ضرر الإهمال ينطبق في هذه الحالة، وعلى المدعي عادةً أن يبرهن ثلاثة عناصر لإثبات الإهمال. الأولى هو أن المتهم (المدعى عليه) كان عليه واجب الرعاية، وعادةً ما يكون من السهل إظهاره، على الرغم من أن معيار الرعاية قد يصعب تقييمه في حالة وجود الذكاء الاصطناعي، كما يقول كينغستون.

العنصر الثاني هو أن المدعى عليه (المتهم) خالف ذلك الواجب. والثالث هو أن ذلك الخرق قد سبب الإصابة للمدعي. وإذا لم يكن كلّ هذا واضحًا بما فيه الكفاية، فقد يتغير الوضع القانوني بالنسبة لأنظمة الذكاء الاصطناعي لأن قدراتها تصبح أكثر شبهًا بالإنسان وربما حتى تتجاوز قدرات الإنسان.

شيءٌ واحدٌ مؤكدٌ أنه في السنوات القادمة من المحتمل أن تكون هناك بعض المتعة عند تعامل المحامين، أو أنظمة الذكاء الاصطناعي التي تحل محلهم، مع كلّ هذا.

إمسح وإقرأ

المصادر

شارك

اترك تعليقاً () تعليقات