random
موضوعات هامة

ما مدي إمكانية اعتبار نظام الذكاء الاصطناعي مسؤولًا جنائيًا عن أفعاله ؟؟

 


عادةً ما تتطلب المسؤولية الجنائية الفعل والنية الإجرامية. وفي هذا الصدد يقول كينغستون العالم في جامعة برايتون يحدد ثلاثة مخططاتٍ افتراضيةٍ يمكن تطبيقها لأنظمة الذكاء الاصطناعي.

أولها هو استخدام وسيطٍ لارتكاب الجريمة، فعندما يرتكب الجريمة شخصٌ قاصرٌ عقليًا أو حيوان، يُعتبر بريئًا. ولكن يمكن اعتبار أيّ شخصٍ أصدر التعليمات للجاني مسؤولًا جنائيًا. على سبيل المثال، صاحب الكلب الذي أصدر تعليماتٍ للحيوان بمهاجمة فردٍ آخر. وهذا يؤثر في أولئك الذين يصممون آلاتٍ ذكيةً وأولئك الذين يستخدمونها.

يُعرَف السيناريو الثاني بإساءة استخدام النظام لارتكاب الجريمة، ويحدث عندما تُستخدم الإجراءات العادية لنظام الذكاء الاصطناعي بشكلٍ غير مناسبٍ لأداء عملٍ إجراميٍّ. ويقدم كينغستون مثالًا عن روبوت ذكاء اصطناعي في معمل دراجاتٍ يابانيٍّ قتل عاملًا بشريًا، ويقول: "حدد الروبوت الموظف بشكلٍ خاطئٍ واعتبره تهديدًا لمهمته، واعتبر أن الطريقة الأكثر فاعليةً للقضاء على هذا التهديد هي دفعه إلى آلة التشغيل المجاورة. دفع الروبوت العاملَ باستخدام ذراع الهيدروليك القوية جدًا باتجاه الآلة، ما أدى إلى مقتله على الفور ثم تابع واجباته". السؤال الرئيس هنا هو ما إذا عَلِمَ مبرمج الآلة باحتمالية ظهور هذه النتيجة؟

السيناريو الثالث هو المسؤولية المباشرة والذي يتطلب الفعل والنية. يلزم عندها إثبات ما إذا كان نظام الذكاء الاصطناعي يتخذ إجراءً يؤدي إلى عملٍ إجراميٍّ أو يخفق في اتخاذ الإجراء. يُعتبر تحديد النية أكثر صعوبةً، يقول كينغستون: "السرعة هي جريمةٌ صارمةٌ المسؤولية. لذا إذا وُجدت سيارةٌ ذاتية القيادة قد تجاوزت حدود السرعة على الطريق الذي تسير عليه، قد يحيل القانون المسؤولية الجنائية إلى برنامج الذكاء الاصطناعي الذي كان يقود السيارة في ذلك الوقت". في هذه الحالة، قد لا يكون المالك مسؤولًا. ثم هناك مسألة الدفاع، إذا جُرِّم نظام الذكاء الاصطناعي ما الدفاع الذي يمكن استخدامه؟ يثير كينغستون عددًا من الاحتمالات مثل هل يمكن للبرنامج الذي يعمل بشكلٍ خاطئٍ أن يدعي دفاعًا مماثلًا للدفاع البشري بحجة الجنون؟ هل يمكن للذكاء الاصطناعي المتأثر بفيروس إلكتروني أن يدعي دفاعاتٍ مشابهةً للإكراه أو التسمم؟ هذه الأنواع من الدفاعات ليست نظريةً على الإطلاق. يسلط كينغستون الضوء على عددٍ من الحالات في المملكة المتحدة، حيث نجح الأشخاص المتهمون بجرائمَ متعلقةٍ بالحاسوب في القول بأن أجهزتهم قد أُصيبت ببرامجَ ضارةٍ كانت مسؤولةً عن الجريمة. في إحدى الحالات، ادعى أحد قراصنة الحاسب المراهقين المتهم بتنفيذ هجوم تعطيل الخدمة، بأن برنامج طروادة هو من كان مسؤولًا عن ذلك، وقد مسح البرنامج نفسه قبل أن يُحلَّل بوساطة التحليل الجنائي. يقول كينغستون: "أقنع محامي المُدّعى عليه هيئة المحلفين بنجاحٍ أن مثل هذا السيناريو لا يدع مجالًا للشك". أخيرًا، هناك قضية العقوبة. من أو ما الذي يمكن أن يعاقب على الجريمة التي يكون نظام الذكاء الاصطناعي مسؤولًا عنها مباشرةً، وما هو الشكل الذي ستتخذه هذه العقوبة؟ في الوقت الراهن، لا توجد أجوبةٌ لهذه الأسئلة. لكن قد لا تُطبَّق المسؤولية الجنائية، في هذه الحالة يجب تسوية المسألة بالقانون المدني. ثم سيكون السؤال الحاسم هو ما إذا كان نظام الذكاء الاصطناعي يمثل خدمةً أو منتجًا. إذا كان منتجًا، فسيُطبَّق قانون تصميم المنتج بناءً على الضمان، على سبيل المثال. أما إذا كانت خدمةً، فإن ضرر الإهمال ينطبق في هذه الحالة، وعلى المدعي عادةً أن يبرهن ثلاثة عناصر لإثبات الإهمال. الأولى هو أن المتهم (المدعى عليه) كان عليه واجب الرعاية، وعادةً ما يكون من السهل إظهاره، على الرغم من أن معيار الرعاية قد يصعب تقييمه في حالة وجود الذكاء الاصطناعي، كما يقول كينغستون. العنصر الثاني هو أن المدعى عليه (المتهم) خالف ذلك الواجب. والثالث هو أن ذلك الخرق قد سبب الإصابة للمدعي. وإذا لم يكن كلّ هذا واضحًا بما فيه الكفاية، فقد يتغير الوضع القانوني بالنسبة لأنظمة الذكاء الاصطناعي لأن قدراتها تصبح أكثر شبهًا بالإنسان وربما حتى تتجاوز قدرات الإنسان. شيءٌ واحدٌ مؤكدٌ أنه في السنوات القادمة من المحتمل أن تكون هناك بعض المتعة عند تعامل المحامين، أو أنظمة الذكاء الاصطناعي التي تحل محلهم، مع كلّ هذا.

المصدر

google-playkhamsatmostaqltradent