الاكثر قراءةتحليلات و آراءغير مصنف
المسؤولية الجنائية عن استخدامات الذكاء الاصطناعي.. إشكالية الإسناد في النظم الذكية

بقلم: الباحثة رنا عمار سعيد
جامعة الامام جعفر الصادق
يشهد العالم في العصر الرقمي تطوراً متسارعاً في تقنيات الذكاء الاصطناعي، الأمر الذي انعكس بصورة مباشرة على مختلف فروع القانون، ولا سيما القانون الجنائي، حيث أفرزت هذه التقنيات أنماطاً جديدة من السلوك الإجرامي يصعب إخضاعها للقواعد التقليدية فقد تجاوزت الأنظمة الذكية كونها مجرد أدوات مساعدة إلى كونها كيانات قادرة على التعلم الذاتي واتخاذ القرار وتنفيذ الأفعال في بعض الحالات دون تدخل بشري مباشر، وهو ما يثير إشكالية قانونية جوهرية تتعلق بتحديد المسؤولية الجنائية عن الأفعال الضارة الصادرة عنها ويُعد الذكاء الاصطناعي في هذا السياق مجموعة من الأنظمة البرمجية المتقدمة التي تحاكي القدرات البشرية في التفكير والتحليل، إلا أن خطورته تكمن في إمكانية استخدامه في ارتكاب جرائم معاصرة، مثل التزييف العميق، والاحتيال الإلكتروني، وانتهاك الخصوصية الرقمية، والهجمات السيبرانية، فضلًا عن احتمالية انحراف سلوك النظام ذاته نتيجة خاصية التعلم الذاتي، بما يؤدي إلى نتائج لم يكن المبرمج أو المستخدم قد توقعها ومن هنا، تبرز إشكالية الإسناد الجنائي إذ يقوم القانون الجنائي التقليدي على مبدأ شخصية المسؤولية، الذي يقتضي وجود فاعل بشري يتمتع بالإرادة والإدراك، غير أن هذا المبدأ يواجه تحدياً حقيقياً في ظل الأنظمة الذكية التي تتسم بالتعقيد والاستقلال النسبي مما يثير التساؤل حول الجهة التي ينبغي مساءلتها جنائياً وقد انقسم الفقه القانوني في هذا الصدد إلى عدة اتجاهات، حيث يرى اتجاه أول ضرورة إسناد المسؤولية إلى المستخدم متى ثبت تعمده استخدام النظام لارتكاب الجريمة، في حين يذهب اتجاه ثانٍ إلى تحميل المبرمج أو المطور المسؤولية في حال ثبوت وجود خلل في التصميم أو إهمال تقني أدى إلى وقوع الفعل الجرمي، بينما يتجه رأي ثالث إلى إسناد المسؤولية إلى الشخص المعنوي، أي الشركة المنتجة أو المشغلة للأنظمة الذكية، إذا ما ثبت تقصيرها في الرقابة أو في اتخاذ التدابير الكفيلة بمنع الاستخدام غير المشروع وفي مقابل هذه الاتجاهات، يبرز رأي فقهي حديث يدعو إلى منح الذكاء الاصطناعي شخصية قانونية مستقلة، إلا أن هذا الطرح لا يزال محل جدل كبير، نظراً لما يثيره من إشكالات فلسفية وقانونية تتعلق بطبيعة الشخصية القانونية ذاتها وتزداد هذه الإشكالية تعقيدًا بسبب مجموعة من التحديات العملية، من أبرزها صعوبة إثبات القصد الجنائي في الأفعال المرتبطة بالأنظمة الذكية، وتعقيد العلاقة السببية بين الفعل والفاعل، وتعدد الأطراف المتداخلة في تصميم وتشغيل النظام، فضلًا عن غياب نصوص قانونية صريحة تنظم هذه المسألة في العديد من الأنظمة القانونية.
وعلى صعيد التشريعات المقارنة، بدأ الاتحاد الأوروبي في وضع إطار تنظيمي للذكاء الاصطناعي قائم على تقييم المخاطر وتنظيم استخداماته وفق مستوياتها، مع التركيز على مسؤولية الجهات المسيطرة على هذه الأنظمة، كما اتجهت بعض الأنظمة القانونية إلى توسيع نطاق المسؤولية ليشمل حالات الإهمال التقني وسوء الرقابة، في حين لا يزال المشرّع العراقي يفتقر إلى تنظيم خاص بهذا المجال، مما يضطر إلى تطبيق القواعد العامة في قانون العقوبات، وهو ما يكشف عن وجود فراغ تشريعي واضح يستوجب المعالجة وبناءً على ما تقدم، يتضح أن الذكاء الاصطناعي يفرض إعادة النظر في الأسس التقليدية للمسؤولية الجنائية، لا سيما فيما يتعلق بإسناد الفعل الجرمي، الأمر الذي يستدعي تطوير إطار قانوني حديث يوازن بين متطلبات الحماية الجنائية وتشجيع الابتكار التقني، وذلك من خلال سن تشريعات متخصصة تعتمد على معيار الرقابة الفعلية في تحديد المسؤولية، وتعزيز التعاون الدولي في مواجهة الجرائم المرتبطة بالتقنيات الحديثة، بما يضمن تحقيق العدالة الجنائية في ظل التحولات الرقمية المتسارعة.




