من يتحمل المسؤولية القانونية عن أخطاء الذكاء الاصطناعي في السعودية؟
لم يعد الذكاء الاصطناعي مجرد وسيلة تقنية مساعدة، بل أصبح فاعلاً مؤثراً في بنية القرار الإداري والاقتصادي والطبي. فالتطبيقات المعتمدة على الخوارزميات الذكية أصبحت تستخدم في تشخيص الأمراض، وتحليل البيانات المالية، واتخاذ بعض القرارات الإدارية، بل وحتى في أنظمة المركبات الذكية.
ومع هذا التحول لم تعد الإشكالية القانونية محصورة في مدى دقة الخوارزميات أو كفاءة الأنظمة التقنية، بل امتدت إلى سؤال قانوني أكثر عمقاً:
كيف يمكن تطبيق قواعد المسؤولية القانونية التقليدية على أفعال لم تصدر مباشرة عن إنسان، وإنما عن نظام تقني يتعلم ذاتياً ويتطور بمرور الزمن؟
ويكتسب هذا السؤال أهمية خاصة في ظل توسع استخدام تقنيات الذكاء الاصطناعي في القطاعات الحكومية والخاصة داخل المملكة العربية السعودية.
ومع أن النظام السعودي – شأنه شأن أغلب الأنظمة القانونية – لم يفرد حتى الآن تنظيماً تشريعياً مستقلاً لمسؤولية الذكاء الاصطناعي، إلا أن القواعد العامة في المسؤولية المدنية والإدارية توفر إطاراً قانونياً يمكن من خلاله معالجة كثير من هذه الإشكالات.
في الواقع العملي، بدأت تطبيقات الذكاء الاصطناعي تدخل في مجالات حساسة مثل التشخيص الطبي، واتخاذ القرارات الائتمانية، وتحليل البيانات الإدارية، مما يثير تساؤلاً قانونياً حول من يتحمل المسؤولية عند وقوع خطأ ناتج عن هذه الأنظمة.
مثال عملي:
إذا اعتمدت جهة صحية على نظام ذكاء اصطناعي لتشخيص حالة مرضية، وأصدر النظام نتيجة خاطئة أدت إلى تأخر العلاج أو اتخاذ إجراء طبي غير مناسب، فإن الإشكالية القانونية لا تتعلق فقط بخطأ النظام، بل بتحديد المسؤول: هل هو الطبيب الذي اعتمد على النظام؟ أم الجهة المشغلة؟ أم الشركة المطورة للنظام؟
ومن هذا المثال يتضح أن الإشكال القانوني لا يتعلق بوجود الخطأ فقط، بل بتحديد الطرف المسؤول عنه في بيئة تقنية معقدة.
أولاً: التكييف القانوني للذكاء الاصطناعي في ضوء القواعد القضائية
استقر القضاء السعودي في العديد من الأحكام على أن المسؤولية القانونية لا تقوم إلا على شخص طبيعي أو اعتباري، وأن الأشياء أو الآلات لا تُسأل بذاتها، وإنما يُسأل من له السيطرة الفعلية عليها.
وبالقياس على هذا الاتجاه القضائي، فإن أنظمة الذكاء الاصطناعي – مهما بلغت درجة استقلالها التقني – تظل في حكم الأداة أو الوسيلة التقنية التي يستخدمها الإنسان.
ومن ثم فإن المسؤولية القانونية لا يمكن أن تُنسب إلى النظام ذاته، بل تُنسب إلى أحد الأطراف المرتبطة به، مثل:
-
المستخدم
-
الجهة المشغلة للنظام
-
الشركة المطورة للنظام
-
الجهة المستفيدة اقتصادياً منه
ويقود هذا التكييف إلى نتيجتين أساسيتين:
-
لا محل لمساءلة نظام الذكاء الاصطناعي بذاته.
-
تُبحث المسؤولية القانونية في نطاق الحراسة أو الإشراف أو الاستفادة الاقتصادية من النظام.
ثانياً: المسؤولية التقصيرية وتطبيقاتها المحتملة
تعد المسؤولية التقصيرية من أهم الأطر القانونية التي يمكن من خلالها معالجة أخطاء الذكاء الاصطناعي.
فالقواعد العامة في المسؤولية التقصيرية تقوم على ثلاثة أركان رئيسية:
-
الخطأ
-
الضرر
-
العلاقة السببية
وعند تطبيق هذه القواعد على أنظمة الذكاء الاصطناعي، يثور التساؤل حول كيفية تحديد الخطأ وإسناده.
1- الخطأ التقني وإسناده
القضاء السعودي درج على مساءلة من يباشر نشاطاً يترتب عليه ضرر متى ثبت تقصيره في الرقابة أو الصيانة أو الإشراف.
ويمكن القياس في هذا المجال على الاتجاه القضائي في قضايا الأخطاء الطبية.
فقد استقر القضاء على أن اعتماد الطبيب على جهاز طبي لا يعفيه من مسؤوليته المهنية، إذ يظل ملزماً بالتحقق من صحة النتائج في ضوء المعطيات الطبية الأخرى.
وبالقياس على ذلك، إذا اعتمدت جهة صحية على نظام ذكاء اصطناعي لتشخيص الأشعة الطبية، وأهمل الطبيب مراجعة النتيجة رغم وجود مؤشرات سريرية مخالفة، فقد تنسب المسؤولية إليه بوصفه صاحب القرار الطبي النهائي.
أما إذا ثبت أن النظام نفسه معيب برمجياً، وأن العيب جوهري وغير ظاهر للمستخدم العادي، فقد تمتد المسؤولية إلى الشركة المطورة للنظام.
2- علاقة السببية في الأنظمة المعقدة
من المبادئ المستقرة في القضاء أن عبء إثبات العلاقة السببية يقع على المدعي.
غير أن القضاء قد يلجأ إلى القرائن الفنية متى كان الضرر متصلاً اتصالاً مباشراً بالنشاط محل النزاع.
وفي سياق الذكاء الاصطناعي قد يصبح إثبات العلاقة السببية أكثر تعقيداً بسبب الطبيعة التقنية المعقدة للأنظمة.
مثال تطبيقي
إذا استخدمت مؤسسة مالية نظام تقييم ائتماني يعتمد على خوارزميات الذكاء الاصطناعي، وأدى خلل في هذه الخوارزمية إلى رفض تمويل عميل رغم استيفائه الشروط، فإن إثبات الخطأ قد يستند إلى تقرير خبير تقني يوضح وجود خلل في النظام.
وفي مثل هذه الحالة لن يناقش القضاء الخوارزمية من الناحية التقنية البحتة، بل سيركز على الأسئلة القانونية الأساسية، مثل:
-
هل كان هناك خلل موضوعي في النظام؟
-
هل مارست الجهة رقابة بشرية كافية؟
-
هل كان الضرر نتيجة مباشرة لذلك الخلل؟
ثالثاً: المسؤولية العقدية في المشاريع التقنية
في البيئة الإدارية والاقتصادية الحديثة تبرم الجهات الحكومية والشركات الخاصة عقوداً مع شركات تقنية لتطوير أنظمة الذكاء الاصطناعي.
وفي هذه الحالة قد تنشأ المسؤولية في إطار العلاقة التعاقدية.
فإذا أخلت الشركة المطورة بالتزاماتها التعاقدية، مثل:
-
تسليم نظام غير مطابق للمواصفات
-
وجود عيوب برمجية جوهرية
-
ضعف معايير الأمان التقني
فإنها قد تتحمل المسؤولية العقدية عن الأضرار الناتجة عن ذلك.
وفي العقود الحكومية قد تكون الجهة الإدارية مسؤولة تجاه الغير المتضرر، مع احتفاظها بحق الرجوع على الشركة المطورة.
رابعاً: مسؤولية المنتج في الأنظمة الذكية
في بعض الحالات يمكن تطبيق قواعد مسؤولية المنتج على أنظمة الذكاء الاصطناعي.
فالقضاء في قضايا المنتجات المعيبة يأخذ بمبدأ ضمان السلامة المتوقعة للمنتج.
فإذا ثبت أن المنتج لا يحقق مستوى الأمان المعتاد، قامت مسؤولية منتجه.
مثال تطبيقي
إذا كانت مركبة مزودة بنظام قيادة ذكي أو نظام مساعدة قيادة متقدم، وفشل هذا النظام في الاستجابة لتحذير تصادم بسبب خلل برمجي، فإن الشركة المصنعة قد تتحمل المسؤولية إذا ثبت أن الخلل سابق على الاستخدام.
ويكون المعيار القانوني في هذه الحالة هو:
هل وفر النظام مستوى الأمان المتوقع في منتج من هذا النوع؟
خامساً: المسؤولية في القرارات الإدارية المعتمدة على الذكاء الاصطناعي
تزداد أهمية هذه المسألة عندما تستخدم الجهات الحكومية أنظمة الذكاء الاصطناعي في اتخاذ بعض القرارات الإدارية.
فإذا صدر قرار إداري بناءً على تحليل آلي دون تحقق بشري كافٍ، فإن الإشكالية لا تتعلق فقط بالمسؤولية المدنية، بل تمتد إلى مشروعية القرار الإداري ذاته.
فالقضاء الإداري السعودي مستقر على أن القرار الإداري يجب أن يقوم على سبب صحيح وثابت في الواقع.
فإذا كان سبب القرار مستنداً إلى تحليل خوارزمي خاطئ، فإن العيب يلحق القرار الإداري نفسه.
مثال تطبيقي
لو استخدمت جهة حكومية نظاماً ذكياً لتحليل استحقاق دعم اجتماعي، وأخطأ النظام في احتساب دخل المستفيد بسبب بيانات غير دقيقة، ثم صدر قرار بإيقاف الدعم.
عند الطعن أمام القضاء الإداري قد يطرح القاضي الأسئلة التالية:
-
هل تحقق الموظف المختص من صحة البيانات؟
هل كان القرار آلياً بالكامل؟
هل أُتيح للمستفيد حق التظلم والمراجعة؟
فإذا تبين غياب الرقابة البشرية الكافية، فقد يعتبر القرار مشوباً بعيب السبب أو مخالفة الإجراءات.
سادساً: مستقبل تنظيم مسؤولية الذكاء الاصطناعي
مع التوسع في استخدام الأنظمة ذاتية التعلم، قد يصبح من الصعب تطبيق القواعد التقليدية للمسؤولية في جميع الحالات.
ولهذا بدأت بعض الأنظمة القانونية المقارنة في دراسة نماذج جديدة للمسؤولية، مثل:
-
المسؤولية القائمة على المخاطر التقنية
-
مسؤولية المنتج الموسعة
-
أنظمة التأمين الإلزامي للأنشطة عالية الخطورة
وقد يؤدي التطور المستقبلي للتقنيات الذكية إلى تدخل تشريعي يضع إطاراً قانونياً خاصاً لمسؤولية الذكاء الاصطناعي.
خاتمة
إن المسؤولية القانونية عن أخطاء الذكاء الاصطناعي في النظام السعودي لا تستلزم – في المرحلة الحالية – إنشاء نظام قانوني جديد بالكامل، بل يمكن معالجتها في ضوء القواعد العامة للمسؤولية المدنية والإدارية.
فاتجاهات القضاء السعودي في:
-
مساءلة الحارس عن الشيء
-
تحميل المهني واجب التحقق
-
ضمان سلامة المنتج
-
اشتراط صحة السبب في القرار الإداري
فهي توفر إطاراً قانونياً يمكن من خلاله معالجة كثير من الإشكالات الناشئة عن استخدام الذكاء الاصطناعي.
غير أن التوسع في استخدام الأنظمة ذاتية التعلم قد يفرض مستقبلاً تدخلاً تنظيمياً أكثر تحديداً، خاصة في الأنشطة التي تنطوي على مخاطر عالية.
فالذكاء الاصطناعي لا يلغي المسؤولية القانونية، بل يعيد توزيعها بين الأطراف المرتبطة بالنظام التقني.
تعليقات
إرسال تعليق