أوصى بحث للدكتورة سهير المهندي بإنشاء إطار قانوني وأخلاقي موحّد لتنظيم استقلالية أنظمة الذكاء الاصطناعي، بإشراف بشري، وإيجاد رخص حكومية لأنظمة الذكاء الاصطناعي لضمان معايير السلامة، لمنع جرائمه وتطوير دراسات متخصّصة حول المسؤولية الجنائية المرتبطة به، مشيرة إلى القصور التشريعي في التعامل مع تلك الجرائم لعدم استيعاب المشرّع لكافة فرضيات المستقبل وتعقيدات التكنولوجيا وسرعة تطورها.
وحصلت الباحثة على درجة الماجستير في العلوم الجنائية من الأكاديمية الملكية للشرطة من مملكة البحرين بدرجة امتياز، والتي تُعدّ شهادة علمية إضافية على تخصّصاتها العلمية السابقة، حيث ناقشت رسالتها التخصّصية والموسومة بالعنوان «جرائم الذكاء الاصطناعي وآليات مواجهتها على المستويين الدولي والوطني» من قِبل لجنة ذات خبرة متعمّقة في المجال مكونة من البروفسور د.محمد أبوعمود رئيس اللجنة والمناقش الداخلي للرسالة، ود.عبدالكريم عبادي النجار المشرف والعضو الداخلي من الأكاديمية الملكية للشرطة، والبروفسور د.علاء الدين يوسف العمر المناقش الخارجي من جامعة البحرين.
وتناولت الدراسة في مضمونها تحديد المشكلة حول اختلاف أهداف التوجّهات البشرية في استخدام الذكاء الاصطناعي، والتي تتحوّل لدى البعض من الاتجاه الإيجابي إلى السلبي مؤدياً إلى ارتكاب جرائم إلكترونية حديثة على المستويين الدولي والوطني، حيث الصراع المحتدم بين الاستخدامين في ظل حاجة البشر المتطورة للاستفادة من الذكاء الاصطناعي في كافة مجالات الحياة التي جاوزت حدود العقل البشري.
وتمثّل جوهر الدراسة في تحديد جرائم الذكاء الاصطناعي الناتجة من الاستخدام السلبي للذكاء الاصطناعي، وآليات مواجهتها على المستويين الدولي والوطني، من خلال طرح السؤال الرئيس: «ما هي جرائم الذكاء الاصطناعي وآليات مواجهتها على المستويين الدولي والوطني؟» ومنها تناولت الدراسة محتواها العلمي المتعمق في المضمون التالي: ماهية الذكاء الاصطناعي، ومخاطره، وجرائمه، والتنظيم القانوني له، إضافة إلى التحديات والآليات المقترحة لمواجهة هذه الجرائم على المستويين الدولي والوطني، حيث اعتمدت هذه الدراسة على المنهج الوصفي لتحليل المشكلة علمياً من خلال دراسة الأدبيات المتاحة، والبحوث السابقة، والمستجدات التقنية.
وقد جاءت النتائج المستخلصة بعد الاستفاضة والتحليل العلمي المتعمق لهذه الدراسة أن الذكاء الاصطناعي يُعدّ مفهوماً متعدّد المجالات يعتمد على خوارزميات قادرة على اتخاذ قرارات ذكية جزئية أو كلية، كما أن مخاطر الذكاء الاصطناعي شملت تهديد الخصوصية، وتحيز البيانات، واختفاء بعض المهن، واضطراب ميزان القوى العالمية، وهذه المخاطر تطورت مع الأجيال المتقدمة من الذكاء الاصطناعي التي تجاوزت حدود الذكاء البشري في مختلف المجالات.ونبهت الباحثة إلى افتقار التنظيم القانوني لتحديد المسؤولية الجنائية في جرائم الذكاء الاصطناعي، خاصة في ظل اختلاف الثقافات والقوانين بين الدول، فيما لفتت إلى أن جرائم الذكاء الاصطناعي تتنوع بين جرائم غير عمدية عن غير قصد نتيجة سوء الاستخدام وعدم المعرفة والوعي التام بهذه التقنيات الحديثة وبرامجها، وأخرى عمدية من خلال التلاعب في برامج أنظمة الذكاء الاصطناعي وأجهزتها الروبوتية واستغلالها لصالح أحد الأطراف من المبرمج أو المصنع أو المستخدم أو المنتج أو المطور حيث التنافس الدولي لهذه الصناعة والتي زادت من فقر الدول النامية وتأزمها.وأشارت إلى التحديات الخاصة بوجود الفجوة التكنولوجية بين الدول النامية والمتقدمة، وصعوبة تحديد المسؤولية الجنائية عن مرتكب الجريمة، مما أثار جدلاً قانونياً وأخلاقياً زاد صعوبة في وجود القصور التشريعي للتعامل مع هذا النوع من الجرائم لعدم استيعاب المشرع لكافة فرضيات المستقبل، وتأثيرات تطبيقات الذكاء الاصطناعي، واختلاف وجهات النظر ما بين مؤيد ومعارض للاستخدام، ولتعقيدات هذا النوع من التكنولوجيا ونقص المعرفة به، وسرعة تطورها واختلاف الثقافات.
وقالت إن آليات المواجهة الدولية والوطنية تركزت على مبادئ القانون الدولي لحقوق الإنسان من خلال وضع مواثيق ومدونات خاصة، حيث انفردت كل دولة بمفردها في وضع مواثيق ومدونات خاصة وأدلة إرشادية لتكون هي الاستراتيجيات التي عملت على مواجهة أي نوع من الجرائم المرتكبة بفعل هذه التقنية الحديثة من الذكاء الاصطناعي، ومن هذه المبادئ: عدم التمييز والتناسب والحيطة لتنظيم استخدام أنظمة الذكاء الاصطناعي وبرامجه مع ضرورة إشراف البشر على هذه الأنظمة الحديثة لضمان استمرارية الاستفادة من هذه التقنية وإبداعاتها لحماية البشرية من أضرارها. كما تبيّن من الدراسة أنه لا يوجد تنسيق دولي موحّد في وضع آليات مثل مواثيق ومدونات دولية موحدة، وإنما كان هناك انفراد وطني في وضع مواثيق ومدونات خاصة وأدلة إرشادية مع وجود ضمانات أثناء تطوير القوانين الجديدة في مقابل وجود حلول لمواجهة جرائم الذكاء الاصطناعي، وحماية صناعاتها للاستفادة منها بما يخدم البشرية.
وأوصت الباحثة بإنشاء إطار قانوني وأخلاقي موحّد لتنظيم استقلالية أنظمة الذكاء الاصطناعي، مع التأكيد على ضرورة الإشراف البشري، ومراجعة المواثيق الدولية لاختيار مبادئ أخلاقية تتماشى مع الجميع، ووضع رخص حكومية لأنظمة الذكاء الاصطناعي لضمان معايير السلامة، كما دعت لتعزيز التعاون الدولي وتبادل الخبرات في المجالات المتعلقة بالذكاء الاصطناعي، ورفع مستوى التوعية المجتمعية حول مخاطر الذكاء الاصطناعي، وتطوير دراسات متخصّصة حول المسؤولية الجنائية المرتبطة به.
وطالبت بإنشاء هيئات رقابية دولية للإشراف على تطوير الذكاء الاصطناعي وفرض ضوابط أخلاقية وقانونية للحَدّ من استخدامه فيما يضر البشر، وتطوير آليات رقابية واتفاقيات دولية تعزّز التعاون بين الدول لضمان الاستخدام المسؤول للتقنية، مع إشراك خبراء قانونيين وتقنيين لتجنب القصور التشريعي، وإيجاد إطار تنظيمي عالمي لضمان الاستخدام الآمن والمسؤول لهذه التكنولوجيا المتقدمة، مؤكدة على أهمية التوازن بين الاستفادة من تطبيقات الذكاء الاصطناعي وتجنّب مخاطره.
0 تعليق