أثار تطبيق الذكاء الاصطناعي DeepSeek، الذي طورته شركة صينية، موجة من القلق والجدل في أوروبا بسبب المخاوف الأمنية المتعلقة بتخزين البيانات واسع النطاق وانتشار مخاطر انتهاك الخصوصية، وقد دفع ذلك العديد من الجهات التنظيمية الأوروبية إلى إصدار بيانات عاجلة تحذر من المخاطر المحتملة لاستخدام التطبيق.
إيطاليا تحظر DeepSeek بسبب مخاوف أمنية
في خطوة جذرية، قامت إيطاليا بحظر تطبيق DeepSeek بشكل مباشر، معلنة أن النموذج لن يكون متاحاً للمستخدمين الإيطاليين. جاء هذا القرار في إطار محاولات الحكومة الإيطالية لحماية أمن المعلومات ومنع أي محاولات تجسس محتملة من خلال التطبيق، خاصة مع وجود شكوك حول ارتباطه بحملات تجسس قادمة من الصين.
هيئات أوروبية تحذر من عدم امتثال التطبيق لقواعد حماية البيانات
من جهتها، نشرت هيئة تنظيم البيانات الهولندية بياناً رسمياً حذرت فيه من خطورة تطبيق DeepSeek، مشيرة إلى أن النموذج لا يمتثل بالكامل لقواعد الاستخدام العادل التي تضمن حماية بيانات المستخدمين. وأكدت الهيئة أن هذا الأمر يشكل تهديداً كبيراً في عالم التجسس وانتهاك الخصوصية.
مخاوف ألمانية: DeepSeek يهدد الأمن القومي عبر كشف الهويات الرقمية
وفي ألمانيا، أعربت المتحدثة باسم المكتب الفيدرالي المتخصص في التكنولوجيا عن مخاوفها من استخدام الذكاء الاصطناعي عبر DeepSeek، مشيرة إلى قدرة التطبيق على كشف الهويات الرقمية للمستخدمين والوصول إلى بياناتهم الخاصة والمعلومات الحساسة. وأكدت أن هذا يشكل خطراً على الأمن القومي، خاصة مع امتثال النموذج للقواعد الصينية وتخزين البيانات عبر خوادم موجودة في الصين.
غياب ممثل قانوني للشركة المطورة يزيد من مخاوف التجسس
والجدير بالذكر أن الهيئات الأوروبية تلزم الشركات المطورة لنماذج الذكاء الاصطناعي بتعيين ممثل قانوني في حال عدم وجود منشأة محلية لها في أوروبا. إلا أن الصين لم تتخذ هذه الخطوة، مما أثار مخاوف إضافية لدى الحكومات الأوروبية، خاصة مع عدم وجود كيان فعلي للشركة المطورة للتطبيق في أوروبا، مما يزيد من احتمالية استخدام التطبيق كأداة للتجسس.
هذه التطورات تضع DeepSeek في مواجهة تحديات قانونية وأمنية كبيرة، وتفتح الباب أمام نقاشات أوسع حول ضرورة تعزيز قواعد حماية البيانات ومراقبة تطبيقات الذكاء الاصطناعي ذات الأصول الأجنبية.
0 تعليق