نشر موقع Business Standard تقريراً صادما، يكشف خفايا عن الذكاء الاصطناعي تهدد خصوصية المستخدمين، حيث أعلن عن شروط خصوصية مريبة تنطوي عليها أدوات الذكاء الاصطناعي المخصصة لتحويل الصور إلى كرتون، باستخدام استوديو غبيلي " الياباني والمخصص لتصميم الصور المتحركة.
أطلقت عملاق التكنولوجيا Open AI نموذج GPT 4o الذي يوفر للمستخدمين خاصية تصميم الصور وفق نمط استوديو غبيلي، لكن يبدو أن هناك وجها مخيفا بانتظار المستخدمين حيث يتم التعامل بصورة سيئة مع البيانات ومدخلات الذكاء الاصطناعي، التي تتم من خلال هذه الأدوات.
تدريب الذكاء الاصطناعي وفبركة المحتوى
وبالرغم من كون الأمر ممتعا أن تعمل على تحويل صورك إلى نمط كرتوني بدافع التسلية، فإنه قد يتم استخدام صورك من أجل تدريب نماذج الذكاء الاصطناعي التوليدي، بحيث قد تفاجأ بإنشاء مقاطع فيديو متحركة أو صور بنمط معين لك؟
ويتعامل الذكاء الاصطناعي مع جميع المدخلات سواء كانت صورا، أو مقاطع صوتية، أو لقطات فيديو، كوسيلة تدريبية يتم استخدامها من أجل تدريب نماذج الذكاء الاصطناعي على إنشاء المحتوى، ومن الممكن تعرض الكثير لحملات تشويه بسبب استراتيجية التزييف العميق، فقد يعمل الذكاء الاصطناعي على إنتاج المحتوى التوليدي باستخدام صور ومقاطع المستخدمين.
الأختام الزمنية والحذف المرجعي
وذكر "فيسال سالفي"، الرئيس التنفيذي لشركة "Quick Hail Technologies" أن أدوات التصميم باستخدام تقنية الذكاء الاصطناعي تعمل وفق تكنولوجيا خوارزميات النقل العصبي "NST"، ويقصد بهذه التقنية إعادة دمج الصور مرة أخرى، من أجل إنشاء صور بأنماط أخرى، وهو ما يعرض خصوصية المستخدم للخطر.
اختراق البيانات وكشف هوية المستخدم
وتعمل أدوات الذكاء الاصطناعي على استراتيجية التخزين، وبالرغم من إمكانية حذف الصور بالفعل وعدم تخزينها فإنها تستغرق وقتاً طويلاً لدى خوادم الشركة حتى يتم تفريغها أو حذفها وبالتالي يتم استخدامها لتدريب نماذج الذكاء الاصطناعي ولو لفترة معينة.
ولا يقف الأمر عند هذا بل يتم تخزين البيانات الخاصة بالمستخدم وهاتفه وتواريخ الالتقاط ونوع الهاتف، وهو ما يمكن من خلاله الكشف عن العديد من الثغرات الأمنية الضارة.
0 تعليق