غوغل تتخلى عن تجنب استخدامات الذكاء الاصطناعي الضارة

الغد 0 تعليق ارسل طباعة تبليغ حذف

أزالت شركة غوغل التزامًا أخلاقيًا من مبادئها المتعلقة بالذكاء الاصطناعي، مما أثار مخاوف من احتمال سعيها لتطبيقات ضارة، بما في ذلك تكنولوجيا الأسلحة.اضافة اعلان


كما ستفرض غوغل قواعد أكثر صرامة ضد المراجعات المزيفة بعد تحقيق أجراه مراقب بريطاني.


قامت غوغل بإزالة جزء رئيسي من مبادئها الخاصة بالذكاء الاصطناعي، وهو القسم الذي كان يلتزم بتجنب التطبيقات الضارة المحتملة، بما في ذلك الأسلحة. كان القسم المحذوف، الذي يحمل عنوان "تطبيقات الذكاء الاصطناعي التي لن نسعى إليها"،

يصرح صراحةً بأن الشركة لن تطور تقنيات قد تسبب ضررًا، وذلك وفقًا لنسخ مؤرشفة من الصفحة راجعتها بلومبرغ.


أثار هذا التغيير قلق خبراء أخلاقيات الذكاء الاصطناعي. وانتقدت مارغريت ميتشل، الرئيسة السابقة لفريق أخلاقيات الذكاء الاصطناعي في غوغل والعالمة الرئيسية للأخلاقيات في شركة Hugging Face، هذه الخطوة قائلة: "إزالة هذا الالتزام يعني محو العمل الذي قام به العديد من الأشخاص في مجال أخلاقيات الذكاء الاصطناعي والنشاط الحقوقي داخل غوغل. والأخطر من ذلك، أنه يعني أن غوغل ستعمل الآن على نشر تقنيات يمكن أن تقتل الناس بشكل مباشر".


ومع تغيّر الضوابط الأخلاقية، تبقى التساؤلات قائمة حول كيفية تعامل غوغل مع المشهد المتغير للذكاء الاصطناعي—وهل يشير موقفها الجديد إلى توجه أوسع في الصناعة نحو إعطاء الأولوية للهيمنة السوقية على حساب الاعتبارات الأخلاقية.- وكالات

إخترنا لك

أخبار ذات صلة

0 تعليق