ترامب يواجه جهود إزالة التحيز في الذكاء الاصطناعي

الغد 0 تعليق ارسل طباعة تبليغ حذف

loading ad...

بعد تراجع شركات التكنولوجيا عن برامج التنوع والإنصاف والشمول (DEI) في أماكن العمل، قد تواجه الآن مواجهة ثانية تتعلق بعملها في هذه المجالات ضمن منتجات الذكاء الاصطناعي.اضافة اعلان


وفي البيت الأبيض والكونغرس الذي يسيطر عليه الجمهوريون، أصبح "الذكاء الاصطناعي المستيقظ" (Woke AI) هو المشكلة التي تحتاج إلى إصلاح، بدلاً من التمييز الخوارزمي الضار.


وقد أصبحت الجهود السابقة لـ"تعزيز الإنصاف" في تطوير الذكاء الاصطناعي والحد من إنتاج "نتائج ضارة ومنحازة" هدفًا للتحقيق، وذلك بحسب مذكرات استدعاء أُرسلت الشهر الماضي إلى أمازون، وجوجل، وميتا، ومايكروسوفت، وأوبن إيه آي، بالإضافة إلى عشر شركات تكنولوجية أخرى، من قبل لجنة القضاء في مجلس النواب.


وفي الوقت نفسه، قامت الجهة المسؤولة عن وضع المعايير في وزارة التجارة الأميركية بحذف الإشارات إلى مفاهيم مثل "عدالة الذكاء الاصطناعي"، و"سلامة الذكاء الاصطناعي"، و"الذكاء الاصطناعي المسؤول" من ندائها للتعاون مع الباحثين الخارجيين.


وبدلًا من ذلك، باتت الوزارة توجه العلماء إلى التركيز على "تقليل التحيز الأيديولوجي" بطريقة "تمكّن من ازدهار الإنسان وتعزز القدرة التنافسية الاقتصادية"، وذلك وفقًا لنسخة من الوثيقة حصلت عليها وكالة أسوشيتد برس.


ومن بعض النواحي، اعتاد العاملون في قطاع التكنولوجيا على تغير الأولويات التي تدفع بها واشنطن وتؤثر على عملهم.


لكن التحول الأخير أثار قلقًا بين خبراء المجال، بما في ذلك عالم الاجتماع بجامعة هارفارد، إيليس مونك، الذي تواصلت معه جوجل قبل عدة سنوات للمساعدة في جعل منتجات الذكاء الاصطناعي الخاصة بها أكثر شمولًا.


وفي ذلك الوقت، كانت صناعة التكنولوجيا تدرك بالفعل وجود مشكلة في فرع الذكاء الاصطناعي الذي يدرب الآلات على "رؤية" وفهم الصور.


فقد كانت تقنية الرؤية الحاسوبية تحمل وعودًا تجارية كبيرة، لكنها كررت التحيزات التاريخية الموجودة في تقنيات الكاميرات القديمة، والتي كانت تصوّر الأشخاص السود وذوي البشرة الداكنة بصورة سلبية.


وقال مونك، وهو باحث مختص في قضايا التمييز على أساس لون البشرة: "عندما يظهر أشخاص سود أو ذوو بشرة داكنة في الصورة، كنا نبدو أحيانًا بشكل سخيف.


وقد تبنّت جوجل مقياس ألوان البشرة الذي اخترعه مونك لتحسين كيفية تصوير أدوات الذكاء الاصطناعي لتنوع ألوان البشرة البشرية، مستبدلة معيارًا عمره عقود كان قد صُمم أساسًا لأطباء الأمراض الجلدية الذين يعالجون مرضى من ذوي البشرة البيضاء.


وأضاف مونك: "كان هناك استجابة إيجابية ضخمة من المستهلكين تجاه هذه التغييرات. والآن يتساءل مونك عما إذا كانت مثل هذه الجهود ستستمر في المستقبل.


ورغم أنه لا يعتقد أن مقياس لون بشرة مونك الخاص به مهدد — لأنه مدمج بالفعل في عشرات المنتجات لدى جوجل وغيرها، بما في ذلك كاميرات الهواتف المحمولة، وألعاب الفيديو، ومولدات الصور بالذكاء الاصطناعي — إلا أن مونك وغيره من الباحثين يشعرون بالقلق من أن الأجواء السياسية الجديدة قد تؤثر سلبًا على المبادرات المستقبلية وتمويل الجهود التي تهدف إلى جعل التكنولوجيا تعمل بشكل أفضل للجميع.


وقال مونك: "تريد جوجل أن تعمل منتجاتها مع الجميع، في الهند، والصين، وأفريقيا، وما إلى ذلك. هذا الجانب إلى حد ما محصن من تأثير برامج التنوع والشمول. لكن هل يمكن أن ينخفض تمويل المشاريع المستقبلية من هذا النوع؟ بالتأكيد، خاصة عندما يتغير المزاج السياسي، وحين يكون هناك ضغط كبير للوصول إلى السوق بسرعة."


وقد خفّضت إدارة ترامب مئات المنح التمويلية في مجالات العلوم والتكنولوجيا والصحة التي تمس مواضيع التنوع والشمول، لكن تأثير ذلك على تطوير المنتجات التجارية مثل روبوتات الدردشة وغيرها من تقنيات الذكاء الاصطناعي يعدّ تأثيرًا غير مباشر.


وفي إطار تحقيقه مع شركات الذكاء الاصطناعي، قال النائب الجمهوري جيم جوردان، رئيس لجنة القضاء في مجلس النواب، إنه يريد معرفة ما إذا كانت إدارة الرئيس السابق جو بايدن قد "أجبرت أو تواطأت" مع هذه الشركات من أجل فرض رقابة على الخطاب القانوني.


مايكل كراتسيوس، مدير مكتب السياسة العلمية والتكنولوجية بالبيت الأبيض، قال في فعالية بتكساس هذا الشهر إن سياسات الذكاء الاصطناعي التي تبناها بايدن كانت "تعزز الانقسامات الاجتماعية وإعادة التوزيع باسم الإنصاف."


ورفضت إدارة ترامب إتاحة كراتسيوس لإجراء مقابلة، لكنها نقلت عدة أمثلة لما كان يقصده.


أحد الأمثلة كان سطرًا من استراتيجية بحثية عن الذكاء الاصطناعي خلال عهد بايدن يقول: "بدون ضوابط مناسبة، يمكن لأنظمة الذكاء الاصطناعي أن تضخم، أو ت perpetuate، أو تفاقم النتائج غير العادلة أو غير المرغوب فيها للأفراد والمجتمعات."


وحتى قبل أن يتولى بايدن منصبه، كانت مجموعة متزايدة من الأبحاث والحكايات الشخصية تجذب الانتباه إلى أضرار تحيز الذكاء الاصطناعي.


كما أظهرت إحدى الدراسات أن تكنولوجيا السيارات الذاتية القيادة تواجه صعوبة في رصد المشاة ذوي البشرة الداكنة، مما يعرضهم لخطر أكبر من حوادث الدهس.


وأظهرت دراسة أخرى أن مولدات الصور النصية الشهيرة بالذكاء الاصطناعي، عندما طُلب منها إنشاء صورة لجراح، أنتجت رجلاً أبيض بنسبة حوالي 98%، وهي نسبة أعلى بكثير من الواقع حتى في مهنة يهيمن عليها الذكور.


كما أن برامج مطابقة الوجوه لفتح الهواتف كانت تخطئ في التعرف على الوجوه الآسيوية.


وفي مدن أميركية، تم اعتقال رجال سود ظلمًا استنادًا إلى تطابق خاطئ باستخدام تقنيات التعرف على الوجه.


وقبل عقد تقريبًا، قامت خدمة الصور الخاصة بجوجل بفرز صورة لشخصين من ذوي البشرة السوداء ضمن تصنيف "غوريلا."


حتى العلماء الحكوميون خلال إدارة ترامب الأولى خلصوا عام 2019 إلى أن تكنولوجيا التعرف على الوجوه كانت تقدم أداءً متفاوتًا بناءً على العرق أو الجنس أو العمر.


وساعد انتخاب بايدن بعض شركات التكنولوجيا على تسريع تركيزها على عدالة الذكاء الاصطناعي.


ومع وصول ChatGPT من أوبن إيه آي عام 2022، اشتعلت موجة تجارية جديدة لتطبيقات الذكاء الاصطناعي لتوليد النصوص والصور، مما دفع شركات مثل جوجل إلى تخفيف حذرها ومواكبة التطور.


ثم جاء روبوت المحادثة Gemini من جوجل — وإطلاق منتج معيب العام الماضي جعله رمزًا لـ"الذكاء الاصطناعي المستيقظ" الذي سعى المحافظون لتفكيكه.


وعند تركها تعمل بحرية، تكون أدوات الذكاء الاصطناعي التي تولد الصور استنادًا إلى نص عرضة لتكرار الصور النمطية المتراكمة من البيانات المرئية التي تدربت عليها.


ولم تكن جوجل مختلفة، وعندما طُلب منها تصوير أشخاص في مهن مختلفة، كانت تميل إلى تفضيل الوجوه ذات البشرة الفاتحة والرجال، وعندما كانت تختار النساء، كانت تختار الأصغر سنًا، وفقًا لبحث جوجل العام.


وحاولت جوجل وضع ضوابط تقنية للحد من هذه التفاوتات قبل إطلاق مولد الصور الخاص بـ Gemini قبل أكثر من عام. لكنها بالغت في التصحيح، مما أدى إلى وضع أشخاص من أعراق مختلفة ونساء في سياقات تاريخية غير دقيقة، مثل إظهار "الآباء المؤسسين" الأميركيين بملابس القرن الثامن عشر ولكن بوجوه سوداء أو آسيوية أو من السكان الأصليين.


واعتذرت جوجل بسرعة وسحبت الميزة مؤقتًا، لكن الغضب أصبح صرخة سياسية استغلها اليمين.


وأثناء قمة الذكاء الاصطناعي في باريس في فبراير، وأمام المدير التنفيذي لجوجل سوندار بيتشاي، استخدم نائب الرئيس جي دي فانس المناسبة للتنديد بما سماه "الترويج لأجندات اجتماعية غير تاريخية من خلال الذكاء الاصطناعي"، مشيرًا إلى لحظة حاول فيها مولد الصور من جوجل "أن يقول لنا إن جورج واشنطن كان أسود البشرة، أو أن جنود أميركا في الحرب العالمية الأولى كانوا في الواقع نساء."


وقال فانس: "يجب أن نتذكر الدروس المستفادة من تلك اللحظة السخيفة. وما نستخلصه منها هو أن إدارة ترامب ستضمن أن أنظمة الذكاء الاصطناعي المطورة في أميركا ستكون خالية من التحيز الأيديولوجي ولن تقيد حق مواطنينا في حرية التعبير."


وقالت ألوندار نيلسون، مستشارة بايدن العلمية السابقة، والتي حضرت ذلك الخطاب، إن التركيز الجديد لإدارة ترامب على "التحيز الأيديولوجي"

 

وفي الذكاء الاصطناعي هو بطريقة ما اعتراف بسنوات من العمل لمعالجة التحيز الخوارزمي الذي يمكن أن يؤثر على الإسكان، والقروض العقارية، والرعاية الصحية، وغيرها من مجالات حياة الناس.


وقالت نيلسون، المديرة السابقة بالإنابة لمكتب البيت الأبيض للسياسة العلمية والتكنولوجية، والتي شاركت في تأليف مجموعة مبادئ لحماية الحقوق المدنية والحريات المدنية في تطبيقات الذكاء الاصطناعي: "في الأساس، أن تقول إن أنظمة الذكاء الاصطناعي متحيزة أيديولوجيًا يعني أنك تعترف وتلاحظ وتشعر بالقلق من مشكلة التحيز الخوارزمي، وهي المشكلة التي لطالما كنا قلقين بشأنها منذ زمن طويل."


لكن نيلسون لا ترى الكثير من فرص التعاون وسط هذا الانتقاد لمبادرات الذكاء الاصطناعي العادلة.


وقالت: "أعتقد أنه في هذا الفضاء السياسي، وللأسف، هذا غير مرجح للغاية، والمشاكل التي تمت تسميتها بشكل مختلف — التمييز الخوارزمي أو التحيز الخوارزمي من جهة، والتحيز الأيديولوجي من جهة أخرى — سيتم، وللأسف، النظر إليها كأنها مشكلتان منفصلتان."- ا ب

إخترنا لك

أخبار ذات صلة

0 تعليق