كيف نضمن ألا يعكس الذكاء الاصطناعي التحيز البشري؟

الذكاء الاصطناعي يلعب دوراً متزايداً في إدارة العديد من المجالات

الذكاء الاصطناعي يلعب دوراً متزايداً في إدارة العديد من المجالات

عندما أجبرت شركة جوجل اثنين من خبراء الذكاء الاصطناعي المعروفين، انفجر الجدل البحثي الذي طال أمده إلى العلن حول العنصرية والتحيز للرجل الأبيض في مجال الذكاء الإصطناعي.

اجتمع مئات الأشخاص لحضور المحاضرة الأولى في ما أصبح أهم مؤتمر في العالم حول الذكاء الاصطناعي، صفًا بعد صف من الوجوه.

كان بعضهم من شرق آسيا، وقليل منهم من الهند، وقليل منهم من النساء، لكن الغالبية العظمى من الرجال البيض.

حضر المؤتمر أكثر من 5500 شخص، قبل 5 سنوات في برشلونة، إسبانيا.

تتذكر تيمنيت جيبرو خبيرة الذكاء الإصطناعي التي قامت جوجل لفصلها عن العمل، والتي كانت آنذاك طالبة دراسات عليا في جامعة ستانفورد، أنها لم تحصي سوى 6 أشخاص من السود غير نفسها، وجميعهم تعرفهم، وجميعهم من الرجال.

بلور لها الحشد المتجانس قضية صارخة. يقول كبار مفكري التكنولوجيا إن الذكاء الإصطناعي، هو المستقبل.

سوف يدعم كل شيء من محركات البحث والبريد الإلكتروني إلى البرنامج الذي يقود سياراتنا، ويوجه حراسة شوارعنا ويساعد في صناعة لقاحاتنا.

لكن يتم بناؤه بطريقة تكرر تحيزات سوق العمل الحالية التي يصنعها الذكور بالكامل تقريبًا، ومعظمهم من البيض.

الدكتورة تيمنيت جيبرو خبيرة الذكاء الإصطناعي التي فصلتها شركة حوحل

الدكتورة تيمنيت جيبرو خبيرة الذكاء الإصطناعي التي فصلتها شركة حوحل

يقول الكاتب في صحيفة نيويورك تايمز “كاد ميتز” في ما يقرب من 10 سنوات التي كتبت فيها عن الذكاء الاصطناعي ،

ظل شيئان ثابتان:

  • تتحسن التكنولوجيا بلا هوادة في النوبات والقفزات الكبيرة المفاجئة إلى الأمام.
  • والتحيز هو الخيط الذي ينسج بمهارة من خلال هذا العمل بطريقة تحجم شركات التكنولوجيا عن الاعتراف بها.

وصفت الدكتورة جبرو الذكاء الاصطناعي. لغز القوى العاملة بعد مؤتمر برشلونة في منشور على فيسبوك قالت فيه:

“لست قلقًة بشأن سيطرة الآلات على العالم. أنا قلقة بشأن التفكير الجماعي في اتخاذ المحتمع قرارات غير عقلانية وغير فعالة، والعزلة والغطرسة في مجتمع الذكاء الاصطناعي، خاصة مع الضجيج الحالي والطلب على الخبراء في هذا المجال “. “يشكل الأشخاص الذين يصنعون التكنولوجيا جزءًا كبيرًا من هذا النظام. إذا تم استبعاد الكثير بشكل نشط من إنشائها، فستستفيد من هذه التكنولوجيا قلة بينما تلحق الضرر بالعديد من الأشخاص “.

بعد فترة وجيزة، ساعدت الدكتورة جبرو في إنشاء منظمة جديدة، السود في الذكاء الإصطناعي Black in A.I.، وبعد حصولها على الدكتوراه، تم تعيينها في شركة جوجل.

تعاونت مع مارجريت ميتشل، التي كانت تنشئ مجموعة داخل جوجل مخصصة لـ “الذكاء الاصطناعي الأخلاقي” عملت الدكتورة ميتشل سابقًا في مختبر الأبحاث في مايكروسوفت. لقد جذبت الانتباه عندما أخبرت بلومبرج نيوز في عام 2016 أن الذكاء الإصطناعي عانى من مشكلة “سيطرة الرجال”. وقدرت أنها عملت مع مئات الرجال خلال السنوات الخمس الماضية وحوالي 10 نساء.

منذ حوالي 6 سنوات، كان الذكاء الإصطناعي المستخدم في إحدى خدمات جوجل للصور، نظمت صورًا للأشخاص السود في مجلد يسمى “الغوريلا”.

قبل 4 سنوات، لاحظ باحث في شركة ناشئة في نيويورك أن نظام الذكاء الاصطناعي الذي كانت تعمل عليه متحيزًا بشكل فاضح ضد السود. بعد فترة وجيزة، اكتشف باحثة سوداء في بوسطن أن نظام للذكاء الاصطناعي لم يتمكن النظام من التعرف على وجهها حتى ارتدت قناعًا أبيض.

ولكن بعد ما يقرب من 3 سنوات، طُردت الدكتور جيبرو من شركة جوجل دون تفسير واضح. قالت إنها طُردت من العمل بعد انتقادها نهج جوجل في توظيف الأقليات، ومن خلال ورقة بحثية، سلطت الضوء على التحيزات الضارة في الذكاء الاصطناعي. الأنظمة التي تدعم محرك بحث جوجل والخدمات الأخرى.

أسباب حدوث ذلك

تعتمد أنظمة الذكاء الاصطناعي على “شبكة محايدة”، وتتعلم جميع المهارات اللازمة من خلال تحليل كميات كبيرة من البيانات الرقمية. إذا اختار المهندسون عند تدريبهم لهذه الأنظمة بيانات متحيزة (محدودة الرؤية أو غير محددة)، فيمكنهم دون قصد تغذية هذه الأنظمة بمواد موحدة الاتجاه، ما سيؤدي إلى إعادة إنتاج تحيزاتهم في أجهزة من المفترض أن تحررنا من تحيزاتنا.

المعضلة الأخلاقية لأنظمة معرفة الوجوه

تم عرض شعار جوجل في الحي التجاري والمالي "لا ديفانس"، غرب باريس

سوف تجد تقنية الذكاء الاصطناعي طريقها في النهاية إلى كل ما تنتجة شركة جوجل تقريبًا

 طورت شركة الذكاء الاصطناعي الأمريكية كلاريفاي نظاما لتعديل المحتوى في عام 2017، يهدف للمسح التلقائي للمحتوى غير الملائم أو “الفاضح” في الصور المنشورة على شبكات التواصل الاجتماعي.

ودرب المهندسون الأنظمة على التعرف إلى الاختلاف بين الصور غير الملائمة والصور الملائمة لأن يشاهدها الجميع.

ولأن الصور الملائمة للجميع هيمن عليها الأشخاص البيض، تعلمت أنظمة الذكاء الاصطناعي عن طريق الخطأ التعرف إلى صور الأشخاص السود على أنها تتضمن محتوى “غير ملائم” ينبغي حجبه. أبلغت متدربة الإدارة بالمشكلة، إلا أن الشركة استمرت في تبني هذا النموذج. وعلى المنوال نفسه، أبلغت عالمة كمبيوتر سوداء أن نظام التعرف إلى الوجوه لم يعمل معها سوى بعد ارتدائها قناع الهالوين الأبيض.

بعض الشركات تحاول التعامل مع هذه المعضلة الأخلاقية

قررت شركة آي بي إم و مشركة مايكروسوفت وأمازون العام الماضي عدم السماح للشرطة باستخدام تكنولوجيا معرفة الوجوه، فيما أعلنت آي بي إم في وقت لاحق عن خطط أخرى للتوقف عن هذا النشاط، وسط مخاوف بشأن حقوق الأشخاص وحتى وضع قواعد تتعلق بالضمانات الأخلاقية لهذه التكنولوجيا.

ما الذي ينبغي فعله؟

يرى بعض الباحثين أنه ينبغي ترك أنظمة الذكاء الاصطناعي للتعلم وحدها، حتى تصبح قادرة في نهاية المطاف على التعامل مع جميع فئات المجتمع بصورة متساوية، فيما يعتقد آخرون أن التدخل البشري ينبغي أن يحدث عند إدخال الرموز لمحاولة تصفية هذه التحيزات. لكن حماية الذكاء الاصطناعي من الجوانب الأسوأ في الطبيعة البشرية ربما يستلزم الرقابة على النصوص التاريخية والأغاني وغيرها من المواد، وهو جهد مكلف ومثير للجدل.


المصدر: نيويورك تايمز – إنتربرايز

اترك تعليقًا

إملأ الحقول أدناه بالمعلومات المناسبة أو إضغط على إحدى الأيقونات لتسجيل الدخول:

شعار ووردبريس.كوم

أنت تعلق بإستخدام حساب WordPress.com. تسجيل خروج   /  تغيير )

Google photo

أنت تعلق بإستخدام حساب Google. تسجيل خروج   /  تغيير )

صورة تويتر

أنت تعلق بإستخدام حساب Twitter. تسجيل خروج   /  تغيير )

Facebook photo

أنت تعلق بإستخدام حساب Facebook. تسجيل خروج   /  تغيير )

Connecting to %s

هذا الموقع يستخدم خدمة Akismet للتقليل من البريد المزعجة. اعرف المزيد عن كيفية التعامل مع بيانات التعليقات الخاصة بك processed.