مفهوم – كشفت دراسة أجراها معهد ماساتشوستس للتكنولوجيا عن الطريقة التي يجمع من خلالها نظام الذكاء الاصطناعي البيانات، ما يجعله عنصريا ومتحيزا جنسيا.
ودرس الباحثون مجموعة من الأنظمة، فوجدوا أن العديد منها أظهر تحيزا صادما، ثم طوروا نظاما يساعدهم على التأكد من أن أنظمتهم أقل تحيزا.
وقالت كبيرة الباحثين، إيرين تشن، وهي طالبة دكتوراه كتبت الورقة البحثية مع البروفيسور، ديفيد سونتاج، وزميل الدكتوراه فردريك د.جوهانسون: “إن علماء الكمبيوتر يسارعون في كثير من الأحيان إلى القول بأن الطريقة التي تجعل هذه الأنظمة أقل انحيازا، هي ببساطة تصميم خوارزميات أفضل”.
واستطردت موضحة: “تظهر الأبحاث أنه يمكنك في كثير من الأحيان إحداث فرق أكبر مع بيانات أفضل”.
الذكاء الاصطناعي.. كاميرات مراقبة ترصد المطلوبين دون تصوير وجوههم
وفي أحد الأمثلة، درس فريق البحث نظام التنبؤ بالدخل، فوجد أنه من المرجح أن يُساء تصنيف الموظفات على أساس دخلهن المنخفض، والموظفين على أنهم من ذوي الدخل المرتفع.
ووجد الباحثون أنهم إذا قاموا بزيادة مجموعة البيانات الدقيقة، فإن تلك الأخطاء ستقل بنسبة 40%.
وتقول “تشن” إن واحدة من أكبر المفاهيم الخاطئة، تتمثل في أن زيادة البيانات (بغض النظر عن الدقة) تكون دائما أفضل.
ويقول سونتاج: “إننا نعتبر هذا بمثابة صندوق أدوات لمساعدة مهندسي التعلم الآلي على معرفة الأسئلة التي يجب طرحها في بياناتهم، من أجل تشخيص سبب قيام الأنظمة بإجراء تنبؤات غير عادلة”.
ومن المقرر أن يقدم الفريق الورقة البحثية في ديسمبر، خلال المؤتمر السنوي المتعلق بنظم معالجة المعلومات العصبية (NIPS)، في مونتريال.