دراسة حديثة تكشف ” عنصرية ” الذكاء الاصطناعي !
كشفت دراسة أجراها معهد “ماساتشوستس للتكنولوجيا” عن الطريقة التي يجمع من خلالها نظام الذكاء الاصطناعي البيانات، ما يجعله عنصرياً ومتحيزاً جنسياً.
ودرس الباحثون مجموعة من الأنظمة، فوجدوا أن العديد منها أظهر تحيزاً صادماً، لذا قاموا بتطوير نظام يساعدهم على التأكد من أن أنظمتهم أقل تحيزاً، بحسب ما أوردته صحيفة “ديلي ميل” البريطانية.
وقالت كبيرة الباحثين، إيرين تشن، وفق ما نقلت قناة “العربية” السعودية: “إن علماء الكمبيوتر يسارعون في كثير من الأحيان إلى القول بأن الطريقة التي تجعل هذه الأنظمة أقل انحيازاً، هي ببساطة تصميم خوارزميات أفضل.. وتظهر الأبحاث أنه يمكنك في كثير من الأحيان إحداث فرق أكبر إذا تم إدخال بيانات أفضل”، في إشارة إلى أن عدم إدخال بيانات دقيقة وبكميات كبيرة يؤدي إلى ظهور الخلل في نتائج البحث التي قد تظهر في صورة “عنصرية” من أنظمة الذكاء الاصطناعي.
وفي أحد الأمثلة، درس فريق البحث نظام التنبؤ بالدخل، فوجد أنه من المرجح أن يُساء تصنيف الموظفات على أساس دخلهن المنخفض، والموظفين على أنهم من ذوي الدخل المرتفع.
ووجد الباحثون أنهم إذا قاموا بزيادة مجموعة البيانات الدقيقة، فإن تلك الأخطاء ستقل بنسبة 40%.
وتقول تشن إن واحدة من أكبر المفاهيم الخاطئة، تتمثل في أن زيادة البيانات (بغض النظر عن الدقة) تكون دائماً أفضل لإعطاء نتائج قريبة إلى الحقيقة.
ومن المقرر أن يقدم الفريق الورقة البحثية في ديسمبر، خلال المؤتمر السنوي المتعلق بنظم معالجة المعلومات العصبية (NIPS)، في مونتريال.[ads3]