الذكاء الاصطناعي.. عنصري ضد النساء!

وفقاً لما نقلته صحيفة “ديلي ميل” البريطانية، أجرى معهد “ماساتشوستس للتكنولوجيا” دراسة تقنية حديثة أوضحت الطريقة التي يجمع من خلالها نظام الذكاء الاصطناعي البيانات، ما يجعله عنصرياً، حيث وجد الباحثون أن العديد من أنظمة الذكاء الصناعي أظهرت تحيزاً صادماً، لذا قاموا بتطوير نظام يساعدهم على التأكد من أن أنظمتهم أقل تحيزاً.

وكشفت كبيرة الباحثين، إيرين تشن:

“إن علماء الكمبيوتر يسارعون في كثير من الأحيان إلى القول بأن الطريقة التي تجعل هذه الأنظمة أقل انحيازاً، هي ببساطة تصميم خوارزميات أفضل، وتظهر الأبحاث أنه يمكنك في كثير من الأحيان إحداث فرق أكبر إذا تم إدخال بيانات أفضل”.

وذلك في إشارة إلى أن عدم إدخال بيانات دقيقة وبكميات كبيرة يؤدي إلى ظهور الخلل في نتائج البحث التي قد تظهر في صورة “عنصرية” من أنظمة الذكاء الاصطناعي.

وفي أحد الأمثلة، درس فريق البحث نظام التنبؤ بالدخل، فوجد أنه من المرجح أن يُساء تصنيف الموظفات على أساس دخلهن المنخفض، والموظفين على أنهم من ذوي الدخل المرتفع.
ووجد الباحثون أنهم إذا قاموا بزيادة مجموعة البيانات الدقيقة، فإن تلك الأخطاء ستقل بنسبة 40%.

وتقول الباحثة تشن:

“إن واحدة من أكبر المفاهيم الخاطئة، تتمثل في أن زيادة البيانات (بغض النظر عن الدقة) تكون دائماً أفضل لإعطاء نتائج قريبة إلى الحقيقة”.

ويستعد الفريق البحثي لعرض الورقة البحثية في ديسمبر، خلال المؤتمر السنوي المتعلق بنظم معالجة المعلومات العصبية “NIPS”، في كندا.

تعليقات
تحميل...