
يمكن أن تطور نماذج الذكاء الاصطناعي تحيزات غير مقصودة بناءً على البيانات التي يتم تدريبها عليها. يضمن التخفيف من التحيز معاملة الذكاء الاصطناعي لجميع المستخدمين بإنصاف من خلال تحديد التحيزات وتصحيحها واختبارها.
تحديد التحيزات في الذكاء الاصطناعي
يحدث التحيز في الذكاء الاصطناعي عندما تفضل النماذج مجموعات معينة على أخرى بسبب بيانات التدريب غير المتوازنة أو المعيبة.
أمثلة على ذلك:
- يفضل الذكاء الاصطناعي للتوظيف المرشحين الذكور لأنه تم تدريبه على البيانات التاريخية التي تم فيها توظيف الرجال في الغالب.
- يعمل الذكاء الاصطناعي للتعرّف على الوجه بشكل أفضل مع ألوان البشرة الفاتحة لأن مجموعة البيانات تحتوي على وجوه بيضاء أكثر من الوجوه الداكنة.
كيف تتعرف على التحيز؟
- استخدم أدوات التدقيق للتحقق من الأنماط غير العادلة في قرارات الذكاء الاصطناعي.
- تطبيق التحليل الإحصائي للعثور على التباينات في بيانات التدريب.
تصحيح التحيزات في الذكاء الاصطناعي
بمجرد العثور على التحيز، يستخدم مهندسو الذكاء الاصطناعي تقنيات إزالة التحيز لإصلاحه.
طرق تصحيح التحيز:
- إعادة ترجيح البيانات ← إعطاء وزن أكبر للمجموعات الممثلة تمثيلاً ناقصًا.
- خوارزميات إزالة التحيز → ضبط تدريب الذكاء الاصطناعي لتحييد التمييز.
- جمع البيانات بشكل أفضل ← ضمان تعلم الذكاء الاصطناعي من مصادر متنوعة.
مثال:
-تعتمد برمجيات الذكاء الاصطناعي للتوظيف على السير الذاتية للرجال والنساء بالتساوي بدلاً من تفضيل مجموعة واحدة.
-التعرّف على الوجه بالذكاء الاصطناعي يوازن بين جميع ألوان البشرة لتحسين الدقة بين الأعراق.
اختبار التحيز بانتظام
يمكن أن يعود التحيز إذا لم تتم مراقبة الذكاء الاصطناعي واختباره باستمرار.
كيف تختبر التحيز؟
- مراجعة تنبؤات الذكاء الاصطناعي بانتظام لتحقيق العدالة بين المجموعات.
- استخدام المبادئ التوجيهية الأخلاقية للذكاء الاصطناعي لضمان الامتثال.
- جمع التعليقات من مختلف المستخدمين لمعرفة ما إذا كان الذكاء الاصطناعي يعاملهم بإنصاف.
مثال:
-يقوم أحد البنوك بفحص موافقات قروض الذكاء الاصطناعي للتأكد من عدم وجود تمييز على أساس الجنس أو العرق أو مستوى الدخل.
-يتم اختبار المساعد الصوتي للتأكد من أنه يفهم اللهجات المختلفة بشكل عادل.
دور وجهات النظر المتنوعة في الذكاء الاصطناعي
تحتاج فرق الذكاء الاصطناعي إلى خلفيات متنوعة لإنشاء أنظمة ذكاء اصطناعي عادلة.
ما أهمية التنوع؟
- يمنع التحيز الثقافي والجنساني في نماذج الذكاء الاصطناعي.
- تحسين قابلية استخدام الذكاء الاصطناعي لجميع الفئات السكانية.
- يضمن العدالة عبر التطبيقات العالمية.
مثال:
-قد يلاحظ فريق الذكاء الاصطناعي المتنوع تحيزات لا يلاحظها الآخرون.
-سيفهم مساعدو الذكاء الاصطناعي المدربون على يد فريق متنوع اللهجات واللهجات المتعددة.
ملخص
- يأتي التحيز في الذكاء الاصطناعي من بيانات التدريب غير المتوازنة.
- يتضمن تصحيح التحيز إعادة ترجيح البيانات، وإزالة التحيز من النماذج، وتحسين مجموعات البيانات.
- يجب اختبار نماذج الذكاء الاصطناعي بانتظام لضمان اتخاذ قرارات عادلة وأخلاقية.
- تساعد فرق الذكاء الاصطناعي المتنوعة في إنشاء أنظمة ذكاء اصطناعي شاملة وعادلة.
بقلم هشام أ. بن زعير

اترك تعليقاً