اخلاقيات وحوكمة الذكاء الاصطناعي

هل الذكاء الاصطناعي دائما على حق؟

أنظمة صنع القرار Decision Making Systems مستخدمة بشكل واسع في بعض المجالات وبدأت الدخول مؤخرا في المجال الأمني والطبي والترفيهي. بعض هذه الانظمة تستخدم الذكاء الاصطناعي في جلب المعلومات وفرزها وتحليلها ومقارنتها ثم اتخاذ القرار الأمثل من بين مجموعة من البدائل. جلب المعلومات في هذه الانظمة تتم عن طريق التغذية (تغذية البشر للنظام بالمعلومات اللازمة)، عن طريق التعلم الآلي Machine Learning او بهما معا. لذلك يوجد احيانا اخطاء في عملية اتخاذ القرار بسبب التغذية الخاطئة او بسبب ان النظام تعلم شي غير صحيح. وهذه الاخطاء لها تبعات حتى على المجتمع. لاجل هذا السبب زاد الحديث عن تحيز الخوارزميات Algorithm Bias حيث يكون النظام منحاز مع او ضد او يكون عنصري ضد فئة معينة! اذا تشبعت هذه الانظمة ببيانات مستخدميها او بيانات التعلم الآلي، فهي تبني عليها قراراتها، فاذا كانت المدخلات “عنصرية” فالمخرجات عنصرية ايضا. أمثلة تحيز الخوارزميات كثيرة وسأستعرض بعضها.

اعتقد ان اشهر مثال هو بوت تاي التابع لمايكروسوفت وتحدثت عنه هنا بالتفصيل. روبوت مايكروسوفت للدردشة – تم ايقافه بعد ٢٤ ساعة من اطلاقه

والمثال الثاني: روبوت (نظام) الجوازات في نيوزيلندا المخصص لاستقبال طلبات المتقدمين اونلاين يرفض طلب شاب آسيوي لانه مغلق عينيه! هنا التفاصيل 

المثال الثالث: مسابقة جمال الحكام فيها انظمة روبوتية تم انتقادها لان من بين ٤٤ فائز، فاز قليل من الآسيويين وشخص أسود واحد فقط!

 

المثال الرابع: نظام التنبؤ بارتكاب جرائم مستقبلية بناءا على الشكل يصنف اصحاب البشرة السوداء انهم اعلى خطورة من غيرهم! التفاصيل هنا