اخلاقيات وحوكمة الذكاء الاصطناعي

حوكمة الذكاء الاصطناعي (اطار عام)

 وقبل أن أتطرق لإطار حوكمة الذكاء الاصطناعي، فلابد أن أفصّل قليلا في اخلاقيات الذكاء الاصطناعي حيث أنها أحد الركائز المهمة في الحوكمة. الاخلاقيات بشكل مجرد هي المبادئ والقيم التي تقود شخص او مجتمع للتصرف بشكل صحيح. من أين تأتي هذه الاخلاقيات؟ كما يظهر بالشكل أدناه، فهي تُستقى من عدة مصادر مثل الدين، المجتمع، العادات والتقاليد، البيئة، والعائلة. بعض تلك الاخلاقيات تكون مكتوبة ومنصوص عليها على شكل قوانين او سياسات او لوائح مثل التعاليم الدينية والقوانين المدنية وبعضها مكتسب من المخالطة والبيئة والانتماء مثل العادات والتقاليد. هذه الاخلاقيات عبارة عن خطوط عريضة، فحينما يتعرض الفرد لحالة معينة فإنه يستدعيها ويمحصها بالتفكير النقدي والمنطقي ويحاكم الحالة طبقا لمبادئه الأخلاقية (وجهة نظر، نوايا، تفضيلات، رغبات، ومعتقدات) ليتخذ القرار الأخلاقي المناسب، مثلا التبرع بالأعضاء. فالبشر يعتمدون على الاخلاقيات بشكل أساسي لإجراء ثلاثة أمور رئيسية وهي التفاعل مع الاخرين، اتخاذ القرارات، وتنفيذ المهام.

 

من هذا المنطلق وكون تقنيات الذكاء الاصطناعي أصبحت جزء لا يتجزأ من حياتنا بحيث نعتمد عليها في تعاملاتنا وقراراتنا ومهامنا فلابد لها من اخلاقيات تحكم طريقة عملها وتحكم طريقة استخدامنا لها خصوصا ان بعض تقنيات الذكاء الاصطناعي أصبحت ذاتية التحكم. تلك القرارات يجب ان تُبنى على اخلاقيات كما بنيت قرارات الانسان. واخلاقيات الذكاء الاصطناعي لابد ان تكون مستمدة من اخلاقيات المجتمع التي هي فيه لكي يثق فيها المجتمع ويعتمد عليها وتكون إيجابية نافعة.

نستطيع ان نعرف اخلاقيات الذكاء الاصطناعي على انها مجموعة من القيم الأخلاقية التي تحكم أنشطة الذكاء الاصطناعي. ويمكن تقسيم أخلاقيات الذكاء الاصطناعي لثلاث فئات، اخلاقيات العاملين في صناعة الذكاء الاصطناعي (المصنّعون، المبرمجون، والمصممون)، الاخلاقيات الموجودة داخل أنظمة الذكاء الاصطناعي، واخلاقيات الأشخاص الذين يتعاملون مع الذكاء الاصطناعي (المستخدمون، والمجتمع). إذن، بشكل عام على العاملين بمجال صناعة تقنيات الذكاء الاصطناعي ان ينتجوا تقنيات نافعة مفيدة، وأن يتم دمج الاخلاقيات في الآلات والأنظمة الذكية بحيث أنها لا تضر حينما تتواصل مع أحد أو تؤدي مهمة أو تتخذ قرار، اضافة إلى أهمية حسن تعامل المستخدم والمجتمع مع التقنيات الذكية بحيث لا يتم تعليمها مايضر الآخرين ولا استخدامها بشكل خاطئ.

في الشكل أدناه، أستعرض إطار عام لحكومة الذكاء الاصطناعي يشمل أصحاب المصالح بمختلف المستويات (علما أني طورت هذا الإطار في وقت سابق وكنت قد أسمتيه اطار الثقة). الشكل يركز على اخلاقيات الروبوت لكن ما ينطبق على الروبوت ينطبق على البوت أيضا وهما نوعي الذكاء الاصطناعي.

 

في هذا الإطار هناك ثلاث جهات رئيسية وهي الحكومة، الشركات التقنية، والمجتمع. علاقتها مع بعضها كالتالي: الحكومة وتشمل المشرّعين وصنّاع السياسات تقوم بتوجيه الشركات التقنية من أجل حماية المجتمع. توجيه الشركات يكون باستخدام تقنيات الحوسبة بحيث تستخدم الشركات الخوارزميات لدمج المبادئ الأخلاقية داخل الروبوتات، وتستخدم التعلم الآلي لتعليم الروبوتات على القرارات الأخلاقية. من جانب آخر المجتمع يحتاج الى مسؤولية الشركات الاجتماعية والتي تتطلب منها شيئين وهما الشفافية والتفسير. يجب ان تكون الشركات شفافة من ناحية اعلان ماهي المبادئ الأخلاقية التي زرعتها بالروبوتات، وتكون واضحة في تفسير قرارات الروبوتات الأخلاقية في حال حدوث خطأ ما. المسؤولية الاجتماعية للشركات تعزز ثقة المجتمع في التقنيات الذكية وهذا يؤدي إلى الحفاظ على سمعة الشركات مما ينمي الاستدامة والتي بدورها تعود بالنفع على الشركات. هذا الإطار يعطي نظرة واسعة عن علاقة الحكومة، الشركات التقنية، والمجتمع في تحقيق السلم التقني ان صح التعبير.