اخلاقيات وحوكمة الذكاء الاصطناعي

فلسفة الذكاء الاصطناعي

 من ماذا يخشى المجتمع؟ او ماهي القضايا التقنية التي تؤثر على ثقة المجتمع بالتقنية؟ هناك العديد من المخاوف، والتي تم حل بعضها بأنظمة وقوانين ومازال الآخر تحت رغبة وتحكم المجتمع، مثل تأثير التقنية على الخصوصية، البطالة، الأمن والحماية، الترابط الاجتماعي، شخصية الفرد، وغيرها. مثلا، هناك قوانين تنظم عملية جمع البيانات لحماية خصوصية الفرد، وهناك قوانين تنظم عمل افراد بيئة العمل الواحدة لحماية وجودهم، لكن بالمقابل لا يوجد قوانين تضبط تأثير التقنية على الترابط الاسري او الاجتماعي ولا يوجد قوانين تضبط تأثير التقنية على شخصية المستخدم حيث تحوله من العيش في العالم الحقيقي الى العالم الافتراضي وهذا أحيانا يؤدي لمضار نفسية او اجتماعية. القصد من هذا ان القوانين لم تحل كل القضايا التقنية في المجتمعات لان بعضها يتعلق باستخدام الفرد للتقنية وهو داخل تحت الحرية الشخصية. 

نتيجة لهذا، يأتي الباحثون في مجال اخلاقيات التقنية ليسلطوا الضوء على مثل هذه المخاوف ومناقشتها وتحليلها لتوعية المجتمع من جانب ولتنبيه صناع القرار والشركات التقنية من جانب آخر. توعية المجتمع لا تكون بتخويفه من التقنية وتحذيره منها بل بتثقيفه وحمايته من التقنيات التي من الممكن ان تعتدي عليه. الباحثون بهذا المجال هم صوت المجتمع امام الشركات التقنية ولدى صناع القرار. الجانب الآخر الذي يعمل فيه الباحثين هو التقنيات الذكية والتي تتفاعل مع البيئة المحيطة بها حيث تجمع البيانات وتحللها وتقارنها وتتخذ القرار نيابة عن الانسان، وهذه بدأت بالازدياد مؤخرا بشكل ملحوظ. هذا مما لا شك فيه هو تقدم تقني جميل تسعى جميع الأمم للتسابق فيه لان المستقبل معتمد على التقنية خصوصا الذكية منها، لكن هناك جوانب سلبية لابد من مناقشتها والبحث عن تفسيرات واجابات لها من قبل الشركات المصنعة، من صناع القرار ومن المجتمع الأكاديمي قبل طرحها ونشرها في الاسواق. لذلك، فلسفة الذكاء الاصطناعي تأتي لمناقشة عدة محاور مستجدة جاءت مع التقنية الذكية ولعلي هنا اطرح بعض التساؤلات على سبيل المثال وليس الحصر.

–       هل الآلة الذكية تفكر؟ وهل تفهم؟ وماهي نوعية هذا التفكير والفهم والى أي مدى يمكن ان يصل؟

–       هل يمكن صنع عقل مثل عقل الانسان بما يحتويه من تفكير وفهم ومشاعر؟

–       هل يمكن صنع ذكاء مثل ذكاء الانسان؟ وهل الذكاء المقصود هو سرعة الحساب والتحليل والاستنتاج فقط؟ وهذا بطبيعة الحال ربما تتفوق فيه الآلة على الانسان، لكن ماذا عن الذكاء الاجتماعي والذكاء العاطفي؟

–       هل يمكن للآلة ان تحل كل المشاكل التي تواجه الانسان؟ هل ستحلها بالمنطق فقط؟

–       ماذا عن المشاعر والعاطفة والتي هي جزء لا يتجزأ من عملية تفكير الانسان في حل مشاكله؟ هل ستكون للآلة مشاعر؟ هل يمكن برمجة المشاعر؟ هل يمكن تثبيت المشاعر في الأجهزة كتطبيقات او برمجيات؟

–       ماذا عن الادراك والوعي؟ الوعي هو صفة انسانية حيث يدرك الانسان محيطه الخارجي من خلال تحليل ما تلتقطه حواسه الخمس في العقل فيضيف لها الذكريات والخبرة والمعرفة فينتج لنا رأي او فكرة او وجهة نظر أو قرار. هل الآلة قادرة على دمج هذه المكونات والخروج بقرار او رأي او وجهة نظر ممكن قبولها او رفضها؟

–       ماذا عن القرارات الاخلاقية التي يتخذها الانسان، هل الآلة قادرة على اتخاذها؟ قرارات يدخل فيها الحب والتضحية والمسؤولية والميول والسعادة والنفع وغيرها

–       هل الآلة تخطئ؟ وإذا أخطأت، هل هي المسؤولة عن هذا الخطأ؟ ام المصنع، المبرمج، الناشر، المالك، المستخدم؟ هل يمكن ان نحمل الآلة أصلا المسؤولية؟

–       هل للآلة وجود؟ يعني هل يمكن ان يكون لها كيان ممكن محاسبته إذا ارتكبت خطأ؟ وهل محاسبة الآلة تعني لها شيئا؟ لان محاسبة الانسان وعقابه في حال الخطأ هو أمر رادع له كيلا يكرره بالمستقبل وايضا رادع لمن اراد ان يكرر الخطأ نفسه، فهل هذا ينطبق على الآلة اذا قامت بخطأ؟ هل سيكون لديها الاحساس بالثواب والعقاب؟

–       هل يمكن ان يكون للآلة حقوق كما للإنسان والحيوان؟

–       هل سنسمح للآلة ان تتخذ قرارات بشكل مستقل نيابة عن الانسان؟ ماهي نوعية هذه القرارات؟ قرارات في الحياة العامة؟ الحياة الشخصية؟ الحياة الاجتماعية؟ ماذا عن قرارات الحياة والموت؟ مثلا، قرار إنهاء حياة انسان ميؤوس من شفائه في المستشفى. او قرار إنهاء حياة انسان في ساحة حرب

–       هل سيتم السماح بالأسلحة الذكية، التي تنطلق وتتوجه وتضرب بشكل ذاتي؟ ماذا لو أخطأت بالتقدير سواء بالمكان او الزمان؟

–       لماذا أصلا نعطي الآلة القدرة على انهاء حياة انسان؟ ماذا لو اختلت برمجة هذه الآلة او تم اختراقها؟

–       هل الآلات المزودة بالذكاء الاصطناعي خطر على البشرية؟ هل يمكن ضبط سلوكها؟

–       إذا كانت الآلات لديها القدرة على التعلم الآن، هل يمكن تعليمها الأخلاق؟ وهل يمكن برمجة الأخلاق اصلا؟

–       وإذا افترضنا انه يمكن ان نعلم الآلات الاخلاق، والتي ابسط صورة منها هي الصواب والخطأ في التعاملات مع الناس، من له الحق في تحديد ان هذا صواب وهذا خطأ؟ يعني من له الحق بتعليم الآلة الأخلاق؟ او بمعنى آخر ماهي نوعية هذه الأخلاق وعلى أي ثقافة/عادات تم الاستناد؟ خصوصا ان هناك اختلافات بين الثقافات والمجتمعات والاديان في الصواب والخطأ

–       ماذا عن تعلم الآلة؟ هل يمكن حصره ووضع حدود له لضمان عدم خروجه عن السيطرة؟

–       هل يمكن التنبؤ بقرارات وسلوك الآلة التي تكون مزودة بخاصية التعلم الذاتي؟

–       هل يمكن لمبرمج الآلة ان يتتبع كيفية تعلمها من البيئة المحيطة؟ بمعنى آخر هل يمكن للمبرمج ان يعرف لماذا وكيف اتخذت الآلة قرار او فعلت سلوك معين؟

–       ماذا لو اتخذت قرار خاطئ، هل يستطيع المبرمج أو الشركة المصنعة ان تشرح أسباب وحيثيات هذا القرار؟ حيث ان هناك أمثلة واقعية لم يستطع فيها صانعي الآلة ان يشرحوا سبب اتخاذها لقرار ما

–       ماذا عن انحياز الخوارزميات الحاصل الان في بعض الآلات؟ حيث تنحاز الاجهزة او الانظمة الذكية في قراراتها مع فئة ضد أخرى

–       هناك أنظمة الآن يتم الاعتماد عليها في التوظيف، لكن مع وجود انحياز الخوارزميات، هل سيسمح للأنظمة الذكية ان تقرر من سيتوظف؟ هل سنقبل قرارها بشكل نهائي بحكم قدرتها وذكاءها؟

–       ماهو تأثير الآلات الذكية على الوظائف؟ وهل سيتم أتمتة كل الوظائف؟ ماذا سيحدث للموظفين وماهو دور الحكومات والشركات المصنعة لهذه الآلات؟

 هناك المزيد من التساؤلات والقضايا التي لم تحل بعد، وما ذكرته هنا ليس إلا أمثلة فقط على قضايا ربما تكون أعمق وأكثر تعقيدا. في الحقيقة بعض الأمثلة التي طرحتها هي محور لبحوث [1] تجري الآن في عدة جامعات ومعامل حول العالم. بعض الإدارات التابعة للحكومات أيضا تجري بحوث على بعض تلك القضايا بالاشتراك مع أكاديميين ومهتمين. لأن السباق الآن قائم على قدم وساق بين الشركات وحتى الدول في تصنيع آلات وأنظمة مزودة بذكاء اصطناعي في عدة قطاعات ومجالات، وهذا التنافس سينتج منه إشكاليات لابد من ادارتها وحلها.



[1] رسالتي في مرحلة الدكتوراه كانت عن عملية اتخاذ القرار الأخلاقي في الروبوتات ذاتية التحكم وأثر هذا على مسؤولية المنظمات تجاه المجتمع من ناحية شفافية عمل الروبوت وتفسير افعاله مما يؤثر سلبا او إيجابا على ثقة المجتمع بالروبوتات (رابط الرسالة)