Posted onAuthoradminالتعليقات على فيديو – اخلاقيات الروبوت مغلقة
هل ستنقلب علينا الروبوتات مستقبلا وتتحكم بنا؟ هل ممكن ان تخرج عن سيطرة صانعها؟ هل ممكن ان تؤذي الانسان باتخاذ قرار خاطئ؟ لحماية البشرية من هذه الاحتمالات، يجب ان يتم ضبط قرارات وتصرفات الروبوتات مستقبلا وذلك عبر توجيهها بقوانين ومفاهيم ومبادئ.
يخاف البعض من الروبوتات او الانظمة الذكية بسبب امكانية تمردها مستقبلا او سيطرتها على البشر، وهذا خوف نابع من افلام الخيال العلمي لكن الخوف الحقيقي هو ثقة البشر العمياء بها واعتمادهم عليها باتخاذ قرارات تمس حياتهم، وهذا له أمثلة حديثة. الثقة بنظام يتخذ قرار بطريقة مبهمة له تبعات خطيرة. الانظمة الذكية أحيانا تخطئ لانها انظمة تتعلم […]
مايكروسوفت توقف عمل روبوتها الخاص بالدردشة تاي @TayandYou بعد ٢٤ ساعة من اطلاقه، لانه بدأ يطلق عبارات مسيئة وعنصرية. تاي عبارة عن روبوت له حساب على تويتر يقوم بالتغريد والرد على التغريدات باستخدام الذكاء الاصطناعي Artificial Intellegence . تاي لديه القدرة على التعلم وكلما تحدث مع شخص فانه يتعلم منه ويعرف عنه اكثر فيصبح اكثر […]
يتوقع الخبراء وخلال عدة سنوات أن الروبوتات ستكون موجودة بكل منزل وبكل مكتب وربما روبوت لكل شخص كما هو الحال الآن مع الهواتف الذكية. حاليا تُستخدم الروبوتات لغرض عمليات الإنتاج بالمصانع، للمستودعات، لمساعدة الناس في المطارات والأسواق والفنادق، لاكتشاف المحيطات والفضاء، وغيرها من الاستخدامات. الأنظمة الذكية كذلك تُصمم لاستخدامات متفرقة سهلت حياة الناس، مثل الصحة، التعليم، الحكومة الإلكترونية، والتجارة والصناعة.
تأثير تلك التقنيات الذكية على المجتمع كبير حيث يعتمد الناس عليها ويستخدمونها للتواصل ولأداء مهامهم واتخاذ القرارات. لذلك لابد من ضبط ذلك الاستخدام لتعزيز ايجابياته. ولضبط استخدامات الذكاء الاصطناعي يلزم على عدة جهات ان تشترك ويكون لها دور في هذه العملية. إحدى تلك الجهات هي الحكومات والتي بدورها تحكم صناعة التقنيات الذكية وتحمي الناس من سلبياتها.
نظرا لتطور تقنيات الذكاء الاصطناعي، وجب على الشركات المصنّعة أن تضمن سلامتها. فأنظمة وآلات الذكاء الاصطناعي أصبحت قادرة الآن على جمع البيانات وتحليلها واتخاذ القرارات بشكل ذاتي نيابة عن الانسان. فعملية جمع البيانات والتحليل واتخاذ القرار بشكل ذاتي لابد ان تكون محكومة بسياسات ومبادئ مقبولة لدى المجتمعات.
حوكمة الذكاء الاصطناعي تشمل بشكل عام وضع سياسات وقوانين واخلاقيات تشمل الشفافية والتفسير، العدالة والنزاهة، الأمن والسلامة، والمسؤولية. وهذا لإنتاج واستخدام وتطوير الذكاء الاصطناعي بحيث نتأكد أن البشرية تستفيد منه ولا يؤثر عليها بشكل سلبي، وتحفظ المصلحة العامة وحقوق أصحاب المصالح (وهم الحكومة، صنّاع السياسات، المشرعون، المنظمون، الشركات المصنّعة، المستخدمين، والمجتمع)، إضافة إلى تحديد المخاوف ومعالجتها، ودراسة الاثار الأخلاقية والقانونية لاستخدامات الذكاء الاصطناعي.