الذكاء الاصطناعي والمعضلة الاخلاقية

اعداد كارلا بيطار

2021.07.09 - 11:16
Facebook Share
طباعة

لا يزال موضوع المعضلة الأخلاقية للذكاء الاصطناعي يثير الكثير من الجدل في حقول الفلسفة والتكنولوجيا على حد سواء، فسلوك تلك الآلات الذكية الاصطناعية المحتمل يبقى محل شك وريبة من كثيرين.

ويرى الفيلسوف مارتن جيبر -الباحث في "جامعة مونتريال" (Université de Montréal) وعضو في مركز أبحاث الأخلاقيات ومعهد تثمين البيانات- أنه من الضروري تدريب خوارزميات التعلم الخاصة بالروبوتات وروبوتات الدردشة والآلات الأخرى على آراء وسلوكيات البشر ذوي الأخلاق الحسنة.

وفي حوار نشرته صحيفة "لوموند" (Le Monde) الفرنسية، قال الكاتب ديفيد لاروسيري إن مارتن جيبر طبّق في عام 2015 نظريات أخلاقية كلاسيكية على النباتية الصرفة (نظام غذائي) في كتاب "النظر إلى شرائح اللحم كما لو كانت حيوانا ميتا". وقد فعل الشيء نفسه في مجال الروبوتات والآلات والخوارزميات الأخرى في كتاب بعنوان "تأنيب الروبوتات".

في سؤال الصحيفة عن السبب الذي يجعل الفيلسوف يتعامل مع أجهزة الذكاء الاصطناعي -مثل السيارات ذاتية القيادة أو روبوتات الدردشة أو أنظمة التوصيل عبر الإنترنت- أجاب الفيلسوف أن هذه اللحظة تعتبر مثيرة حقا للفيلسوف لأنه يمكن أن نطرح على أنفسنا أسئلة حول هذه الأجهزة التي تعد بدورها مبتكرة وأساسية للغاية. وهي عملية للغاية لأنها تحتوي على تطبيقات فورية وعاجلة، مستحضرا سؤال الأخلاق في "معضلة الترولي" التي طرحتها الفيلسوفة البريطانية فيليبا فوت في 1967.

وتتخيل تلك المعضلة الافتراضية وجود شخص على مفترق قضبان قطار، حيث يستطيع تغيير مسار القطار بمقبض في يده، وأمامه شخص مربوط بإحكام على القضبان وعلى المسار الثاني هناك 5 أشخاص مربوطين أيضا.

ووصولا إلى التطورات الحديثة في الذكاء الاصطناعي، قال جيبر إن الفلاسفة فكروا في الإجابات والآن أصبح رأيهم مهما، ولا بد من توجيه المبرمجين الذين ستختار الخوارزميات الخاصة. "إن الذكاء الاصطناعي يجبرنا على اتخاذ قرارات بشأن الصواب والخطأ، ولم يعد مجرد تجربة فكرية".

وتساءل الفيلسوف "كيف يمكن برمجة آلة أو خوارزمية على كود أخلاقي مصطنع يجعلها تحسن التصرف؟ إن التفكير في هذا الأمر سيجبرنا على الخوض في التفاصيل والتساؤل عما إذا كنا حقا بحاجة إلى هذه الروبوتات. إن هذه المسألة مثيرة للاهتمام وضرورية لأن الخوارزميات تؤثر على حياة الناس".

ويضيف "قد يكون ذلك واضحا في حالة السيارة ذاتية القيادة ومعضلة الترولي التي يكون فيها اتخاذ القرارات الحاسمة نادرا، ولكن يختلف الأمر بالنسبة لخوارزميات يوتيوب أو فيسبوك التي تؤثر بشكل كبير على تدفق المعلومات. كلما طورنا المزيد من القوى الجديدة، زادت مسؤوليتنا الأخلاقية. حتى خلف روبوت الدردشة، هناك معضلات أخلاقية خطيرة". 

Facebook Share
طباعة عودة للأعلى
اضافة تعليق
* اكتب ناتج 7 + 8