وهم السيطرة البشرية على الذكاء الاصطناعي يثير تساؤلات حاسمة
كلما زادت المخاطر في البيئة التي تُنشر فيها أنظمة الذكاء الاصطناعي القوية، ازدادت حاجتنا إلى حل بديهي: أن يكون البشر هم من يتخذون القرارات النهائية دائماً.
سياق الحرب
في سياق الحرب، وكما هو واضح من الخلاف الأخير بين شركة «أنثروبيك» والحكومة الأمريكية، فقد ركز النقاش العام والتنظيمي على التمييز الثنائي الظاهري بين الأسلحة ذاتية التشغيل بالكامل، وتلك الخاضعة «للسيطرة البشرية». وفي عالم الشركات أيضاً، دفع نشر الأنظمة شبه المستقلة، الشركات إلى الاعتماد على البشر ذوي الخبرة كصناع قرار نهائيين.
كذلك، أفادت التقارير بأن أمازون تشدد على أن مهندسي البرمجيات المبتدئين والمتوسطين يحتاجون إلى موافقة مهندسين أكثر خبرة على التغييرات التي تتم بمساعدة الذكاء الاصطناعي. لكن هل يؤدي هذا الحل بالضرورة إلى الجمع بين أفضل ما في العالمين، حيث تعزز الآلات السرعة والدقة والإنتاجية، بينما يوفر البشر الخبـرة والسيـاق والحكم والمساءلة؟
تجارب سابقة
لقد فكرنا منذ زمن طويل في أفضل السبل للجمع بين الآلات والبشر. ففي عام 1951، وضع عالم النفس بول فيتس قائمةً بالأمور التي «يُجيدها البشر» وتلك التي «تُجيدها الآلات». لكن، للأسف، يبدو أننا لم نتعلم الكثير من أخطائنا المتكررة على مرّ السنين.
تكمن المشكلة الأبرز في أن الذكاء الاصطناعي يعمل بسرعة تفوق سرعة البشر. ففي ساحة المعركة، على سبيل المثال، حتى الأنظمة التي تترك القرارات النهائية للبشر، قادرة على معالجة كميات هائلة من البيانات، ما يزيد بشكل كبير من عدد الأهداف المحتملة. وعندما يتم اختصار ما يُعرف بـ«سلاسل القتل» من ساعات إلى دقائق أو حتى ثوانٍ، يبرز تساؤل جوهري حول مدى قدرة البشر على التحكم في الوقت الفعلي.
تحديات بشرية
في عالم العمل المكتبي، الذي لا ينطوي على مخاطر كبيرة، بدأت تظهر ظاهرة مماثلة، حيث تُسرّع أنظمة الذكاء الاصطناعي بشكل كبير وتيرة وحجم العمل الذي لا يزال يتطلب توجيهاً ومراجعةً بشرية. وقد أظهرت دراسة استمرت ثمانية أشهر حول استخدام الذكاء الاصطناعي التوليدي في شركة تقنية أمريكية، أن الزيادة الكبيرة في الإنتاجية ترافقت مع «إرهاق ذهني واحتراق وظيفي وضعف في اتخاذ القرارات».
المشكلة الثانية أن العديد من البشر يميلون إلى الثقة بالآلات، حتى رغم تلقيهم تحذيرات بعدم فعل ذلك. وقد وُثِّقت ظاهرة «الانحياز للأتمتة» مراراً في سياقات مختلفة، من سائقين قادتهم أنظمة GPS إلى الأنهار، إلى طلاب اتبعوا روبوتات بعيداً عن مخارج الطوارئ في محاكاة الأزمات. كما أظهرت تجربة في شركة «فولفو» أن نحو 30 % من المشاركين سمحوا لسيارة شبه ذاتية القيادة بالاصطدام مباشرةً بجسم في الطريق.
وفي الشهر الماضي، صاغ أكاديميان من كلية وارتون للأعمال مصطلح «الاستسلام المعرفي» لوصف الحالة التي يتخلى فيها الإنسان عن «التحكم المعرفي، ويتبنى حكم الذكاء الاصطناعي كحكمه».
مسؤولية غامضة
تظهر مشكلة ثالثة تتمثل في غموض المسؤولية: من يتحمل الخطأ عند وقوعه؟ قد يُلقى اللوم على الإنسان صاحب القرار النهائي، لكن إذا كان يعمل ضمن نظام لم يُصمم للحد من المشكلتين السابقتين، فإن ذلك لا يبدو منصفاً، ولن يقود إلى حلول هيكلية فعّالة.
بدلاً من ذلك، قد يجد البشر أنفسهم في ما وصفته الباحثة مادلين كلير إيليش بـ«منطقة الانهيار الأخلاقي»، حيث يتحمل الإنسان عبء المسؤولية عند تعطل نظام شديد التعقيد والأتمتة، تماماً كما تمتص «منطقة الانهيار» في السيارة قوة الصدمة عند الاصطدام.
الجيد أن هذه التحديات ليست مستعصية. فقد تعلمنا بالفعل كيفية الحد من آثارها في بعض المهن. فعلى سبيل المثال، يتعامل طيارو الخطوط الجوية مع أنظمة الأتمتة منذ عقود. ورغم وقوع حوادث، فقد أفرزت هذه التجربة دروساً مهمة، من بينها ضرورة تدريب الطيارين على فهم كيفية عمل الأنظمة (وكيف يمكن أن تتعطل)، وتشجيعهم على الطيران اليدوي كلما أمكن للحفاظ على مهاراتهم.
ختاماً، تبدو فكرة أن يكون للإنسان الكلمة الفصل في هذه التقنيات فائقة القوة جذابة وبديهية، لكن تاريخ العلاقة بين الإنسان والآلة يوضح أن تحقيق ذلك ليس سهلاً. بل إن وهم السيطرة البشرية قد يكون أكثر خطورة من غيابها التام.