في القيادة الذاتية… من يتحمّل القرار الأخلاقي عند اللحظة الحاسمة؟

في القيادة الذاتية… من يتحمّل القرار الأخلاقي عند اللحظة الحاسمة؟

مع اقتراب السيارات ذاتية القيادة من الاندماج في حياتنا اليومية، يبرز سؤال مصيري: ماذا يحدث عندما تضطر هذه المركبات لاتخاذ قرارات فورية قد تعني حياةً أو موتاً؟ ففي الوقت الذي يعمل فيه المهندسون على تحسين أجهزة الاستشعار وأنظمة الملاحة والنماذج الذكية، تظهر تحديات أعمق.

دراسة حديثة أجراها فريق من الباحثين قدّمت تجربة جديدة تماماً لاستكشاف هذا السؤال. ولكن هذه المرة، لم يُختبر فيها المهندسون أو عامة الناس، بل تم اختيار الفلاسفة كمشاركين أساسيين. الهدف هو الاستفادة من قرون من التفكير الأخلاقي لفهم كيف يمكن ترجمة القيم إلى خوارزميات قيادة.

تطوير لمعضلة «عربة الترام»

بُنيت الدراسة على معضلة «عربة الترام» الشهيرة، وهي تجربة فكرية أخلاقية تطرح أسئلة حول الاختيار بين نتيجتين ضارتين. لكن بدلاً من تقديم سيناريوهات نظرية، ركّز الباحثون على مواقف واقعية قد تواجهها سيارات ذاتية القيادة على الطرقات. في أحد السيناريوهات، قد تضطر السيارة للاختيار بين الانحراف ودهس أحد المشاة أو الاستمرار في المسار وتعريض الركاب للخطر. وفي آخر، يجب المفاضلة بين عدد من الأشخاص الذين يعبرون الشارع بشكل غير قانوني وطفل يعبر في ممر مشاة. هذه قرارات معقدة تتطلب أكثر من استجابة تقنية، بل إنها تستدعي حكماً أخلاقياً.

تواجه أخلاقيات الذكاء الاصطناعي تحديات كبيرة مثل اختلاف القيم بين الثقافات وصعوبة اتخاذ قرارات فورية في مواقف طارئة (غيتي)

لماذا الفلاسفة؟

اختيار الفلاسفة لم يكن صدفة؛ فهم المتخصصون في معالجة المناطق الرمادية من السلوك البشري. من خلال تحليل ردود فعلهم على هذه المواقف، يأمل الباحثون استخلاص أنماط يمكن تحويلها إلى منطق برمجي. فعلى عكس الدراسات التي تعتمد على الرأي العام، تضيف هذه المقاربة طبقة من العمق؛ فهي لا تسأل فقط عما يفعله الناس، بل ما يجب عليهم فعله. إنه فارق جوهري في بناء أنظمة ذكاء اصطناعي تتصرف بشكل أخلاقي، لا فقط شعبوي.

وتهدف الدراسة إلى المساهمة في بناء «الأطر الميتا-أخلاقية»، وهي أنظمة عليا توجه سلوك الخوارزميات في المواقف المعقّدة. هذه الأطر ليست أوامر جامدة، بل مناهج مرنة تسمح للذكاء الاصطناعي باتخاذ قرارات محسوبة بناءً على السياق. هذه المعرفة قد تؤثر مستقبلاً على مجالات مثل التنظيم القانوني والتأمين والمسؤولية، والأهم ثقة الجمهور؛ فكلما شعر الناس بأن السيارة الذكية تفكر أخلاقياً، زادت احتمالات قبولهم لها.

الوعي الاجتماعي على الطريق

تشير دراسات أخرى إلى أن إدماج «الوعي الاجتماعي» في أنظمة القيادة الذاتية، يمكن أن يقلّل من الحوادث بشكل ملحوظ. فعندما يتم تدريب الأنظمة على توقع تصرفات البشر، كأن يتوقع النظام عبور طفل مفاجئاً في منطقة مدارس، تقل فرص الاصطدام وتحسن النتائج للركاب والمشاة على حد سواء. وهذا يعزز فكرة أن الأخلاق في الذكاء الاصطناعي لا تعني فقط كيفية التصرف في أسوأ السيناريوهات، بل كيفية تجنبها من الأساس.

خبراء يقولون إن نجاح القيادة الذاتية في المستقبل لن يعتمد فقط على التقنية بل على دمج التفكير الأخلاقي والتعاون بين المجتمع والتقنيين والمشرّعين (شاترستوك)

التحديات المقبلة

لكن حتى أكثر النماذج الأخلاقية تقدماً ستواجه تحديات عملية. القرارات على الطرقات تُتخذ في أجزاء من الثانية، في حين تستغرق المعايير الفلسفية وقتاً لا يتناسب مع سرعة الحياة الواقعية. كما أن التحيز الثقافي وتحديد المسؤولية القانونية وإمكانية التوحيد بين الدول… كلها مسائل لم تُحل بعد؛ فقرار تعتبره ثقافة معينة أخلاقياً، قد ترفضه أخرى. وصول السيارات ذاتية القيادة يفتح الباب لثورة في عالم التنقل، لكنها لن تنجح بالاعتماد على الأجهزة فقط. تُظهر هذه الدراسة أن برمجة المنطق الأخلاقي باتت جزءاً لا يمكن تجاهله من تصميم الأنظمة.

التحدي لم يعد تقنياً فحسب، بل أخلاقياً أيضاً، ومعالجته تتطلب تعاوناً بين المهندسين والفلاسفة وصنّاع القرار، والمجتمع ككل. ففي مستقبل قد تتخذ فيه السيارة قرارات مصيرية نيابة عن السائق، لن يكون السؤال فقط: «هل تقود السيارة جيداً؟»، بل: «هل تقود بحكمة؟».