The ethical dilemma of self-driving cars - Patrick Lin - YouTube

Channel: TED-Ed

[0]
المترجم: Abeer Darweesh المدقّق: muhammad Samir
[7]
هذه تجربة خيالية
[9]
لنقل أنه في مرحلة ما ليست بالبعيدة
[11]
أنطلقت على الطريق السريق بسيارتك ذاتية القيادة
[15]
ووجدت أن سيارك قد اُقفل عليها بالسيارات الأخرى
[19]
وفجأة تسقط عليك مواد كبيرة وثقيلة من الشاحنة التي أمامك
[24]
سيارتك لايمكنها التوقف في الوقت المناسب لتجنب الأصطدام
[27]
وعليها أن تتخذ القرار
[29]
تتجه إلى الأمام وتصطدم بمواد الشاحنة
[31]
أو تنحرف يساراً بإتجاه سيارات الدفع الرباعي
[33]
أو تنحرف يميناً بإتجاه الدراجة النارية
[36]
أتكون سلامتك أولويتها وتضرب الدراجة النارية
[40]
أم تقليل الخطر على الأخرين بعدم الإنحراف
[43]
حتى لو كان بالإصطدام بالمواد الضخمة والتضحية بحياتك،
[47]
أو أختيار الحل الأوسط بالإصطدام بسيارات الدفع الرباعي
[50]
أي خيار يحمل معدل نجاة أعلى للراكبين ؟
[53]
إذاً ماذا يجب على السيارة ذاتية القيادة أن تفعل ؟
[56]
إذا كنا نقود في مثل هذا الزحام على الوضع اليدوي
[59]
أياً كان تصرفك سيُفهم أنه أتُخذ هكذا ببساطة
[63]
ردة فعل
[64]
ليس قراراً مُتعمداً
[66]
سيكون تصرف مذعور بدون أي تفكير مسبق أو تعمد أذي
[70]
ولكن لو برمج المبرمج السيارة بإتخاذ نفس التصرف
[74]
ظروف معينة قد تُفهم في المستقبل
[77]
حسناً, قد يبدو هذا قتل عمد مع سبق الإصرار
[81]
والآن لنكون عادلين
[82]
السيارات ذاتية القيادة متوقع لها أن تقلل كثيراً من حوادث السيارات
[86]
والوفيات
[87]
بأستبعاد الأخطاء البشرية من معادلة القيادة
[91]
بالإضافة إلى كافة أنواع الفوائد الأخري
[93]
تخفيف إزدحام الطرق
[95]
وتخفيض الإنبعاثات الضارة
[96]
وتقليل من وقت القيادة المتوترة الغير منتجة
[101]
ولكن لاتزال هناك إمكانية لوقوع حوادث
[103]
وعندما تحدث
[104]
يمكن تحديد نتائجها أشهر أو سنين مقدماً
[109]
من قبل المبرمجين أو المسؤولين
[111]
وسيكون عليهم إتخاذ بعض القرارات الصعبة
[114]
وإنه لمن المغري أن تقدم بعض المبادئ العامة بمسألة إتخاذ القرار
[117]
مثل تقليل الخطر
[119]
ولكن ذلك قد يقود إلى خيارات معتمة أكثر
[122]
على سبيل المثال
[123]
لنتخيل أننا في نفس الموقف السابق
[125]
ولكن الآن يوجد هناك سائقة دراجة نارية ترتدي خوذة إلى يسارك
[128]
وقائد دراجة أخر يقود دراجته بدون خوذة
[131]
أي من السائقين على سيارتك المبرمجة أن تصطدم به؟
[134]
إذا إفترضنا السائقة صاحبة الخوذة لأن إحتمالية نجاتها أعلى
[138]
ألست تظلم راكبة الدراجة المهتمة بالسلامة ؟
[141]
وإذا بالمقابل تجنبت راكب الدراجة بدون الخوذة
[144]
لأنه لم يهتم بالسلامة
[146]
تكون قد أنحرفت كثيراً عن المبدأ الأول بشأن تقليل الخطر
[151]
وتكون سيارتك المبرمجة قد خالفت عدالة الشارع
[154]
الأعتبارات الأخلاقية قد تكون أعقد من هذا
[158]
وفي كلا السيناريوهات
[159]
التصميم الأساسي يعمل وفق خوارزمية إستهدافية نوعاً ما
[164]
بكلمات أخرى
[165]
إنها بشكل مبرمج تفضل أو تميز
[167]
شخص عن أخر أو كائن للإصطدام به
[171]
ومالكي المركبات المستهدفة
[173]
سوف يعانوا من عواقب سلبية بسبب هذه الخوارزمية
[176]
بدون أي ذنب إرتكبوه
[178]
تقنياتنا الجديدة تفتح العديد من الروايات للمعضلات الأخلاقية
[183]
على سبيل المثال إذا كان عليك الإختيار بين
[185]
السيارة المبرمجة على الحفاظ على أكبر قدر من الحيوات في حادث ما
[189]
أو تلك التي ستحافظ عليك أنت مهما كلفها
[192]
أي من السيارتين ستشتري ؟
[194]
ماذا سيحدث إذا بدأت السيارات بتحليل وحوسبة
[197]
قائدي السيارات وتفاصيل حياتهم
[201]
هل سيكون في تلك الحالة قرار إعتباطي
[203]
هل سيكون قرار أفضل من واحدة محددة سلفاً أن تقلل من الخطر
[208]
وعلى كل حال من سيكون المسؤول عن صناعة هذه القرارات
[210]
المبرمجون
[211]
الشركات
[212]
الحكومات
[214]
الواقع قد لايتماشى مع نتاج خبراتنا
[217]
ولكن تلك ليست نقطتنا
[219]
إنها مصممة لتختبر وتجهد حدسنا الأخلاقي
[223]
تماماً مثل ما تصنع التجارب العلمية في العالم المادي
[226]
إكتشاف مثل هذه الأخلاقيات الصعبة يبدأ الآن
[229]
سيساعدنا في التعامل مع طرق غير معتادة لأخلاقيات التكنولوجيا
[233]
وتساعدنا في الإنسياب بثقة وضمير
[237]
نحو مستقبل جديد وشجاع