🔍
The ethical dilemma of self-driving cars - Patrick Lin - YouTube
Channel: TED-Ed
[0]
المترجم: Abeer Darweesh
المدقّق: muhammad Samir
[7]
هذه تجربة خيالية
[9]
لنقل أنه في مرحلة ما ليست بالبعيدة
[11]
أنطلقت على الطريق السريق
بسيارتك ذاتية القيادة
[15]
ووجدت أن سيارك قد اُقفل عليها
بالسيارات الأخرى
[19]
وفجأة تسقط عليك مواد كبيرة
وثقيلة من الشاحنة التي أمامك
[24]
سيارتك لايمكنها التوقف في الوقت المناسب
لتجنب الأصطدام
[27]
وعليها أن تتخذ القرار
[29]
تتجه إلى الأمام وتصطدم بمواد الشاحنة
[31]
أو تنحرف يساراً
بإتجاه سيارات الدفع الرباعي
[33]
أو تنحرف يميناً بإتجاه الدراجة النارية
[36]
أتكون سلامتك أولويتها
وتضرب الدراجة النارية
[40]
أم تقليل الخطر على الأخرين
بعدم الإنحراف
[43]
حتى لو كان بالإصطدام بالمواد الضخمة
والتضحية بحياتك،
[47]
أو أختيار الحل الأوسط
بالإصطدام بسيارات الدفع الرباعي
[50]
أي خيار يحمل معدل نجاة أعلى للراكبين ؟
[53]
إذاً ماذا يجب على السيارة
ذاتية القيادة أن تفعل ؟
[56]
إذا كنا نقود
في مثل هذا الزحام على الوضع اليدوي
[59]
أياً كان تصرفك
سيُفهم أنه أتُخذ هكذا ببساطة
[63]
ردة فعل
[64]
ليس قراراً مُتعمداً
[66]
سيكون تصرف مذعور
بدون أي تفكير مسبق أو تعمد أذي
[70]
ولكن لو برمج المبرمج السيارة
بإتخاذ نفس التصرف
[74]
ظروف معينة قد تُفهم في المستقبل
[77]
حسناً, قد يبدو هذا قتل عمد مع سبق الإصرار
[81]
والآن لنكون عادلين
[82]
السيارات ذاتية القيادة
متوقع لها أن تقلل كثيراً من حوادث السيارات
[86]
والوفيات
[87]
بأستبعاد الأخطاء البشرية من معادلة القيادة
[91]
بالإضافة إلى كافة أنواع الفوائد الأخري
[93]
تخفيف إزدحام الطرق
[95]
وتخفيض الإنبعاثات الضارة
[96]
وتقليل من وقت القيادة المتوترة الغير منتجة
[101]
ولكن لاتزال هناك إمكانية لوقوع حوادث
[103]
وعندما تحدث
[104]
يمكن تحديد نتائجها أشهر أو سنين مقدماً
[109]
من قبل المبرمجين أو المسؤولين
[111]
وسيكون عليهم إتخاذ بعض القرارات الصعبة
[114]
وإنه لمن المغري أن تقدم
بعض المبادئ العامة بمسألة إتخاذ القرار
[117]
مثل تقليل الخطر
[119]
ولكن ذلك قد يقود إلى خيارات معتمة أكثر
[122]
على سبيل المثال
[123]
لنتخيل أننا في نفس الموقف السابق
[125]
ولكن الآن يوجد هناك سائقة دراجة نارية
ترتدي خوذة إلى يسارك
[128]
وقائد دراجة أخر يقود دراجته بدون خوذة
[131]
أي من السائقين
على سيارتك المبرمجة أن تصطدم به؟
[134]
إذا إفترضنا السائقة صاحبة الخوذة
لأن إحتمالية نجاتها أعلى
[138]
ألست تظلم راكبة الدراجة المهتمة بالسلامة ؟
[141]
وإذا بالمقابل تجنبت راكب الدراجة بدون الخوذة
[144]
لأنه لم يهتم بالسلامة
[146]
تكون قد أنحرفت كثيراً
عن المبدأ الأول بشأن تقليل الخطر
[151]
وتكون سيارتك المبرمجة
قد خالفت عدالة الشارع
[154]
الأعتبارات الأخلاقية قد تكون أعقد من هذا
[158]
وفي كلا السيناريوهات
[159]
التصميم الأساسي يعمل
وفق خوارزمية إستهدافية نوعاً ما
[164]
بكلمات أخرى
[165]
إنها بشكل مبرمج تفضل أو تميز
[167]
شخص عن أخر أو كائن للإصطدام به
[171]
ومالكي المركبات المستهدفة
[173]
سوف يعانوا من عواقب سلبية
بسبب هذه الخوارزمية
[176]
بدون أي ذنب إرتكبوه
[178]
تقنياتنا الجديدة تفتح العديد
من الروايات للمعضلات الأخلاقية
[183]
على سبيل المثال
إذا كان عليك الإختيار بين
[185]
السيارة المبرمجة على الحفاظ
على أكبر قدر من الحيوات في حادث ما
[189]
أو تلك التي ستحافظ عليك أنت مهما كلفها
[192]
أي من السيارتين ستشتري ؟
[194]
ماذا سيحدث إذا بدأت السيارات بتحليل وحوسبة
[197]
قائدي السيارات وتفاصيل حياتهم
[201]
هل سيكون في تلك الحالة قرار إعتباطي
[203]
هل سيكون قرار أفضل
من واحدة محددة سلفاً أن تقلل من الخطر
[208]
وعلى كل حال من سيكون المسؤول
عن صناعة هذه القرارات
[210]
المبرمجون
[211]
الشركات
[212]
الحكومات
[214]
الواقع قد لايتماشى مع نتاج خبراتنا
[217]
ولكن تلك ليست نقطتنا
[219]
إنها مصممة لتختبر وتجهد حدسنا الأخلاقي
[223]
تماماً مثل ما تصنع التجارب العلمية في العالم المادي
[226]
إكتشاف مثل هذه الأخلاقيات الصعبة يبدأ الآن
[229]
سيساعدنا في التعامل
مع طرق غير معتادة لأخلاقيات التكنولوجيا
[233]
وتساعدنا في الإنسياب بثقة وضمير
[237]
نحو مستقبل جديد وشجاع
Most Recent Videos:
You can go back to the homepage right here: Homepage





