خلال السنوات القادمة سنرى سيارات تقود نفسها في الشارع، ومن المؤكد أنها ستسير ببراعة أكبر من براعة البشر، وستقلل من الحوادث بدرجة غير معهودة في تاريخ استخدام البشر للسيارات. ولكنها لن تستطيع أن تمنع الحوادث بتاتا. وسيأتي اليوم الذي تضطر فيه السيارة للاختيار بين حادثين مؤكدين، لا مفر منهما، وهنا تأتي أخلاقيات السيارة التي تقود نفسها. السؤال هو كيف تتصرف؟ ومن هو المسؤول عن الحادث؟
لعلك تتابع ما يحدث في عالم التكنولوجيا، وتعلم أن عدة شركات تعمل على إعداد سيارة قادرة على قيادة نفسها، وعلى رأس تلك الشركات هي غوغل، وقد وصلت إلى مرحلة متقدمة جدا في تطوير سيارتها، واليوم وبعد عدة سنوات من تجريب السيارات الذاتية القيادة سارت سياراتها أكثر من مليون ميل (عدد السنوات التي يقضيها السائق في الشارع إلى أن يصل إلى عمر 70 عاما) بأقل عدد من الحوادث، أقل بكثير كثير من حوادث البشر.
لكن لا يعني ذلك أن هذه السيارات ستكون معصومة من التعرض للحوادث، وواحدة من أشكال تلك الحوادث هي التي تضطر فيها السيارة لاتخاذ القرار بين الاصدام في أحد سيارتين أو سيارة وشخص يعبر الشارع أو ما أشبه. فكيف ستختار؟ تخيل لو أن شخصا يعبر الشارع مشيا على الأقدام، واقتربت السيارة الذاتية منه، وكان على جانبها سيارة أخرى فيها أطفال، ولم يكن هناك سوى خيارين فقط، إما أن تصطدم بالشخص الذي يسير على قدميه، أو السيارة التي فيها الأطفال. فماذا تختار؟ وعلام تبنى قواعدها البرمجية في اتخاذ القرار؟
فكر قليلا في المشكلة، حينما تكون أنت في زمام الأمور وتقود السيارة، وتتوفر لديك تلك الاختيارات، لن تكون لديك فرصة كبيرة للتفكير، وربما سيكون لديك رد فعل أوتوماتيكي لا يعتمد على تفكير منهجي لضيق الوقت، وربما إن اصطدمت بأي من الجانبين سينظر القاضي في الحادث ويعتبرك بريء من التعمد في الإصابة. ولكن كيف سيحكم القاضي في قضية السيارة التي تقود نفسها؟ نحن نعلم أن السيارة الذاتية تعتمد على برمجيات أدخلتها شركة فيها قبل أن نستلمتها من المحل، القرار في الاصطدام قد اتخذ مسبقا، ولكنه لم يُفعّل حتى اللحظة التي طرأت فيها الأحداث.
هذه هي مشكلة تحتاج إلى إعادة تفكير في الأخلاقيات والقيم، ليس فقط لأنفسنا، بل للتكنولوجيا الذكية المستقلة عن قراراتنا الآنية، أو التي أدخلنا فيها قراراتنا مسبقا.
هذه اللقطة من تيد التعليمي تتحدث عن الموضوع.