تد

ماشین‌های خودران چه تصمیم‌های اخلاقی باید بگیرند؟

ماشین‌های خودران چه تصمیم‌های اخلاقی باید بگیرند؟

آیا ماشین خودران شما برای نجات جان پنج عابر پیاده، باید شما رو بکشد؟ در این مقدمه درباره چندراهی‌های اجتماعی مربوط به ماشین‌های خودران، لیاد راوان به بررسی این موضوع می‌پردازد که چگونه تکنولوژی اخلاقیات ما را به چالش می‌کشد و تلاش خودش برای جمع‌آوری داده را از مردم واقعی درباره بده-بستان‌های اخلاقی که ما مایلیم(و مایل نیستیم) که انجامشان دهیم، توضیح می‌دهد.

متن سخنرانی – ماشین‌های خودران چه تصمیم‌های اخلاقی باید بگیرند؟

امروز قراره درباره تکنولوژی و جامعه صحبت کنم. دپارتمان حمل و نقل، در سال گذشته تخمین زد که فقط در آمریکا، ۳۵،۰۰۰ نفر به علت تصادفات ترافیکی مرده‌اند. در سراسر جهان هر ساله ۱.۲ میلیون نفر به خاطر سوانح ترافیکی میمیرند. اگه راهی بود که میتونسیتم باهاش ۹۰ درصد این تصادف‌ها رو حذف کنیم، آیا ازش حمایت میکردین؟ البته که میکردین.

این چیزیه که تکنولوژی ماشین خودران ( بدونِ راننده) وعده میده که بهش به به وسیله منبع اصلی تصادفات میرسه– خطای انسان. حالا خودتون رو تصور کنید که در سال ۲۰۳۰ در یک ماشین خودران نشستید، و دارین این ویدیو قدیمی TEDxCambrdige رو میبینین. (خنده حاضرین) ناگهان، ماشین به مشکل مکانیکی میخوره و نمیتونه متوقف شه.

اگه ماشین ادامه بده، به عده‌ای از عابرین پیاده که در حال عبور از خیابان هستند خواهد زد. ولی ممکنه ماشین منحرف بشه، و به یکی از افراد داخل پیاده رو بزنه، و اونا رو برای نجات جان عابران پیاده بکشه. ماشین باید چیکار کنه و چه کسی باید تصمیم بگیره؟ اگه به جای اینکار ماشین بتونه به سمت دیوار منحرف شه، و تصادف کنه و شما که سرنشین هستین رو بکشه، برای نجات اون عابران پیاده، اونوقت چی؟ این سناریو از مشکل قطار برقی الهام گرفته است، که چندین دهه پیش توسط فلاسفه اختراع شد تا درباره اخلاق فکر کنند.

حالا، جوری که ما به این مساله فکر میکنیم مهمه. مثلا ممکنه اصلاً بهش فکر نکنیم. ممکنه بگید این سناریو غیر واقعیه، یا غیر محتمل، یا احمقانه. ولی من فکر میکنم این انتقاد از نکته اصلی غافل میشه چون سناریو رو خیلی سطحی بررسی میکنه. البته که هیچ تصادفی این شکلی نیست، هیچ تصادفی دو یا سه گزینه نداره که توش هرکی به طریقی میمیره.

به جاش، ماشین میره سراغ حساب کردن چیزی مثل احتمال اصابت به گروهی از مردم، وقتی به جهتی منحرف بشین نسبت به یک جهت دیگه، شاید اندکی ریسک رو برای سرنشینان یا سایر رانندگان نسبت به عابران پیاده زیاد کنین. این محاسبات پیچیده‌تر هم خواهد شد، ولی همچنان شامل بده‌ بستان‌هایی خواهد بود، و بده بستان‌ها غالباً نیازمند اخلاقیات هستند.

ممکنه بگیم، “خب، بیا نگران این مساله نباشیم. بیاین صبر کنیم تا تکنولوژی کاملاً آماده و صد درصد امن بشه.” فرض کنید ما بتونیم واقعاً ۹۰ درصد این تصادفات رو حذف کنیم، یا حتی ۹۹ درصدشون رو طی ۱۰ سال آینده. اگه حذف کردن اون ۱ درصدِ باقی مونده از تصادفات به ۵۰ سال تحقیق نیاز داشته باشه، اونوقت تکلیف چیه؟ آیا باید قید این تکنولوژی رو بزنیم؟ که یعنی ۶۰ میلیون مرگ در تصادفات رانندگی اگر که با همین نرخ تصادفات پیش بریم.

بخوانید:  چگونه می‌توانیم محصولاتی تولید کنیم که بدون آب دوام آورند؟

منظورم اینه که، صبر کردن برای رسیدن به ایمنی کامل یک گزینه هست، ولی بده-بستانهای خودش رو داره. مردم در رسانه‌های اجتماعی به انواع مختلفی از روش‌ها رسیدن که به این مشکل فکر نکنیم. یه نفر پیشنهاد داده بود که ماشین باید به سمتی منحرف بشه که ماشین بخوره به جایی بین سرنشین‌ها — (خنده حاضرین) و عابر پیاده.

البته اگه این کاریه که ماشین میتونه بکنه، باید همین کار رو بکنه. ولی ما درباره سناریو‌هایی کنجکاویم که نمیشه این کار رو کرد. و راه مورد علاقه خودم پیشنهاد یک بلاگ‌نویس هستش که داخل ماشین یک دکمه پرتاب به بیرون باشه که فشارش بدین — (خنده حاضرین) درست قبل از خود نابودسازی ماشین. (خنده حاضرین) پس اگه ما قبول کنیم که ماشین‌ها بده‌-بستان‌هایی رو در جاده خواهند داشت، تکلیف این بده بستانها چیه، و چطور تصمیم میگیریم؟ خب، شاید باید یه نظرسنجی برگزار کنیم تا ببینیم جامعه چی میخواد، چون در نهایت، قوانین و مقررات بازتابی از ارزش‌های اجتماعی هستند.

ما هم همین کارو کردیم. با همکارانم، عظیم شریف و‌ ژان-فرانیوا بونفون یک نظرسنجی برگزار کردیم که توش به مردم این سناریوها رو نشون میدادیم. بهشون دوتا حق انتخاب میدادیم که الهام گرفته از دو فیلسوف بودن: امانوئل کانت و جرمی بنتهام. بنتهام میگه که ماشین باید از اخلاق سودگرایانه پیروی کنه: باید کاری کنه که مجموعِ ضرر کمینه بشه — حتی اگه این کار باعث کشته شدن یک عابر پیاده بشه حتی اگه این کار یک سرنشین رو بکشه.

امانوئل کانت میگه ماشین باید از اصول تکلیفی پیروی کنه، مثل فرمان “نباید به قتل برسانی.” پس شما نباید کاری کنین که به صراحت به یک انسان آسیب بزنین، و باید بذارین که ماشین به مسیرش ادامه بده حتی اگه به مردم بیشتری آسیب بزنه. شما نظرتون چیه؟ بنتهام درست میگه یا کانت؟ ما به این نتیجه رسیدیم.

بیشتر مردم میگن بنتهام. به نظر میرسه مردم میخوان که ماشین سودمندگرا باشه، مجموع ضرر رو کمینه کنه، و این کاریه که همه باید بکنیم. مشکل حل شد. ولی یک گیر کوچیک اینجا هست. وقتی ما از مردم پرسیدیم که آیا شما اینجور ماشین‌ها رو میخرین، گفتن: “قطعا نه.” (خنده حاضرین) مردم میخوان ماشین‌ها رو بخرن که تحت هر شرایطی ازشون محافظت کنه، ولی میخوان بقیه ماشینی رو بخرن که ضرر رو کمینه کنه.

(خنده حاضرین) ما این مشکل رو قبلاً هم دیده‌ایم. بهش میگن دوراهی اجتماعی. و برای اینکه دوراهی اجتماعی رو درک کنین، باید در تاریخ یه ذره به عقب برگردیم. حدود سال ۱۸۰۰ میلادی، اقتصاددان انگلیسی ویلیام فورستر للوید رساله‌ای رو منتشر کرد که این سناریو‌ها رو توش توضیح میداد. فرض کنید گروهی از چوپان‌ها دارین — چوپان‌های انگلیسی — که زمین مشترکی برای چروندن گوسفنداشون دارن.

حالا، اگه هر چوپان تعداد مشخصی گوسفند‌ بیاره — مثلاً هرکی ۳ تا گوسفند — زمین سالم میمونه و کاریش نمیشه، چوپان‌ها خوشحالن، گوسفند‌ها خوشحالن، همه چی خوبه. حالا اگه یکی از چوپان‌ها یه گوسفند اضافی بیاره، اون چوپان‌ یکم وضعش بهتر میشه، و هیچکس ضرر نمیکنه. ولی اگه همه چوپان‌ها این تصمیم فردی رو که برای هرکدومشون منطقیه بگیرن، زمین بیش از اندازه بهش فشار میاد، و خراب میشه.

بخوانید:  جری رایت: چگونه می‌توان بحران مقاومت آنتی‌بیوتیکی را حل کرد؟ - جری رایت

چوپان‌ها ضرر میکنن، و البته گوسفند‌ها هم ضرر میکنن. این مشکل رو خیلی جاها میبینیم: مشکل حل ماهیگیری بیش از اندازه، یا کاهش انتشار کربن، برای کند کردن روند تغییرات اقلیمی. وقتی این مشکل به مقررات ماشین‌های بدون راننده(خودران) میرسه، زمین مشترک برای چَرا همون امنیت عمومی میشه — که ارزش مشترک هست — و چوپان‌ها همون سرنشین‌ها میشن یا صاحبان ماشین‌ها که دارن رانندگی میکنن.

و تصمیم فردی عاقلانه که اولیت دادن به امنیت خود شخص هست، ممکنه به صورت جمعی در حال تخریب مال مشترکشون(زمین چَرا) باشن، که کمینه کردن کل ضرر هست. بهش میگن تراژدی اشتراکها، به طور سنتی، ولی من فکر میکنم در مورد ماشین‌های بدون راننده(خودران)، شاید مشکل یه ذره ظریف‌تر باشه چون حتماً اونی که تصمیم رو میگیره، یک انسان نیست.

ممکنه سازندگان ماشین خودرو‌ها رو طوری برنامه‌ریزی کنن، که امنیت مشتریانشون رو بیشینه کنه، و اون ماشین‌ها شاید خودشون یاد بگیرن که به صورت اتوماتیک انجام این کار خطراتی رو برای عابرین پیاده داره. مثلاً توی مثال گوسفند‌ها، یک گوسفند الکتریکی داشته باشیم که ذهن خودش رو داره. (خنده حاضرین) و گوسفند‌ها شاید برن و بِچرند در حالی که چوپان نمیدونه.

این چیزیه که اسمش رو میذاریم تراژدی اشتراکات الگورتیمی، که چالش‌های جدیدی رو در خودش داره. معمولاً و به طور سنتی، ما این نوع دوراهی‌های اجتماعی رو با استفاده از مقررات حل میکنیم، پس حکومت‌ها یا جوامع گِرد هم میان، و تصمیم میگیرن که چه نتیجه‌ای رو میخوان، و چه محدودیت‌هایی روی رفتارهای فردی باید اعمال کنند.

و بعدش با استفاده از نظارت و الزام، میتونن مطمئن شن که منافع عمومی حفظ میشه. پس چرا نیایم، به عنوان قانون گذاران، بخوایم که همه ماشین‌ها ضرر رو کمینه کنن؟ به هرحال، این چیزیه که همه ادعا میکنن میخوانش. و مهمتر از اون، مطمئناً منِ نوعی، اگه یه ماشین بخرم که ممکن باشه من رو در یه حالت خیلی خاص قربانی کنه، من تنها احمقی نیستم که این کار رو میکنه در حالی که بقیه از محافظت بی‌قید و شرط لذت میبرن.

در نظرسنجی ما، از مردم پرسیدیم که آیا از قانون گذاری حمایت میکنن یا نه و به این نتایج رسیدیم. اول از همه، مردم به قانون گذاری نه گفتند. و دوم، اونا گفتن “خب اگه شما برای ماشین‌ها قانون بذارین که این‌ کار رو بکنن و ضرر رو کمینه کنن، من اون ماشین‌ها رو نمیخرم.” پس به طرز مسخره‌ای، با قانون‌گذاری برای ماشین‌ها برای کمینه کردن ضرر، ما بیشتر ضرر میکنیم! چون مردم نمیخوان که از تکنولوژی امن‌تر استفاده کنن حتی اگه خیلی خیلی امن‌تر از رانندگان انسانی باشه.

من جواب نهایی این معما رو نمیدونم، ولی فکر میکنم به عنوان یک نقطه شروع، ما لازم داریم که همه جمع شیم، تا تصمیم بگیریم که چه بده-بستون‌هایی رو باهاش کنار میایم و به راه‌هایی برسیم که بتونیم اون بده-بستون‌ها رو اجرایی کنیم. به عنوان یک نقطه شروع، دانشجویان فوق‌العاده من، ادموند اواد و سوهن دئسوزا.

بخوانید:  توماس اینسل: به سمت درکی تازه از بیماری روانی

سایت ماشین با اخلاق رو ساختند، — که سناریوهای تصادفی برای شما تولید میکنه اساساً دنباله‌ای از تعدادی مساله تصادفی که شما باید تصمیم بگیرین که ماشین در سناریو گفته شده چه کار باید بکنه. و ما حتی سن و نوع قربانی‌ها رو عوض میکنیم. تا اینجا ما بیش از ۵ میلیون تصمیم از این سایت برای این سناریو‌ها جمع کردیم توسط یک میلیون نفر در سرتاسر جهان و این کمک میکنه که یک تصویر ابتدایی داشته باشیم از اینکه مردم با چه بده-بستان‌هایی کنار میان و چه چیزهایی براشون مهمه — حتی در فرهنگ‌های مختلف.

ولی مهمتر از این، انجام این کار، به مردم کمک میکنه که دشوار این تصمیم گرفتن‌ها رو بشناسن و اینکه قانون‌گذاران با تصمیم‌های غیرممکن روبرو هستند. و شاید این به ما به عنوان یک جامعه کمک کنه انواع بده-بستانها رو درک کنیم که بالاخره در مقررات به کار خواهد رفت. و در واقع، من خیلی خوشحالم که میشنوم اولین مجموعه قوانین و مقرارت توسط وزارت حمل و نقل — هفته پیش اعلام شد — شامل یک چک لیست ۱۵ امتیازی برای تمام خودروسازان، و شماره ۱۴ یک ملاحظه اخلاقی بود — با آن چطوری کنار خواهید آمد.

همچنین ما افرادی رو داریم که با دادن خلاصه‌‌ای از آنچه انتخاب کرده‌اند تصمیماتشون رو بازتاب میدن. بهتون یک مثال نشون میدم — فقط بهتون هشدار میدم که این یک مثال عادی نیست، یا کاربر عادی. این مثال بیشترین قربانی و بیشترین نجات توسط این آدم رو نشون میده. (خنده حاضرین) بعضی از شما شاید با نظر این مرد موافق باشین، یا شایدم نظر این زن، نمیدونم.

ولی به نظر میرسه این فرد یکم سرنشین‌ها رو نسبت به عابرین پیاده توی انتخاب‌هاش ترجیح میده و از تنبیه کردن عابرین داخل خیابون خوشحال میشه. (خنده حاضرین) حالا بیاین جمع بندی کنیم. ما با یک سوال که اسمش رو دوراهی اخلاقی میذاریم، شروع کردیم — که ماشین توی سناریو خاص چه کار باید بکنه: منحرف بشه یا ادامه بده؟ ولی بعدش فهمیدیم که این مساله دیگه‌ای بود.

مساله، هم‌نظر کردن جامعه و اجرای بده-بستان‌هایی بود که جامعه باهاش کنار میاد. که یک معمای اجتماعی هست. در سال ۱۹۴۰، ایزاک آسیموف قوانین مشهورش برای ربات‌ها را نوشت — سه قانون برای ربات‌ها. ربات نباید به انسان آسیب بزنه، ربات نباید از انسان سرپیچی کنه، و ربات نباید به خودش اجازه بده که آسیب بزنه — به ترتیب اهمیت از اول به سوم.

ولی بعد از گذشت حدود ۴۰ سال و بعد داستان‌های زیادی که به این قوانین فشار آوردن، آسیموف قانون صفرم رو مطرح کرد که بر هر سه قانون قبلی تقدم داره، و اون این بود که ربات نباید به کلیت انسان‌ها آسیب بزنه. من نمیدونم مصداق این قانون در زمینه ماشین‌های خودران چی میشه یا هر حالت خاصی، و نمیدونم که ما چطوری میخوایم اجراش کنیم، ولی فکر میکنم که با فهمیدنِ اینکه مقررات ماشین‌های خودران تنها یک مساله مرتبط با تکنولوژی نیست و یک مساله همکاری اجتماعی هم هست، میتونم امیدوار باشم که حداقل شروع به پرسیدن سوالات درست کنیم.

سپاس گزارم.

نوشته های مشابه

دکمه بازگشت به بالا