Menu
نویسنده مطلب : محمود قاسمیان

مطلب مورد بحث:

اخلاق هوش مصنوعی | مسئله تراموا


سوالی که برای من پیش آمد این هست که در زمان سانحه انتخاب ما (در آن فرصت اندک و با انتخاب خودکار) یک سناریو باشد منطقی است که اگر با سیستم نوع دوم تصمیم بگیریم، فکر کنیم و ستدلال داشته باشیم غالبا باید نتیجه دیگری به دست بیاید مثلا در تمامی شرایط یک کودک در اولویت بالایی قرار دارد چون به صورت ذاتی یک غریزه حفظ کودک در وجود انسان است که موجب بقای کودکان بی پناه در سایه حمایت سایر افراد می شود اما اگر در شرایط عادی و با زمان کافی و با استفاده از سیستم نوع دوم به انتخاب بپردازیم آیا گزینه دیگری را انتخاب نمی کنیم؟

در مثال اخبار رادیو و تلویزیونی که همواره تعداد زنان و کودکان کشته شده را بیان می کند آیا نباید اکنون با اندیشه دقیق تری به بررسی بپردازیم و این را تنها بازی با کلمات بدانیم ورنه مردی که میمیرد شاید مخاطرات و مشکلات ناشی از آن سبب مرگ های آتی برای زنان و کودکان بی دفاع و بی پناه باشد؟!؟

در کل منظورم این است که Moral Machine برای تصمیم های نوع اول درست است اما آیا برای تصمیمات نوع دوم و عمیق تر نیز کاربرد دارد؟