سعیده بابایی
در فلسفه ذهن، زامبیها موجوداتی هستند که شکل فیزیکی یکسانی با موجودات آگاه دارند، اما دارای تجربه اول شخص نیستند. از زامبیها برای رد دیدگاه فیزیکالیسم (دیدگاهی که میگوید جهان از مؤلفههای فیزیکی ساخته شده است) استفاده میشود. ما میکوشیم که از ایده آزمایش فکری زامبیها در حوزه اخلاق استفاده کنیم و بررسی کنیم که آیا عاملیت اخلاقی امری مستقل از توانایی حسی و تجربه آگاهانه است یا خیر.
در فلسفه ذهن، زامبیها موجوداتی هستند که شکل فیزیکی یکسانی با موجودات آگاه دارند، اما دارای تجربه اول شخص نیستند.
در این یادداشت ادعا میکنیم که الگوریتمها نوعی زامبی اخلاقی وظیفهمند هستند و با این تعریف، میتوان فهم بهتری از آنها پیدا کرد. دلیل اصلی برای اینکه نمیتوان الگوریتمها را خودمختار و پاسخگو در نظر گرفت نیز همین عدم توانایی حسی آنهاست. الگوریتمها و زامبیهای اخلاقی دارای فهم اخلاقی لازم برای پذیرفتن مسئولیت اخلاقی نیستند. برای آنکه درد را به یک موجود وارد کنیم، لازم است او معرفت تجربی نسبت به درد داشته باشد.
الگوریتمها نوعی زامبی اخلاقی وظیفهمند هستند.
اگر الگوریتم نتواند چیزی را حس کند، سخن گفتن از «ارزشها» برای او بیمعنی خواهد بود و در نتیجه نمیتواند کنشهایش را بر مبنای دلایل اخلاقی رقم بزند.
زامبیها در فلسفه ذهن موجوداتی تعریف میشوند که از نظر فیزیکی، مولکول به مولکول شبیه ما هستند و وظایف و کارکردهای ما را نیز دارند و به نحوی تمایزناپذیر شبیه ما انسانها عمل میکنند.
دلیل اصلی که نمیتوان الگوریتمها را خودمختار و پاسخگو در نظر گرفت عدم توانایی حسی آنهاست.
اما بر خلاف انسانها، دارای تجربه آگاهانه نیستند و احساساتی نظیر درد و رنج و خوشی را درک نمیکنند. اگر چنین موجوداتی بتوانند وجود داشته باشند، پس آگاهی و تجربیات آگاهانه، امری فراتر از بدن فیزیکی خواهد بود.
زامبی ها دارای تجربه آگاهانه نیستند و احساساتی نظیر درد و رنج و خوشی را درک نمیکنند.
اعمال آزمایش فکری زامبی روی عاملیت اخلاق به ما کمک میکند ارزیابی کنیم که آیا عاملیت اخلاقی امری مستقل از تجربه آگاهانه یا توانایی حسی است. در این یادداشت عمدتاً بر توانایی حسی[1] متمرکز میشویم، چرا که میتوان تجربه آگاهانه داشت، بدون اینکه درد یا لذت یا احساسات دیگر حس شود و همچنین، تجربیات حسی در عاملیت اخلاقی نقش مهمی دارند.
در ادبیات حوزه اخلاق هوش مصنوعی، عمدتاً الگوریتمها دارای درجهای از عاملیت اخلاقی در نظر گرفته میشوند. همچنین، عمده نظریات راجع به عاملیت اخلاقی بر این باورند که عاملیت، متشکل از سطحی از خودمختاری یا مسئولیتپذیری یا هر دو است. میخواهیم استدلال کنیم که الگوریتمها و زامبیهای اخلاقی دارای نوعی از خودمختاری که سازنده عاملیت باشد، نیستند و همچنین به آنها نمیتوان مسئولیت نسبت داد، چرا که دارای توان حسی و درک اخلاقی لازم نیستند.
زامبیهای اخلاقی
زامبیهای اخلاقی مانند ما عمل میکنند، اما مثل ما حس نمیکنند؛ میتوانند به قوانین احترام بگذارند، کارهای خیریه کنند، یا قوانین را پایمال کنند، تحقیر و خیانت کنند و .... تصور کردن زامبیها امری ممکن است و این نشان میدهد که قدرت اثرگذاری اخلاقی در جهان امری مستقل از توانایی حسی است.
زامبیهای اخلاقی مانند ما عمل میکنند، اما مثل ما حس نمیکنند.
اما آیا زامبیها را میتوان عاملهای اخلاقی در نظر گرفت؟ اگر پاسخ منفی باشد، نتیجه این است که توانایی حسی، شرطی لازم برای عاملیت اخلاقی است. الگوریتمها، روباتها و هوش مصنوعی مصادیق عینی زامبیهای اخلاقی در جهان ما هستند. این موجودات میتوانند در برخی از امور کارکردی مشابه انسانها از خود نشان دهند؛ مثلاً در استخدام افراد، اخراج، تعیین پاداش یا مجازات و .... بنابراین، استفاده از استعاره زامبی برای الگوریتمها و هوش مصنوعی میتواند به ما در درک بهتر هر دو طرف کمک کند.
توانایی حسی، شرطی لازم برای عاملیت اخلاقی است.
یکی از نقدهایی که ممکن است به این ایده وارد شود، این است که ما نمیتوانیم تضمین کنیم که الگوریتمها و ماشینها دارای توان حسی نیستند. درست است! اما، ما نمیتوانیم اثبات کنیم که سنگ هم دارای توان حسی نیست و همانطور که پنسایکیست[2]ها (یا همهجانانگاران) معتقدند، همه موجودات دارای درجهای از آگاهی هستند. از دیگر سو، دلیل کافی برای این ادعا نیز نداریم که الگوریتمها و سنگها دارای ذهن یا توان حسی هستند.
الگوریتمها، روباتها و هوش مصنوعی مصادیق عینی زامبیهای اخلاقی در جهان ما هستند.
ممکن است این استدلال نیز مطرح شود که اگر الگوریتمها شبیه ما رفتار کنند، ما هم باید شبیه انسانهای دیگر با آنها رفتار کنیم. اما در حال حاضر، الگوریتمها صرفاً برخی از وظایف و کارکردهای ما را انجام میدهند و زامبیهای کاملی نیستند و تواناییهای حسی از خود بروز نمیدهند. ممکن است ماشینها در آینده بدنهایی شبیه ما داشته باشند و بسیار شبیه ما عمل کنند که در آن صورت لازم است احتیاط کنیم. این احتمال نیز وجود دارد که ما تنها موجوداتی با بدنهای بیولوژیک باشیم که دارای توان حسی هستند. یکی از دلایل توان حسی و فکری ما این است که ما وقتی هیجانزده میشویم، ضربان قلبمان بالا میرود، وقتی ناراحتیم فشار خونمان پایین میآید و وقتی میترسیم مو به تنمان سیخ میشود. بنابراین، بار استدلال روی دوش کسی است که از توان حسی الگوریتمها دفاع میکند.
عاملیت اخلاقی و الگوریتمها
در ادبیات رایج، استفاده از عبارت عاملیت اخلاقی برای سیستمهای خودکار، رایج است و در بسیاری موارد صرفاً جنبه لفظی دارد. حتی زمانی که میدانیم مصنوعات دارای ذهن نیستند، به آنها اراده و باور نسبت میدهیم. به باور اسپارو مثلاً اینکه سلاحی بتواند هدف خود را انتخاب کند، آن را تبدیل به سلاحی خودمختار میکند (Sparrow, 2007). اگرچه اسپارو به این سلاحها مسئولیت اخلاقی نسبت نمیدهد، اما لحن کلام او اینگونه القا میکند که گویی این سلاحها عاملیت اخلاقی دارند. و همانطور که نوئل شارکی (Sharkey 2012) توضیح میدهد، وقتی از عباراتی در مورد ماشینها استفاده میکنیم که در شبکه مفهومی منسجمی از مفاهیم قرار دارد، دروازهای را میگشاییم برای آنکه بقیه مفاهیم همبستهای که صرفاً قابل اطلاق به انسانها هستند را نیز در مورد ماشین مجاز بدانیم.
پرسش از عاملیت اخلاقی ماشینها پرسشی از سر کنجکاوی صرف نیست، بلکه دلالتهای عملی بسیاری در پاسخ آن نهفته است. چرا که اگر عاملیت اخلاقی را نتوان به آنها نسبت داد، مسئولیت اعمال آنها بر عهده انسانها خواهد بود و اگر آنها را عاملهای اخلاقی بدانیم، رفتارهای متفاوتی نسبت به آنها بروز خواهیم داد از جمله؛ شکایت کردن از آنها، زندانی کردن آنها و ....
البته متخصصان مختلف معانی مختلفی برای عاملیت اخلاقی در ذهن دارند. اما یکی از مهمترین دستهبندیها برای عاملیت اخلاقی، دستهبندی جیمز مور (Moor, 2009) است. مور 4 نوع از عاملهای اخلاقی را از یکدیگر تفکیک میکند:
عاملهای دارای اثر اخلاقی: عاملهایی که کنشهایشان دارای عواقب ناخواسته است. اکثر یا همه سیستمهای خودمختار در این دسته جای میگیرند.
عاملهای اخلاقی ضمنی: عاملهایی که ضمن طراحی آنها اخلاقیات را در نظر داشتهایم.
عاملهای اخلاقی صریح: عاملهایی که میتوانند از جایگاه اخلاق عمل کنند (نه صرفاً بر اساس اخلاق). مثلاً میتوانند مسائل اخلاقی را شناسایی و برای آنها پاسخهایی پیدا کنند.
عاملهای اخلاقی کامل: این دسته قادرند همان کارهای دسته سوم را انجام دهند، اما علاوه بر آن، دارای آگاهی، اراده آزاد و قصدمندی نیز هستند.
مدعای اصلی در این یادداشت این است که دسته سوم و چهارم مور یکی هستند. به این معنا که عاملی اخلاقی که بتواند مسائل اخلاقی را شناسایی و پاسخدهی کند، ضرورتاً دارای توان حسی است، تجربه آگاهانه دارد، میتواند لذت و رنج و همدلی را تجربه کند و در نتیجه، به دسته چهارم تعلق دارد. در مقابل این مدعا، ایده فلوریدی و سَندرز را داریم که معتقدند عاملهای خودمختار مصنوعی نه تنها عاملیت اخلاقی دارند، بلکه دارای نوعی «اخلاقیات بیذهن[3]» هستند (Floridi & Sanders, 2004).
با هر تعبیر قابل پذیرشی از خودمختاری یا مسئولیت اخلاقی، زامبیهای اخلاقی و الگوریتمها نمیتوانند عاملهای اخلاقی تلقی شوند.
چنانکه گفتیم، در ادبیات این موضوع، عمدتاً باور بر این است که مسئولیتپذیری اخلاقی یا خودمختاری یا هر دو اجزاء سازنده عاملیت اخلاقی هستند. برخی معتقدند که وقتی مسئولیتپذیری باشد، خودمختاری هم ضرورتاً وجود دارد یا بالعکس. اما عدهای دیگر این دو را از یکدیگر مستقل میپندارند. اما آنچه که برای ما مهم است این است که با هر بیان قابل پذیرشی از خودمختاری که به اخلاقیات مربوط میشود و با هر تعبیر قابل پذیرشی از مسئولیت اخلاقی، نه زامبیهای اخلاقی و نه الگوریتمها نمیتوانند عاملهای اخلاقی تلقی شوند.
ادامه دارد
[1] sentience
[2] panpsychists
[3] Mindless morality
منبع اولیه متن:
Véliz, C. (2021). Moral zombies: why algorithms are not moral agents. AI & Soc 36, 487–497.
مترجم: دکتر سعیده بابایی، پژوهشگر پسادکتری اخلاق هوش مصنوعی دانشگاه توبینگن، گروه مطالعات اخلاقی
منبع ثانویه: وبگاه پژوهشگاه مجازی
انتهای پیام/
از شما صاحبنظر گرامی در حوزه تعلیم و تربیت هم دعوت می کنیم، از نویسندگان، ممیزان و اعضای هیئت تحریریه پنجره تربیت باشید. برای ارسال مطالب و عضویت در هیئت تحریریه، از طریق ایمیل FarsPanjarehTarbiat@gmail.com مکاتبه فرمائید.