اخبار فارس من افکار سنجی دانشکده انتشارات توانا فارس نوجوان

تعلیم و تربیت  /  پنجره تربیت

الگوریتم‌ها به مثابه زامبیهای اخلاقی قسمت اول: عاملیت اخلاقی

در فلسفه ذهن، زامبی‌ها موجوداتی هستند که شکل فیزیکی یکسانی با موجودات آگاه دارند، اما دارای تجربه اول شخص نیستند. الگوریتم‌ها، روبات‌ها و هوش مصنوعی مصادیق عینی زامبی‌های اخلاقی در جهان ما هستند و نمی توانند عامل های اخلاقی در جهان باشند.

الگوریتم‌ها به مثابه زامبیهای اخلاقی قسمت اول: عاملیت اخلاقی

سعیده بابایی

در فلسفه ذهن، زامبی‌ها موجوداتی هستند که شکل فیزیکی یکسانی با موجودات آگاه دارند، اما دارای تجربه اول شخص نیستند. از زامبی‌ها برای رد دیدگاه فیزیکالیسم (دیدگاهی که می‌گوید جهان از مؤلفه‌های فیزیکی ساخته شده است) استفاده می‌شود. ما می‌کوشیم که از ایده آزمایش فکری زامبی‌ها در حوزه اخلاق استفاده کنیم و بررسی کنیم که آیا عاملیت اخلاقی امری مستقل از توانایی حسی و تجربه آگاهانه است یا خیر.

در فلسفه ذهن، زامبی‌ها موجوداتی هستند که شکل فیزیکی یکسانی با موجودات آگاه دارند، اما دارای تجربه اول شخص نیستند.

 

در این یادداشت ادعا می‌کنیم که الگوریتم‌ها نوعی زامبی اخلاقی وظیفه‌مند هستند و با این تعریف، می‌توان فهم بهتری از آنها پیدا کرد. دلیل اصلی برای اینکه نمی‌توان الگوریتم‌ها را خودمختار و پاسخگو در نظر گرفت نیز همین عدم توانایی حسی آنهاست. الگوریتم‌ها و زامبی‌های اخلاقی دارای فهم اخلاقی لازم برای پذیرفتن مسئولیت اخلاقی نیستند. برای آنکه درد را به یک موجود وارد کنیم، لازم است او معرفت تجربی نسبت به درد داشته باشد.

الگوریتم‌ها نوعی زامبی اخلاقی وظیفه‌مند هستند.

 

اگر الگوریتم نتواند چیزی را حس کند، سخن گفتن از «ارزش‌ها» برای او بی‌معنی خواهد بود و در نتیجه نمی‌‌تواند کنش‌هایش را بر مبنای دلایل اخلاقی رقم بزند.

زامبی‌ها در فلسفه ذهن موجوداتی تعریف می‌شوند که از نظر فیزیکی، مولکول به مولکول شبیه ما هستند و وظایف و کارکردهای ما را نیز دارند و به نحوی تمایزناپذیر شبیه ما انسان‌ها عمل می‌کنند.

دلیل اصلی که نمی‌توان الگوریتم‌ها را خودمختار و پاسخگو در نظر گرفت عدم توانایی حسی آنهاست.

 

اما بر خلاف انسان‌ها، دارای تجربه آگاهانه نیستند و احساساتی نظیر درد و رنج و خوشی را درک نمی‌کنند. اگر چنین موجوداتی بتوانند وجود داشته باشند، پس آگاهی و تجربیات آگاهانه، امری فراتر از بدن فیزیکی خواهد بود.

زامبی ها دارای تجربه آگاهانه نیستند و احساساتی نظیر درد و رنج و خوشی را درک نمی‌کنند.

 

اعمال آزمایش فکری زامبی روی عاملیت اخلاق به ما کمک می‌کند ارزیابی کنیم که آیا عاملیت اخلاقی امری مستقل از تجربه آگاهانه یا توانایی حسی است. در این یادداشت عمدتاً بر توانایی حسی[1] متمرکز می‌شویم، چرا که می‌توان تجربه آگاهانه داشت، بدون اینکه درد یا لذت یا احساسات دیگر حس شود و همچنین، تجربیات حسی در عاملیت اخلاقی نقش مهمی دارند.

در ادبیات حوزه اخلاق هوش مصنوعی، عمدتاً الگوریتم‌ها دارای درجه‌ای از عاملیت اخلاقی در نظر گرفته می‌شوند. همچنین، عمده نظریات راجع به عاملیت اخلاقی بر این باورند که عاملیت، متشکل از سطحی از خودمختاری یا مسئولیت‌پذیری یا هر دو است. می‌خواهیم استدلال کنیم که الگوریتم‌ها و زامبی‌های اخلاقی دارای نوعی از خودمختاری که سازنده عاملیت باشد، نیستند و همچنین به آنها نمی‌توان مسئولیت نسبت داد، چرا که دارای توان حسی و درک اخلاقی لازم نیستند.

زامبی‌های اخلاقی

زامبی‌های اخلاقی مانند ما عمل می‌کنند، اما مثل ما حس نمی‌کنند؛ می‌توانند به قوانین احترام بگذارند، کارهای خیریه کنند، یا قوانین را پایمال کنند، تحقیر و خیانت کنند و .... تصور کردن زامبی‌ها امری ممکن است و این نشان می‌دهد که قدرت اثرگذاری اخلاقی در جهان امری مستقل از توانایی حسی است.

زامبی‌های اخلاقی مانند ما عمل می‌کنند، اما مثل ما حس نمی‌کنند.

 

اما آیا زامبی‌ها را می‌توان عامل‌های اخلاقی در نظر گرفت؟ اگر پاسخ منفی باشد، نتیجه این است که توانایی حسی، شرطی لازم برای عاملیت اخلاقی است. الگوریتم‌ها، روبات‌ها و هوش مصنوعی مصادیق عینی زامبی‌های اخلاقی در جهان ما هستند. این موجودات می‌توانند در برخی از امور کارکردی مشابه انسان‌ها از خود نشان دهند؛ مثلاً در استخدام افراد، اخراج، تعیین پاداش یا مجازات و .... بنابراین، استفاده از استعاره زامبی برای الگوریتم‌ها و هوش مصنوعی می‌تواند به ما در درک بهتر هر دو طرف کمک کند.

توانایی حسی، شرطی لازم برای عاملیت اخلاقی است.

 

یکی از نقدهایی که ممکن است به این ایده وارد شود، این است که ما نمی‌توانیم تضمین کنیم که الگوریتم‌ها و ماشین‌ها دارای توان حسی نیستند. درست است! اما، ما نمی‌توانیم اثبات کنیم که سنگ هم دارای توان حسی نیست و همانطور که پنسایکیست[2]‌ها (یا همه‌جان‌انگاران) معتقدند، همه موجودات دارای درجه‌ای از آگاهی هستند. از دیگر سو، دلیل کافی برای این ادعا نیز نداریم که الگوریتم‌ها و سنگ‌ها دارای ذهن یا توان حسی هستند.

الگوریتم‌ها، روبات‌ها و هوش مصنوعی مصادیق عینی زامبی‌های اخلاقی در جهان ما هستند.

 

ممکن است این استدلال نیز مطرح شود که اگر الگوریتم‌ها شبیه ما رفتار کنند، ما هم باید شبیه انسان‌‌های دیگر با آنها رفتار کنیم. اما در حال حاضر، الگوریتم‌ها صرفاً برخی از وظایف و کارکردهای ما را انجام می‌دهند و زامبی‌های کاملی نیستند و توانایی‌های حسی از خود بروز نمی‌دهند. ممکن است ماشین‌ها در آینده بدن‌هایی شبیه ما داشته باشند و بسیار شبیه ما عمل کنند که در آن صورت لازم است احتیاط کنیم. این احتمال نیز وجود دارد که ما تنها موجوداتی با بدن‌های بیولوژیک باشیم که دارای توان حسی هستند. یکی از دلایل توان حسی و فکری ما این است که ما وقتی هیجان‌زده می‌شویم، ضربان قلبمان بالا می‌رود، وقتی ناراحتیم فشار خونمان پایین می‌آید و وقتی می‌ترسیم مو به تنمان سیخ می‌شود. بنابراین، بار استدلال روی دوش کسی است که از توان حسی الگوریتم‌ها دفاع می‌کند.

عاملیت اخلاقی و الگوریتم‌ها

در ادبیات رایج، استفاده از عبارت عاملیت اخلاقی برای سیستم‌های خودکار، رایج است و در بسیاری موارد صرفاً جنبه لفظی دارد. حتی زمانی که می‌دانیم مصنوعات دارای ذهن نیستند، به آنها اراده و باور نسبت می‌دهیم. به باور اسپارو مثلاً اینکه سلاحی بتواند هدف خود را انتخاب کند، آن را تبدیل به سلاحی خودمختار می‌کند (Sparrow, 2007). اگرچه اسپارو به این سلاح‌ها مسئولیت اخلاقی نسبت نمی‌دهد، اما لحن کلام او اینگونه القا می‌کند که گویی این سلاح‌ها عاملیت اخلاقی دارند. و همانطور که نوئل شارکی (Sharkey 2012) توضیح می‌دهد، وقتی از عباراتی در مورد ماشین‌‌ها استفاده می‌کنیم که در شبکه مفهومی منسجمی از مفاهیم قرار دارد، دروازه‌ای را می‌گشاییم برای آنکه بقیه مفاهیم همبسته‌ای که صرفاً قابل اطلاق به انسان‌ها هستند را نیز در مورد ماشین مجاز بدانیم.

پرسش از عاملیت اخلاقی ماشین‌ها پرسشی از سر کنجکاوی صرف نیست، بلکه دلالت‌های عملی بسیاری در پاسخ آن نهفته است. چرا که اگر عاملیت اخلاقی را نتوان به آنها نسبت داد، مسئولیت اعمال آنها بر عهده انسان‌ها خواهد بود و اگر آنها را عامل‌های اخلاقی بدانیم، رفتارهای متفاوتی نسبت به آنها بروز خواهیم داد از جمله؛ شکایت کردن از آنها، زندانی کردن آنها و ....

البته متخصصان مختلف معانی مختلفی برای عاملیت اخلاقی در ذهن دارند. اما یکی از مهمترین دسته‌بندی‌ها برای عاملیت اخلاقی، دسته‌بندی جیمز مور (Moor, 2009) است. مور 4 نوع از عامل‌های اخلاقی را از یکدیگر تفکیک می‌کند:

عامل‌های دارای اثر اخلاقی: عامل‌‌هایی که کنش‌هایشان دارای عواقب ناخواسته است. اکثر یا همه سیستم‌‌های خودمختار در این دسته جای می‌گیرند.

عامل‌های اخلاقی ضمنی: عامل‌هایی که ضمن طراحی آنها اخلاقیات را در نظر داشته‌ایم.

عامل‌‌های اخلاقی صریح: عامل‌هایی که می‌توانند از جایگاه اخلاق عمل کنند (نه صرفاً بر اساس اخلاق). مثلاً می‌توانند مسائل اخلاقی را شناسایی و برای آنها پاسخ‌هایی پیدا کنند.

عامل‌های اخلاقی کامل: این دسته قادرند همان کارهای دسته سوم را انجام دهند، اما علاوه بر آن، دارای آگاهی، اراده آزاد و قصدمندی نیز هستند.

مدعای اصلی در این یادداشت این است که دسته سوم و چهارم مور یکی هستند. به این معنا که عاملی اخلاقی که بتواند مسائل اخلاقی را شناسایی و پاسخ‌دهی کند، ضرورتاً دارای توان حسی است، تجربه آگاهانه دارد، می‌تواند لذت و رنج و همدلی را تجربه کند و در نتیجه، به دسته چهارم تعلق دارد. در مقابل این مدعا، ایده فلوریدی و سَندرز را داریم که معتقدند عامل‌‌های خودمختار مصنوعی نه تنها عاملیت اخلاقی دارند، بلکه دارای نوعی «اخلاقیات بی‌ذهن[3]» هستند (Floridi & Sanders, 2004).

با هر تعبیر قابل پذیرشی از خودمختاری یا مسئولیت اخلاقی، زامبی‌های اخلاقی و الگوریتم‌ها نمی‌توانند عامل‌های اخلاقی تلقی شوند.

 

چنانکه گفتیم، در ادبیات این موضوع، عمدتاً باور بر این است که مسئولیت‌پذیری اخلاقی یا خودمختاری یا هر دو اجزاء سازنده عاملیت اخلاقی هستند. برخی معتقدند که وقتی مسئولیت‌پذیری باشد، خودمختاری هم ضرورتاً وجود دارد یا بالعکس. اما عده‌ای دیگر این دو را از یکدیگر مستقل می‌پندارند. اما آنچه که برای ما مهم است این است که با هر بیان قابل پذیرشی از خودمختاری که به اخلاقیات مربوط می‌شود و با هر تعبیر قابل پذیرشی از مسئولیت اخلاقی، نه زامبی‌های اخلاقی و نه الگوریتم‌ها نمی‌توانند عامل‌های اخلاقی تلقی شوند.

ادامه دارد

[1]  sentience

[2]  panpsychists

[3]  Mindless morality

منبع اولیه متن:

Véliz, C. (2021). Moral zombies: why algorithms are not moral agents. AI & Soc 36, 487–497.

مترجم: دکتر سعیده بابایی، پژوهشگر پسادکتری اخلاق هوش مصنوعی دانشگاه توبینگن، گروه مطالعات اخلاقی

منبع ثانویه: وبگاه پژوهشگاه مجازی

انتهای پیام/

از شما صاحبنظر گرامی در حوزه تعلیم و تربیت هم دعوت می کنیم، از نویسندگان، ممیزان و اعضای هیئت تحریریه پنجره تربیت باشید. برای ارسال مطالب و عضویت در هیئت تحریریه، از طریق ایمیل FarsPanjarehTarbiat@gmail.com مکاتبه فرمائید.

این مطلب را برای صفحه اول پیشنهاد کنید
نظرات
دیدگاه های ارسال شده توسط شما، پس از تایید توسط خبرگزاری فارس در وب سایت منتشر خواهد شد پیام هایی که حاوی تهمت یا افترا باشد منتشر نخواهد شد
Captcha
لطفا پیام خود را وارد نمایید.
پیام شما با موفقیت ثبت گردید.
لطفا کد اعتبارسنجی را صحیح وارد نمایید.
مشکلی پیش آمده است. لطفا دوباره تلاش نمایید.

پر بازدید ها

    پر بحث ترین ها

      بیشترین اشتراک

        اخبار گردشگری globe
        تازه های کتاب
        اخبار کسب و کار تریبون
        همراه اول