سعیده بابایی
خودمختاری و عاملیت اخلاقی
نومی آرپالی[1] هشت تعبیر مختلف از خودمختاری را در ادبیات این حوزه شناسایی کرده است: کارامدی شخصی، استقلال روانشناختی، داشتن حق اخلاقی برای خودتعینبخشی، اصالت، داشتن تصویری منسجم از خود، قهرمان بودن، حکمرانی بر خود، پاسخگو بودن به دلایل. در ادامه میکوشیم نشان دهیم برخی از این تعابیر ارتباطی به اخلاق ندارند و مابقی آنها (حکمرانی بر خود و پاسخگویی به دلایل) در مورد زامبیها و الگوریتمها به کار برده نمیشوند.
کارامدی شخصی
این تعبیر به معنای وابسته نبودن به کمک دیگران برای سیر در جهان است. فلوریدی و سندرز مدعی هستند که الگوریتمها خودمختارند زیرا میتوانند مستقل از انسانهای سازنده خود عمل کنند (2004: 357). این تعبیر از خودمختاری به ما کمکی در ارزیابی اینکه الگوریتمها عاملان اخلاقی هستند یا خیر نمیکند.
الگوریتمها خودمختارند زیرا میتوانند مستقل از انسانهای سازنده خود عمل کنند.
برای یافتن رابطه میان خودمختاری و عاملیت اخلاقی باید به تعبیر غنیتر از خودمختاری (که در ادبیات فلسفه سیاسی و فلسفه اخلاق بحث میشود) توسل جست، نه صفت سطحی «خودمختار» که درباره تکنولوژی به کار میبریم. در نتیجه، پس از آنکه فهمیدیم یک موجود دارای عاملیت اخلاقی است، آنگاه استقلال او از عاملهای دیگر در کنشگری و ظرفیت مسئولیتپذیری او برای ما مهم میشود. اما وقتی در مورد زامبیها یا الگوریتمهای اخلاقی صحبت می کنیم، هنوز به این نقطه نرسیدهاند و دانستن اینکه کارامدی شخصی دارند یا خیر، چیزی درباره عاملیت اخلاقی آنها به ما نمیگوید.
استقلال ذهنی
این تعریف از خودمختاری هم مانند تعریف قبل است و صرفاً به جای تمرکز بر توانایی کنش مستقل از دیگران، توانایی تفکر مستقل از دیگران را مد نظر قرار میدهد. اگر مقصود ما از ذهن، تجربه اولشخص باشد، نه زامبیها و نه الگوریتمها دارای ذهن نیستند.
اگر مقصود ما از ذهن، تجربه اولشخص باشد، نه زامبیها و نه الگوریتمها دارای ذهن نیستند.
البته برخی از فلاسفه بر این باورند که تجربه آگاهانه، نیازمند داشتن ذهن نیست. به هر روی، استقلال ذهنی نیز معیاری به ما نمیدهد که عاملیت اخلاقی را تایید یا رد کنیم. کامپیوترهای شطرنجباز میتوانند مستقل از انسان «فکر» کنند، در حالیکه واضح است که عاملیت اخلاقی ندارند.
حق اخلاقی برای خودتعینبخشی
عاملهای اخلاقی، حق دارند که خود را تعین ببخشند؛ مثلاً تصمیم بگیرند چگونه زندگی کنند (بدون آسیب به دیگران). احترام به خودمختاری، یکی از ستونهای اخلاق پزشکی است. بیماران حق دارند که تصمیم بگیرند چه نوع درمانی دریافت کنند. این تعبیر از خودمختاری، ابزاری است برای حفاظت از عاملهای اخلاقی، نه یک ویژگی و معیار برای عاملهای اخلاقی.
اصالت
اینکه یک موجود تا چه حد میتواند به نحوی اصیل عمل کند، عقاید خود را دنبال کند و با خود واقعیش صادق باشد، امری مرتبط با اخلاقیات است. نسبت میان اصالت و خودمختاری نیز نمیتواند کمک چندانی به ما درباره سنجش عاملیت اخلاقی بکند. چرا که میتوان موجوداتی غیر اصیل را تصور کرد که دارای عاملیت اخلاقی هستند؛ مثلاً فردی که به عقاید عمیق خود باور ندارد و از دیگران تقلید میکند. اصالت او اگرچه زیر سوال میرود، اما عاملیت اخلاقی او خیر.
هویتبخشی به خود
اغلب، خودمختاری را به غیاب فشار بیرونی و تجربه پدیداریِ مالک امیال و کنشها بودن نیز نسبت میدهیم. فرد خودمختار، کسی است که میتواند با توجه به امیالش هویت خود را تعیین کند و تصویری منسجم از خود دارد. بسیاری از کنشها وجود دارد، که اگرچه آنها را انجام دادهایم، اما هویت خود را با آنها تعریف نمیکنیم. اگرچه میزان هویتبخشی به خود، نسبت مستقیمی با قضاوت درباره اهمیت اخلاقی یک عمل دارد، اما به ما نمیگوید که آیا موجودی عاملیت اخلاقی دارد یا خیر. فرض کنید با اینکه شما فردی آرام هستید، یک روز از عصبانیت سر همسر خود فریاد میکشید. اگرچه شما خود را با این عمل هویتبخشی نمیکنید، اما عاملیت اخلاقی دارید.
قهرمان بودن
تعابیر مختلفی که از خودمختاری ارائه شدهاند، تعاریف مختلفی از یک عامل اخلاقی را در نظر دارند. عامل ایدهآل از نظر:
رواقیون، کسی است که دارای آرامش درون است
ارسطو، کسی که زندگی را با تأمل و تفکر هدایت میکند
نیچه، کسی است که روحی آزاد دارد
...
داشتن ایدهآل اگرچه به ما کمک میکند بسنجیم که یک فرد یا یک کنش چه اندازه از بهترینِ خود فاصله دارد، اما نمیتواند معیاری برای عاملیت اخلاقی به ما بدهد. اگر تنها عده قلیلی که به این ایدهآلها دست مییابند به عنوان عامل اخلاقی شمرده میشدند، اکثر افراد ذیصلاح از دایره عاملان اخلاقی بیرون میافتادند.
حکمرانی بر خود و پاسخگویی به دلایل
عبارت «autonomous» یا خودمختار مشتق شده از عبارت «autos خود» و «nomos قانون» در یونانی است. بنابراین، شاملترین تعریف برای خودمختاری، حکمرانی بر خود است؛ توانایی عامل برای تصمیمگیری درباره نحوه کنشگری خود. ریشه این تعریف از خودمختاری را در ایده امانوئل کانت[2] میتوان پیدا کرد که میگوید خودمختاری یعنی نیازی به هیچ اقتداری بیرون از ما نیست که مطالبات اخلاق را به ما دیکته کند. خودمختار بودن به این معناست که بتوانیم الزامات اخلاقی را به خود تحمیل کنیم، کار درست را تشخیص دهیم و آن را انجام دهیم.
عبارت «autonomous» یا خودمختار مشتق شده از عبارت «autos خود» و «nomos قانون» در یونانی است.
علاوه بر حکمرانی بر خود، خودمختاری مستلزم پاسخگویی به دلایل نیز هست. عاملها تا حدی به این خاطر که به دلیلی پاسخ دهند، تصمیم میگیرند و عمل میکنند. بنابراین اگر موجودی قادر به فهم دلایل نباشد، نمیتواند به نحوی اخلاقی بر خود حکمرانی کند. عامل خودمختار، باید بتواند بر مبنای ارزشهایش تأمل و عمل کند، زیرا میتواند ارزشهای خود را انتخاب کند.
خودمختار بودن به این معناست که بتوانیم الزامات اخلاقی را به خود تحمیل کنیم، کار درست را تشخیص دهیم و آن را انجام دهیم.
اگر کسی بخواهد خلاف میل او عمل کند، باید اجازه و رضایت او را کسب کند. در حالیکه نیازی نیست از الگوریتم برای تغییرش اجازه بگیریم، چرا که الگوریتم ها ارزشهای خاص خودش را ندارد و اهمیتی به وجود خودش نمیدهد و نمیتواند بر اساس دلایل خود به محیط پاسخ دهد. ماشین نیز اگر اخلاقی عمل کند، به این خاطر است که چنین دستورالعملی دریافت کرده است.
الگوریتمها خودحکمران نیستند، زیرا اهداف آنها از بیرون به آنها داده میشود.
ماشین نمیتواند میل به کاری داشته باشد. «دلیل» برای عامل به این معناست که چیزی هست که برای عامل مهم است. مثلاً خودروی خودران نمیتواند خودش مقصدش را انتخاب کند، نمیتواند با این میل بیدار شود که امروز از منظره لذت ببرد یا از مالک خود سرپیچی کند.
الگوریتم ها پاسخگو به دلایل نیستند، چون هیچ دلیلی نمیتواند آنها را قانع کند که هدفی را که برای آن طراحی شدهاند، تغییر دهند.
الگوریتمها خودحکمران نیستند، زیرا اهداف آنها از بیرون به آنها داده میشود. همچنین، الگوریتم ها پاسخگو به دلایل نیستند، چون هیچ دلیلی نمیتواند آنها را قانع کند که هدفی را که برای آن طراحی شدهاند، تغییر دهند. اما زامبیها چون از انسانها غیر قابل تمییز هستند، ممکن است «به نظر برسد» که حکمران و پاسخگو هستند. اما همچنان نمیتوان گفت که انگیزه خود را دارند. در نتیجه الگوریتم ها توان حسی ندارند و نمیتوانند مانند عاملها دارای هدف باشند.
الگوریتم ها توان حسی ندارند و نمیتوانند مانند عاملها دارای هدف باشند.
پاسخ به این پرسش که «آیا یک موجود عامل اخلاقی هست یا خیر؟» دلالتهای عملی دارد و صرفاً در مقام نظر مهم نیست؛ به دو دلیل:
محافظت از عاملهایی که شاید خود نتوانند از خود محافظت کنند. مثلاً بیمارها باید بتوانند آگاهانه تصمیم بگیرند. دفاع از حق خودمختاری، برای بیمار ضروری است. زیرا نشان میدهد که آنها حق تصمیمگیری برای خود دارند. این دغدغه برای الگوریتمها و زامبیها صادق نیست. چرا که نمیتوانند رنج بکشند یا آسیب ببینند.
عاملیت سکهای است که دو رو دارد: حق خودمختاری عامل و وظیفه مسئولیتپذیری و پاسخگویی او.
اگر خطایی رخ دهد، میخواهیم بدانیم که چه کسی پاسخگوست.
بنابراین، عاملیت سکهای است که دو رو دارد: حق خودمختاری عامل و وظیفه مسئولیتپذیری و پاسخگویی او.
ادامه دارد ...
[1] Nomy Arpaly
[2] Immanuel Kant
منبع اولیه متن:
Véliz, C. (2021). Moral zombies: why algorithms are not moral agents. AI & Soc 36, 487–497.
مترجم: دکتر سعیده بابایی، پژوهشگر پسادکتری اخلاق هوش مصنوعی دانشگاه توبینگن، گروه مطالعات اخلاقی
منبع ثانویه: وبگاه پژوهشگاه مجازی
انتهای پیام/
از شما صاحبنظر گرامی در حوزه تعلیم و تربیت هم دعوت می کنیم، از نویسندگان، ممیزان و اعضای هیئت تحریریه پنجره تربیت باشید. برای ارسال مطالب و عضویت در هیئت تحریریه، از طریق ایمیل FarsPanjarehTarbiat@gmail.com مکاتبه فرمائید.