سعیده بابایی
هوش مصنوعی در حوزه های مختلفی باعث انجام خودکار بسیاری از کارها شده و این روند در حال گسترش است. یکی از مهمترین پرسش ها که در حوزه های مطالعات اخلاقی و حقوقی هوش مصنوعی مطرح می شود، این است که مسئول خطاهای سرزده از این سیستم های هوشمند کیست؟
هوش مصنوعی در حوزه های مختلفی باعث انجام خودکار بسیاری از کارها شده است.
فهم رابطهای از مسئولیت موجب میشود متخصصان و اپراتورهای هوش مصنوعی بدانند که در حال انجام چه کاری هستند و همچنین تمایل پیدا کنند که با مخاطبان عمل اخلاقی ارتباط برقرار کرده و برای کنشهای خود دلیل و تبیین ارائه کنند. همچنین، از عواقب ناخواسته و اهمیت اخلاقی فعالیتهای خود آگاهی بیشتری داشته باشند.
برای بررسی مسئله واگذاری مسئولیت به هوش مصنوعی، ابتدا به سراغ شروطی میرویم که ارسطو برای آن ذکر میکند؛ 1) شرط کنترل[1] و 2) شرط معرفت[2]. مشکلی که در نظریه ارسطو با آن مواجهیم این است که ارسطو تکنولوژی را صرفا یک ابزار میداند و معتقد است فقط انسان میتواند مسئولیت اخلاقی داشته باشد. این فرض هنوز هم پرطرفدار است که حتی اگر عاملیت هوش مصنوعی بیشتر شود، باز هم این عامل انسانی است که همواره مسئولیت کارها را بر عهده دارد و میتواند عامل اخلاقی باشد. به علاوه، ارسطو تنها روی عامل اخلاقی متمرکز میشود و جنبه رابطهای مسئولیت و مخاطب عمل[3] اخلاقی را مطالعه نمیکند. در این گزارش به زاویه نگاه مخاطب عمل هوش مصنوعی و اهمیت توجه به کاربران و نیازهای آنها و شیوههای مختلف رفع این نیازها میپردازیم.
شرط کنترل
یعنی اثری را آزادانه و از روی اراده با عمل خود ایجاد کنی و درجه کافی از کنترل را روی این عمل داشته باشی.
تکنولوژی به دلیل اینکه در شکل دادن عمل انسان تأثیرگذار است، نه مسئول است و نه غیر مسئول؛ بلکه در مسئولیت انسانی دارای مدخلیت است.
چنین عملی داوطلبانه صورت میگیرد و از میان گزینههای دیگری که برای انجام دادن وجود دارد، انتخاب میشود. نکتهای که در رابطه با شرط کنترل وجود دارد، این است که تکنولوژی به دلیل اینکه در شکل دادن عمل انسان تأثیرگذار است و ابزار صرف نیست، تا حدی بر محدوده کنترل انسان تأثیر میگذارد و آن را تعیّن میبخشد. پس تکنولوژی در این رویکرد نه مسئول است و نه غیر مسئول؛ بلکه در مسئولیت انسانی دارای مدخلیت است. در اینجا برای روشنتر شدن بحث به مرور چند سؤال میپردازیم:
آیا انسانها همیشه میتوانند مسئولیت استفاده از هوش مصنوعی را بر عهده بگیرند؟
ممکن است انسان نتواند کنترل کافی را روی هوش مصنوعی داشته باشد و مسئله شکاف مسئولیت[4] به وجود بیاید. برای مثال، ماشینهای یادگیرنده خودمختار[5] یا خودروهای خودران هنگامی که در موقعیت تصادف یا موقعیتهای پرمخاطره و ناگهانی دیگر قرار میگیرند، ممکن است به انسان فرصت کافی برای نشان دادن واکنش ندهند.
ممکن است انسان نتواند کنترل کافی را روی هوش مصنوعی داشته باشد و مسئله شکاف مسئولیت به وجود بیاید.
در بسیاری از موارد مشابه دیگر که تکنولوژی عملکرد اتوماتیک نشان میدهد، انسان نمیتواند تصمیم نهایی را بگیرد. در چنین مواقعی مسئولیت با چه کسی است؟ آیا مجازیم که چنین ماشینها و موقعیتهایی را بسازیم که جایی برای عاملیت انسانی باقی نمیگذارند (مواردی مانند اتوپایلوت در پرواز یا واکنش خودمختار نرمافزارهای طراحیشده برای پاسخ به حملات سایبری)؟ آیا باید حد و مرزی را برای میزان اتوماسیون ماشینهای هوشمند تعیین کرد؟
کدام انسانها مسئول استفاده از هوش مصنوعی هستند؟
معمولاً برای انجام یک کار یا در ایجاد شدن یک اثر چند فرد درگیر هستند و یک فرد را نمیتوان مسئول کل فرایند دانست. به همین خاطر، واگذاری مسئولیت میان عاملان متعددِ درگیر در تولید خروجی، کاری دشوار خواهد بود. این مسئله را مسئله دستهای بسیار[6] مینامیم. یک پاسخ برای این مسئله، این است که مسئولیت را توزیع کنیم. اما در عمل چطور میشود این کار را انجام داد؟ مرزها و محدودههای مساهمت عاملهای مختلف و روابط آنها معمولاً مبهم است و نیاز به موشکافیهای دقیق دارد؛ به خصوص در مورد عواقب اخلاقی تکنولوژیهای نوظهوری نظیر هوش مصنوعی که امکان خودمختاری برای آنها متصور است و پیش از این تأملات اخلاقی کافی درباره چنین مواردی صورت نگرفته است.
زمان چه نقشی در واگذاری مسئولیت دارد؟
توزیع مسئولیت، علاوه بر ملاحظاتی که مطرح شد یک بعد زمانی هم دارد؛ اینکه چه کسی چه کاری را در چه زمانی انجام داده است. زنجیره عاملان انسانی دخیل در توسعه هوش مصنوعی زنجیرهای طولانی است.
در فرایند تولید، انتخاب و پردازش دادهها برای آموزش دادن سیستمهای هوشمند، عاملهای انسانی متعددی در زمانها و مکانهای مختلف درگیر هستند.
در فرایند تولید، انتخاب و پردازش دادهها برای آموزش دادن سیستمهای هوشمند، عاملهای انسانی متعددی در زمانها و مکانهای مختلف درگیر هستند. همچنین، یک نرمافزار هوش مصنوعی ممکن است برای اهداف مختلف و در زمانهای مختلف بهکار گرفته شود (برای مثال از یک سیستم هوشمند که برای تشخیص چهره طراحی شده، میتوان هم در پزشکی در هم در پایش و نظارت استفاده کرد). علاوه بر کاربرد و توسعه هوش مصنوعی، حفظ و نگهداری از آن هم امر مهمی است.
اگر نگهداری از هوش مصنوعی مسئولانه نباشد، مسئولیتها را نمیتوان به درستی توزیع کرد.
اگر نگهداری از هوش مصنوعی مسئولانه نباشد، به این معنا که نتوان مسیر علّی عملکرد آن را ردیابی کرد، مسئولیتها را نیز نمیتوان به درستی توزیع کرد. پس واگذاری مسئولیت نیازمند این است که مسیر علّی عملکرد آن قابل ردیابی باشد.
مسئله چیزهای بسیار
در بررسی عواقب اخلاقی و اجتماعی تکنولوژی، علاوه بر مسئله دستهای بسیار، با مسئله چیزهای بسیار[7] نیز مواجهیم.
واگذاری مسئولیت نیازمند این است که مسیر علّی عملکرد آن قابل ردیابی باشد.
در فرایندهای مربوط به هوش مصنوعی و کارکردهایی که برای این تکنولوژی قابل تصور است، نرمافزارها و تکنولوژیهای مختلفی ممکن است درگیر باشند. برای مثال ممکن است علت یک تصادف هوایی که در آن از سیستمهای هوشمند استفاده شده است، تعامل یک سنسور خراب با نرمافزار باشد. چراکه نرمافزار تاریخ علّی طولانیای را از تولید تا کاربرد از سر گذارنده و با چیزهای بسیاری در تعامل بوده است.
برای تعیین مسئولیت باید همه روابط ساختاری و زمانی را توأمان در نظر گرفت؛ روابط انسانها با یکدیگر و رابطه آنها با چیزها و روابط چیزها با یکدیگر، باید به طور مجزا مورد بررسی قرار گیرد.
برای تعیین مسئولیت باید همه روابط ساختاری و زمانی را توأمان در نظر گرفت؛ روابط انسانها با یکدیگر و رابطه آنها با چیزها و روابط چیزها با یکدیگر، باید به طور مجزا مورد بررسی قرار گیرد. همیشه لزوماً هوش مصنوعی، علت بروز خطا و عواقب ناخواسته نیست. ممکن است جزء دیگری از سیستم تکنولوژیکی، منشأ خطا باشد. مرز میان تکنولوژیهای هوشمند با تکنولوژیهای دیگر نیز در بسیاری از موارد واضح نیست. بنابراین، لازم است که مشخص کنیم چه عناصر تکنیکی دیگری در سیستم وجود دارند، نحوه تعامل آنها چگونه است، چطور در مسئله مشارکت دارند، رابطه آنها با انسانها چگونه است.
کاربر باید بداند چه میزان در استفاده از این تکنولوژی آزادی دارد.
همچنین، باید مشخص شود که آیا کاربر نهایی در جریان است که در حال استفاده از تکنولوژی است که در آن هوش مصنوعی به خدمت گرفته شده است. ضمن اینکه کاربر باید بداند چه میزان در استفاده از این تکنولوژی آزادی دارد. این ملاحظه ما را به مسئله معرفت در مسئولیت میرساند که در قسمت بعد درباره آن صحبت میکنیم.
ادامه دارد ...
[1] control
[2] knowledge
[3] patient
[4] Responsibility gap
[5] Autonomous learning machine
[6] The problem of many hands
[7] The problem of many things
منبع اولیه متن: مقاله «هوش مصنوعی، واگذاری مسئولیت، و توجیهی رابطهای از تبیینپذیری» نوشته مارک کوکلبرگ در سال 2020
Coeckelbergh, Mark., 2020. Artificial Intelligence, Responsibility Attribution, and a Relational Justification of Explainability, Science and Engineering Ethics. 26: 2051-2068.
مترجم: دکتر سعیده بابایی، پژوهشگر پسادکتری اخلاق هوش مصنوعی دانشگاه توبینگن.
منبع ثانویه: وبگاه پژوهشگاه مجازی
انتهای پیام/
از شما صاحبنظر گرامی در حوزه تعلیم و تربیت هم دعوت می کنیم، از نویسندگان، ممیزان و اعضای هیئت تحریریه پنجره تربیت باشید. برای ارسال مطالب و عضویت در هیئت تحریریه، از طریق ایمیل FarsPanjarehTarbiat@gmail.com مکاتبه فرمائید.