اخبار فارس من افکار سنجی دانشکده انتشارات توانا فارس نوجوان

تعلیم و تربیت  /  پنجره تربیت

هوش مصنوعی و مسئله توزیع مسئولیت/ بخش اول: کنترل اولین شرط مسئولیت‌پذیری

هوش مصنوعی در حوزه های مختلفی باعث انجام خودکار بسیاری از کارها شده و این روند در حال گسترش است. یکی از مهمترین پرسش ها که در حوزه های مطالعات اخلاقی و حقوقی هوش مصنوعی مطرح می شود، این است که مسئول خطاهای سرزده از این سیستم های هوشمند کیست؟

هوش مصنوعی و مسئله توزیع مسئولیت/ بخش اول: کنترل اولین شرط مسئولیت‌پذیری

سعیده بابایی

 هوش مصنوعی در حوزه های مختلفی باعث انجام خودکار بسیاری از کارها شده و این روند در حال گسترش است. یکی از مهمترین پرسش ها که در حوزه های مطالعات اخلاقی و حقوقی هوش مصنوعی مطرح می شود، این است که مسئول خطاهای سرزده از این سیستم های هوشمند کیست؟

 هوش مصنوعی در حوزه های مختلفی باعث انجام خودکار بسیاری از کارها شده است.

 

فهم رابطه‌ای‌ از مسئولیت موجب می‌شود متخصصان و اپراتورهای هوش مصنوعی بدانند که در حال انجام چه کاری هستند و همچنین تمایل پیدا کنند که با مخاطبان عمل اخلاقی ارتباط برقرار کرده و برای کنش‌های خود دلیل و تبیین ارائه کنند. همچنین، از عواقب ناخواسته و اهمیت اخلاقی فعالیت‌های خود آگاهی بیشتری داشته باشند.

برای بررسی مسئله واگذاری مسئولیت به هوش مصنوعی، ابتدا به سراغ شروطی می‌رویم که ارسطو برای آن ذکر می‌کند؛ 1) شرط کنترل[1] و 2) شرط معرفت[2]. مشکلی که در نظریه ارسطو با آن مواجهیم این است که ارسطو تکنولوژی را صرفا یک ابزار می‌داند و معتقد است فقط انسان می‌تواند مسئولیت اخلاقی داشته باشد. این فرض‌ هنوز هم پرطرفدار است که حتی اگر عاملیت هوش مصنوعی بیشتر شود، باز هم این عامل انسانی است که همواره مسئولیت کارها را بر عهده دارد و می‌تواند عامل اخلاقی باشد. به علاوه، ارسطو تنها روی عامل اخلاقی متمرکز می‌شود و جنبه رابطه‌ای مسئولیت و مخاطب عمل[3] اخلاقی را مطالعه نمی‌کند. در این گزارش به زاویه نگاه مخاطب عمل هوش مصنوعی و اهمیت توجه به کاربران و نیازهای آنها و شیوه‌های مختلف رفع این نیازها می‌پردازیم.

شرط کنترل

یعنی اثری را آزادانه و از روی اراده با عمل خود ایجاد ‌کنی و درجه کافی از کنترل را روی این عمل داشته باشی.

تکنولوژی به دلیل اینکه در شکل دادن عمل انسان تأثیرگذار است، نه مسئول است و نه غیر مسئول؛ بلکه در مسئولیت انسانی دارای مدخلیت است.

 

چنین عملی داوطلبانه صورت می‌گیرد و از میان گزینه‌های دیگری که برای انجام دادن وجود دارد، انتخاب می‌شود. نکته‌ای که در رابطه با شرط کنترل وجود دارد، این است که تکنولوژی به دلیل اینکه در شکل دادن عمل انسان تأثیرگذار است و ابزار صرف نیست، تا حدی بر محدوده کنترل انسان تأثیر می‌گذارد و آن را تعیّن می‌بخشد. پس تکنولوژی در این رویکرد نه مسئول است و نه غیر مسئول؛ بلکه در مسئولیت انسانی دارای مدخلیت است. در اینجا برای روشن‌تر شدن بحث به مرور چند سؤال می‌پردازیم:

آیا انسان‌ها همیشه می‌توانند مسئولیت استفاده از هوش مصنوعی را بر عهده بگیرند؟

ممکن است انسان نتواند کنترل کافی را روی هوش مصنوعی داشته باشد و مسئله شکاف مسئولیت[4] به وجود بیاید. برای مثال، ماشین‌های یادگیرنده خودمختار[5] یا خودروهای خودران هنگامی که در موقعیت تصادف یا موقعیت‌های پرمخاطره و ناگهانی دیگر قرار می‌گیرند، ممکن است به انسان فرصت کافی برای نشان دادن واکنش ندهند.

ممکن است انسان نتواند کنترل کافی را روی هوش مصنوعی داشته باشد و مسئله شکاف مسئولیت به وجود بیاید.

 

در بسیاری از موارد مشابه دیگر که تکنولوژی عملکرد اتوماتیک نشان می‌دهد، انسان نمی‌تواند تصمیم نهایی را بگیرد. در چنین مواقعی مسئولیت با چه کسی است؟ آیا مجازیم که چنین ماشین‌ها و موقعیت‌هایی را بسازیم که جایی برای عاملیت انسانی باقی نمی‌گذارند (مواردی مانند اتوپایلوت در پرواز یا واکنش خودمختار نرم‌افزارهای طراحی‌شده برای پاسخ به حملات سایبری)؟ آیا باید حد و مرزی را برای میزان اتوماسیون ماشین‌های هوشمند تعیین کرد؟

کدام انسان‌ها مسئول استفاده از هوش مصنوعی هستند؟

معمولاً برای انجام یک کار یا در ایجاد شدن یک اثر چند فرد درگیر هستند و یک فرد را نمی‌توان مسئول کل فرایند دانست. به همین خاطر، واگذاری مسئولیت میان عاملان متعددِ درگیر در تولید خروجی، کاری دشوار خواهد بود. این مسئله را مسئله دست‌های بسیار[6] می‌نامیم. یک پاسخ برای این مسئله، این است که مسئولیت را توزیع کنیم. اما در عمل چطور می‌شود این کار را انجام داد؟ مرزها و محدوده‌های مساهمت عامل‌های مختلف و روابط آنها معمولاً مبهم است و نیاز به موشکافی‌های دقیق دارد؛ به خصوص در مورد عواقب اخلاقی تکنولوژی‌های نوظهوری نظیر هوش مصنوعی که امکان خودمختاری برای آنها متصور است و پیش از این تأملات اخلاقی کافی درباره چنین مواردی صورت نگرفته است.

زمان چه نقشی در واگذاری مسئولیت دارد؟

توزیع مسئولیت، علاوه بر ملاحظاتی که مطرح شد یک بعد زمانی هم دارد؛ اینکه چه کسی چه کاری را در چه زمانی انجام داده است. زنجیره عاملان انسانی دخیل در توسعه هوش مصنوعی زنجیره‌ای طولانی است.

در فرایند تولید، انتخاب و پردازش داده‌ها برای آموزش دادن سیستم‌های هوشمند، عامل‌های انسانی متعددی در زمان‌ها و مکان‌‌های مختلف درگیر هستند.

 

در فرایند تولید، انتخاب و پردازش داده‌ها برای آموزش دادن سیستم‌های هوشمند، عامل‌های انسانی متعددی در زمان‌ها و مکان‌‌های مختلف درگیر هستند. همچنین، یک نرم‌افزار هوش مصنوعی ممکن است برای اهداف مختلف و در زمان‌های مختلف به‌کار گرفته شود (برای مثال از یک سیستم هوشمند که برای تشخیص چهره طراحی شده، می‌توان هم در پزشکی در هم در پایش و نظارت استفاده کرد). علاوه بر کاربرد و توسعه هوش مصنوعی، حفظ و نگهداری از آن هم امر مهمی است.

اگر نگهداری از هوش مصنوعی مسئولانه نباشد، مسئولیت‌ها را نمی‌توان به درستی توزیع کرد.

 

اگر نگهداری از هوش مصنوعی مسئولانه نباشد، به این معنا که نتوان مسیر علّی عملکرد آن را ردیابی کرد، مسئولیت‌ها را نیز نمی‌توان به درستی توزیع کرد. پس واگذاری مسئولیت نیازمند این است که مسیر علّی عملکرد آن قابل ردیابی باشد.

مسئله چیزهای بسیار

در بررسی عواقب اخلاقی و اجتماعی تکنولوژی، علاوه بر مسئله دست‌های بسیار، با مسئله چیزهای بسیار[7] نیز مواجهیم.

واگذاری مسئولیت نیازمند این است که مسیر علّی عملکرد آن قابل ردیابی باشد.

 

در فرایندهای مربوط به هوش مصنوعی و کارکردهایی که برای این تکنولوژی قابل تصور است، نرم‌افزارها و تکنولوژی‌های مختلفی ممکن است درگیر باشند. برای مثال ممکن است علت یک تصادف هوایی که در آن از سیستم‌های هوشمند استفاده شده است، تعامل یک سنسور خراب با نرم‌افزار باشد. چراکه نرم‌افزار تاریخ علّی طولانی‌ای را از تولید تا کاربرد از سر گذارنده و با چیزهای بسیاری در تعامل بوده است.

برای تعیین مسئولیت باید همه روابط ساختاری و زمانی را توأمان در نظر گرفت؛ روابط انسان‌ها با یکدیگر و رابطه آنها با چیزها و روابط چیزها با یکدیگر، باید به طور مجزا مورد بررسی قرار گیرد. 

 

برای تعیین مسئولیت باید همه روابط ساختاری و زمانی را توأمان در نظر گرفت؛ روابط انسان‌ها با یکدیگر و رابطه آنها با چیزها و روابط چیزها با یکدیگر، باید به طور مجزا مورد بررسی قرار گیرد. همیشه لزوماً هوش مصنوعی، علت بروز خطا و عواقب ناخواسته نیست. ممکن است جزء دیگری از سیستم تکنولوژیکی، منشأ خطا باشد. مرز میان تکنولوژی‌های هوشمند با تکنولوژی‌های دیگر نیز در بسیاری از موارد واضح نیست. بنابراین، لازم است که مشخص کنیم چه عناصر تکنیکی دیگری در سیستم وجود دارند، نحوه تعامل آنها چگونه است، چطور در مسئله مشارکت دارند، رابطه آنها با انسان‌ها چگونه است.

کاربر باید بداند چه میزان در استفاده از این تکنولوژی آزادی دارد.

 

همچنین، باید مشخص شود که آیا کاربر نهایی در جریان است که در حال استفاده از تکنولوژی است که در آن هوش مصنوعی به خدمت گرفته شده است. ضمن اینکه کاربر باید بداند چه میزان در استفاده از این تکنولوژی آزادی دارد. این ملاحظه ما را به مسئله معرفت در مسئولیت می‌رساند که در قسمت بعد درباره آن صحبت می‌کنیم.

ادامه دارد ...

 [1] control

[2] knowledge

[3] patient

[4] Responsibility gap

[5] Autonomous learning machine

[6] The problem of many hands

[7] The problem of many things

منبع اولیه متن: مقاله «هوش مصنوعی، واگذاری مسئولیت، و توجیهی رابطه‌ای از تبیین‌پذیری» نوشته مارک کوکلبرگ در سال 2020

Coeckelbergh, Mark., 2020. Artificial Intelligence, Responsibility Attribution, and a Relational Justification of Explainability, Science and Engineering Ethics. 26: 2051-2068.

مترجم: دکتر سعیده بابایی، پژوهشگر پسادکتری اخلاق هوش مصنوعی دانشگاه توبینگن.

منبع ثانویه: وبگاه پژوهشگاه مجازی

انتهای پیام/

از شما صاحبنظر گرامی در حوزه تعلیم و تربیت هم دعوت می کنیم، از نویسندگان، ممیزان و اعضای هیئت تحریریه پنجره تربیت باشید. برای ارسال مطالب و عضویت در هیئت تحریریه، از طریق ایمیل FarsPanjarehTarbiat@gmail.com مکاتبه فرمائید.

این مطلب را برای صفحه اول پیشنهاد کنید
نظرات
دیدگاه های ارسال شده توسط شما، پس از تایید توسط خبرگزاری فارس در وب سایت منتشر خواهد شد پیام هایی که حاوی تهمت یا افترا باشد منتشر نخواهد شد
Captcha
لطفا پیام خود را وارد نمایید.
پیام شما با موفقیت ثبت گردید.
لطفا کد اعتبارسنجی را صحیح وارد نمایید.
مشکلی پیش آمده است. لطفا دوباره تلاش نمایید.

پر بازدید ها

    پر بحث ترین ها

      بیشترین اشتراک

        اخبار گردشگری globe
        تازه های کتاب
        اخبار کسب و کار تریبون
        همراه اول