زهرا خاکسار
مقاله زیر بخشی از مباحث مطرح شده در سلسله نشست های مجمع جهانی اقتصاد (1) (WEF) در داووس(2) است.
- هوش مصنوعی(Al) توصیههای روزافزونی را به تصمیمگیرندگان انسانی ارائه میدهد.
- بنابراین ما باید اطمینان حاصل کنیم که میتوانیم نه تنها به هوش مصنوعی، بلکه به کل ماهیت ساختاری آن اعتماد کنیم.
- مفهوم «انصاف (3)» ماهیتی انعطافپذیر داشته و نیاز به رایزنی های چند جانبه دارد.
انسان ها در میان انواع مختلفی از سوگیریها قرار دارند که از جمله آن ها میتوان به سوگیری «تأیید (4)»، «نگهداشتن به هر قیمت (لنگر انداختن) (5)» و «جنسیت (6)» اشاره کرد. ممکن است اینگونه سوگیری ها مردم را به سمت رفتار غیرمنصفانه سوق دهد. بنابراین ما بهعنوان یک جامعه سعی در کاهش این قبیل سوگیری ها داریم.
به ویژه زمانی این امر پراهمیت جلوه میکند که انسان ها در معرض تصمیمات پرمخاطرهای که بر دیگران نیز تأثیرگذار است، قرار گیرند. بنابراین، ما این مسئله را از طریق ترکیبی از آموزش، دستورالعمل ها و مقررات مدیریت میکنیم.
اکنونکه هوش مصنوعی توصیه های روزافزونی را به تصمیم گیرندگان انسانی ارائه میدهد، لزوم اطمینان از اینکه این فناوری، مغرضانه عمل نکرده، به ارزش «انصاف» واقف بوده و آن را رعایت میکند، حائز اهمیت است.
درواقع، انصافِ هوش مصنوعی بهعنوان یکی از موضوعات اصلی در آن دسته از ابتکاراتی است که هدفشان سودمند سازی هوش مصنوعی تا حد امکان (در ارتباط با اخلاق هوش مصنوعی)، است.
انصافِ هوش مصنوعی بهعنوان یکی از موضوعات اصلی است که هدفشان سودمند سازی هوش مصنوعی تا حد امکان است.
زمان آن فرا رسیده است که دیدگاه جامعتری از «انصاف» را شناسایی و ارائه دهیم. دیدگاهی که همه ابعاد را پوشش داده و از روابط متقابل آنها بهره ببرد. راجا چاتیلا
نمونههایی از این دست فراوان است و شامل «دستورالعملهای اخلاقی برای هوش مصنوعی قابلاعتماد» که توسط گروه کارشناسی سطح عالی کمیسیون اروپا (7) در مورد هوش مصنوعی ارائهشده، تا تمرکز شورای «آینده جهانی» مجمع جهانی اقتصاد در مورد «Al for Humanity» می شود.
درحالیکه برای چندین سال تمرکز اصلی شرکت ها، دولت ها، سازمان های جامعه مدنی و پیشگامان حاکمیت جمعی، بر انصاف هوش مصنوعی بوده است، در طول زمان شاهد انبوهی از رویکرد های مختلف بودهایم که هر یک از آنها بر یک یا چند جنبه از انصاف متمرکز شدهاند.
اکنون زمان شناسایی و پیشنهاد دیدگاه جامعتری است. طرحی که تمام ابعاد انصاف را پوشش داده و از روابط متقابل آنها برای ایجاد مؤثرترین چارچوب، تکنیکها و سیاستها بهره میبرد.
نکته مهم اینجاست: ازآنجاییکه سیستمهای هوش مصنوعی توسط انسانها ساخته میشوند و آنها دادههای آموزشی و آزمایشی را جمعآوری کرده و تصمیمات مرتبط با توسعه و پیشرفت را اتخاذ میکنند، میتوانند (آگاهانه یا ناآگاهانه) به عنصر «سوگیری» آلوده شوند (توسط سازندگان خود). این امر، بهنوبه خود، ممکن است باعث استقرار سیستمهای هوش مصنوعی شود که منعکسکننده و تقویتکننده چنین سوگیری هایی هستند. نتیجه حاصله در این سیستمها، منجر به تصمیمگیری یا توصیههایی میشود که بهطور سیستماتیک برای دستههای خاصی از افراد غیرمنصفانه است.
سیستمهای هوش مصنوعی، میتوانند (آگاهانه یا ناآگاهانه) توسط سازندگان خود به عنصر «سوگیری» آلوده شوند.
در حال حاضر چندین ابزار فنی وجود دارد که میتواند در این زمینه کمککننده باشد. آنها سوگیری هوش مصنوعی را در انواع مختلف داده (متن، صدا، ویدئو، تصاویر و دادههای ساختاریافته) شناسایی کرده و کاهش میدهند. درواقع سوگیری موجود در جامعه را میتوان در سیستمهای هوش مصنوعی تعبیه کرد و تلازم ناپسند بین برخی ویژگیها (مانند تلازم میان جنسیت و دریافت وام) را میتوان از طریق شناسایی و اجتناب از آنها کاهش داد.
وجود ابزارهایی برای بهبود توضیح پذیری مدلهای هوش مصنوعی، شناسایی دلایل پشت تصمیم های آن ها را ممکن می سازد و بنابراین می تواند در شناسایی سوگیری در دادهها یا مدلهای هوش مصنوعی نیز مفید باشد. فرانچسکا روسی
بااینحال جنبه های فنی و راهحلهای جلوگیری از سوگیری هوش مصنوعی تنها یک بعد، و احتمالاً سادهترین بعد برای دستیابی به انصاف هوش مصنوعی را تشکیل میدهند.
در حال حاضر چندین ابزار فنی وجود دارد که میتواند سوگیری هوش مصنوعی را شناسایی کرده و کاهش میدهند.
ورای مسائل فنی، دستیابی به انصاف تنها یک مسئله فنی نیست. در کنار آن، لازم است ساختارهای حاکمیتی از یکسو به شناسایی، اجرا و اتخاذ ابزارهای مناسب برای یافتن و کاهش سوگیری در جمعآوری و پردازش اطلاعات بپردازند و از سوی دیگر چارچوبهایی برای نظارت لازم و مناسب برای هر مورداستفاده خاص، تعریف کنند.
دستیابی به انصاف تنها یک مسئله فنی نیست.
همچنین نباید فراموش کرد که مفهوم انصاف بهخودیخود مفهومی وابسته به زمینه (8) است و باید بر اساس سناریوهای کاربردی خاص تعریف شود. تعریف صحیح را تنها میتوان از طریق همفکری با جمع ذینفعان در این زمینه، شناسایی کرد. در اینگونه کنکاش ها کسانی که سیستمهای هوش مصنوعی را ساخته و توسعه میدهند، در خصوص آن با کاربران و جوامع مربوطه بحث میکنند تا به شناسایی مفهومی برای انصاف دست یابند.
مفهوم انصاف بهخودیخود مفهومی وابسته به زمینه است.
"هیچکس مرا آگاه نکرد که متعصبانه رفتار کردهام"
بعد دیگر انصاف به آموزش مربوط میشود. ازآنجاییکه سوگیریهای انسانی عمدتاً ناآگاهانه است، هر مسیری برای دستیابی به انصاف، الزاماً از آگاهیبخشی (آموزش) شروع میشود. توسعهدهندگان هوش مصنوعی باید از سوگیریهای خود و نحوه احتمالی تزریق آن به سیستمهای هوش مصنوعی در فرآیند توسعه آنها، آگاه باشند.
هر مسیری برای دستیابی به انصاف، الزاماً از آگاهیبخشی (آموزش) شروع میشود.
اما آموزش توسعهدهندگان کافی نیست، کل محیط اطراف آنها باید مراقب سوگیریهای احتمالی باشند و یاد بگیرند که چگونه آنها را شناسایی کرده و کاهش دهند.
باید فرهنگ انصاف ایجاد شود. در این زمینه مدیران باید بدانند که چگونه تیمهای توسعه متنوعی تشکیل دهند و مشوقهایی را برای تشخیص و کاهش سوگیریهای بالقوه در هوش مصنوعی تعریف کنند.
باید فرهنگ انصاف ایجاد شود.
مدیران اجرایی و تصمیمگیرندگان این حوزه، برای درک مسائل سوگیری هوش مصنوعی و تأثیر احتمالی آن بر مشتریان، جوامع تحت تأثیر و شرکت خود به کمک نیاز دارند.
چنین آموزشی باید با روشهای مناسب تکمیل شود. چنین روششناسیهایی پس از اتخاذ، باید الزام به اجرا داشته و تسهیل شوند. برای دستیابی به این هدف، شرکتها باید مناسبترین چارچوب حاکمیت داخلی را برای مدلهای تجاری و حوزههای استقرار خود تعریف کنند.
شرکتها باید مناسبترین چارچوب حاکمیت داخلی را برای مدلهای تجاری و حوزههای استقرار خود تعریف کنند.
فراتر از خود سیستمها، سیستمهای هوش مصنوعی نهتنها باید بر مبنای انصاف عمل کرده و در تقویت سوگیری انسانی محتاط باشند، بلکه باید مطمئن شوند که منبع نابرابری بین گروهها یا جوامع نیستند. بنابراین تنوع و شمول در درون جوامع، یکی دیگر از ابعاد انصاف هوش مصنوعی است که به تأثیر استفاده از آن در یک بافت اجتماعی خاص اشاره دارد. فناوری باید بهدوراز افزایش نابرابری، دسترسی را بهبود بخشد و همچنین شکاف دیجیتالی را در محورهای مختلف مانند جنسیت، معلولیت، جغرافیا و قومیت کاهش دهد.
تنوع و شمول در درون جوامع، یکی دیگر از ابعاد انصاف هوش مصنوعی است.
انصاف بعدی جهانی نیز دارد و باید بهطور یکسان در بین مناطق مختلف جهان، البته با در نظر گرفتن ویژگیهای هر منطقه، ترویج شود.
بعد مهم دیگر انصاف مربوط به چگونگی تعریف قوانین مناسب و مشترکی است که این اطمینان را میدهد که هوش مصنوعی خاصی که گسترشیافته و مورداستفاده قرارگرفته، مبتنی بر انصاف است.
تولیدکنندگان باید در تعریف و اجرای اصول داخلی، دستورالعملها، روششناسی و چارچوبهای حاکمیتی، نقش قابلتوجه خود را ایفا کنند.
تولیدکنندگان باید در تعریف و اجرای اصول داخلی، دستورالعملها، روششناسی و چارچوبهای حاکمیتی، نقش قابلتوجه خود را ایفا کنند تا مطمئن شوند هوش مصنوعی تولیدشده، بیطرف، قوی، قابل توضیح و توجیه، دقیق و شفاف است. بااینحال هیچ دلیلی وجود ندارد که سایر نهادها نتوانند در ایجاد چارچوبهای مناسب برای هوش مصنوعی همفکری کنند. بحث بر سر مباحث پراهمیتی ازجمله دستورالعملها، بهترین شیوهها، استانداردها، ممیزیها، گواهینامهها، مقررات و قوانین است. بههرحال، این امر مستلزم ترکیبی دقیق از این جزئیات است که از طریق کنکاشهای چندجانبه جمعی افراد تعریفشده تا منصفانه بودن فناوری هوش مصنوعی مورداستفاده و تأثیر آن بر جامعه را بهدرستی چارچوببندی کند.
بنابراین وسعت کار درزمینه انصاف هوش مصنوعی گسترده و پیچیده است. جمیع ذینفعان در این زمینه باید زمان و منابع خود را برای ایفای دقیق نقش خود در بخش مربوطه از این فضا اختصاص دهند.
اما در رابطه با انگیزه اصلی در پرداختن به این مهم، میتوان گفت، اطمینان از اینکه فناوری به ارزشهای انسانی احترام میگذارد، از آنها حمایت کرده و از به خطر افتادن این ارزشها جلوگیری میکند، انگیزههایی است که کاملاً روشن است. بااینحال، انگیزههای دیگری نیز برای سازندگان هوش مصنوعی مطرح است.
پرداختن به انصاف، هم ضرورتی اقتصادی و هم ضرورتی اجتماعی است.
درواقع، پرداختن به انصاف، هم ضرورتی اقتصادی و هم ضرورتی اجتماعی است. شرکتهایی که از هوش مصنوعی یا سایر فناوریها استفاده میکنند، اما نمیتوان برای حفظ ارزشهای فوقالذکر به آنها اعتماد کرد، در پذیرش گسترده محصولات خود با چالشهایی مواجه خواهند شد.
منبع اولیه: زهرا خاکسار (سطح 2 جامعه الزهرا، کارشناسی ارشد فلسفه و کلام دانشگاه علامه طباطبایی)، گروه مطالعات اخلاقی پژوهشگاه فضای مجازی
منبع ثانویه: وبگاه پژوهشگاه مجازی
________________________________________
[1] World Economic Forum
[2] Davos
[3] fairness
[4] سوگیری تأیید که معادل "confirmation bias" است، به تمایل برای پردازش اطلاعات با جستجو یا تفسیر اطلاعاتی که با باورهای موجود فرد سازگار است، اشاره دارد. این رویکرد مغرضانه به تصمیمگیری، عمدتاً غیرعمدی بوده و اغلب منجر به نادیده گرفتن اطلاعات متناقض میشود.
[5] سوگیری لنگر انداختن که با عنوان اثر لنگر انداختن نیز شناخته میشود، معادل "anchoring bias" بوده و یک سوگیری شناختی است که باعث میشود فرد بهشدت به اولین اطلاعاتی که از یک موضوع به وی داده میشود، تکیه کند. در این حالت، وقتی در حال تنظیم برنامهها یا ارزیابی چیزی هستیم، بهجای اینکه واقعیات عینی را در نظر بگیریم، اطلاعات جدید را نیز از نقطه لنگر خود تفسیر میکنیم.
[6] سوگیری جنسیتی یا "Gender Bias"، به حالتی اشاره دارد که فرد بر اساس هویت جنسی واقعی خود درک شده، یا مورد قضاوت متفاوتی قرار گیرد.
[7] European Commission High Level Expert Group
[8] context dependent
انتهای پیام/
از شما صاحبنظر گرامی در حوزه تعلیم و تربیت هم دعوت می کنیم، از نویسندگان، ممیزان و اعضای هیئت تحریریه پنجره تربیت باشید. برای ارسال مطالب و عضویت در هیئت تحریریه، از طریق ایمیل FarsPanjarehTarbiat@gmail.com مکاتبه فرمائید.