یک چهارم معلمان، کنترل کامل بر شغل خود را از دست دادند
ابزار هوشمند، چگونه در سکوت و پنهانی، جای مدیر انسانی را گرفت و به قاضی عملکرد معلمان و درمانگران تبدیل شد؟
گروه علم و پیشرفت خبرگزاری فارس - ورود فناوری هوشمند به محیطهای آموزشی و درمانی در آغاز با وعده کاهش کارهای اداری، سرعتدادن به ثبت اطلاعات و یاری در تحلیل دادهها معرفی شد. بسیاری از گزارشهای اولیه به فرصتهایی اشاره میکردند که میتواند فرسودگی ناشی از کارهای تکراری را کاهش دهد. این تصویر اولیه در نگاه اول امیدبخش بود و تصور میشد ابزارهای هوشمند تنها نقش پشتیبان ایفا میکنند.اما همانگونه که در گزارشهای رسمی اتحادیه ایمنی و سلامت شغلی اروپا درباره مدیریت الگوریتمی بیان شده است، این ابزارها به تدریج از نقش کمکی فاصله گرفتند و وظیفه نظارت و قضاوت درباره عملکرد انسانی را بر عهده گرفتند. با این جابهجایی، گروه بزرگی از کارکنان به ویژه در آموزش و سلامت روان خود را در فضایی یافتند که پیش از آن تجربه نکرده بودند. این فضا آمیخته با نظارت دائمی و فشاری بود که بدون چهره انسانی و بدون گفتوگوی مستقیم شکل میگرفت.این تغییر ناگهانی نبود و به صورت تدریجی رخ داد. همان گونه که گزارشهای اتحادیه اروپا نشان میدهد، اختیار تصمیمگیری از انسان به ابزار منتقل شد و معلم یا درمانگر ناگهان متوجه شد که بخشی از ارزیابی شغلیاش دیگر در اختیار مدیر مستقیم نیست. اکنون این ارزیابی بر پایه فرایندی انجام میشد که از میان حجم عظیمی از دادهها معیارهایی استخراج میکرد و آنها را ملاک عملکرد قرار میداد.تجربه این تغییر عمیق بود و در بسیاری از موقعیتها فشار پنهانی ایجاد کرد که آرام اما عمیق اثر میگذاشت. این تغییر آغاز مرحلهای بود که در آن ابزار هوشمند تنها وسیله کمک نبود و به یکی از عوامل تعیینکننده در کیفیت ارزیابی منابع انسانی تبدیل میشد.
دادههای هوشمند قضاوتگری میکنند
در بخش آموزش، گزارش اتحادیه ایمنی و سلامت شغلی اروپا توضیح میدهد که ابزارهایی که برای کمک طراحی شده بودند به تدریج به جایگاه داور رسیدند. سامانههایی که از اطلاعاتی مانند میزان مشارکت دانشآموزان، زمان پاسخ به تکالیف و الگوهای رفتاری کلاس استفاده میکردند به تولید شاخص بهرهوری معلم پرداختند. این شاخصها بدون گفتوگو با خود معلم ایجاد میشد.یافتههای مهم این گزارشها نشان میدهد که معلمان با احساس دائمی ارزیابی شدن زندگی میکردند. این نوع ارزیابی شبیه نظارت انسانی نبود، زیرا نظارت انسانی قابل گفتوگو است و در موقعیتهای پیچیده توضیحپذیر باقی میماند. اما زمانی که یک شاخص عددی تعیین میکرد که تعامل با دانشآموز کم بوده یا مدیریت کلاس ناکارآمد بوده است، فضای تازهای شکل میگرفت که در آن خودمختاری حرفهای کاهش مییافت.در گزارش دیگری از اتحادیه اروپا بیان شده است که حدود یکچهارم کارکنان در محیطهایی که تحت مدیریت الگوریتمی قرار دارند احساس میکنند کنترل کمتری بر کار خود دارند. این احساس در میان معلمان زمانی شدت میگیرد که سیستم بدون گفتوگو درباره آنها تصمیم میگیرد. این تصمیمها شامل تخصیص شیفت، زمانبندی کلاس یا حتی پیشنهاد تغییر روش تدریس میشود.این انتقال آرام قدرت از انسان به الگوریتم، بخش مهمی از فشار روانی در محیطهای آموزشی را شکل میدهد. کارکنان احساس میکنند که تحت قضاوت ماشینی هستند که بافت موقعیت را نمیفهمد و به جای توضیح، بهطور خودکار حکم صادر میکند.
ابزار تحلیلگر اضطراب ایجاد میکند
در حوزه سلامت روان، وضعیت پیچیدهتر از آموزش است. گزارشی منتشرشده در روزنامه گاردین که بازتابدهنده هشدارهای انجمن مشاوران و رواندرمانگران بریتانیاست تصویری روشن از نگرانی درمانگران حرفهای ارائه میدهد. کارشناسان هشدار میدهند که اتکا به ابزارهای درمانگر مبتنی بر هوش مصنوعی ممکن است مراجعان را به مسیری خطرناک هدایت کند، زیرا این ابزارها قادر به تشخیص ظرافتهای احساسی و بافت پیچیده موقعیت نیستند.در این گزارش، درمانگران تاکید میکنند که ابزارهای گفتوگویی برای سلامت روان طراحی نشدهاند، اما به شکل فزایندهای در درمان استفاده میشوند. این نگرانی تنها به توانایی یا ناتوانی ابزار محدود نمیشود، بلکه به تأثیری اشاره دارد که استفاده از چنین فناوریهایی بر خود درمانگران میگذارد. هنگامی که مراجعان توصیه ربات را با نظر درمانگر مقایسه میکنند، نقش درمانگر در نظر برخی از آنها تضعیف میشود.برخی گزارشهای رسانهای روایت میکنند که مراجعانی با لحن تمسخرآمیز به درمانگران گفتهاند که ابزار هوشمند گفته است حق با آنهاست و درمانگر اشتباه میکند. این جمله برای درمانگری که سالها آموزش دیده سنگین است و حس میکند جایگاه حرفهای او در حال تزلزل است. این موارد نشان میدهد فناوری هوشمند چگونه میتواند رابطه درمانی را مختل کند و فشار روانی جدیدی ایجاد کند.این تجربهها بازتاب روایتهای فردی نیست، بلکه نتیجه کنار هم قرار گرفتن نمونههای متعدد است. این روایتها تصویری از محیط درمانی ترسیم میکنند که در آن حضور ابزار هوشمند اضطراب تازهای ایجاد میکند و درمانگران مجبورند در فضایی فعالیت کنند که اعتماد مراجعان گاه به فناوری سوق پیدا میکند.
وقتی ابزار هوشمند نقش دوگانه پیدا میکند
گزارش تحلیلی اتحادیه ایمنی و سلامت شغلی اروپا با عنوان مدیریت الگوریتمی بهمثابه تیری با دو لبه تصویری دقیق از ماهیت فشار ناشی از ابزارهای هوشمند ارائه میدهد. مفهوم دو لبه تنها یک استعاره نیست، بلکه بیان وضعیتی است که در آن فناوری میتواند همزمان سودمند و آسیبزا باشد. این گزارش مجموعهای از خطرهای مستند را مطرح میکند که در محیطهای کاری مختلف دیده شده است.در این گزارش به نظارت مداوم و نامرئی اشاره شده است. این نظارت اغلب بدون اطلاع کامل کارکنان انجام میشود و آنها نمیدانند کدام داده به کدام تصمیم تبدیل میشود. در ادامه، کاهش استقلال کارکنان نیز مطرح شده است، زیرا هر حرکت آنها به دادهای قابل تحلیل تبدیل میشود و آزادی عمل کاهش پیدا میکند.افزایش رقابت داخلی یکی دیگر از پیامدهای استفاده از این ابزارهاست، زیرا شاخصهای عددی به طور مداوم مقایسههایی ایجاد میکنند که فشار بیشتری وارد میکند. کاهش تعامل انسانی نیز در محیطهایی که مدیریت الگوریتمی وجود دارد دیده میشود، زیرا بخش قابل توجهی از تعاملات از مسیر سیستم عبور میکند. تمام این موارد در کنار هم به افزایش فشار روانی منجر میشود.این فهرست، مجموعهای جزئینگر است که براساس نمونههای واقعی در محیطهای کاری اروپایی تهیه شده است. پژوهشها نشان میدهد کارکنانی که تحت مدیریت الگوریتمی فعالیت میکنند بیشتر از میانگین دچار اضطراب، مشکلات خواب و احساس فرسودگی میشوند. ناآگاهی از نحوه قضاوت سیستم نیز خود یکی از عوامل استرسزا محسوب میشود.
وقتی هر حرکت به داده تبدیل میشود
در گزارشهای رسمی بارها به این نکته اشاره شده است که حجم دادههایی که سیستمهای نظارتی هوشمند جمعآوری میکنند بسیار گسترده است. در بخش آموزش، حتی سادهترین تعامل با دانشآموز میتواند تبدیل به ورودی یک سیستم ارزیابی شود. در بخش درمان نیز سامانههایی ایجاد شدهاند که کیفیت نوشتار درمانگران، زمان پاسخدهی آنها یا حتی ساختار جلسات آنلاین را تحلیل میکنند.در یکی از گزارشهای اتحادیه اروپا توضیح داده شده است که چگونه تبدیل شدن هر حرکت به داده میتواند محیط کاری رقابتی و گاه خصمانه ایجاد کند. کارکنانی که در چنین محیطهایی کار میکنند بیان کردهاند که احساس میکنند برای رضایت سیستم فعالیت میکنند و نه برای بهبود واقعی کیفیت خدمات. این احساس نشان میدهد که فناوری به بخشی از چهارچوب روانی محیط کار تبدیل شده است.این وضعیت موجب شکلگیری نوعی فشار دائمی میشود. این فشار با نظارت انسانی تفاوت دارد، زیرا سیستم توقف ندارد، توضیح نمیدهد و امکان گفتوگوی حرفهای با آن وجود ندارد. این پیوستگی نظارت باعث میشود کاربر احساس کند همیشه زیر نگاه دستگاه قرار دارد و هر لحظه ممکن است با شاخصی جدید قضاوت شود.این روایتها بیانگر پدیدهای تازه در محیطهای حرفهای است. فناوری هوشمند در این زمینه نه تنها ابزار تحلیل است، بلکه به یکی از عوامل شکلدهنده تجربه روانی کارکنان تبدیل میشود. این تجربه جدید که بر پایه داده و شاخص شکل میگیرد بر ساختار آگاهی حرفهای افراد نیز اثر میگذارد.
فشار روانی تبدیل به تصمیم سیاسی میشود
انباشت گزارشهای هشداردهنده در سالهای اخیر موجب شد برخی نهادهای قانونی وارد عمل شوند. پارلمان اروپا در سال دو هزار و بیست و پنج اعلام کرد که هیچ تصمیم مهم شغلی مانند اخراج، تنبیه یا جابهجایی نباید صرفا توسط الگوریتم اتخاذ شود. این تصمیم بر پایه مجموعه بزرگی از یافتههای علمی، اعتراضات و گزارشهای رسانهای شکل گرفت و نشان داد مسئله به سطح سیاستگذاری رسیده است.همزمان در ایالت ایلینوی در ایالات متحده قانونی تصویب شد که استفاده از ابزارهای گفتوگویی به عنوان درمانگر مستقل را ممنوع میکرد. این قانون به دلیل نگرانیهای گسترده سلامت روان تدوین شد و بیان میکرد که تکیه بر سیستمهای هوشمند برای درمان بدون نظارت انسانی میتواند خطرناک باشد. این مقررات نشان میدهد مسئله محدود به تجربه فردی نیست و ساختارهای حقوقی نیز ناچار به ورود شدهاند.این اقدامات سیاسی به عنوان واکنشی به فشارهای فزاینده ناشی از مدیریت الگوریتمی شکل گرفت. در واقع سیاستگذاران تلاش کردند مرز تازهای میان نقش انسان و نقش ابزار ترسیم کنند تا اطمینان حاصل شود که قضاوت انسانی همچنان مرکز تصمیمگیری باقی بماند.این رویدادها ثابت میکند که مدیریت الگوریتمی تنها موضوعی فناوری نیست، بلکه مسئلهای ساختاری است که بر سازمان، اخلاق حرفهای و سلامت روان اثر میگذارد. این تفاوت موجب شد موضوع به سطح گفتگوهای عمومی و سیاستگذاری برسد و تبدیل به اولویتی اجتماعی شود.
نیاز به بازگشت به قضاوت انسانی آشکار میشود
در میان حجم گسترده گزارشها و تحلیلها، یک نتیجه روشن دیده میشود. فناوری هوشمند تنها زمانی سودمند است که انسان همچنان مرکز تصمیمگیری باقی بماند. اگر ابزار به جای قضاوت انسانی قرار گیرد و نظارت بیوقفه رفتار حرفهای را تعریف کند، پیامدهای ناخواسته ایجاد میشود و فشار روانی و کاهش اعتماد گسترش پیدا میکند.اگر تعامل انسانی در آموزش و درمان کمرنگ شود و مدیریت شغلی براساس شاخصهای ناشناس تعریف شود، نتیجه چیزی جز فرسودگی و تنش حرفهای نخواهد بود. این وضعیت نشان میدهد که بهرهگیری از فناوری بدون توجه به ابعاد انسانی نمیتواند پایدار باشد و به پیامدهای منفی میانجامد.روایت این مجموعه نشان میدهد ابزارهایی که برای کمک طراحی شدهاند در صورت نبود نظارت و چهارچوب اخلاقی میتوانند اثر معکوس داشته باشند. این روایت همچنین تاکید میکند که طراحی انسانمحور و شفافیت در سیستمهای هوشمند ضروری است.گزارشهای اتحادیه اروپا بیان میکنند که تنها با حضور پیوسته قضاوت انسانی در کنار فناوری میتوان آیندهای متعادل ایجاد کرد. این مسیر نیازمند آگاهی، نقد و تنظیمگری چندسویه است تا فناوری در خدمت انسان باقی بماند و نه در جایگاه قضاوتکننده مستقل.#مدیریت_الگوریتمی#نظارت_شغلی#فرسودگی_شغلی#هوش_مصنوعی#حقوق_کارکنان 21:09 - 11 آذر 1404