یک چهارم معلمان، کنترل کامل بر شغل خود را از دست دادند

ابزار هوشمند، چگونه در سکوت و پنهانی، جای مدیر انسانی را گرفت و به قاضی عملکرد معلمان و درمانگران تبدیل شد؟
گروه علم و پیشرفت خبرگزاری فارس - ورود فناوری هوشمند به محیط‌های آموزشی و درمانی در آغاز با وعده کاهش کارهای اداری، سرعت‌دادن به ثبت اطلاعات و یاری در تحلیل داده‌ها معرفی شد. بسیاری از گزارش‌های اولیه به فرصت‌هایی اشاره می‌کردند که می‌تواند فرسودگی ناشی از کارهای تکراری را کاهش دهد. این تصویر اولیه در نگاه اول امیدبخش بود و تصور می‌شد ابزارهای هوشمند تنها نقش پشتیبان ایفا می‌کنند.اما همان‌گونه که در گزارش‌های رسمی اتحادیه ایمنی و سلامت شغلی اروپا درباره مدیریت الگوریتمی بیان شده است، این ابزارها به تدریج از نقش کمکی فاصله گرفتند و وظیفه نظارت و قضاوت درباره عملکرد انسانی را بر عهده گرفتند. با این جابه‌جایی، گروه بزرگی از کارکنان به ویژه در آموزش و سلامت روان خود را در فضایی یافتند که پیش از آن تجربه نکرده بودند. این فضا آمیخته با نظارت دائمی و فشاری بود که بدون چهره انسانی و بدون گفت‌وگوی مستقیم شکل می‌گرفت.این تغییر ناگهانی نبود و به صورت تدریجی رخ داد. همان گونه که گزارش‌های اتحادیه اروپا نشان می‌دهد، اختیار تصمیم‌گیری از انسان به ابزار منتقل شد و معلم یا درمانگر ناگهان متوجه شد که بخشی از ارزیابی شغلی‌اش دیگر در اختیار مدیر مستقیم نیست. اکنون این ارزیابی بر پایه فرایندی انجام می‌شد که از میان حجم عظیمی از داده‌ها معیارهایی استخراج می‌کرد و آنها را ملاک عملکرد قرار می‌داد.تجربه این تغییر عمیق بود و در بسیاری از موقعیت‌ها فشار پنهانی ایجاد کرد که آرام اما عمیق اثر می‌گذاشت. این تغییر آغاز مرحله‌ای بود که در آن ابزار هوشمند تنها وسیله کمک نبود و به یکی از عوامل تعیین‌کننده در کیفیت ارزیابی منابع انسانی تبدیل می‌شد.

داده‌های هوشمند قضاوتگری می‌کنند

در بخش آموزش، گزارش اتحادیه ایمنی و سلامت شغلی اروپا توضیح می‌دهد که ابزارهایی که برای کمک طراحی شده بودند به تدریج به جایگاه داور رسیدند. سامانه‌هایی که از اطلاعاتی مانند میزان مشارکت دانش‌آموزان، زمان پاسخ به تکالیف و الگوهای رفتاری کلاس استفاده می‌کردند به تولید شاخص بهره‌وری معلم پرداختند. این شاخص‌ها بدون گفت‌وگو با خود معلم ایجاد می‌شد.یافته‌های مهم این گزارش‌ها نشان می‌دهد که معلمان با احساس دائمی ارزیابی شدن زندگی می‌کردند. این نوع ارزیابی شبیه نظارت انسانی نبود، زیرا نظارت انسانی قابل گفت‌وگو است و در موقعیت‌های پیچیده توضیح‌پذیر باقی می‌ماند. اما زمانی که یک شاخص عددی تعیین می‌کرد که تعامل با دانش‌آموز کم بوده یا مدیریت کلاس ناکارآمد بوده است، فضای تازه‌ای شکل می‌گرفت که در آن خودمختاری حرفه‌ای کاهش می‌یافت.در گزارش دیگری از اتحادیه اروپا بیان شده است که حدود یک‌چهارم کارکنان در محیط‌هایی که تحت مدیریت الگوریتمی قرار دارند احساس می‌کنند کنترل کمتری بر کار خود دارند. این احساس در میان معلمان زمانی شدت می‌گیرد که سیستم بدون گفت‌وگو درباره آنها تصمیم می‌گیرد. این تصمیم‌ها شامل تخصیص شیفت، زمان‌بندی کلاس یا حتی پیشنهاد تغییر روش تدریس می‌شود.این انتقال آرام قدرت از انسان به الگوریتم، بخش مهمی از فشار روانی در محیط‌های آموزشی را شکل می‌دهد. کارکنان احساس می‌کنند که تحت قضاوت ماشینی هستند که بافت موقعیت را نمی‌فهمد و به جای توضیح، به‌طور خودکار حکم صادر می‌کند.

ابزار تحلیل‌گر اضطراب ایجاد می‌کند

در حوزه سلامت روان، وضعیت پیچیده‌تر از آموزش است. گزارشی منتشرشده در روزنامه گاردین که بازتاب‌دهنده هشدارهای انجمن مشاوران و روان‌درمانگران بریتانیاست تصویری روشن از نگرانی درمانگران حرفه‌ای ارائه می‌دهد. کارشناسان هشدار می‌دهند که اتکا به ابزارهای درمانگر مبتنی بر هوش مصنوعی ممکن است مراجعان را به مسیری خطرناک هدایت کند، زیرا این ابزارها قادر به تشخیص ظرافت‌های احساسی و بافت پیچیده موقعیت نیستند.در این گزارش، درمانگران تاکید می‌کنند که ابزارهای گفت‌وگویی برای سلامت روان طراحی نشده‌اند، اما به شکل فزاینده‌ای در درمان استفاده می‌شوند. این نگرانی تنها به توانایی یا ناتوانی ابزار محدود نمی‌شود، بلکه به تأثیری اشاره دارد که استفاده از چنین فناوری‌هایی بر خود درمانگران می‌گذارد. هنگامی که مراجعان توصیه ربات را با نظر درمانگر مقایسه می‌کنند، نقش درمانگر در نظر برخی از آنها تضعیف می‌شود.برخی گزارش‌های رسانه‌ای روایت می‌کنند که مراجعانی با لحن تمسخرآمیز به درمانگران گفته‌اند که ابزار هوشمند گفته است حق با آنهاست و درمانگر اشتباه می‌کند. این جمله برای درمانگری که سال‌ها آموزش دیده سنگین است و حس می‌کند جایگاه حرفه‌ای او در حال تزلزل است. این موارد نشان می‌دهد فناوری هوشمند چگونه می‌تواند رابطه درمانی را مختل کند و فشار روانی جدیدی ایجاد کند.این تجربه‌ها بازتاب روایت‌های فردی نیست، بلکه نتیجه کنار هم قرار گرفتن نمونه‌های متعدد است. این روایت‌ها تصویری از محیط درمانی ترسیم می‌کنند که در آن حضور ابزار هوشمند اضطراب تازه‌ای ایجاد می‌کند و درمانگران مجبورند در فضایی فعالیت کنند که اعتماد مراجعان گاه به فناوری سوق پیدا می‌کند.

وقتی ابزار هوشمند نقش دوگانه پیدا می‌کند

گزارش تحلیلی اتحادیه ایمنی و سلامت شغلی اروپا با عنوان مدیریت الگوریتمی به‌مثابه تیری با دو لبه تصویری دقیق از ماهیت فشار ناشی از ابزارهای هوشمند ارائه می‌دهد. مفهوم دو لبه تنها یک استعاره نیست، بلکه بیان وضعیتی است که در آن فناوری می‌تواند هم‌زمان سودمند و آسیب‌زا باشد. این گزارش مجموعه‌ای از خطرهای مستند را مطرح می‌کند که در محیط‌های کاری مختلف دیده شده است.در این گزارش به نظارت مداوم و نامرئی اشاره شده است. این نظارت اغلب بدون اطلاع کامل کارکنان انجام می‌شود و آنها نمی‌دانند کدام داده به کدام تصمیم تبدیل می‌شود. در ادامه، کاهش استقلال کارکنان نیز مطرح شده است، زیرا هر حرکت آنها به داده‌ای قابل تحلیل تبدیل می‌شود و آزادی عمل کاهش پیدا می‌کند.افزایش رقابت داخلی یکی دیگر از پیامدهای استفاده از این ابزارهاست، زیرا شاخص‌های عددی به طور مداوم مقایسه‌هایی ایجاد می‌کنند که فشار بیشتری وارد می‌کند. کاهش تعامل انسانی نیز در محیط‌هایی که مدیریت الگوریتمی وجود دارد دیده می‌شود، زیرا بخش قابل توجهی از تعاملات از مسیر سیستم عبور می‌کند. تمام این موارد در کنار هم به افزایش فشار روانی منجر می‌شود.این فهرست، مجموعه‌ای جزئی‌نگر است که براساس نمونه‌های واقعی در محیط‌های کاری اروپایی تهیه شده است. پژوهش‌ها نشان می‌دهد کارکنانی که تحت مدیریت الگوریتمی فعالیت می‌کنند بیشتر از میانگین دچار اضطراب، مشکلات خواب و احساس فرسودگی می‌شوند. ناآگاهی از نحوه قضاوت سیستم نیز خود یکی از عوامل استرس‌زا محسوب می‌شود.

وقتی هر حرکت به داده تبدیل می‌شود

در گزارش‌های رسمی بارها به این نکته اشاره شده است که حجم داده‌هایی که سیستم‌های نظارتی هوشمند جمع‌آوری می‌کنند بسیار گسترده است. در بخش آموزش، حتی ساده‌ترین تعامل با دانش‌آموز می‌تواند تبدیل به ورودی یک سیستم ارزیابی شود. در بخش درمان نیز سامانه‌هایی ایجاد شده‌اند که کیفیت نوشتار درمانگران، زمان پاسخ‌دهی آنها یا حتی ساختار جلسات آنلاین را تحلیل می‌کنند.در یکی از گزارش‌های اتحادیه اروپا توضیح داده شده است که چگونه تبدیل شدن هر حرکت به داده می‌تواند محیط کاری رقابتی و گاه خصمانه ایجاد کند. کارکنانی که در چنین محیط‌هایی کار می‌کنند بیان کرده‌اند که احساس می‌کنند برای رضایت سیستم فعالیت می‌کنند و نه برای بهبود واقعی کیفیت خدمات. این احساس نشان می‌دهد که فناوری به بخشی از چهارچوب روانی محیط کار تبدیل شده است.این وضعیت موجب شکل‌گیری نوعی فشار دائمی می‌شود. این فشار با نظارت انسانی تفاوت دارد، زیرا سیستم توقف ندارد، توضیح نمی‌دهد و امکان گفت‌وگوی حرفه‌ای با آن وجود ندارد. این پیوستگی نظارت باعث می‌شود کاربر احساس کند همیشه زیر نگاه دستگاه قرار دارد و هر لحظه ممکن است با شاخصی جدید قضاوت شود.این روایت‌ها بیانگر پدیده‌ای تازه در محیط‌های حرفه‌ای است. فناوری هوشمند در این زمینه نه تنها ابزار تحلیل است، بلکه به یکی از عوامل شکل‌دهنده تجربه روانی کارکنان تبدیل می‌شود. این تجربه جدید که بر پایه داده و شاخص شکل می‌گیرد بر ساختار آگاهی حرفه‌ای افراد نیز اثر می‌گذارد.

فشار روانی تبدیل به تصمیم سیاسی می‌شود

انباشت گزارش‌های هشداردهنده در سال‌های اخیر موجب شد برخی نهادهای قانونی وارد عمل شوند. پارلمان اروپا در سال دو هزار و بیست و پنج اعلام کرد که هیچ تصمیم مهم شغلی مانند اخراج، تنبیه یا جابه‌جایی نباید صرفا توسط الگوریتم اتخاذ شود. این تصمیم بر پایه مجموعه بزرگی از یافته‌های علمی، اعتراضات و گزارش‌های رسانه‌ای شکل گرفت و نشان داد مسئله به سطح سیاست‌گذاری رسیده است.هم‌زمان در ایالت ایلینوی در ایالات متحده قانونی تصویب شد که استفاده از ابزارهای گفت‌وگویی به عنوان درمانگر مستقل را ممنوع می‌کرد. این قانون به دلیل نگرانی‌های گسترده سلامت روان تدوین شد و بیان می‌کرد که تکیه بر سیستم‌های هوشمند برای درمان بدون نظارت انسانی می‌تواند خطرناک باشد. این مقررات نشان می‌دهد مسئله محدود به تجربه فردی نیست و ساختارهای حقوقی نیز ناچار به ورود شده‌اند.این اقدامات سیاسی به عنوان واکنشی به فشارهای فزاینده ناشی از مدیریت الگوریتمی شکل گرفت. در واقع سیاست‌گذاران تلاش کردند مرز تازه‌ای میان نقش انسان و نقش ابزار ترسیم کنند تا اطمینان حاصل شود که قضاوت انسانی همچنان مرکز تصمیم‌گیری باقی بماند.این رویدادها ثابت می‌کند که مدیریت الگوریتمی تنها موضوعی فناوری نیست، بلکه مسئله‌ای ساختاری است که بر سازمان، اخلاق حرفه‌ای و سلامت روان اثر می‌گذارد. این تفاوت موجب شد موضوع به سطح گفتگوهای عمومی و سیاست‌گذاری برسد و تبدیل به اولویتی اجتماعی شود.

نیاز به بازگشت به قضاوت انسانی آشکار می‌شود

در میان حجم گسترده گزارش‌ها و تحلیل‌ها، یک نتیجه روشن دیده می‌شود. فناوری هوشمند تنها زمانی سودمند است که انسان همچنان مرکز تصمیم‌گیری باقی بماند. اگر ابزار به جای قضاوت انسانی قرار گیرد و نظارت بی‌وقفه رفتار حرفه‌ای را تعریف کند، پیامدهای ناخواسته ایجاد می‌شود و فشار روانی و کاهش اعتماد گسترش پیدا می‌کند.اگر تعامل انسانی در آموزش و درمان کم‌رنگ شود و مدیریت شغلی براساس شاخص‌های ناشناس تعریف شود، نتیجه چیزی جز فرسودگی و تنش حرفه‌ای نخواهد بود. این وضعیت نشان می‌دهد که بهره‌گیری از فناوری بدون توجه به ابعاد انسانی نمی‌تواند پایدار باشد و به پیامدهای منفی می‌انجامد.روایت این مجموعه نشان می‌دهد ابزارهایی که برای کمک طراحی شده‌اند در صورت نبود نظارت و چهارچوب اخلاقی می‌توانند اثر معکوس داشته باشند. این روایت همچنین تاکید می‌کند که طراحی انسان‌محور و شفافیت در سیستم‌های هوشمند ضروری است.گزارش‌های اتحادیه اروپا بیان می‌کنند که تنها با حضور پیوسته قضاوت انسانی در کنار فناوری می‌توان آینده‌ای متعادل ایجاد کرد. این مسیر نیازمند آگاهی، نقد و تنظیم‌گری چندسویه است تا فناوری در خدمت انسان باقی بماند و نه در جایگاه قضاوت‌کننده مستقل.#مدیریت_الگوریتمی#نظارت_شغلی#فرسودگی_شغلی#هوش_مصنوعی#حقوق_کارکنان
21:09 - 11 آذر 1404
علم و پیشرفت
نوآوری
هوش مصنوعی

1 بازنشر4 واکنش
27٫5k بازدید