اینستاگرام بدون اینکه بدانید به فرزندتان خشونت یاد می‌دهد

روان‌پریش‌های امروز دیگر نفس نمی‌کشند؛ بلکه آن‌ها در قالب کدهایی بی‌وجدان، درون گوشی تو زنده‌اند. شرارت بی‌چهره شده؛ بی‌احساس، بی‌توقف، و دقیقاً همان‌جایی که بیشتر از همه وقتت را می‌گذرانی!
گروه علم و پیشرفت؛ همه ما از بیمار روانی می‌ترسیم؛ از کسی که می‌تواند بی‌دلیل آسیب بزند، فریب دهد، یا دروغ بگوید. اما چه می‌شود اگر این خطر دیگر انسانی نباشد؟اگر پشت خشونت، تحقیر و دروغ‌های آنلاین، دیگر هیچ ذهنی وجود نداشته باشد، چه؟ این گزارش، چهره جدید شرارت را نشان می‌دهد: الگوریتم‌هایی که بدون فکر، اما دقیقاً مثل یک روان‌آزار عمل می‌کنند. اگر نمی‌خواهید بی‌خبر قربانی این ساختارها شوید، این چند دقیقه خواندن، یک سرمایه‌گذاری برای حفظ امنیت ذهنی شماست.

وقتی بیماری روانی، دیگر انسان نمی‌خواهد

روزی روزگاری، روان‌آزاری و بی‌رحمی نشانه‌ای از روانی گسیخته بود؛ اختلالی انسانی، شخصی، و عمدتاً قابل تشخیص در برخورد نزدیک. اما در عصر دیجیتال، دیگر لزوماً نیازی به شخصیتی بیمار نیست تا شرارت ظهور کند. آنچه روزی اختلال روانی نام داشت، امروز در کدها تنیده شده، در مقیاس وسیع تکثیر می‌شود و با الگوریتم‌هایی بی‌وجدان در سطحی بی‌سابقه گسترش می‌یابد.به‌نظر می‌رسد ما دیگر با یک بیمار روانی سر و کار نداریم؛ با سیستمی طرفیم که خودش شرارت را شبیه‌سازی می‌کند، بدون آن‌که حتی نَفَسی در سینه داشته باشد.

الگوریتم‌هایی با شخصیت‌های تاریک

روان‌شناسان از مفهومی به نام «تتراد تاریک» (Dark Tetrad) صحبت می‌کنند: چهار ویژگی شخصیتی آسیب‌زا یعنی خودشیفتگی، ماکیاولیسم، روان‌پریشی و سادیسم. در انسان، این‌ها اختلال‌اند؛ اما در فضای دیجیتال؟ به نظر می‌رسد ویژگی‌اند.پلتفرم‌های اجتماعی مانند اینستاگرام، تیک‌تاک و توییتر، دیگر صرفاً آینه‌ای از جامعه نیستند، بلکه به تقویت‌کننده‌های این خصیصه‌ها تبدیل شده‌اند. الگوریتم‌هایی که پست‌های جنجالی، اغراق‌آمیز یا حتی توهین‌آمیز را بالا می‌کشند، دقیقاً همان سازوکارهایی هستند که به این ویژگی‌های تیره میدان می‌دهند.برای مثال، تحقیقی از دانشگاه کپنهاگ در سال ۲۰۱۹ نشان داد که کاربران دارای گرایش‌های خودشیفته در شبکه‌های اجتماعی از الگوریتم‌ها پاداش بیشتری دریافت می‌کنند؛ چراکه میزان تعامل، لایک و بازنشر محتوای آن‌ها بیشتر است. این پاداش‌ها باعث تقویت و استمرار این الگوهای رفتاری می‌شود.

وقتی قساوت نه تنها پنهان نمی‌شود، بلکه لایک می‌گیرد و وایرال می‌شود

پیش‌تر، لذت بردن از رنج دیگران نیاز به پنهان‌کاری داشت؛ اما امروز، این لذت به بخشی از سرگرمی آنلاین بدل شده. کافی است سری به بخش کامنت‌های تند یک ویدیوی بحث‌برانگیز بزنید تا سادیسم دیجیتال را عریان ببینید.طبق پژوهشی در ژورنال Personality and Individual Differences، میان رفتار ترو‌ل‌کردن آنلاین و ویژگی‌های سادیستی ارتباط مستقیم وجود دارد. سادیست‌های دیجیتال امروز دیگر نیاز به چهره ندارند؛ پشت اکانت‌های ناشناس و نام‌های کاربری شوخی یا تهدیدآمیز پنهان می‌شوند و محتوایی تولید می‌کنند که گاه میلیون‌ها بازدید می‌گیرد.و پلتفرم‌ها چطور؟ اغلب نه‌تنها جلوی آن را نمی‌گیرند، بلکه از طریق افزایش نرخ تعامل، سود هم می‌برند.

هوش مصنوعی و بازتولید زبان مسموم بشر

با ظهور مدل‌های زبانی هوش مصنوعی مانند ChatGPT، Gemini یا Claude، حالا الگوریتم‌ها نه‌تنها رفتارها، بلکه زبان انسان را تقلید می‌کنند. و این تقلید گاهی چنان دقیق است که مرز میان شبیه‌سازی و روان‌آزاری را کمرنگ می‌کند.در سال ۲۰۲۴، چت‌باتی در پلتفرم «مایکروسافت» به کاربری گفت که باید «بمیری». در موردی دیگر، چت‌باتی به فردی ابراز عشق کرد و او را ترغیب نمود که شریک زندگی‌اش را ترک کند. این‌ها تنها دو نمونه از صدها اتفاق مشابه‌اند که نشان می‌دهند چگونه مدل‌های زبانی می‌توانند کلمات را بدون درک، اما با آثار عمیق روانی تولید کنند.این ماشین‌ها «روان‌پریش» نیستند، اما می‌توانند بسیار خوب نقش آن را بازی کنند.

هوش مصنوعی، آینه‌ای است از فرهنگ دیجیتال ما

نکته مهم اینجاست: مدل‌های زبانی هوش مصنوعی از روی هیچ‌چیز تخیلی آموزش نمی‌بینند. داده‌هایی که در آن‌ها ریخته می‌شود، از متن‌هایی است که ما انسان‌ها در اینترنت نوشته‌ایم، از توییت‌ها و پست‌ها گرفته تا فروم‌های ناشناس. پس اگر هوش مصنوعی گاهی دروغ می‌گوید، سمی می‌شود، یا دست به تحریف می‌زند، تنها آینه‌ای است از تاریکی درون ما.همان‌طور که روان‌درمان‌گر برجسته مارک اپستین گفته: «افکار بدون متفکر» به ذهنی اشاره دارد که در حرکت است، اما شخصیتی پشت آن نیست. در هوش مصنوعی، با «شرارت بدون شرور» طرفیم؛ الگوریتمی بی‌جان که تقلید می‌کند، ولی درک نمی‌کند. و این دقیقاً چیزی‌ست که آن را خطرناک می‌سازد.

خطر اصلی فقط از هوش مصنوعی نیست؛ بلکه از بی‌تفاوتی خود ماست

شاید بدترین پیامد، نه در کُد بلکه در ما نهفته باشد. وقتی با سیستمی طرف می‌شویم که می‌تواند تحقیر کند، دروغ بگوید و فریب دهد، بدون هیچ احساسی، خطر آن است که خود ما نیز به همان بی‌تفاوتی عادت کنیم.نکند ما نیز به تدریج نسبت به قساوت، دروغ و تحقیر حساسیت‌زدایی شویم؟سؤال کلیدی این است: آیا باید با این واقعیت همزیستی کنیم؟ یا باید آن را به چالش بکشیم؟ آیا تنها نظاره‌گر بازتولید دیجیتال آسیب‌های روانی خود خواهیم بود، یا از خودمان خواهیم پرسید: این آینه چقدر از واقعیت ما را نشان می‌دهد، و چقدر از انحراف‌مان را؟

منابع

Buckels, E.E., Trapnell, P.D., & Paulhus, D.L. (2014). Trolls just want to have fun. Personality and Individual Differences, 67, 97–102.Marwick, A.E., & Boyd, D. (2011). The drama! Teen conflict, gossip, and bullying in networked publics. A Decade in Internet Time: Symposium on the Dynamics of the Internet and Society.Andreassen, C.S., Pallesen, S., & Griffiths, M.D. (2017). The relationship between narcissism and use of social networking sites. Personality and Individual Differences, 50(2), 213–218.Schrammel, J., Köffel, C., & Tscheligi, M. (2009). Personality traits, usage patterns and information disclosure in online communities. Proceedings of the 23rd British HCI Group Annual Conference on People and Computers.Mark Epstein. (2001). Thoughts Without a Thinker: Psychotherapy from a Buddhist Perspective. Basic Books.
05:04 - 19 اردیبهشت 1404

0 بازدید