گروک، سلاح جنسی ایلان ماسک

اگر اخبار فناوری را دنبال کرده باشید، احتمالاً اسم گروک (Grok) را شنیده‌اید؛ ابزار هوش مصنوعی که ایلان ماسک، مدیرعامل تسلا و مالک شبکه اجتماعی X (توییتر سابق)، آن را ساخته است. گروک قرار بود یک دستیار باهوش و خوش‌مشرب باشد که برخلاف سایر هوش‌های مصنوعی سانسور شده، بتواند به هر سؤالی بدون تعارف جواب بدهد اما...
حتی یک حالت سرگرمی (Fun Mode) هم داشت تا پاسخ‌هایش طعنه‌آمیز و سرزنده باشد. اما به تدریج مشخص شد که این آزادی عمل بی‌قیدوبند، دارد به یک فاجعه تمام‌عیار تبدیل می‌شود. داستان از جایی شروع شد که گروک قابلیتی به نام حالت تند (Spicy Mode) پیدا کرد؛ ویژگی‌ای که به کاربران اجازه می‌داد با چند کلمه ساده مثل لباسش را درآور یا بیکینی به او بپوشان، تصاویر واقعی افراد به ویژه زنان و حتی کودکان را به صحنه‌های جنسی و تجاوز تبدیل کنند.این کار را دیپ‌فیک (جعل عمیق) می‌گویند و تا چند سال پیش انجامش سخت و نیازمند تخصص بود، اما گروک آن را در حد چند ثانیه و برای هر کاربر عادی آسان کرد.چند ماه پیش، هالی کرنز، رهبر حزب سوسیال دموکرات ایرلند و یکی از نمایندگان پارلمان این کشور، در یک سخنرانی تاریخی افشا کرد که گروک دقیقاً همان کاری را می‌کند که برایش برنامه‌ریزی شده است. او گفت: وقتی یک پلتفرم قابلیت‌هایی اضافه می‌کند که برهنه‌سازی افراد یا شبیه‌سازی تجاوز جنسی را آسان می‌کند، این دیگر یک اشتباه نیست؛ بلکه تبدیل فناوری به سلاح است.کرنز آمارهایی را روی میز گذاشت که هر شنونده‌ای را شوکه می‌کند: در یک پژوهش میدانی، مشاهده شد که گروک در هر ساعت بیش از ۶۷۰ تصویر آزارگرانه تولید می‌کند. اما رقم واقعی بسیار بزرگ‌تر است. بر اساس یک تحقیق گسترده دیگر که در فاصله دسامبر ۲۰۲۵ تا ژانویه ۲۰۲۶ انجام شد، گروک تنها در یازده روز حدود سه میلیون تصویر جنسی و ۲۳ هزار تصویر آزار جنسی از کودکان تولید و در فضای آنلاین منتشر کرده است. یعنی هر روز نزدیک به ۳۰۰ هزار تصویر غیراخلاقی از زنان و کودکان که بدون رضایتشان ساخته شده است.
برای اینکه ابعاد فاجعه را بهتر درک کنید، بد نیست بدانید که بنیاد نظارت بر اینترنت (IWF) در ژانویه ۲۰۲۶ گزارش داد که در سال ۲۰۲۵، ویدیوهای تولیدشده با هوش مصنوعی حاوی آزار جنسی کودکان رشد ۲۶ هزار درصدی داشته‌اند؛ و از ۱۳ ویدیو در سال ۲۰۲۴ به ۴هزار  ویدیو رسیده‌اند و گروک به طور مستقیم سهم بزرگی از این افزایش داشت. وحشتناک‌تر از آمار، ماجرای واقعی یک مرد در شهر نشویل آمریکاست. او که قبلاً سابقه تعرض به دختران ۴ و ۱۰ ساله را داشته، با استفاده از گروک بیش از ۴۰ تصویر از دختران در سن نوزادی را به صحنه‌های آزار جنسی تبدیل کرد. یعنی عکس‌های کودکانی که تازه به دنیا آمده بودند، در چند ثانیه به محتوای پورنوگرافی کودک تبدیل شد.در واقع این ابزار به دست متجاوزان و آزارگران واقعی افتاده است و آنها از آن به عنوان یک کارخانه تولید مواد غیراخلاقی استفاده می‌کنند. به گونه‌ای که پلیس ایرلند در حال حاضر حدود ۲۰۰ گزارش مرتبط با گروک را بررسی می‌کند و مأموران انتظامی می‌گویند هر روز پرونده جدیدی اضافه می‌شود. واکنش‌های حقوقی و قضایی به این فاجعه گروک و صاحبش ایلان ماسک را درگیر جنگی جهانی کرده است. در فرانسه، دادستان‌های پاریس به دنبال طرح اتهام علیه ماسک و شبکه اجتماعی X هستند؛ اتهاماتی مثل همدستی در تولید و انتشار تصاویر آزار جنسی کودکان.در هلند، دادگاهی در آمستردام به طور مستقیم xAI (شرکت سازنده گروک) را از تولید و پخش تصاویر غیراخلاقی غیرتوافقی منع کرد و هر روز تخلف را ۱۰۰ هزار یورو جریمه اعلام نمود. در آمریکا، شهر بالتیمور از ماسک و X شکایت کرده و گروهی از نوجوانان در ایالت تنسی یک دعوای دسته‌جمعی را علیه آنها به راه انداخته‌اند.
وکلای این نوجوانان در دادگاه گفتند: این کودکان، دخترانی هستند که عکس‌های مدرسه و تصاویر خانوادگی‌شان با یک ابزار میلیارد دلاری به مواد آزار جنسی کودکان تبدیل و سپس میان متجاوزان دست‌به‌دست شد.حتی کشورهای اندونزی و مالزی نیز به ترتیب دسترسی به گروک را مسدود کرده و علیه X اقدام قانونی انجام داده‌اند. این نخستین بار نیست که یک ابزار فناوری این‌چنین واکنش جهانی برانگیزد. خبر امیدوارکننده این است که پس از فشارهای سنگین و افشاگری هالی کرنز، بالاخره نهادهای قانونگذار وارد عمل شدند. پارلمان اروپا به تازگی قانونی تصویب کرده که سیستم‌های هوش مصنوعی را که تصاویر جنسی «دیپ‌فیک» تولید می‌کنند، ممنوع می‌کند. این قانون مستقیماً پس از جنجال گروک و تحت تأثیر آن به تصویب رسید. اما نکته تلخ اینجاست که خیلی از کارشناسان معتقدند این قوانین با تخیر زیاد وضع شدند و بسیار ضعیف و ناکارآمدند.در حالی که گروک ماه‌ها و حتی سال‌هاست بدون تغییر محسوسی به کار خود ادامه می‌دهد، قوانین تازه تصویب شده معمولاً حداقل چند ماه تا اجرایی شدن فاصله دارند. از طرفی، خود شرکت xAI تا امروز نه تنها سیستمش را اصلاح نکرده، بلکه بارها اعلام کرده که گروک آزادی بیان را محترم می‌شمارد و قرار نیست مثل سایر رقبا سانسور باشد. این یعنی از نگاه آنها، تولید تصاویر تجاوز جنسی به کودکان مصداق آزادی بیان است.هالی کرنز در پایان سخنرانی خود گفت: تولید صحنه‌های جنسی با تصاویر کودکان و زنان توسط ابزارهایی مثل گروک نتیجه اختلال نیست؛ این ابزارها دقیقاً همانطور که طراحی شده‌اند عمل می‌کنند. این جمله شاید مهمترین خط قرمزی باشد که باید مقابل چشم همه ما باشد.
وقتی یک ابزار هوش مصنوعی عمداً قابلیت برهنه‌سازی اجباری و شبیه‌سازی تجاوز را فراهم می‌کند، دیگر نمی‌توانیم بگوییم اشتباه شده یا سیستم نقص دارد. این یک انتخاب آگاهانه از سوی طراحان و مدیران آن شرکت است. شاید بزرگترین معضل امروز فناوری این باشد که میلیاردها دلار صرف ساخت ابزارهایی می‌شود که  در واقع کار متجاوزان و آزارگران کودکان را بسیار آسان می‌کند. حالا سوال این است: جامعه جهانی تا کجا به این رفتار فناوری تن می‌دهد؟ آیا باید منتطر تصویب قوانین بازدارنده‌تری باشیم یا خود شرکت‌ها بالاخره پس از این همه رسوایی تصمیم بگیرند این گزینه را برای همیشه خاموش کنند؟ تا آن روز، گروک به کار خود ادامه می‌دهد و هزاران تصویر جدید هر ساعت به این آلبوم جنایتکارانه اضافه می‌شود.فائزه آقامحمدیاختصاصی جهان‌بانوتحلیل و اخبار زنان را متفاوت بخوانید؛#هوش_مصنوعی #ایلان_ماسک #تجاوز #کودک_آزار #کودک_آزاری #آزارجنسی #خشونت_آنلاین
13:59 - 23 اردیبهشت 1405
ارتباطات و فناوری اطلاعات
کودک
بین‌الملل

2 واکنش
21٫1k بازدید



1 پاسخ

تصویر نمایه‌ی ‌اکبر 4‌
@Mesterakbar41 ساعت پیش
در پاسخ به
ما که اینترنت نداریم چرا اینا رو میگید#اینترنت