گروک، سلاح جنسی ایلان ماسک
اگر اخبار فناوری را دنبال کرده باشید، احتمالاً اسم گروک (Grok) را شنیدهاید؛ ابزار هوش مصنوعی که ایلان ماسک، مدیرعامل تسلا و مالک شبکه اجتماعی X (توییتر سابق)، آن را ساخته است. گروک قرار بود یک دستیار باهوش و خوشمشرب باشد که برخلاف سایر هوشهای مصنوعی سانسور شده، بتواند به هر سؤالی بدون تعارف جواب بدهد اما...
حتی یک حالت سرگرمی (Fun Mode) هم داشت تا پاسخهایش طعنهآمیز و سرزنده باشد. اما به تدریج مشخص شد که این آزادی عمل بیقیدوبند، دارد به یک فاجعه تمامعیار تبدیل میشود. داستان از جایی شروع شد که گروک قابلیتی به نام حالت تند (Spicy Mode) پیدا کرد؛ ویژگیای که به کاربران اجازه میداد با چند کلمه ساده مثل لباسش را درآور یا بیکینی به او بپوشان، تصاویر واقعی افراد به ویژه زنان و حتی کودکان را به صحنههای جنسی و تجاوز تبدیل کنند.این کار را دیپفیک (جعل عمیق) میگویند و تا چند سال پیش انجامش سخت و نیازمند تخصص بود، اما گروک آن را در حد چند ثانیه و برای هر کاربر عادی آسان کرد.چند ماه پیش، هالی کرنز، رهبر حزب سوسیال دموکرات ایرلند و یکی از نمایندگان پارلمان این کشور، در یک سخنرانی تاریخی افشا کرد که گروک دقیقاً همان کاری را میکند که برایش برنامهریزی شده است. او گفت: وقتی یک پلتفرم قابلیتهایی اضافه میکند که برهنهسازی افراد یا شبیهسازی تجاوز جنسی را آسان میکند، این دیگر یک اشتباه نیست؛ بلکه تبدیل فناوری به سلاح است.کرنز آمارهایی را روی میز گذاشت که هر شنوندهای را شوکه میکند: در یک پژوهش میدانی، مشاهده شد که گروک در هر ساعت بیش از ۶۷۰ تصویر آزارگرانه تولید میکند. اما رقم واقعی بسیار بزرگتر است. بر اساس یک تحقیق گسترده دیگر که در فاصله دسامبر ۲۰۲۵ تا ژانویه ۲۰۲۶ انجام شد، گروک تنها در یازده روز حدود سه میلیون تصویر جنسی و ۲۳ هزار تصویر آزار جنسی از کودکان تولید و در فضای آنلاین منتشر کرده است. یعنی هر روز نزدیک به ۳۰۰ هزار تصویر غیراخلاقی از زنان و کودکان که بدون رضایتشان ساخته شده است.
برای اینکه ابعاد فاجعه را بهتر درک کنید، بد نیست بدانید که بنیاد نظارت بر اینترنت (IWF) در ژانویه ۲۰۲۶ گزارش داد که در سال ۲۰۲۵، ویدیوهای تولیدشده با هوش مصنوعی حاوی آزار جنسی کودکان رشد ۲۶ هزار درصدی داشتهاند؛ و از ۱۳ ویدیو در سال ۲۰۲۴ به ۴هزار ویدیو رسیدهاند و گروک به طور مستقیم سهم بزرگی از این افزایش داشت. وحشتناکتر از آمار، ماجرای واقعی یک مرد در شهر نشویل آمریکاست. او که قبلاً سابقه تعرض به دختران ۴ و ۱۰ ساله را داشته، با استفاده از گروک بیش از ۴۰ تصویر از دختران در سن نوزادی را به صحنههای آزار جنسی تبدیل کرد. یعنی عکسهای کودکانی که تازه به دنیا آمده بودند، در چند ثانیه به محتوای پورنوگرافی کودک تبدیل شد.در واقع این ابزار به دست متجاوزان و آزارگران واقعی افتاده است و آنها از آن به عنوان یک کارخانه تولید مواد غیراخلاقی استفاده میکنند. به گونهای که پلیس ایرلند در حال حاضر حدود ۲۰۰ گزارش مرتبط با گروک را بررسی میکند و مأموران انتظامی میگویند هر روز پرونده جدیدی اضافه میشود. واکنشهای حقوقی و قضایی به این فاجعه گروک و صاحبش ایلان ماسک را درگیر جنگی جهانی کرده است. در فرانسه، دادستانهای پاریس به دنبال طرح اتهام علیه ماسک و شبکه اجتماعی X هستند؛ اتهاماتی مثل همدستی در تولید و انتشار تصاویر آزار جنسی کودکان.در هلند، دادگاهی در آمستردام به طور مستقیم xAI (شرکت سازنده گروک) را از تولید و پخش تصاویر غیراخلاقی غیرتوافقی منع کرد و هر روز تخلف را ۱۰۰ هزار یورو جریمه اعلام نمود. در آمریکا، شهر بالتیمور از ماسک و X شکایت کرده و گروهی از نوجوانان در ایالت تنسی یک دعوای دستهجمعی را علیه آنها به راه انداختهاند.
وکلای این نوجوانان در دادگاه گفتند: این کودکان، دخترانی هستند که عکسهای مدرسه و تصاویر خانوادگیشان با یک ابزار میلیارد دلاری به مواد آزار جنسی کودکان تبدیل و سپس میان متجاوزان دستبهدست شد.حتی کشورهای اندونزی و مالزی نیز به ترتیب دسترسی به گروک را مسدود کرده و علیه X اقدام قانونی انجام دادهاند. این نخستین بار نیست که یک ابزار فناوری اینچنین واکنش جهانی برانگیزد. خبر امیدوارکننده این است که پس از فشارهای سنگین و افشاگری هالی کرنز، بالاخره نهادهای قانونگذار وارد عمل شدند. پارلمان اروپا به تازگی قانونی تصویب کرده که سیستمهای هوش مصنوعی را که تصاویر جنسی «دیپفیک» تولید میکنند، ممنوع میکند. این قانون مستقیماً پس از جنجال گروک و تحت تأثیر آن به تصویب رسید. اما نکته تلخ اینجاست که خیلی از کارشناسان معتقدند این قوانین با تخیر زیاد وضع شدند و بسیار ضعیف و ناکارآمدند.در حالی که گروک ماهها و حتی سالهاست بدون تغییر محسوسی به کار خود ادامه میدهد، قوانین تازه تصویب شده معمولاً حداقل چند ماه تا اجرایی شدن فاصله دارند. از طرفی، خود شرکت xAI تا امروز نه تنها سیستمش را اصلاح نکرده، بلکه بارها اعلام کرده که گروک آزادی بیان را محترم میشمارد و قرار نیست مثل سایر رقبا سانسور باشد. این یعنی از نگاه آنها، تولید تصاویر تجاوز جنسی به کودکان مصداق آزادی بیان است.هالی کرنز در پایان سخنرانی خود گفت: تولید صحنههای جنسی با تصاویر کودکان و زنان توسط ابزارهایی مثل گروک نتیجه اختلال نیست؛ این ابزارها دقیقاً همانطور که طراحی شدهاند عمل میکنند. این جمله شاید مهمترین خط قرمزی باشد که باید مقابل چشم همه ما باشد.
وقتی یک ابزار هوش مصنوعی عمداً قابلیت برهنهسازی اجباری و شبیهسازی تجاوز را فراهم میکند، دیگر نمیتوانیم بگوییم اشتباه شده یا سیستم نقص دارد. این یک انتخاب آگاهانه از سوی طراحان و مدیران آن شرکت است. شاید بزرگترین معضل امروز فناوری این باشد که میلیاردها دلار صرف ساخت ابزارهایی میشود که در واقع کار متجاوزان و آزارگران کودکان را بسیار آسان میکند. حالا سوال این است: جامعه جهانی تا کجا به این رفتار فناوری تن میدهد؟ آیا باید منتطر تصویب قوانین بازدارندهتری باشیم یا خود شرکتها بالاخره پس از این همه رسوایی تصمیم بگیرند این گزینه را برای همیشه خاموش کنند؟ تا آن روز، گروک به کار خود ادامه میدهد و هزاران تصویر جدید هر ساعت به این آلبوم جنایتکارانه اضافه میشود.فائزه آقامحمدیاختصاصی جهانبانوتحلیل و اخبار زنان را متفاوت بخوانید؛#هوش_مصنوعی #ایلان_ماسک #تجاوز #کودک_آزار #کودک_آزاری #آزارجنسی #خشونت_آنلاین 13:59 - 23 اردیبهشت 1405