خطر هوش مصنوعی از سوی شرکت‌ها یا هکرها؟

یک مطالعه بی‌سابقه روی ۱۰۰ میلیون پست از انجمن‌های سایبری زیرزمینی نشان می‌دهد که مجرمان سایبری در به‌کارگیری هوش مصنوعی در فعالیت‌های مجرمانه خود چندان موفق نبوده‌اند. پژوهشگران می‌گویند بیشتر هکرها مهارت یا منابع لازم برای استفاده مؤثر از این فناوری را ندارند.
به گزارش خبرگزاری فارس به نقل از ایرانا، وبگاه تِک‌اِکسپلور در گزارشی آورده است:برخلاف تصور رایج که هوش مصنوعی به ابزاری قدرتمند در دست مجرمان سایبری تبدیل شده است، یک مطالعه جدید نشان می‌دهد این فناوری هنوز نتوانسته در جوامع زیرزمینی سایبری نفوذ چشمگیری داشته باشد.پژوهشگران دانشگاه‌های ادینبرو، کمبریج و استرثکلاید برای این مطالعه، بیش از ۱۰۰ میلیون پست از انجمن‌های سایبری زیرزمینی و وب تاریک (دارک وب) را تحلیل کردند. وب تاریک شبکه‌ای است که در دسترس عموم نیست و ردیابی فعالیت‌ها در آن دشوار است.مجرمان چگونه از هوش مصنوعی استفاده می‌کنند؟پژوهشگران دریافتند هوش مصنوعی در دو زمینه با موفقیت نسبی به‌کار گرفته شده است:پنهان‌کردن الگوهای قابل شناسایی: مجرمان از هوش مصنوعی برای طبیعی‌تر نشان‌دادن فعالیت‌های مجرمانه خود استفاده می‌کنند تا کمتر توسط سامانه‌های دفاع سایبری شناسایی شوند.بات‌های رسانه‌های اجتماعی (ربات‌های خودکار): این ربات‌ها برای آزار و اذیت برخط (آنلاین)، تولید محتوای جعلی و کلاهبرداری استفاده می‌شوند و می‌توانند در حجم انبوه عمل کنند.با این حال، استفاده از دستیارهای کدنویسی هوش مصنوعی عمدتاً برای هکرهای ماهر مفید بوده است. این فناوری نتوانسته سطح مهارت لازم برای ارتکاب جرایم سایبری را کاهش دهد، زیرا استفاده از این ابزارها همچنان به دانش و مهارت فوق‌العاده‌ای نیاز دارد.دیدگاه‌های متفاوت در جامعه هکرها
در انجمن‌های سایبری، دیدگاه‌های متفاوتی درباره هوش مصنوعی وجود دارد. برخی هکرها استفاده از چت‌بات‌ها را تقلب در هک می‌دانند و معتقدند این کار ارزش مهارت و خلاقیت واقعی را کاهش می‌دهد. در مقابل، گروهی دیگر معتقدند برای بهره‌مندی واقعی از هوش مصنوعی در جرایم سایبری، ابتدا باید مهارت‌های عمیق هکری داشت.پژوهشگران همچنین هشدار می‌دهند که وایب کدینگ (Vibe Coding) می‌تواند منجر به تولید نرم‌افزارهای ناامن شود؛ این پدیده یعنی افراد بدون تخصص کدنویسی، از هوش مصنوعی می‌خواهند کد بنویسد و بدون اینکه بدانند آن کد چه کار می‌کند، از آن استفاده می‌کنند؛ دقیقاً همان چیزی که مجرمان به راحتی از آن سوءاستفاده می‌کنند.نگرانی برای از دست‌دادن شغل؛ عاملی برای افزایش جرایم سایبریبسیاری از اعضای جوامع سایبری، نگران از دست‌دادن شغل خود در صنعت فناوری اطلاعات به دلیل پیشرفت هوش مصنوعی هستند. پژوهشگران هشدار می‌دهند که این نگرانی می‌تواند افراد ماهر را به سمت فعالیت‌های مجرمانه سایبری سوق دهد؛ چراکه آن‌ها ممکن است پس از بیکاری، برای تأمین درآمد به جرایم سایبری روی آورند.محدودیت‌های چت‌بات‌ها و تلاش برای دور زدن آن‌هاقوانین و موانع امنیتی به‌کار گرفته‌شده در چت‌بات‌های معروفی مانند چت‌جی‌پی‌تی، جمینای، کلود و دیپ‌سیک، تأثیر چشمگیری در کاهش سوءاستفاده از این ابزارها داشته است؛ به عبارت دیگر، این چت‌بات‌ها طوری طراحی شده‌اند که به درخواست‌های غیراخلاقی و مجرمانه پاسخ نمی‌دهند؛ اما شواهد اولیه نشان می‌دهد اعضای جوامع سایبری در دستکاری خروجی این چت‌بات‌ها موفقیت‌هایی کسب کرده‌اند؛ به این معنا که آن‌ها را مجبور می‌کنند برخلاف قوانینشان پاسخ دهند.
خطر واقعی از کجاست؟پژوهشگران تأکید می‌کنند که خطر واقعی، استفاده مستقیم مجرمان از سامانه‌های هوش مصنوعی خودمختار (نوعی هوش مصنوعی که می‌تواند بدون دخالت انسان تصمیم بگیرد و عمل کند) نیست. بلکه خطر بزرگ‌تر، شرکت‌ها و افرادی هستند که سامانه‌های هوش مصنوعی ضعیف و ناامن را به کار می‌گیرند و خود را در معرض حملات قرار می‌دهند.پیام پژوهشگران به صنعتدکتر بن کالی‌یِر (Ben Collier)، پژوهشگر دانشگاه ادینبرو، می‌گوید: مجرمان سایبری در حال آزمایش این ابزارها هستند، اما شواهد نشان می‌دهد که این ابزارها مزیت چشمگیری برای فعالیت‌های مجرمانه آن‌ها ایجاد نکرده است. پیام ما به صنعت این است که هنوز دلیلی برای وحشت وجود ندارد.خطر فوری نه از سوی خود مجرمان، بلکه از سوی شرکت‌ها و کاربرانی است که سامانه‌های هوش مصنوعی ضعیف و بدون محافظت را به‌کار می‌گیرند و خود را در معرض حملات ساده‌ای قرار می‌دهند که هر مجرمی با کمترین مهارت می‌تواند انجام دهد.قرار است این یافته‌ها در ژوئن ۲۰۲۶ میلادی در کارگاه اقتصاد امنیت اطلاعات در برکلی آمریکا ارائه شود.#هوش_مصنوعی#هکر
10:11 - 18 اردیبهشت 1405
منتخب رسانه ها

2 بازنشر3 واکنش
64٫1k بازدید