گروه غرب از نگاه غرب خبرگزاری فارس: ماه گذشته هفدهمین سالگرد حملات یازدهم سپتامبر بود. با این حادثه وبال گردن جدیدی به سراغمان آمد: ما برای مدتی طولانی است در افغانستان حضور داریم که اگر کسی بعد از این حملات به دنیا آمده باشد، اکنون آنقدر بزرگ شده که بتواند در این جنگ حضور یابد. همچنین وی میتواند در شش جای دیگر که ما رسما در آنها در حال جنگ به سر می بریم خدمت کند، حال آن 133 کشوری که نیروهای عملیاتهای ویژه ما تنها در نیمه اول سال 2018 ماموریتهایی را در آنها انجام دادهاند به جای خود.
جنگهای یازدهم سپتامبر همچنان ادامه دارند و هیچ پایانی برای آنها در چشمانداز نیست. اکنون پنتاگون در حال سرمایهگذاری هنگفتی روی فناوریهایی است که این جنگها را تشدید خواهد کرد. با به کارگرفتن تازهترین ابزارهایی که صنعت فناوری عرضه میکند، ارتش آمریکا در حال ساخت شکل خودکارتری از جنگ است؛ شکلی که ظرفیت آن را برای به راه انداختن جنگ در هر جای زمین و برای همیشه به شدت افزایش خواهد داد.
روز جمعه مهلت مزایده وزارت دفاع برای یکی از بزرگترین قراردادهای فناوری در تاریخ این وزارتخانه یعنی «زیرساخت دفاعی سرمایهگذاری مشترک» (جدی) به پایان می رسد. جدی پروژهای جاهطلبانه برای ساخت سیستمهای محاسباتی ابری است که در سراسر جهان به خدمت نیروهای آمریکایی درخواهد آمد، از تجزیه و تحلیل پشت میز در ویرجینیا گرفته تا سربازان در حال گشتزنی در نیجر. این قرارداد ارزشی بالغ بر 10 میلیارد دلار در طول بیش از 10 سال دارد و به همین دلیل است که شرکتهای بزرگ فناوری با این شدت برای برنده شدن در آن تلاش می کنند. (جز گوگل که کارکنان آن طی کارزاری، با اعمال فشار به مدیریت این شرکت، گوگل را مجبور به کنارهگیری از این رقابت کردند.)
در نگاه اول جدی شاید چیزی شبیه یک پروژه نوسازی دیگر در حوزه فناوری اطلاعات به نظر آید. این حوزه در دولت بیشتر تمایل دارد با فاصلهای مناسب پشت سر سیلیکون ولی حرکت کند، حتی جایی برخوردار از بودجههای دست و دلبازانهای چون پنتاگون. جای پای دیجیتال وزارت دفاع با حدود 3 میلیون و 400 هزار کاربر و 4 میلیون وسیله بسیار بزرگ است. انتقال دادن حتی بخشی از این حجم کاری به یک تامینکننده خدمات ابری نظیر آمازون نیز بی شک کارآمدی آن را بهبود خواهد داد.
اما نیروی واقعی که جدی را به حرکت درمیآورد تمایل به تسلیحاتی کردن هوش مصنوعی است؛ چیزی که وزارت دفاع اندکاندک دارد آن را «رزم الگوریتمی» مینامد و با یکجا کردن دادههای نظامی در درون یک پلتفرم ابری مدرن و استفاده از خدمات یادگیری ماشینی که این قبیل پلتفرم ها برای تجزیه و تحلیل داده ها در اختیار میگذارند، جدی به پنتاگون کمک خواهد کرد تا جاهطلبیهای هوش مصنوعی خود را تحقق بخشد.
مقیاس این جاهطلبی با گذشت زمان در ماههای اخیر شفافتر شده است. در ماه ژوئن پنتاگون «مرکز اطلاعات مصنوعی مشترک» را تاسیس کرد که بر حدود 600 پروژه هوش مصنوعی که درحال حاضر با هزینهای یک میلیارد و 700 میلیون دلاری در سطح این وزارتخانه در دست اجراست، نظارت خواهد کرد و در ماه سپتامبر «سازمان پروژه های تحقیقات پیشترفته دفاعی» (دارپا) و پنتاگون با اعلام راهاندازی بخش تحقیق و توسعه اعلام کردند که این بخش مبلغی بالغ بر 2 میلیارد دلار را ظرف حدود پنج سال آینده در زمینه تحقیقات تسلیحاتی هوش مصنوعی سرمایهگذاری خواهد کرد.
تاکنون گزارشها در مورد ریختوپاشهای پنتاگون روی هوش مصنوعی عمدتا بر چشمانداز تسلیحات خودکار - رباتهای قاتل ترمیناتورمانندی که بدون هیچ ارتباطی با یک عامل انسانی انسانها را درو میکند - تمرکز داشته است. در واقع این سناریوی هولناکی برای آینده ای نزدیک است و اعمال نوعی ممنوعیت بینالمللی درمورد تسلیحات خودکار از نوعی که «کارزار متوقف کردن رباتهای قاتل» دنبال میکند، کاملا ضرورت دارد.
اما هوش مصنوعی قبلا شروع به بازنویسی معنای جنگ کرده است، حتی اگر (هنوز) شکل ترمیناتورهای به معنای واقعی را به خود نگرفته باشند. این فرایندها کمتر سینمایی هستند، اما به همان اندازه از راههای ترسناکی برای تسلیحاتی کردن هوش مصنوعی استفاده میکنند.
با یک بودجه نظامی در مجموع بیشتر از بودجههای نظامی چین، روسیه، عربستان سعودی، هند، فرانسه، بریتانیا و ژاپن و حدود 800 پایگاه در سراسر جهان، آمریکا از یک قدرت آتش بینظیر و توانایی بیمانند برای به کارگرفتن این قدرت آتش در هر جای کره زمین برخوردار است.
ارتش آمریکا میداند چطور بکشد. بخش سختتر کار فهمیدن این است که چه کسانی را باید کشت. در یک جنگ سنتیتر شما خیلی ساده دشمن را میکشید. اما در کشمکشی که هیچ مرز ملی در آن وجود ندارد، هیچ میدان جنگ ثابت و هیچ متخاصم متعارفی در آن وجود ندارد، چه کسی دشمن است؟
این پرسش کلیدی جنگ همیشگی است. همچنین یکی از مشخصات کلیدی طراحی آن است. ابهام در اینکه دشمن چیست، تداوم کشمکش را برای تقریبا دو دهه و گسترش آن را در بیش از 70 کشور امکانپذیر کرده است که مرحمتی است برای پیمانکاران، بروکراتها و سیاستمدارانی که زندگیشان را از قِبل نظامیگری آمریکایی میگذرانند. اگر جنگ یک شیادی باشد، به قول اسطوره نیروی دریایی اسمدلی باتلر، جنگ همیشگی یکی از طولانیترین این دغلکاریها تاکنون است.
اما مبهم بودن دشمن، چالشهای مشخصی را نیز به وجود میآورد. نگاه کردن به نقشهای از ویتنام شمالی و انتخاب مکانهایی برای بمب انداختن یک چیز است، اما حرکت در میان مقادیر عظیمی از اطلاعات از سراسر جهان برای شناسایی یک نامزد خوب برای انجام یک حمله پهپادی چیزی به کلی متفاوت است. وقتی که دشمن در همه جا باشد، شناسایی هدف بسیار بیشتر کار میبرد. اینجا همان جایی است که هوش مصنوعی - یا دقیقتر بگوییم یادگیری ماشینی- به میدان میآید. یادگیری ماشینی میتواند به خودکارسازی یکی از طاقتفرساترین و زمانبرترین جنبههای جنگ همیشگی یعنی یافتن کسانی که باید آنها را کشت، کمک کند.
پروژه ماون پنتاگون قبلا این ایده را به مرحله عمل گذاشته است. ماون که با عنوان «تیم کارکردی رزم الگوریتمی» نیز از آن یاد میشود، به تازگی بیشتر به این دلیل به عناوین خبری راه یافته که یک کارمند طغیانگر در گوگل در مورد دخالت این شرکت در این پروژه سخن گفته است. ماون پروژه هوش مصنوعی «پت فایندر» نیروی نظامی است. مرحله اولیه آن به استفاده از یادگیری ماشینی برای اسکن کردن فیلمهای ویدیویی تهیه شده توسط پهپادها برای کمک به شناسایی افراد، وسایل نقلیه و ساختمانهایی که ممکن است ارزش بمباران داشته باشند، مربوط میشود.
سرتیپ جک شاناهان مدیر این پروژه میگوید: «ما تحلیلگرانی داریم که با نگاه به کل ویدیوی درحال پخش هر بار شش، هفت، هشت، نه، ده، یا یازده ساعت به نمایشگرها زل میزنند.» نرمافزار ماون این کار را به طور خودکار انجا میدهد و بعد یافتههایش را به یک انسان منتقل میکند. تاکنون به کارگیری این برنامه توفیقات بزرگی به همراه داشته است: این نرمافزار در شش مکان جنگی در خاورمیانه و آفریقا به کارگرفته شده است. هدف این است که در نهایت این نرمافزار روی خود پهپادها بارگذاری شود تا آنها بتوانند در زمان واقعی اهداف را مکانیابی کنند.
آیا این فناوری دقت را بالا نمیبرد و در نتیجه تلفات غیرنظامیان را کاهش نمیدهد؟ این استدلال شایعی است که بالادستیها هم در پنتاگون و هم در سیلیکون ولی برای دفاع از همکاری خود در پروژههایی نظیر ماون مطرح میکنند. جن پالکا از «کدی برای آمریکا» با عبارت «کاردهای تیز» در برابر «کاردهای کند» به آن اشاره میکند: کاردهای تیزتر میتوانند به ارتش کمک کنند که جان انسانها را نجات دهد.
در مورد هوش مصنوعی تسلیحاتی شده اما این کاردهای مورد بحث به طورخاصی تیز نیستند. هیچ کمبودی در داستانهای ترسناکی وجود ندارد که نشان میدهند چه اتفاقی میافتد اگر نظارت انسانی به دلیل یک نقص یا الگوریتمهای دچار تبعیض شده - الگوریتمهایی که نمیتوانند چهرههای سیاه را تشخیص دهند یا در کارهای پلیسی و مجازاتهای جنایی سوگیریهای نژادی از خود نشان میدهند- از روی آنها برداشته شود. آیا واقعا میخواهیم پنتاگون از همین فناوری برای تعیین این استفاده کند که روی سرچه کسی باید بمب انداخت؟
اما مشکل عمیقتر این استدلال بشردوستانه برای رزم الگوریتمی، این فرض است که ارتش آمریکا ضرورتا نیرویی خیرخواهانه است. میلیونها تن در سراسر جهان چنین چیزی را قبول ندارند. تنها در سال 2017 حملات آمریکا و متحدانش در عراق و سوریه موجب کشته شدن تا 6 هزار غیرنظامی شدهاند. چنین ارقامی احتمالا نشانگر چند اشتباه صادقانه در اینجا و آنجا نیست، بلکه از یک بیتفاوتی سیستماتیک نسبت به «تلفات جانبی» خبر میدهند. در واقع دولت آمریکا مکررا گردهماییهای غیرنظامیان مثل مجالس عروسی را به این امید که بتواند یک هدف با ارزش بالا را به قتل برساند مورد بمباران قرار داده است.
بعلاوه مرز بین غیرنظامی و ستیزهجو در عصر جنگ همیشگی به شدت مخدوش شده است. یک گزارش از اینترسپت حکایت از این دارد که ارتش آمریکا هرکسی را که در حملات «هدفگیری شده» خود به قتل میرساند، با عنوان «دشمن کشته شده در حال اقدام» طبقهبندی میکند، حتی اگر یکی از این اهداف نباشند. این به اصطلاح «حملات امضایی» که از طرف ارتش آمریکا و سیا انجام میشوند، حقه مشابهی را در مورد مفهوم ستیزهجو به کار میبرند. اینها حملات پهپادی به افرادی با هویت شناخته شده نیستند، بلکه بر اساس مشاهده «امضاهایی» مشخص از کسانی که ظن آن میرود ستیزهجو باشند، انجام میشوند؛ امضاهای مبهمی که بسیار محتمل است مختصات مورد نظر را با چیزهایی مشابه اشتباه بگیرند؛ به عبارت دیگر، مشکل در کیفیت ابزارها نیست، بلکه در سازمانی است که آنها را تولید میکند و هوش مصنوعی تنها آن سازمان را بیرحمتر می کند. جنگ همیشگی اقتضا میکند که آمریکا دشمنان خود را در همهجا ببیند. هوش مصنوعی وعده میدهد که این دشمنان را سریعتر پیدا کند؛ حتی اگر تمام چیزی که یک دشمن تلقی میشود، مشاهده یک الگوی رفتاری باشد که یک مدل یادگیری ماشینی (طبقه بندی شده) آن را با فعالیتهای خصمانه مرتبط میکند. میتوانید این کار را مرگ به دست دادههای دیجیتال بزرگ بنامید.
هوش مصنوعی همچنین با دادن امتیازاتی به برخی از بزرگترین شرکتهای کشور برای استمرار بخشیدن به این جنگها، پتانسیل این را دارد که جنگ همیشگی را همیشگیتر کند. سیلیکون ولی همیشه ارتباطات نزدیکی با ارتش آمریکا داشته است، اما رزم الگوریتمی عمق بیشتری به رابطه شرکتهای بزرگ فناوری با مجموعه نظامی- صنعتی میدهد و به میلیاردرهایی چون جف بزوس انگیزهای قدرتمند میبخشد تا اطمینان حاصل کنند که جنگ همیشگی برای همیشه ادامه پیدا میکند. دشمنانی پیدا خواهند شد و پول هایی به جیب زده خواهد شد.
نویسنده: بن تارناف (Ben Tarnoff) روزنامه نگار ساکن نیویورک
منبع: yon.ir/7LEIf
انتهای پیام/