خلاصه
OpenAI، Anthropic و دیگر شرکتهای پیشرو در AI که زمانی استفاده نظامی را ممنوع کرده بودند، حالا قراردادهای ۲۰۰ میلیون دلاری با وزارت دفاع آمریکا بستهاند و مستقیماً فناوری تولیدیشان را به جنگافزارهای خودران میفروشند. در این گفتوگو، هیدی خلاف، دانشمند ارشد AI در موسسه AI Now، توضیح میدهد که این چرخش چه خطراتی برای امنیت جهانی دارد و چرا شرکتها در ارزیابی ریسک سیستمهای تولیدیشان عجولانه عمل میکنند.
مقدمه
فقط در سه سال، شرکتهایی که شعار «اخلاقمحوری» میدادند حالا مستقیماً در زنجیره تولید سلاحهای هوشمند قرار گرفتهاند. این مقاله مرور سریعی است بر آنچه در پادکست «Decoder» بررسی شد.
سابقه همکاری OpenAI با بخش نظامی
هیدی خلاف از اواخر ۲۰۲۰ تا می ۲۰۲۱ مهندس ارشد ایمنی سیستم در OpenAI بود. در همان زمان، تیم او چارچوبهای ارزیابی ریسک برای ابزار کدنویسی Codex را نوشت.
لغو ممنوعیت استفاده نظامی
اوایل ۲۰۲۴ OpenAI بند «ممنوعیت کاربری نظامی و جنگی» را از شرایط استفادهاش حذف کرد. این اقدام در ظرف چند ماه منجر به:
- امضای قرارداد با Anduril، سازنده پهپادهای خودران
- قرارداد ۲۰۰ میلیون دلاری با وزارت دفاع آمریکا در ژوئن ۲۰۲۴
رقبا هم به میدان آمدند
Anthropic
که همیشه خود را «ایمنترین آزمایشگاه AI» معرفی میکرد، حالا:
- مدلهایش را از طریق Palantir در اختیار اطلاعات و عملیات دفاعی آمریکا قرار داده
- قرارداد ۲۰۰ میلیون دلاری جداگانه با DoD دارد
غولهای فناوری
Amazon، Google و Microsoft نیز محصولات AI خود را برای اهداف نظامی تبلیغ میکنند، با وجود اعتراضات درونی کارمندان.
دلایل چرخش ناگهانی
- درآمد تضمینی: بودجههای دولتی چندین برابر سرمایهگذاری خصوصی است.
- رقابت ژئوپلیتیک: نگرانی از پیشیگرفتن چین در AI نظامی.
- فشار سهامداران: نیاز به یافتن بازارهای جدید پس از رشد کند مصرفکننده.
خطرهای بالقوه
سوءاستفاده بدافزارها
مدلهای تولید کد میتوانند سرعت نوشتن بدافزارهای هدفمند را چندبرابر کنند.
سلاحهای CBRN
هیدی خلاف هشدار میدهد که AI ممکن است مراحل طراحی تسلیحات شیمیایی، بیولوژیک، رادیولوژیک یا هستهای را ساده کند.
کاهش زمان تصمیمگیری انسانی
سیستمهای خودران که بدون واسطه انسان شلیک میکنند، احتمال درگیری تصادفی یا غیرقابل کنترل را بالا میبرند.
نتیجهگیری
شرکتهای AI دیگر «فقط ابزار میسازند»؛ آنها اکنون بخشی از زنجیره تسلیحات هستند. بدون نظارت شفاف و الزامات ایمنی الزامی، هر خطای الگوریتم میتواند به فاجعهای انسانی تبدیل شود.
