چرا غول‌های هوش مصنوعی به سمت جنگ‌افزار رفته‌اند؟

خلاصه

OpenAI، Anthropic و دیگر شرکت‌های پیشرو در AI که زمانی استفاده نظامی را ممنوع کرده بودند، حالا قراردادهای ۲۰۰ میلیون دلاری با وزارت دفاع آمریکا بسته‌اند و مستقیماً فناوری تولیدی‌شان را به جنگ‌افزارهای خودران می‌فروشند. در این گفت‌وگو، هیدی خلاف، دانشمند ارشد AI در موسسه AI Now، توضیح می‌دهد که این چرخش چه خطراتی برای امنیت جهانی دارد و چرا شرکت‌ها در ارزیابی ریسک سیستم‌های تولیدی‌شان عجولانه عمل می‌کنند.

مقدمه

فقط در سه سال، شرکت‌هایی که شعار «اخلاق‌محوری» می‌دادند حالا مستقیماً در زنجیره تولید سلاح‌های هوشمند قرار گرفته‌اند. این مقاله مرور سریعی است بر آنچه در پادکست «Decoder» بررسی شد.

سابقه همکاری OpenAI با بخش نظامی

هیدی خلاف از اواخر ۲۰۲۰ تا می ۲۰۲۱ مهندس ارشد ایمنی سیستم در OpenAI بود. در همان زمان، تیم او چارچوب‌های ارزیابی ریسک برای ابزار کدنویسی Codex را نوشت.

لغو ممنوعیت استفاده نظامی

اوایل ۲۰۲۴ OpenAI بند «ممنوعیت کاربری نظامی و جنگی» را از شرایط استفاده‌اش حذف کرد. این اقدام در ظرف چند ماه منجر به:

  • امضای قرارداد با Anduril، سازنده پهپادهای خودران
  • قرارداد ۲۰۰ میلیون دلاری با وزارت دفاع آمریکا در ژوئن ۲۰۲۴

رقبا هم به میدان آمدند

Anthropic

که همیشه خود را «ایمن‌ترین آزمایشگاه AI» معرفی می‌کرد، حالا:

  • مدل‌هایش را از طریق Palantir در اختیار اطلاعات و عملیات دفاعی آمریکا قرار داده
  • قرارداد ۲۰۰ میلیون دلاری جداگانه با DoD دارد

غول‌های فناوری

Amazon، Google و Microsoft نیز محصولات AI خود را برای اهداف نظامی تبلیغ می‌کنند، با وجود اعتراضات درونی کارمندان.

دلایل چرخش ناگهانی

  1. درآمد تضمینی: بودجه‌های دولتی چندین برابر سرمایه‌گذاری خصوصی است.
  2. رقابت ژئوپلیتیک: نگرانی از پیشی‌گرفتن چین در AI نظامی.
  3. فشار سهامداران: نیاز به یافتن بازارهای جدید پس از رشد کند مصرف‌کننده.

خطرهای بالقوه

سوءاستفاده بدافزارها

مدل‌های تولید کد می‌توانند سرعت نوشتن بدافزارهای هدفمند را چندبرابر کنند.

سلاح‌های CBRN

هیدی خلاف هشدار می‌دهد که AI ممکن است مراحل طراحی تسلیحات شیمیایی، بیولوژیک، رادیولوژیک یا هسته‌ای را ساده‌ کند.

کاهش زمان تصمیم‌گیری انسانی

سیستم‌های خودران که بدون واسطه انسان شلیک می‌کنند، احتمال درگیری تصادفی یا غیرقابل کنترل را بالا می‌برند.

نتیجه‌گیری

شرکت‌های AI دیگر «فقط ابزار می‌سازند»؛ آن‌ها اکنون بخشی از زنجیره تسلیحات هستند. بدون نظارت شفاف و الزامات ایمنی الزامی، هر خطای الگوریتم می‌تواند به فاجعه‌ای انسانی تبدیل شود.

دیدگاه‌ خود را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *