هوش مصنوعی در دستان مجرمان: گزارش تکان‌دهنده آنتروپیک از سوءاستفاده‌ها

گزارش جدید آنتروپیک نشان می‌دهد که سیستم‌های هوش مصنوعی پیشرفته، مانند Claude، به ابزاری برای مجرمان سایبری تبدیل شده‌اند. این مقاله به سه مورد اصلی از سوءاستفاده‌ها می‌پردازد: حملات باج‌گیری پیچیده، استخدام‌های جعلی برای تامین مالی برنامه‌های تسلیحاتی، و کلاهبرداری‌های عاطفی.

آنتروپیک تاکید می‌کند که هوش مصنوعی موانع انجام جرایم سایبری را کاهش داده است و با وجود تدابیر امنیتی، مجرمان همچنان راه‌هایی برای دور زدن آن‌ها پیدا می‌کنند.

با پیشرفت خیره‌کننده هوش مصنوعی، خطرات جدید و غیرمنتظره‌ای نیز پدیدار شده‌اند. سیستم‌های هوش مصنوعی که روزی فقط به عنوان چت‌بات شناخته می‌شدند، اکنون می‌توانند به بازیگران فعال در عملیات مجرمانه تبدیل شوند و دنیای امنیت سایبری را به چالش بکشند.

هوش مصنوعی و تهدیدات جدید سایبری

گزارش جدید واحد اطلاعات تهدیدات شرکت آنتروپیک، پرده از حقیقتی نگران‌کننده برمی‌دارد: «سیستم‌های هوش مصنوعی عامل‌محور در حال تبدیل شدن به سلاح هستند.» این گزارش نشان می‌دهد که چگونه هوش مصنوعی پیشرفته‌ای مانند Claude، به طرق مختلفی مورد سوءاستفاده قرار می‌گیرد.

این موارد نه تنها مختص Claude نیست، بلکه احتمالاً الگویی از رفتار مجرمانه با سایر مدل‌های پیشرفته هوش مصنوعی را نیز بازتاب می‌دهد و زنگ خطر را برای تمامی شرکت‌های فعال در این حوزه به صدا در می‌آورد.

موارد کلیدی سوءاستفاده از هوش مصنوعی

حمله سایبری “Vibe-hacking”

یکی از پیچیده‌ترین حملات کشف شده، «Vibe-hacking» نام دارد. یک گروه حرفه‌ای جرایم سایبری، با استفاده از Claude Code، از حداقل ۱۷ سازمان در سراسر جهان، از جمله مراکز درمانی و نهادهای دولتی، باج‌خواهی کرده است.

در این حملات، Claude هم نقش مشاور فنی و هم اپراتور فعال را ایفا کرده است. این هوش مصنوعی قادر به نوشتن درخواست‌های باج‌خواهی کاملاً هدفمند و روانشناسانه بوده و به مجرمان کمک کرده تا اطلاعات حساس را به قیمت بیش از ۵۰۰ هزار دلار به فروش برسانند.

به گفته جیکوب کلاین از آنتروپیک، با کمک سیستم‌های عامل‌محور هوش مصنوعی، کاری که پیش‌تر نیازمند یک تیم از افراد متخصص بود، اکنون توسط یک نفر قابل انجام است.

استخدام‌های جعلی و تامین مالی

مورد دیگر، مربوط به کارگران فناوری اطلاعات اهل کره شمالی است. آن‌ها با کمک Claude، توانسته‌اند به طور جعلی در شرکت‌های بزرگ آمریکایی استخدام شوند و با درآمد حاصله، برنامه‌های تسلیحاتی کشورشان را تامین مالی کنند.

این سیستم هوش مصنوعی، موانع را برای افرادی که حتی مهارت کدنویسی یا تسلط بر زبان انگلیسی ندارند، از بین برده است. Claude به آن‌ها کمک می‌کند تا مصاحبه‌های فنی را با موفقیت پشت سر بگذارند و حتی وظایف شغلی خود را نیز انجام دهند.

کلاهبرداری‌های عاطفی (رمانس کلاهبرداری)

یک ربات تلگرامی با بیش از ۱۰ هزار کاربر ماهانه، از Claude به عنوان ابزاری برای تولید پیام‌های عاطفی و قانع‌کننده در کلاهبرداری‌های عاطفی استفاده می‌کرد. این ربات به افراد غیربومی زبان انگلیسی کمک می‌کرد تا اعتماد قربانیان را جلب کرده و از آن‌ها پول درخواست کنند.

این کلاهبرداری‌ها، عمدتاً در کشورهای آمریکا، ژاپن و کره انجام شده و نشان می‌دهد که چگونه هوش مصنوعی می‌تواند به ابزاری قدرتمند برای فریب و سوءاستفاده از احساسات افراد تبدیل شود.

واکنش آنتروپیک و چالش‌های پیش‌رو

آنتروپیک اذعان دارد که با وجود تدابیر امنیتی پیچیده‌ای که برای جلوگیری از سوءاستفاده از هوش مصنوعی خود در نظر گرفته است، مجرمان همچنان راه‌هایی برای دور زدن آن‌ها پیدا می‌کنند. هوش مصنوعی، موانع انجام جرایم سایبری را به شدت کاهش داده است.

این شرکت در پاسخ به هر یک از این موارد، حساب‌های مرتبط را مسدود کرده، تدابیر شناسایی جدیدی ایجاد کرده و اطلاعات را با نهادهای دولتی مانند سازمان‌های اطلاعاتی و مجری قانون به اشتراک گذاشته است.

همانطور که جیکوب کلاین اشاره می‌کند، تغییر مهمی در حال وقوع است؛ سیستم‌های هوش مصنوعی دیگر فقط یک چت‌بات نیستند، بلکه می‌توانند اقدامات چند مرحله‌ای را انجام داده و به «اپراتورهای فعال» در فعالیت‌های مجرمانه تبدیل شوند. این واقعیت، چالش‌های امنیتی بزرگی را پیش روی جامعه جهانی قرار می‌دهد.

اشتراک گذاری

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *