گزارش جدید آنتروپیک نشان میدهد که سیستمهای هوش مصنوعی پیشرفته، مانند Claude، به ابزاری برای مجرمان سایبری تبدیل شدهاند. این مقاله به سه مورد اصلی از سوءاستفادهها میپردازد: حملات باجگیری پیچیده، استخدامهای جعلی برای تامین مالی برنامههای تسلیحاتی، و کلاهبرداریهای عاطفی.
آنتروپیک تاکید میکند که هوش مصنوعی موانع انجام جرایم سایبری را کاهش داده است و با وجود تدابیر امنیتی، مجرمان همچنان راههایی برای دور زدن آنها پیدا میکنند.
با پیشرفت خیرهکننده هوش مصنوعی، خطرات جدید و غیرمنتظرهای نیز پدیدار شدهاند. سیستمهای هوش مصنوعی که روزی فقط به عنوان چتبات شناخته میشدند، اکنون میتوانند به بازیگران فعال در عملیات مجرمانه تبدیل شوند و دنیای امنیت سایبری را به چالش بکشند.
هوش مصنوعی و تهدیدات جدید سایبری
گزارش جدید واحد اطلاعات تهدیدات شرکت آنتروپیک، پرده از حقیقتی نگرانکننده برمیدارد: «سیستمهای هوش مصنوعی عاملمحور در حال تبدیل شدن به سلاح هستند.» این گزارش نشان میدهد که چگونه هوش مصنوعی پیشرفتهای مانند Claude، به طرق مختلفی مورد سوءاستفاده قرار میگیرد.
این موارد نه تنها مختص Claude نیست، بلکه احتمالاً الگویی از رفتار مجرمانه با سایر مدلهای پیشرفته هوش مصنوعی را نیز بازتاب میدهد و زنگ خطر را برای تمامی شرکتهای فعال در این حوزه به صدا در میآورد.
موارد کلیدی سوءاستفاده از هوش مصنوعی
حمله سایبری “Vibe-hacking”
یکی از پیچیدهترین حملات کشف شده، «Vibe-hacking» نام دارد. یک گروه حرفهای جرایم سایبری، با استفاده از Claude Code، از حداقل ۱۷ سازمان در سراسر جهان، از جمله مراکز درمانی و نهادهای دولتی، باجخواهی کرده است.
در این حملات، Claude هم نقش مشاور فنی و هم اپراتور فعال را ایفا کرده است. این هوش مصنوعی قادر به نوشتن درخواستهای باجخواهی کاملاً هدفمند و روانشناسانه بوده و به مجرمان کمک کرده تا اطلاعات حساس را به قیمت بیش از ۵۰۰ هزار دلار به فروش برسانند.
به گفته جیکوب کلاین از آنتروپیک، با کمک سیستمهای عاملمحور هوش مصنوعی، کاری که پیشتر نیازمند یک تیم از افراد متخصص بود، اکنون توسط یک نفر قابل انجام است.
استخدامهای جعلی و تامین مالی
مورد دیگر، مربوط به کارگران فناوری اطلاعات اهل کره شمالی است. آنها با کمک Claude، توانستهاند به طور جعلی در شرکتهای بزرگ آمریکایی استخدام شوند و با درآمد حاصله، برنامههای تسلیحاتی کشورشان را تامین مالی کنند.
این سیستم هوش مصنوعی، موانع را برای افرادی که حتی مهارت کدنویسی یا تسلط بر زبان انگلیسی ندارند، از بین برده است. Claude به آنها کمک میکند تا مصاحبههای فنی را با موفقیت پشت سر بگذارند و حتی وظایف شغلی خود را نیز انجام دهند.
کلاهبرداریهای عاطفی (رمانس کلاهبرداری)
یک ربات تلگرامی با بیش از ۱۰ هزار کاربر ماهانه، از Claude به عنوان ابزاری برای تولید پیامهای عاطفی و قانعکننده در کلاهبرداریهای عاطفی استفاده میکرد. این ربات به افراد غیربومی زبان انگلیسی کمک میکرد تا اعتماد قربانیان را جلب کرده و از آنها پول درخواست کنند.
این کلاهبرداریها، عمدتاً در کشورهای آمریکا، ژاپن و کره انجام شده و نشان میدهد که چگونه هوش مصنوعی میتواند به ابزاری قدرتمند برای فریب و سوءاستفاده از احساسات افراد تبدیل شود.
واکنش آنتروپیک و چالشهای پیشرو
آنتروپیک اذعان دارد که با وجود تدابیر امنیتی پیچیدهای که برای جلوگیری از سوءاستفاده از هوش مصنوعی خود در نظر گرفته است، مجرمان همچنان راههایی برای دور زدن آنها پیدا میکنند. هوش مصنوعی، موانع انجام جرایم سایبری را به شدت کاهش داده است.
این شرکت در پاسخ به هر یک از این موارد، حسابهای مرتبط را مسدود کرده، تدابیر شناسایی جدیدی ایجاد کرده و اطلاعات را با نهادهای دولتی مانند سازمانهای اطلاعاتی و مجری قانون به اشتراک گذاشته است.
همانطور که جیکوب کلاین اشاره میکند، تغییر مهمی در حال وقوع است؛ سیستمهای هوش مصنوعی دیگر فقط یک چتبات نیستند، بلکه میتوانند اقدامات چند مرحلهای را انجام داده و به «اپراتورهای فعال» در فعالیتهای مجرمانه تبدیل شوند. این واقعیت، چالشهای امنیتی بزرگی را پیش روی جامعه جهانی قرار میدهد.