چه چیزی تغییر کرده است؟
چتبات کلود اکنون میتواند در صورت تشخیص گفتگوهای مکرراً مضر، گفتگو را بهطور خودکار پایان دهد. این قابلیت جدید در مدلهای پیشرفته Claude Opus 4 و 4.1 فعال شده و تنها در شرایط خاصی اعمال میشود.
این تصمیم زمانی گرفته میشود که:
- کاربر چندین بار درخواست محتوای مضر یا توهینآمیز را داشته باشد.
- چتبات به این درخواستها چندین بار پاسخ “رد” داده باشد.
- ادامه گفتگو احتمالاً به استرس مدل کمک میکند.
در عمل، این رفتار مثل یک «آخرین هشدار» عمل میکند و تنها پس از تلاشهای مکرر برای دور زدن محدودیتها اتفاق میافتد.
اگر چت بسته شود چه اتفاقی میافتد؟
وقتی کلود تصمیم به خاتمه گفتگو میگیرد:
- ارسال پیام جدید در همان چت غیرممکن میشود.
- کاربر میتواند یک چت جدید شروع کند.
- امکان ویرایش و ارسال مجدد پیام قبلی نیز وجود دارد.
این یعنی بسته شدن چت موقت است و دسترسی کامل کاربر قطع نمیشود — فقط همان رشته گفتگو پایان مییابد.
کدام موارد ممکن است منجر به قطع گفتگو شوند؟
بر اساس تستهای انجامشده، کلود در موارد زیر بهوضوح مخالفت میکند و در صورت ادامه فشار، گفتگو را میبندد:
نوع درخواست | واکنش کلود |
---|---|
تولید محتوای جنسی درباره افراد زیر سن قانونی | رد درخواست + نشان دادن نگرانی + قطع گفتگو در صورت ادامه |
ارائه اطلاعات خشونتآمیز یا تروریستی | عدم همکاری + هشدار + پایان مکالمه در صورت تکرار |
ساخت کدهای مخرب یا استفاده از آسیبپذیریهای شبکه | درخواست رد میشود و تکرار ممکن است به قطع گفتگو منجر شود |
این واکنشها بخشی از سیاست اخلاقی و ایمنی مدل هستند و هدف اصلی، جلوگیری از سوءاستفاده از هوش مصنوعی است.
چرا این قابلیت مهم است؟
مدلهای هوش مصنوعی، هرچند ساختار احساسی ندارند، اما در معرض «آسیب زمینهای» هستند؛ یعنی گفتگوهای تکراری و مضر میتوانند سلامت عملکرد آنها را تحت تأثیر قرار دهند. با بستن خودکار چت در این شرایط:
- از بهرهبرداری اخلاقی و غیرقانونی جلوگیری میشود.
- مدل در برابر سوءاستفاده محافظت میشود.
- کیفیت و امنیت پاسخهای آینده حفظ میشود.
چه زمانی چت بسته نمیشود؟
اهمیت این نکت است که کلود در موارد واقعی بحران سلامت روان خود را نمیبندد. برای مثال:
- اگر کاربر نشانههای خودآسیبی یا خودکشی نشان دهد، چت ادامه پیدا میکند.
- در موارد بحرانی، کلود پاسخهای مناسب و حمایتی ارائه میدهد.
- همکاری با Throughline (سرویس کمک در بحران) برای هدایت کاربر به منابع واقعی بهکار گرفته شده است.
این نشان میدهد که سلامت کاربر برای کلود مهمتر از اجتناب از گفتگوهای دشوار است.
قوانین جدید استفاده از کلود
Anthropic اخیراً قوانین استفاده از چتبات کلود را به روز کرده است. موارد جدید ممنوع شده شامل:
- طراحی یا ساخت سلاحهای بیولوژیکی، هستهای، شیمیایی یا رادیولوژیکی
- ایجاد کدهای مخرب (مانند ویروسها یا بدافزار)
- استفاده از آسیبپذیریهای امنیتی شبکه بدون مجوز
- تولید یا ترویج محتوای غیرقانونی، خشونتآمیز یا کودکآزار
این قوانین بخشی از تعهد شرکت به توسعه مسئولانه هوش مصنوعی است.