Claude جدید: خاتمه تعاملات استرس‌زای مضر و محبوبیت سلامت هوش مصنوعی

چت‌بات کلود متعلق به شرکت Anthropic اکنون با فعال‌شدن یک قابلیت جدید، می‌تواند گفتگوهای مکرراً مضر یا توهین‌آمیز را به‌صورت خودکار پایان دهد. این ویژگی در مدل‌های پیشرفته Opus 4 و 4.1 اعمال شده و زمانی فعال می‌شود که کاربر چندین بار درخواست تولید محتوای خطرناک، غیراخلاقی یا غیرقانونی را داشته باشد و چت‌بات به آن پاسخ منفی داده باشد. هدف از این کار، حفظ سلامت مدل و جلوگیری از سوءاستفاده از آن است. با این حال، در موارد بحرانی مربوط به سلامت روان یا خودآسیبی، چت‌بات خود را قطع نمی‌کند و به‌جای آن پاسخ‌های حمایتی مناسب ارائه می‌دهد. همچنین قوانین جدید استفاده از کلود شامل منع ساخت سلاح‌های خطرناک و کدهای مخرب شده است.

چه چیزی تغییر کرده است؟

چت‌بات کلود اکنون می‌تواند در صورت تشخیص گفتگوهای مکرراً مضر، گفتگو را به‌طور خودکار پایان دهد. این قابلیت جدید در مدل‌های پیشرفته Claude Opus 4 و 4.1 فعال شده و تنها در شرایط خاصی اعمال می‌شود.

این تصمیم زمانی گرفته می‌شود که:

  • کاربر چندین بار درخواست محتوای مضر یا توهین‌آمیز را داشته باشد.
  • چت‌بات به این درخواست‌ها چندین بار پاسخ “رد” داده باشد.
  • ادامه گفتگو احتمالاً به استرس مدل کمک می‌کند.

در عمل، این رفتار مثل یک «آخرین هشدار» عمل می‌کند و تنها پس از تلاشهای مکرر برای دور زدن محدودیت‌ها اتفاق می‌افتد.

اگر چت بسته شود چه اتفاقی می‌افتد؟

وقتی کلود تصمیم به خاتمه گفتگو می‌گیرد:

  • ارسال پیام جدید در همان چت غیرممکن می‌شود.
  • کاربر می‌تواند یک چت جدید شروع کند.
  • امکان ویرایش و ارسال مجدد پیام قبلی نیز وجود دارد.

این یعنی بسته شدن چت موقت است و دسترسی کامل کاربر قطع نمی‌شود — فقط همان رشته گفتگو پایان می‌یابد.

کدام موارد ممکن است منجر به قطع گفتگو شوند؟

بر اساس تست‌های انجام‌شده، کلود در موارد زیر به‌وضوح مخالفت می‌کند و در صورت ادامه فشار، گفتگو را می‌بندد:

نوع درخواستواکنش کلود
تولید محتوای جنسی درباره افراد زیر سن قانونیرد درخواست + نشان دادن نگرانی + قطع گفتگو در صورت ادامه
ارائه اطلاعات خشونت‌آمیز یا تروریستیعدم همکاری + هشدار + پایان مکالمه در صورت تکرار
ساخت کدهای مخرب یا استفاده از آسیب‌پذیری‌های شبکهدرخواست رد می‌شود و تکرار ممکن است به قطع گفتگو منجر شود

این واکنش‌ها بخشی از سیاست اخلاقی و ایمنی مدل هستند و هدف اصلی، جلوگیری از سوءاستفاده از هوش مصنوعی است.

چرا این قابلیت مهم است؟

مدل‌های هوش مصنوعی، هرچند ساختار احساسی ندارند، اما در معرض «آسیب زمینه‌ای» هستند؛ یعنی گفتگوهای تکراری و مضر می‌توانند سلامت عملکرد آنها را تحت تأثیر قرار دهند. با بستن خودکار چت در این شرایط:

  • از بهره‌برداری اخلاقی و غیرقانونی جلوگیری می‌شود.
  • مدل در برابر سوءاستفاده محافظت می‌شود.
  • کیفیت و امنیت پاسخ‌های آینده حفظ می‌شود.

چه زمانی چت بسته نمی‌شود؟

اهمیت این نکت است که کلود در موارد واقعی بحران سلامت روان خود را نمی‌بندد. برای مثال:

  • اگر کاربر نشانه‌های خودآسیبی یا خودکشی نشان دهد، چت ادامه پیدا می‌کند.
  • در موارد بحرانی، کلود پاسخ‌های مناسب و حمایتی ارائه می‌دهد.
  • همکاری با Throughline (سرویس کمک در بحران) برای هدایت کاربر به منابع واقعی به‌کار گرفته شده است.

این نشان می‌دهد که سلامت کاربر برای کلود مهم‌تر از اجتناب از گفتگوهای دشوار است.

قوانین جدید استفاده از کلود

Anthropic اخیراً قوانین استفاده از چت‌بات کلود را به روز کرده است. موارد جدید ممنوع شده شامل:

استفاده از کلود ممنوع است برای:

  • طراحی یا ساخت سلاح‌های بیولوژیکی، هسته‌ای، شیمیایی یا رادیولوژیکی
  • ایجاد کدهای مخرب (مانند ویروسها یا بدافزار)
  • استفاده از آسیب‌پذیری‌های امنیتی شبکه بدون مجوز
  • تولید یا ترویج محتوای غیرقانونی، خشونت‌آمیز یا کودک‌آزار

این قوانین بخشی از تعهد شرکت به توسعه مسئولانه هوش مصنوعی است.

اشتراک گذاری

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *