آنتروپیک: داده‌های چت و کد شما برای آموزش هوش مصنوعی استفاده می‌شود؛ راهنمای انصراف

آنتروپیک، سازنده هوش مصنوعی کلود، سیاست داده‌های خود را به‌روزرسانی کرده است. از این پس، داده‌های چت و کد کاربران عادی برای آموزش مدل‌های هوش مصنوعی استفاده شده و تا پنج سال ذخیره می‌شوند، مگر اینکه کاربر تا ۲۸ سپتامبر از این امکان انصراف دهد. این تغییر برای تمامی کاربران رایگان و اشتراکی کلود اعمال می‌شود و باید به‌صورت فعال تصمیم‌گیری کنند.

شرکت آنتروپیک، سازنده مدل هوش مصنوعی کلود، تغییرات مهمی در سیاست‌های حریم خصوصی خود اعمال کرده است. این تغییرات به نحوه استفاده و ذخیره‌سازی داده‌های کاربران مربوط می‌شود و مستلزم تصمیم‌گیری از سوی شماست. در این مقاله، جزئیات این به‌روزرسانی‌ها و نحوه مدیریت تنظیمات حریم خصوصی‌تان را بررسی می‌کنیم تا اطلاعاتتان ایمن بماند.

آنتروپیک و سیاست جدید داده‌ها

شرکت آنتروپیک تصمیم گرفته است از این پس داده‌های کاربران خود را برای آموزش مدل‌های هوش مصنوعی استفاده کند. این داده‌ها شامل مکالمات جدید و جلسات برنامه‌نویسی شما می‌شوند.

علاوه بر این، سیاست نگهداری داده‌ها نیز تغییر کرده و اطلاعات شما تا پنج سال ذخیره خواهند شد. همه این تغییرات، مگر اینکه شما از آن‌ها انصراف دهید، اعمال می‌شوند.

زمان‌بندی و مهلت تصمیم‌گیری

کاربران تا تاریخ ۲۸ سپتامبر فرصت دارند تا تصمیم خود را در مورد این تغییرات اعلام کنند. اگر دکمه “پذیرش” را بزنید، بلافاصله آنتروپیک شروع به استفاده از داده‌های شما برای آموزش مدل‌ها و ذخیره آن‌ها می‌کند.

چگونگی اعمال سیاست

این به‌روزرسانی فقط برای چت‌ها و جلسات برنامه‌نویسی “جدید یا از سر گرفته شده” اعمال می‌شود. مکالمات قبلی که ادامه پیدا نکرده‌اند، تحت پوشش این سیاست نیستند.

اما اگر یک چت یا جلسه برنامه‌نویسی قدیمی را از سر بگیرید، داده‌های آن نیز مشمول این تغییرات خواهند شد.

سرویس‌های مشمول

این به‌روزرسانی‌ها تمامی سطوح اشتراک مصرف‌کنندگان کلود را در بر می‌گیرد:

  • نسخه‌های رایگان کلود (Claude Free)
  • نسخه‌های حرفه‌ای کلود (Claude Pro)
  • نسخه‌های حداکثری کلود (Claude Max)
  • استفاده از Claude Code در حساب‌های مرتبط با این طرح‌ها

سرویس‌های غیرمشمول

سرویس‌های تجاری آنتروپیک شامل این تغییرات نیستند:

  • Claude Gov
  • Claude for Work
  • Claude for Education
  • استفاده از API (از طریق پلتفرم‌هایی مانند Amazon Bedrock و Google Cloud’s Vertex AI)

نحوه تصمیم‌گیری کاربران

برای کاربران جدید

کاربران جدید باید هنگام ثبت‌نام در کلود، ترجیح خود را در مورد اشتراک‌گذاری داده‌ها انتخاب کنند.

برای کاربران فعلی

کاربران فعلی یک پنجره پاپ‌آپ مشاهده خواهند کرد که در آن می‌توانند تصمیم بگیرند. شما می‌توانید فعلاً با کلیک روی “بعداً” این تصمیم را به تعویق بیندازید، اما تا ۲۸ سپتامبر باید انتخاب نهایی خود را انجام دهید.

نکته مهم: پیش‌فرض موافقت است!

بسیاری از کاربران ممکن است بدون خواندن دقیق، به سرعت دکمه “پذیرش” را بزنند. پاپ‌آپ به وضوح اعلام می‌کند: “به‌روزرسانی شرایط و سیاست‌های مصرف‌کننده”.

یک دکمه بزرگ “پذیرش” در پایین وجود دارد و در زیر آن، متنی کوچک‌تر نوشته شده: “اجازه استفاده از چت‌ها و جلسات برنامه‌نویسی شما برای آموزش و بهبود مدل‌های هوش مصنوعی آنتروپیک”.

مهم‌تر اینکه، گزینه اجازه استفاده از داده‌ها به صورت پیش‌فرض “روشن” است. این یعنی اگر بدون تغییر این گزینه، فقط دکمه “پذیرش” را بزنید، با استفاده از داده‌هایتان موافقت کرده‌اید.

نحوه انصراف

هنگام مشاهده پاپ‌آپ

اگر می‌خواهید انصراف دهید، هنگام مشاهده پاپ‌آپ، باید کلید مربوط به “اجازه استفاده از چت‌ها و جلسات برنامه‌نویسی شما برای آموزش و بهبود مدل‌های هوش مصنوعی آنتروپیک” را روی “خاموش” قرار دهید.

بعد از پذیرش تصادفی

اگر ناخواسته موافقت کرده‌اید، می‌توانید به بخش “تنظیمات” (Settings) بروید. سپس روی تب “حریم خصوصی” (Privacy) کلیک کنید و در بخش “تنظیمات حریم خصوصی” (Privacy Settings)، گزینه “کمک به بهبود کلود” (Help improve Claude) را به “خاموش” تغییر دهید.

محدودیت‌های انصراف

می‌توانید هر زمان که خواستید تصمیم خود را از طریق تنظیمات حریم خصوصی تغییر دهید. اما این تغییر فقط بر داده‌های “آینده” اعمال می‌شود. داده‌هایی که قبلاً سیستم با آن‌ها آموزش دیده است، قابل بازگشت نیستند.

تعهد آنتروپیک به حریم خصوصی

آنتروپیک اعلام کرده است که برای محافظت از حریم خصوصی کاربران، از ابزارها و فرآیندهای خودکار برای فیلتر یا پنهان‌سازی اطلاعات حساس استفاده می‌کند. همچنین، آن‌ها اطلاعات کاربران را به اشخاص ثالث نمی‌فروشند.

دیدگاه‌ خود را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *