خلاصه
کالیفرنیا از ۱۳ اکتبر ۲۰۲۵ قانونی تصویب کرد که توسعهدهندگان رباتهای گفتوگوی همراه (companion chatbots) را موظف میکند با اقداماتی شفاف، ایمنی ذهنی کاربران بهویژه کودکان را تأمین کنند.
مقدمه
با گسترش رباتهای هوش مصنوعی که نقش دوست یا مشاور را بازی میکنند، نگرانیها درباره تأثیر روانی آنها بر نوجوانان بالا گرفته است. قانون جدید کالیفرنیا اولین گام همگانی برای نظارت بر این فناوری است.
اصلیترین الزامات قانون SB 243
۱. اعلام صریح غیرانسانی بودن
اگر کاربر معمولی باور کند که با انسان صحبت میکند، باید اعلانی روشن دریافت کند که طرف مقابل فقط یک الگوریتم است.
۲. گزارش سالانه موارد خودکشی
از سال ۲۰۲۶، شرکتها باید هر سال به «اداره پیشگیری از خودکشی» گزارش دهند که چه تدابیری برای شناسایی و پاسخ به افکار خودکشی کاربران دارند.
۳. انتشار عمومی دادهها
اداره مذکور موظف است خلاصه گزارشها را روی وبسایت رسمی منتشر کند تا والدین و کارشناسان آگاه شوند.
سایر لوایح همزمان
در کنار SB 243، قانون SB 53 هم به امضا رسید که شفافیت کلی الگوریتمهای هوش مصنوعی را افزایش میدهد. همچنین قانونی جدید برای اعمال محدودیت سنی روی دستگاههای سختافزاری تصویب شد.
سیگنال جهانی
با تصویب این بسته قوانین، کالیفرنیا پیام روشن دولتیها را مخابره میکند: «نوآوری باید همراه مسئولیت باشد و ایمنی کودکان خط قرمز است.» انتظار میرود سایر ایالات و کشورها الگوبرداری مشابهی انجام دهند.
