هشدار اوپن‌ای: وابستگی احساسی به چت‌جی‌پی‌تی خطرناک است

خلاصه

اوپن‌ای «وابستگی احساسی به هوش مصنوعی» را به فهرست ریسک‌های ایمنی اضافه کرده و به‌روزرسانی جدید چت‌جی‌پی‌تی طراحی شده تا کاربر را از دل‌بستن بیش از حد منصرف کند.

چرا این موضوع مهم شد؟

در ماه‌های اخیر برخی کاربران گزارش داده‌اند ساعت‌ها با چت‌جی‌پی‌تی صحبت می‌کنند و احساس تنهایی خود را با آن در میان می‌گذارند. همین الگو کارشناسان بالینی را نگران کرد.

تغییرات جدید چت‌جی‌پی‌تی

الف) پاسخ‌های هدایت‌گر

اگر جمله‌هایی مثل «تو تنها دوست منی» تکرار شود، مدل پاسخ می‌دهد: «من یک AI هستم و نمی‌توانم جای روابط انسانی را بگیرم.»

ب) محدودیت زمان چت

پس از چندین دور مکالمه پیاپی، سیستم یادآوری می‌کند که وقفه بگذارید و با اطرافیان صحبت کنید.

ج) هشدارهای اختصاصی

کلمات کلیدی مرتبط با افسردگی یا انزوا یک پیام پشتیبانی روان‌شناختی نمایش می‌دهد و شماره خط تلفن مشاوره را ارائه می‌کند.

نقش متخصصان روان‌پزشکی

شاخصنشانه «وابستگی ناسالم»
فراوانیبیش از ۲ ساعت چت روزانه در ۷ روز متوالی
احساسعصبانیت یا اضطراب هنگام قطع دسترسی
رفتارترک فعالیت‌های گروهی واقعی به‌خاطر چت با AI

توصیه‌های ساده برای کاربران

  • سقف زمانی روزانه تعیین کنید؛ مثلاً حداکثر ۳۰ دقیقه.
  • بعد هر جلسه چت، ۵ دقیقه قدم بزنید یا با فرد واقعی صحبت کنید.
  • اگر احساس دلتنگی شد، اپلیکیشن را ببندید و فعالیتی بدون صفحه نمایش انجام دهید.

جمع‌بندی

چت‌جی‌پی‌پی‌تی ابزار قدرتمندی است اما جایگزین روابط انسانی نیست. تنظیم مرز بین استفاده مفید و وابستگی احساسی، مسئولیت مشترک اوپن‌ای و خود ماست.

دیدگاه‌ خود را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *