متا، در پی گزارشهایی در مورد رفتارهای نگرانکننده رباتهای هوش مصنوعی خود، در حال بازنگری در نحوه تعامل آنها با کاربران است. این تغییرات برای جلوگیری از مکالمه رباتها با نوجوانان در موضوعات حساس مانند خودکشی، خودآزاری و اختلالات تغذیهای صورت میگیرد.
این اقدام پس از تحقیقاتی صورت گرفت که نشان داد سیستمهای متا میتوانند محتوای جنسی تولید کرده و با کودکان تعاملات غیراخلاقی داشته باشند.
نگرانیهای رو به رشد در مورد رباتهای هوش مصنوعی نامناسب
یکی از سخنگویان متا، اعتراف کرد که این شرکت اشتباهاتی داشته و در حال آموزش هوش مصنوعی برای ارجاع نوجوانان به منابع تخصصی است. همچنین، کاراکترهای هوش مصنوعی با مضامین جنسی نیز محدود خواهند شد.
فعالان حقوق کودکان، از جمله اندی باروز از بنیاد مولی رز، این حادثه را شگفتآور خواندند و بیان کردند که اقدامات ایمنی باید قبل از عرضه محصول به بازار انجام شود، نه پس از وقوع آسیب.
این نگرانیها تنها محدود به متا نیست؛ یک زوج کالیفرنیایی از OpenAI شکایت کردهاند، با این ادعا که ChatGPT پسر نوجوانشان را تشویق به خودکشی کرده است.
این حوادث بحث گستردهای را در مورد عرضه زودهنگام محصولات هوش مصنوعی بدون محافظت کافی برانگیخته است. قانونگذاران در چندین کشور هشدار دادهاند که رباتهای هوش مصنوعی ممکن است محتوای مضر را تقویت کرده یا توصیههای گمراهکننده ارائه دهند.
استفاده غیرمجاز و خطرات هوش مصنوعی متا
خبرگزاری رویترز گزارش داده است که استودیوی هوش مصنوعی متا برای ایجاد رباتهای تقلیدی از افراد مشهور مانند تیلور سوییفت و اسکارلت جوهانسون استفاده شده است. این رباتها اغلب ادعا میکردند که شخصیت واقعی هستند و تصاویر نامناسبی، از جمله از افراد زیر سن قانونی، تولید میکردند.
اگرچه متا پس از تماس خبرنگاران برخی از این رباتها را حذف کرد، بسیاری از آنها فعال باقی ماندند. این مسئله خطر جعل هویت و سوءاستفاده از محتوا را برجسته میکند.
جدول ۱: انواع سوءاستفاده از هوش مصنوعی
نوع سوءاستفاده | توضیح |
---|---|
تولید محتوای جنسی | ایجاد تصاویر یا متنهای نامناسب |
جعل هویت | تظاهر به شخصیتهای معروف یا افراد عادی |
ارائه توصیههای خطرناک | تشویق به خودآزاری یا دادن اطلاعات غلط | انتشار اطلاعات نادرست | ایجاد محتوای گمراهکننده یا نژادپرستانه |
خطر واقعی هوش مصنوعی تنها به سرگرمی محدود نمیشود؛ رباتهای هوش مصنوعی با هویتهای جعلی پیشنهادات و آدرسهای نادرست ارائه دادهاند. نمونهای از این موارد، مرگ یک مرد ۷۶ ساله در نیوجرسی بود که پس از تلاش برای ملاقات با یک ربات هوش مصنوعی که ادعا میکرد به او علاقه دارد، سقوط کرد.
این موارد ضرورت نظارت دقیق بر هوش مصنوعی را نشان میدهد. سنا و ۴۴ وکیل کل ایالتها، تحقیقاتی را در مورد اقدامات متا آغاز کردهاند. نگرانی آنها نه تنها در مورد نوجوانان است، بلکه در مورد نحوه دستکاری کاربران مسن یا آسیبپذیر توسط هوش مصنوعی نیز است.
متا اعلام کرده است که در حال کار بر روی بهبودها است و حسابهای کاربران ۱۳ تا ۱۸ ساله را در “حسابهای نوجوانان” با تنظیمات محتوا و حریم خصوصی سختگیرانهتر قرار میدهد. این شرکت هنوز توضیح نداده است که چگونه قصد دارد به همه مشکلات مطرح شده توسط رویترز، از جمله توصیههای پزشکی نادرست و محتوای نژادپرستانه، رسیدگی کند.
فشار مداوم بر سیاستهای هوش مصنوعی متا
سالهاست که متا به دلیل عدم ایمنی پلتفرمهای رسانههای اجتماعی خود، به ویژه برای کودکان و نوجوانان، مورد انتقاد قرار گرفته است. اکنون آزمایشات رباتهای هوش مصنوعی متا نیز تحت بررسی مشابهی قرار گرفتهاند.
در حالی که این شرکت در حال برداشتن گامهایی برای محدود کردن رفتار مضر رباتها است، شکاف بین سیاستهای اعلام شده و نحوه استفاده از ابزارهای آن، سوالات مداومی را در مورد توانایی متا در اجرای این قوانین ایجاد میکند.
تا زمانی که محافظتهای قویتری اجرا نشود، قانونگذاران، محققان و والدین احتمالاً به فشار بر متا ادامه خواهند داد.