خلاصه
بیش از ۲۰۰ رئیسجمهور پیشین، دیپلمات، برنده جایزه نوبل و رهبران برجسته هوش مصنوعی با امضای «فراخوان جهانی برای خط قرمزهای هوش مصنوعی» خواستار رسیدن کشورها به یک توافق سیاسی بینالمللی تا پایان ۲۰۲۶ شدهاند تا فناوریهای هوش مصنوعی از خطوط قرمزی مانند تقلید از انسان یا خودتکثیری عبور نکنند.
مقدمه
هوش مصنوعی سریعتر از پیشبینیها پیش میرود؛ همین سرعت نگرانیها را هم افزایش داده است. حالا گروهی جهانی میگویند باید قبل از بروز فاجعه، توافقی جهانی برای «نبایدهای مطلق AI» امضا شود.
چه کسانی امضا کردهاند؟
- جفری هینتون، پدر یادگیری عمیق
- ویچخ زارِمبا، بنیانگذار اوپنآی
- ایان گودفِلو، دانشمند گوگل دیپمایند
- جیسون کلینتون، مدیر امنیت انترپیک
- ۷۰ سازمان تخصصی AI
دو خط قرمز اصلی
۱. ممنوعیت تقلید از انسان
هوش مصنوعی نباید بتواند هویت انسانی بگیرد یا کاربر را در این باره فریب دهد.
۲. ممنوعیت خودتکثیری
سیستمها حق ندارند بدون دخالت انسان نسخههای جدیدی از خود بسازند یا کد خود را بازنویسی کنند.
چرا تا ۲۰۲۶؟
برگزارکنندگان میگویند فرصت کم است؛ اگر اکنون توافق نشود، ریسکهای غیرقابل جبران در مقیاس جهانی رخ خواهد داد. زمان برگزینی اجلاس سران سازمان ملل هم فرصت مناسبی برای تصمیمگیری است.
مخالفت با استدلال «مانع نوآوری»
استوارت راسل، استاد برجسته UC Berkeley، تأکید میکند: «میتوان از AI برای توسعه اقتصادی بهره برد بدون آنکه AGH خطرناک و کنترلناپذیر ساخت.» او مقایسه میکند: مانند صنعت هستهای، ابتدا باید ایمنی را تضمین کرد و بعد گسترش داد.
گام بعدی چیست؟
فعالان میگویند تعهدات داوطلبانه شرکتها کافی نیست؛ نهاد جهانی مستقل با اختیار نظارت و مجازات لازم است تا خط قرمزها را تعریف، رصد و اجرا کند.
جمعبندی
با امضای این بیانیه، جامعه جهانی پیام روشنی فرستاده: ایمنی عمومی بر نوآوری بیمحابا مقدم است. حالا نوبت دولتهاست که تا ۲۰۲۶ روی «نبایدهای مطلق» توافق کنند و مانع بروز خطرهای بزرگ شوند.
