فراخوان جهانی برای تعیین خط قرمزهای هوش مصنوعی: ۲۰۰ چهره برجسته خواستار توافق بین‌المللی شدند

خلاصه

بیش از ۲۰۰ رئیس‌جمهور پیشین، دیپلمات، برنده جایزه نوبل و رهبران برجسته هوش مصنوعی با امضای «فراخوان جهانی برای خط قرمزهای هوش مصنوعی» خواستار رسیدن کشورها به یک توافق سیاسی بین‌المللی تا پایان ۲۰۲۶ شده‌اند تا فناوری‌های هوش مصنوعی از خطوط قرمزی مانند تقلید از انسان یا خودتکثیری عبور نکنند.

مقدمه

هوش مصنوعی سریع‌تر از پیش‌بینی‌ها پیش می‌رود؛ همین سرعت نگرانی‌ها را هم افزایش داده است. حالا گروهی جهانی می‌گویند باید قبل از بروز فاجعه، توافقی جهانی برای «نبایدهای مطلق AI» امضا شود.

چه کسانی امضا کرده‌اند؟

  • جفری هینتون، پدر یادگیری عمیق
  • وی‌چخ زارِمبا، بنیان‌گذار اوپن‌آی
  • ایان گودفِلو، دانشمند گوگل دیپ‌مایند
  • جیسون کلینتون، مدیر امنیت انترپیک
  • ۷۰ سازمان تخصصی AI

دو خط قرمز اصلی

۱. ممنوعیت تقلید از انسان

هوش مصنوعی نباید بتواند هویت انسانی بگیرد یا کاربر را در این باره فریب دهد.

۲. ممنوعیت خودتکثیری

سیستم‌ها حق ندارند بدون دخالت انسان نسخه‌های جدیدی از خود بسازند یا کد خود را بازنویسی کنند.

چرا تا ۲۰۲۶؟

برگزارکنندگان می‌گویند فرصت کم است؛ اگر اکنون توافق نشود، ریسک‌های غیرقابل جبران در مقیاس جهانی رخ خواهد داد. زمان برگزینی اجلاس سران سازمان ملل هم فرصت مناسبی برای تصمیم‌گیری است.

مخالفت با استدلال «مانع نوآوری»

استوارت راسل، استاد برجسته UC Berkeley، تأکید می‌کند: «می‌توان از AI برای توسعه اقتصادی بهره برد بدون آنکه AGH خطرناک و کنترل‌ناپذیر ساخت.» او مقایسه می‌کند: مانند صنعت هسته‌ای، ابتدا باید ایمنی را تضمین کرد و بعد گسترش داد.

گام بعدی چیست؟

فعالان می‌گویند تعهدات داوطلبانه شرکت‌ها کافی نیست؛ نهاد جهانی مستقل با اختیار نظارت و مجازات لازم است تا خط قرمزها را تعریف، رصد و اجرا کند.

جمع‌بندی

با امضای این بیانیه، جامعه جهانی پیام روشنی فرستاده: ایمنی عمومی بر نوآوری بی‌محابا مقدم است. حالا نوبت دولت‌هاست که تا ۲۰۲۶ روی «نبایدهای مطلق» توافق کنند و مانع بروز خطرهای بزرگ شوند.

دیدگاه‌ خود را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *