نماد سایت گیلان پلاس رسانه هوش مصنوعی و کارآفرینی گیلان

“رویکرد چشم‌گیر مسئولیت‌پذیری هوش مصنوعی: چارچوب گاو و استانداردهای اخلاقی دیو در آمریکا”

چارچوب مسئولیت‌پذیری هوش مصنوعی در دفتر حسابرسی دولت آمریکا

تاکا آریگا، دانشمند ارشد داده و مدیر دفتر حسابرسی دولت آمریکا (GAO)، درباره یک چارچوب کامل برای مسئولیت‌پذیری در پروژه‌های هوش مصنوعی صحبت کرد. این چارچوب با مشارکت متخصصان دولتی، صنعتی و غیرانتفاعی طراحی شده و قابلیت استفاده توسط سایر سازمان‌ها را نیز دارد.

چهارمحور اصلی چارچوب GAO

دوره عمر هوش مصنوعی در چارچوب GAO

چارچوب به تمام مراحل توسعه هوش مصنوعی توجه دارد:

  1. طراحی: تعیین هدف و شناسایی ریسک‌های بالقوه
  2. توسعه: انتخاب داده‌ها و مدل مناسب
  3. اجرا: راه‌اندازی سیستم با شفافیت و پیگیری پارامترها
  4. نظارت مستمر: بررسی عملکرد و به‌روزرسانی یا توقف سیستم در صورت لزوم

تاکید بر نظارت دائمی

آریگا هشدار می‌دهد که هوش مصنوعی فناوری‌ای ثابت نیست: «هوش مصنوعی فناوری‌ای نیست که پس از اجرا آن را رها کنیم. ما باید مستمر نظارت کنیم و در صورت نیاز، سیستم را متوقف یا تغییر دهیم.»

همکاری با NIST

این چارچوب در حال هماهنگی با استانداردهای ملی است و با [NIST](https://www.nist.gov) برای ایجاد یک رویکرد یکپارچه در سطح دولت فدرال کار می‌کند.

اصل‌های اخلاقی و عملی واحد نوآوری دفاعی (DIU)

برایس گودمن، استراتژیست ارشد هوش مصنوعی در واحد نوآوری دفاعی (DIU)، درباره سیاست‌های اخلاقی و عملیاتی این سازمان صحبت کرد که قبل از آغاز هر پروژه AI مورد بررسی قرار می‌گیرد.

پنج اصل اخلاقی هوش مصنوعی در DIU

اصل توضیح
مسئولیت تعیین واضح فرد یا تیم مسئول نهایی برای تصمیم‌گیری‌ها
برابری جلوگیری از تبعیض و حمایت از دسترسی عادلانه به خدمات
قابلیت رهگیری امکان پیگیری تصمیمات سیستم و داده‌های ورودی
قابلیت اطمینان اطمینان از ثبات و دقت عملکرد در شرایط مختلف
قابلیت حاکمیت اینکه انسان همیشه بتواند در فرآیند مدیریت و کنترل نقش داشته باشد

سوالات کلیدی قبل از شروع هر پروژه

DIU قبل از تصویب هر پروژه هوش مصنوعی، این سوالات را از تیم توسعه‌دهنده می‌پرسد:

  1. هدف دقیق این پروژه چیست؟
  2. ملاک موفقیت چیست و چگونه اندازه‌گیری می‌شود؟
  3. داده‌ها از کجا می‌آیند و مالک آن‌ها کیست؟
  4. آیا داده‌ها نماینده واقعی شرایط هستند؟
  5. چه کسانی در تصمیم‌گیری و اجرای پروژه دخیل هستند؟
  6. چه کسی نهایتاً مسئول تصمیم‌گیری‌های مهم است؟
  7. اگر سیستم اشتباه کرد، آیا برنامه بازگشت به حالت قبلی وجود دارد؟

شفافیت و همکاری با فروشندگان

گودمن بر شفافیت فروشندگان تجاری تأکید می‌کند: «اگر الگوریتمی مخفی و غیرقابل بررسی باشد، ما محتاط هستیم.» او ترجیح می‌دهد با فروشندگانی همکاری کند که:

هوش مصنوعی = راه‌حل جادویی نیست

گودمن در پایان تأکید می‌کند: «هوش مصنوعی جادو نیست و همه مشکلات را حل نمی‌کند. باید فقط وقتی از آن استفاده کنیم که واقعاً مزیت داشته باشد.» او نسبت به استفاده اغراق‌آمیز از فناوری و ریسک‌های آن حساس است و معتقد است فناوری باید شناسه، هدف و ریسک آن تناسب داشته باشد.

خروج از نسخه موبایل