“رویکرد چشم‌گیر مسئولیت‌پذیری هوش مصنوعی: چارچوب گاو و استانداردهای اخلاقی دیو در آمریکا”

در نمایشگاه AI World Government 2025، دو نهاد مهم دولت فدرال آمریکا — دفتر حسابرسی دولت (GAO) و واحد نوآوری دفاعی (DIU) — به بررسی رویکردهای خود به مسئولیت‌پذیری در توسعه هوش مصنوعی پرداختند. GAO چارچوبی چهارمحوری برای نظارت بر هوش مصنوعی در تمام مراحل چرخه عمر آن ارائه کرد که شامل حاکمیت، داده‌ها، عملکرد و نظارت مستمر می‌شود. DIU نیز مجموعه‌ای از اصول اخلاقی و سوالات کلیدی را معرفی کرد که پیش از شروع هر پروژه هوش مصنوعی باید پاسخ داده شود. این رویکردها نشان می‌دهند که دولت آمریکا به سمت استفاده مسئولانه، شفاف و قابل کنترل از هوش مصنوعی در حال حرکت است.

چارچوب مسئولیت‌پذیری هوش مصنوعی در دفتر حسابرسی دولت آمریکا

تاکا آریگا، دانشمند ارشد داده و مدیر دفتر حسابرسی دولت آمریکا (GAO)، درباره یک چارچوب کامل برای مسئولیت‌پذیری در پروژه‌های هوش مصنوعی صحبت کرد. این چارچوب با مشارکت متخصصان دولتی، صنعتی و غیرانتفاعی طراحی شده و قابلیت استفاده توسط سایر سازمان‌ها را نیز دارد.

چهارمحور اصلی چارچوب GAO

  • حاکمیت: بررسی اینکه چگونه سازمان بر پروژه هوش مصنوعی نظارت می‌کند و مسئولیت‌ها چگونه توزیع شده‌اند.
  • داده‌ها: تحلیل کیفیت، نمایندگی و عدالت داده‌های مورد استفاده در آموزش و عملکرد مدل.
  • عملکرد: سنجش اثرات اجتماعی سیستم و اطمینان از رعایت قوانین حقوق مدنی.
  • نظارت: پایش مستمر مدل پس از اجرای آن برای تشخیص تغییرات نامطلوب یا کاهش دقت.

دوره عمر هوش مصنوعی در چارچوب GAO

چارچوب به تمام مراحل توسعه هوش مصنوعی توجه دارد:

  1. طراحی: تعیین هدف و شناسایی ریسک‌های بالقوه
  2. توسعه: انتخاب داده‌ها و مدل مناسب
  3. اجرا: راه‌اندازی سیستم با شفافیت و پیگیری پارامترها
  4. نظارت مستمر: بررسی عملکرد و به‌روزرسانی یا توقف سیستم در صورت لزوم

تاکید بر نظارت دائمی

آریگا هشدار می‌دهد که هوش مصنوعی فناوری‌ای ثابت نیست: «هوش مصنوعی فناوری‌ای نیست که پس از اجرا آن را رها کنیم. ما باید مستمر نظارت کنیم و در صورت نیاز، سیستم را متوقف یا تغییر دهیم.»

همکاری با NIST

این چارچوب در حال هماهنگی با استانداردهای ملی است و با [NIST](https://www.nist.gov) برای ایجاد یک رویکرد یکپارچه در سطح دولت فدرال کار می‌کند.

اصل‌های اخلاقی و عملی واحد نوآوری دفاعی (DIU)

برایس گودمن، استراتژیست ارشد هوش مصنوعی در واحد نوآوری دفاعی (DIU)، درباره سیاست‌های اخلاقی و عملیاتی این سازمان صحبت کرد که قبل از آغاز هر پروژه AI مورد بررسی قرار می‌گیرد.

پنج اصل اخلاقی هوش مصنوعی در DIU

اصلتوضیح
مسئولیتتعیین واضح فرد یا تیم مسئول نهایی برای تصمیم‌گیری‌ها
برابریجلوگیری از تبعیض و حمایت از دسترسی عادلانه به خدمات
قابلیت رهگیریامکان پیگیری تصمیمات سیستم و داده‌های ورودی
قابلیت اطمیناناطمینان از ثبات و دقت عملکرد در شرایط مختلف
قابلیت حاکمیتاینکه انسان همیشه بتواند در فرآیند مدیریت و کنترل نقش داشته باشد

سوالات کلیدی قبل از شروع هر پروژه

DIU قبل از تصویب هر پروژه هوش مصنوعی، این سوالات را از تیم توسعه‌دهنده می‌پرسد:

  1. هدف دقیق این پروژه چیست؟
  2. ملاک موفقیت چیست و چگونه اندازه‌گیری می‌شود؟
  3. داده‌ها از کجا می‌آیند و مالک آن‌ها کیست؟
  4. آیا داده‌ها نماینده واقعی شرایط هستند؟
  5. چه کسانی در تصمیم‌گیری و اجرای پروژه دخیل هستند؟
  6. چه کسی نهایتاً مسئول تصمیم‌گیری‌های مهم است؟
  7. اگر سیستم اشتباه کرد، آیا برنامه بازگشت به حالت قبلی وجود دارد؟

شفافیت و همکاری با فروشندگان

گودمن بر شفافیت فروشندگان تجاری تأکید می‌کند: «اگر الگوریتمی مخفی و غیرقابل بررسی باشد، ما محتاط هستیم.» او ترجیح می‌دهد با فروشندگانی همکاری کند که:

  • ساختار مدل خود را توضیح دهند
  • داده‌های آموزشی را مستند کنند
  • امکان بررسی داخلی و مستقل را فراهم کنند

هوش مصنوعی = راه‌حل جادویی نیست

گودمن در پایان تأکید می‌کند: «هوش مصنوعی جادو نیست و همه مشکلات را حل نمی‌کند. باید فقط وقتی از آن استفاده کنیم که واقعاً مزیت داشته باشد.» او نسبت به استفاده اغراق‌آمیز از فناوری و ریسک‌های آن حساس است و معتقد است فناوری باید شناسه، هدف و ریسک آن تناسب داشته باشد.

اشتراک گذاری

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *