چارچوب مسئولیتپذیری هوش مصنوعی در دفتر حسابرسی دولت آمریکا
تاکا آریگا، دانشمند ارشد داده و مدیر دفتر حسابرسی دولت آمریکا (GAO)، درباره یک چارچوب کامل برای مسئولیتپذیری در پروژههای هوش مصنوعی صحبت کرد. این چارچوب با مشارکت متخصصان دولتی، صنعتی و غیرانتفاعی طراحی شده و قابلیت استفاده توسط سایر سازمانها را نیز دارد.
چهارمحور اصلی چارچوب GAO
- حاکمیت: بررسی اینکه چگونه سازمان بر پروژه هوش مصنوعی نظارت میکند و مسئولیتها چگونه توزیع شدهاند.
- دادهها: تحلیل کیفیت، نمایندگی و عدالت دادههای مورد استفاده در آموزش و عملکرد مدل.
- عملکرد: سنجش اثرات اجتماعی سیستم و اطمینان از رعایت قوانین حقوق مدنی.
- نظارت: پایش مستمر مدل پس از اجرای آن برای تشخیص تغییرات نامطلوب یا کاهش دقت.
دوره عمر هوش مصنوعی در چارچوب GAO
چارچوب به تمام مراحل توسعه هوش مصنوعی توجه دارد:
- طراحی: تعیین هدف و شناسایی ریسکهای بالقوه
- توسعه: انتخاب دادهها و مدل مناسب
- اجرا: راهاندازی سیستم با شفافیت و پیگیری پارامترها
- نظارت مستمر: بررسی عملکرد و بهروزرسانی یا توقف سیستم در صورت لزوم
تاکید بر نظارت دائمی
آریگا هشدار میدهد که هوش مصنوعی فناوریای ثابت نیست: «هوش مصنوعی فناوریای نیست که پس از اجرا آن را رها کنیم. ما باید مستمر نظارت کنیم و در صورت نیاز، سیستم را متوقف یا تغییر دهیم.»
همکاری با NIST
این چارچوب در حال هماهنگی با استانداردهای ملی است و با [NIST](https://www.nist.gov) برای ایجاد یک رویکرد یکپارچه در سطح دولت فدرال کار میکند.
اصلهای اخلاقی و عملی واحد نوآوری دفاعی (DIU)
برایس گودمن، استراتژیست ارشد هوش مصنوعی در واحد نوآوری دفاعی (DIU)، درباره سیاستهای اخلاقی و عملیاتی این سازمان صحبت کرد که قبل از آغاز هر پروژه AI مورد بررسی قرار میگیرد.
پنج اصل اخلاقی هوش مصنوعی در DIU
اصل | توضیح |
---|---|
مسئولیت | تعیین واضح فرد یا تیم مسئول نهایی برای تصمیمگیریها |
برابری | جلوگیری از تبعیض و حمایت از دسترسی عادلانه به خدمات |
قابلیت رهگیری | امکان پیگیری تصمیمات سیستم و دادههای ورودی |
قابلیت اطمینان | اطمینان از ثبات و دقت عملکرد در شرایط مختلف |
قابلیت حاکمیت | اینکه انسان همیشه بتواند در فرآیند مدیریت و کنترل نقش داشته باشد |
سوالات کلیدی قبل از شروع هر پروژه
DIU قبل از تصویب هر پروژه هوش مصنوعی، این سوالات را از تیم توسعهدهنده میپرسد:
- هدف دقیق این پروژه چیست؟
- ملاک موفقیت چیست و چگونه اندازهگیری میشود؟
- دادهها از کجا میآیند و مالک آنها کیست؟
- آیا دادهها نماینده واقعی شرایط هستند؟
- چه کسانی در تصمیمگیری و اجرای پروژه دخیل هستند؟
- چه کسی نهایتاً مسئول تصمیمگیریهای مهم است؟
- اگر سیستم اشتباه کرد، آیا برنامه بازگشت به حالت قبلی وجود دارد؟
شفافیت و همکاری با فروشندگان
گودمن بر شفافیت فروشندگان تجاری تأکید میکند: «اگر الگوریتمی مخفی و غیرقابل بررسی باشد، ما محتاط هستیم.» او ترجیح میدهد با فروشندگانی همکاری کند که:
- ساختار مدل خود را توضیح دهند
- دادههای آموزشی را مستند کنند
- امکان بررسی داخلی و مستقل را فراهم کنند
هوش مصنوعی = راهحل جادویی نیست
گودمن در پایان تأکید میکند: «هوش مصنوعی جادو نیست و همه مشکلات را حل نمیکند. باید فقط وقتی از آن استفاده کنیم که واقعاً مزیت داشته باشد.» او نسبت به استفاده اغراقآمیز از فناوری و ریسکهای آن حساس است و معتقد است فناوری باید شناسه، هدف و ریسک آن تناسب داشته باشد.
دیدگاهتان را بنویسید