چرا اعتماد بی‌چون‌وچرای به AI برای جست‌وجو می‌تواند شرکت شما را زمین‌گیر کند؟

خلاصه ۳۰ثانیه‌ای

نیمی از کاربران اینترنتی به جست‌وجو با AI عادت کرده‌اند، ولی تحقیق تازه‌ی Which? نشان می‌دهد دقت پاسخ‌ها از ۵۵ تا ۷۱ درصد است. خطای احتمالی در اطلاعات مالی یا حقوقی باعث جریمه‌ی نهادهای نظارتی، درگیری قضایی و هدررفت بودجه می‌شود؛ راه‌حل «رهگیری، بررسی و تصمیم‌گیری انسانی» است.

چرا این موضوع مهم شد؟

هر سومین کارمند بریتانیا AI را به گوگل ترجیح می‌دهد و بنا بر نظرسنجی ۴۱۸۹نفری، استفاده‌ی شخصی سریع به استفاده در پروژه‌های اداری تبدیل می‌شود؛ وقتی ابزار دقت پایینی دارد، ریسک «IT سایه‌ای» ناگهان در قلب سازمان رخ می‌نماید.

رتبه‌بندی دقت ۶ ابزار پرکاربرد

  • Perplexity: ٧١٪
  • Google Gemini (AI Overviews): ٧٠٪
  • Microsoft Copilot: ٦٧٪
  • ChatGPT: ٦۴٪
  • Meta AI: ۵۵٪

بیشترین خطا در چه سؤال‌هایی بود؟

الف) محدوده‌ی سالانه‌ی ISA (سرمایه‌گذاری بدون مالیات)؛ ChatGPT و Copilot مرز قانونی را رعایت نکردند.
ب) تفاوت مقررات اسکاتلند و انگلستان؛ اغراق در تعمیم قوانین منطقه‌ای.
ج) پیشنهاد پرداخت‌نکردن بی‌محابا به پیمانکار؛ مشاوره‌ای که ممکن است قرارداد را نقض کند.

چرا «مبدا داده» برای شرکت‌ها حیاتی است؟

هنگام بررسی کد مالیاتی، چت‌بات‌ها به‌جای لینک رایگان HMRC، کاربر را به وب‌سایت‌های خصوصیِ دریافت حق‌الزحمه بالا ارجاع دادند؛ این «سوگیری الگوریتمی» هزینه‌ی اضافی یا انتخاب تأمین‌کننده‌ی غیرُمنطبق با الزامات داخلی را رقم می‌زند.

راهکارهای عملی برای مدیران

۱) گنجاندن مشخصه‌های دقیق در پرامپت

به‌جای «قانون کار» بنویسید «قانون کار انگلستان ۱۹۹۸» تا ابزار حدس نزند.

۲) رویه‌ی «منابع‌موردنیاز»

هر خروجی باید حداقل یک منبع اولیه و یک منبع دوم داشته باشد که کارمند آن را باز کند و بخواند.

۳)الزام به «نظر دوم انسانی»

برای تصمیمات مالی یا حقوقی، تائید کارشناس داخلی/خارجی پیش از اجرا الزامی است.

جمع‌بندی

AI ابزار ارزشمندی برای سرعت‌بخشی است، ولی در حال حاضر «اعتماد کورکورانه» معادل ریسک compliance، جریمه و اعتبار ازدست‌رفته است؛ چارچوب حاکمیتی و چک‌لیست سه‌مرحله‌ای بالا، فاصله‌ی بهره‌وری واقعی با شکست کلان را مشخص می‌کند.

دیدگاه‌ خود را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *