خلاصه مقاله
مدلهای زبانی بزرگ (LLM) برای حفظ تعامل کاربر ساختهشدهاند، نه برای دقت. همین طراحی باعث شده کسبوکارها ترافیک و درآمد خود را از دست بدهند، اطلاعات نادرست درباره افراد واقعی ساخته شود و حتی در مواردی مرگومیر رخ دهد. در ادامه، این مشکلات را با مثالهای واقعی بررسی مینیم و راهکارهایی برای حفظ برند و سئو ارائه میدهیم.
مقدمه
در دو سال اخیر، سیستمهای مبتنی بر LLM بهطور مداوم آسیبهای قابلاندازهگیری وارد کردهاند. برخی شرکتها بیشترین ترافیک خود را یکشبه از دست دادهاند و ناشران با افت بیش از یکسوم درآمد روبهرو شدهاند. در این مقاله، نقاط کور این سیستمها و راهکارهای مقابله با آنها را میخوانید.
تناقض تعامل و ایمنی
LLMها برای حفظ کاربر طراحی میشوند، نه برای ارائه پاسخ دقیق. این طراحی باعث شده تا در برابر حرفهای نادرست کاربر، تأیید صادر کنند و حتی باورهای اشتباه را تقویت نمایند. نتیجه، مرگ دو نوجوان و افزایش آسیبپذیری کاربران در تعاملات طولانی است.
صدمههای تجاری اثباتشده
Chegg: سقوط از ۱۷ میلیارد دلار به ۲۰۰ میلیون دلار
ترافیک Chegg در سال ۲۰۲۴ حدود ۴۹٪ کاهش یافت و ارزش بازارش ۹۸٪ سقوط کرد. دلیل اصلی، استفاده گوگل از محتوای Chegg در AI Overviews بود که کاربران را دیگر به سایت Chegg نمیرساند.
Giant Freakin Robot: تعطیلی کامل
ترافیک این سایت خبری سرگرمی از ۲۰ میلیون بازدید ماهانه به چند هزار رسید و کاملاً تعطیل شد. مهندسان گوگل در جلسهای رسمی admit کردند که فقط برندهای بزرگ را ترجیح میدهند، نه کیفیت محتوا.
Penske Media: ۳۳٪ کاهش درآمد و شکایت ۱۰۰ میلیون دلاری
ناشر نشریات معتبر Rolling Stone و Variety از گوگل شکایت کرده و اعلام کرده ۲۰٪ جستارها اکنون AI Overview دارند. درآمد وابستهشان بیش از یکسوم کاهش یافته است.
ناتوانی LLMها در تمییز واقعیت و شوخی
AI Overviews گوگل در روزهای نخست پیشنهادهایی مانند افزودن چسب به سس پیتزا یا خوردن سنگ میداد. منبع این اطلاعات، نظرات قدیمی Reddit یا مقالات طنز بودند که بهعنوان واقعیت ارائه میشدند.
خطر افترا: ساخت اطلاعات نادرست درباره افراد واقعی
بسیاری از LLMها افراد را به جرایمی نسبت میدهند که هرگز انجام ندادهاند. شهردار استرالیایی Brian Hood و مجری رادیویی Mark Walters هر دو با چنین ادعاهای کاذبی روبهرو شدند. اگرچه برخی شکایتها رد شده، اما ریسم reputational همچنان باقی است.
اطلاعات پزشکی نادرست در مقیاس بزرگ
گوگل AI Overviews نوشیدن ادرار برای دفع سنگ کلیه یا دویدن با قیچی را توصیه کرده است. یک پژوهش دانشگاه کوه سینای نشان داد با prompt ساده میتوان بهراحتی سیستمها را برای ارائه توصیههای خطرناک فریب داد.
چه باید بکنیم؟
۱. برندتان را در پلتفرمهای AI رصد کنید
هر ماه نام برند، محصولات و مدیران خود را در LLMهای رایج جستوجو کنید. اطلاعات نادرست را با سند و زمان ثبت کرده و از طریق فرمهای بازخورد پلتفرمها گزارش دهید.
۲. کنترل فنی اعمال کنید
- در robots.txt رباتهای AI نامطلوب را مسدود کنید.
- شرایط استفاده (TOS) خود را بهروز کنید تا جمعآوری داده برای AI را محدود کند.
- لاگ سرور را بررسی کنید تا بدانید چه کسی چقدر محتوا میخورد.
۳. برای استانداردسازی فشار بیاورید
در گروههای حامی حق ناشران عضو شوید، در فرصتهای نظرخواهی نهادهای نظارتی شرکت کنید و خطاها را مستند و گزارش دهید. فشار بیرونی تنها راه وادار کردن شرکتها به تغییر است.
راه جلو در سیستمی شکسته
شواهد زیادی وجود دارد که نشان میدهد LLMها بهدلیل اولویت دادن به تعامل بر دقت، آسیب میرسانند. تغییر در شرکتها فقط با فشار بیرونی رخ میدهد؛ بنابراین مستندسازی آسیبها و درخواست پاسخگویی وظیفه همه متخصصان سئو، ناشران و کسبوکارهاست.
