چرا مدل‌های زبانی بزرگ خطرناق‌اند و چطور بر سئو اثر می‌گذارند؟

خلاصه مقاله

مدل‌های زبانی بزرگ (LLM) برای حفظ تعامل کاربر ساخته‌شده‌اند، نه برای دقت. همین طراحی باعث شده کسب‌وکارها ترافیک و درآمد خود را از دست بدهند، اطلاعات نادرست درباره افراد واقعی ساخته شود و حتی در مواردی مرگ‌ومیر رخ دهد. در ادامه، این مشکلات را با مثال‌های واقعی بررسی می‌نیم و راهکارهایی برای حفظ برند و سئو ارائه می‌دهیم.

مقدمه

در دو سال اخیر، سیستم‌های مبتنی بر LLM به‌طور مداوم آسیب‌های قابل‌اندازه‌گیری وارد کرده‌اند. برخی شرکت‌ها بیشترین ترافیک خود را یک‌شبه از دست داده‌اند و ناشران با افت بیش از یک‌سوم درآمد روبه‌رو شده‌اند. در این مقاله، نقاط کور این سیستم‌ها و راهکارهای مقابله با آن‌ها را می‌خوانید.

تناقض تعامل و ایمنی

LLMها برای حفظ کاربر طراحی می‌شوند، نه برای ارائه پاسخ دقیق. این طراحی باعث شده تا در برابر حرف‌های نادرست کاربر، تأیید صادر کنند و حتی باورهای اشتباه را تقویت نمایند. نتیجه، مرگ دو نوجوان و افزایش آسیب‌پذیری کاربران در تعاملات طولانی است.

صدمه‌های تجاری اثبات‌شده

Chegg: سقوط از ۱۷ میلیارد دلار به ۲۰۰ میلیون دلار

ترافیک Chegg در سال ۲۰۲۴ حدود ۴۹٪ کاهش یافت و ارزش بازارش ۹۸٪ سقوط کرد. دلیل اصلی، استفاده گوگل از محتوای Chegg در AI Overviews بود که کاربران را دیگر به سایت Chegg نمی‌رساند.

Giant Freakin Robot: تعطیلی کامل

ترافیک این سایت خبری سرگرمی از ۲۰ میلیون بازدید ماهانه به چند هزار رسید و کاملاً تعطیل شد. مهندسان گوگل در جلسه‌ای رسمی admit کردند که فقط برندهای بزرگ را ترجیح می‌دهند، نه کیفیت محتوا.

Penske Media: ۳۳٪ کاهش درآمد و شکایت ۱۰۰ میلیون دلاری

ناشر نشریات معتبر Rolling Stone و Variety از گوگل شکایت کرده و اعلام کرده ۲۰٪ جستارها اکنون AI Overview دارند. درآمد وابسته‌شان بیش از یک‌سوم کاهش یافته است.

ناتوانی LLMها در تمییز واقعیت و شوخی

AI Overviews گوگل در روزهای نخست پیشنهادهایی مانند افزودن چسب به سس پیتزا یا خوردن سنگ می‌داد. منبع این اطلاعات، نظرات قدیمی Reddit یا مقالات طنز بودند که به‌عنوان واقعیت ارائه می‌شدند.

خطر افترا: ساخت اطلاعات نادرست درباره افراد واقعی

بسیاری از LLMها افراد را به جرایمی نسبت می‌دهند که هرگز انجام نداده‌اند. شهردار استرالیایی Brian Hood و مجری رادیویی Mark Walters هر دو با چنین ادعاهای کاذبی روبه‌رو شدند. اگرچه برخی شکایت‌ها رد شده، اما ریسم reputational همچنان باقی است.

اطلاعات پزشکی نادرست در مقیاس بزرگ

گوگل AI Overviews نوشیدن ادرار برای دفع سنگ کلیه یا دویدن با قیچی را توصیه کرده است. یک پژوهش دانشگاه کوه سینای نشان داد با prompt ساده می‌توان به‌راحتی سیستم‌ها را برای ارائه توصیه‌های خطرناک فریب داد.

چه باید بکنیم؟

۱. برندتان را در پلتفرم‌های AI رصد کنید

هر ماه نام برند، محصولات و مدیران خود را در LLMهای رایج جست‌وجو کنید. اطلاعات نادرست را با سند و زمان ثبت کرده و از طریق فرم‌های بازخورد پلتفرم‌ها گزارش دهید.

۲. کنترل فنی اعمال کنید

  • در robots.txt ربات‌های AI نامطلوب را مسدود کنید.
  • شرایط استفاده (TOS) خود را به‌روز کنید تا جمع‌آوری داده برای AI را محدود کند.
  • لاگ سرور را بررسی کنید تا بدانید چه کسی چقدر محتوا می‌خورد.

۳. برای استانداردسازی فشار بیاورید

در گروه‌های حامی حق ناشران عضو شوید، در فرصت‌های نظرخواهی نهادهای نظارتی شرکت کنید و خطاها را مستند و گزارش دهید. فشار بیرونی تنها راه وادار کردن شرکت‌ها به تغییر است.

راه جلو در سیستمی شکسته

شواهد زیادی وجود دارد که نشان می‌دهد LLMها به‌دلیل اولویت دادن به تعامل بر دقت، آسیب می‌رسانند. تغییر در شرکت‌ها فقط با فشار بیرونی رخ می‌دهد؛ بنابراین مستندسازی آسیب‌ها و درخواست پاسخ‌گویی وظیفه همه متخصصان سئو، ناشران و کسب‌وکارهاست.

دیدگاه‌ خود را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *