گوگل در برابر ادعای افترا توسط هوش مصنوعی می‌ایستد؛ متا عقب‌نشینی کرد

خلاصه: رابی استاربک، فعال ضد تنوع شرکتی، از گوگل شکایت کرده و می‌گوید هوش مصنوعی این شرکت او را به آزار جنسی و ناسیونالیسم سفیدپوست مرتبط کرده است. گوگل درخواست رد دعوی داده و می‌گوید استاربک با روش‌های خاص خودش خطا را تحریک کرده است. این شکایت پس از توافق پنهانی استاربک با متا و استخدامش به‌عنوان مشاور «کاهش سوگیری» رخ می‌دهد.

ماجرا چیست؟

اواخر سال ۲۰۲۴، رابی استاربک گوگل را به ۱۵ میلیون دلار خسارت تهدید کرد.

به گفته او، چت‌بات گوگل در پاسخ به کاربران مدعی شده بود او در آزار جنسی نقش داشته و هوادار ناسیونالیسم سفیدپوست است.

پاسخ گوگل

گوگل درخواست رد دعوی داد و دو دلیل اصلی آورد:

  • استاربک روش‌های خاص توسعه‌دهنده را به‌کار برد تا «توهم» هوش مصنوعی را تحریک کند.
  • هیچ نشانه‌ای از اینکه کسی واقعاً فریب اطلاعات دروغین را خورده باشد، ارائه نشده است.

پیش‌زمینه: توافق استاربک با متا

همین ادعاها را استاربک پیش‌تر علیه متا مطرح کرده بود؛ پلتفرمی که گفته بود او در یورش ۶ ژانویه به کاپیتول شرکت کرده است.

متا به‌جای مبارزه، در اوت ۲۰۲۴ پرونده را به‌صورت محرمانه مختومه کرد و استاربک را به‌عنوان مشاور «کاهش سوگیری سیاسی در هوش مصنوعی» به‌کار گرفت.

چرا این دعوی اهمیت دارد؟

هنوز هیچ دادگاهی در آمریکا غرامت بابت «افترا توسط هوش مصنوعی» تعیین نکرده است.

اگر گوگل بجنگد و پیروز شود، رویه قضایی جدیدی برای جلوگیری از سوءاستفاده احتمالی شاکیان خاص شکل می‌گیرد.

اگر توافق کند، احتمال موج جدیدی از شکایت‌های مشابه افزایش می‌یابد.

جمع‌بندی

تراشه مهم نیست که چه کسی می‌برد؛ مهم این است که دادگاه‌ها باید تعیین کنند:

سؤال حقوقیدلیل اهمیت
آیا خروجی خطای هوش مصنوعی «افترا» محسوب می‌شود؟اگر بله، مسئولیت حقوقی شرکت‌ها روشن می‌شود.
استفاده هدفمند از ابزار توسعه‌دهنده می‌تواند دعوی را باطل کند؟در صورت مثبت بودن پاسخ، دادگاه‌ها از شرکت‌ها در برابر سوءاستفاده محافظت می‌کنند.

با تصمیم دادگاه، احتمالاً چارچوب مسئولیت پلتفرم‌ها و حق کاربران در برابر اطلاعات نادرست هوش مصنوعی تا سال آینده روشن‌تر خواهد شد.

دیدگاه‌ خود را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *