چرا هیچ‌کس نمی‌فهمد فیلم ساختِ Sora جعلی است؟

خلاصه

در حالی که OpenAI مدعی است کلیپ‌های جعلی تولیدشده با Sora را با نشانه‌ای متا‌دیتایی (C2PA) برچسب‌گذاری می‌کند، عملاً این برچسب هیچ‌جا دیده نمی‌شود؛ نه در اینستاگرام، نه در تیک‌تاک، نه در یوتیوب و حتی نه در خودِ برنامه. نتیجه این است که اثرات خشونت‌بار و توهین‌آمیز این ویدئوهای دیپ‌فیک بدون هیچ هشداری در شبکه‌ها پخش می‌شود و تشخیص واقعیت از جعل روی دوش کاربر معمولی افتاده است.

چرا ساختن دیپ‌فیک در Sora ۲ این‌قدر خطرناک است؟

چهره‌ها و صداها را به‌راحتی جعل می‌کند

در کمتر از یک روز پس از عرضه‌ی عمومی، مهندسان Reality Defender توانستند حفاظت شناسایی‌شده‌ی Sora را دور بزنند و به‌صورت مداوم کلیپ‌های جعلی از چهره‌های سرشناس بسازند.

محتوای مضر را میدان می‌دهد

کاربران سریعاً فیلم‌هایی از انفجارهای تقلیدی، بمب‌خالی، گاز اشک‌آور علیه افراد رنگین‌پوست و نژادپرستی علنی ساختند؛ برخی از این ویدئوها به‌سادگی با عبارت «تظاهرات شارلوتزویل» ساخته شدند.

C2PA چیست و چرا فایده ندارد؟

قرار بود چه بکند

  • درج نشانه‌ی امن در لحظه‌ی تولید یا تغییر فایل
  • ثبت زمان، مکان و ابزار مورد استفاده
  • نمایش برچسب «این ویدئو هوش‌مصنوعی است» به مخاطبان

در عمل چه شد

تنها راه دیدن این نشانه بازکردن سایت جداگانه، افزونه‌ی کروم یا آپلود فایل در ابزار خاص است؛ بنابراین ۹۹٪ بینندگان هیچ‌گاه متوجه نمی‌شوند که فیلم جعلی است.

شبکه‌های اجتماعی چقدر همکاری می‌کنند؟

بستربرچسب دیده می‌شود؟توضیح کوتاه
YouTubeخیربرچسب در نمونه‌های واقعی مشاهده نشده است
TikTokخیربرچسب غیرقابل مشاهده یا حذف شده است
Instagramخیلی کمبعد از اعتراض عکاسان، «Made by AI» به «AI Info» تغییر کرد و اغلب هم نمی‌آید
توئیتر (X)نداردعضو نبودن در C2PA + اتکا به گزارش کاربران

متا‌دیتا که پاک شد، دیگر معلوم نیست چه خبر است

فشردن و ضبط دوباره، برچسب‌ها را می‌زداید

هنگام بارگذاری مجدد، بسیاری از پلتفرم‌ها اطلاعات پشت‌صحنه را حذف می‌کنند تا حجم کم شود؛ در نتیجه C2PA هم از بین می‌رود.

مارک‌های آبیُ-سفید Sora هم برداشته می‌شود

کافیاست فیلم را کمی برش دهید یا فیلتر بگذارید تا لوگوی شفاف Sora محو شود؛ سایت‌های زدن‌واترمارک در کمترین زمان همین کار را انجام داده‌اند.

درمان سرپایی؛ لزوم ترکیب چند ابزار

  • C2PA برای ردیابی منبع مفید است اما به‌تنهایی کافی نیست
  • سیستم‌های استنتاجی (مثل Reality Defender) بدون توجه به متا‌دیتا، احتمال ساختگی بودن را می‌سنجند
  • هر دو روش باید با هم کار کنند تا اگر یکی نگرفت دیگری هشدار دهد

چرا راه‌حل نهایی قانون است نه تکنولوژی

قانون «جعلی نساز»

لوایح «No Fakes» و «PADRA» در حال بررسی در کنگره‌اند و می‌خواهند استفاده تجاری از چهره یا صدای افراد بدون رضایت‌شان را ممنوع کنند.

فشار روی پلتفرم‌ها

بسیاری از نمایندگان می‌گویند دیگر نمی‌شود حسن‌نیت شرکت‌ها را ملاک قرار داد؛ باید قوانین شفافِ الزام‌آور و جریمه‌ی سنگین تعریف کرد تا شبکه‌ها تشخیص و برچسب‌گذاری را جدی بگیرند.

دیدگاه‌ خود را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *