خلاصه
در حالی که OpenAI مدعی است کلیپهای جعلی تولیدشده با Sora را با نشانهای متادیتایی (C2PA) برچسبگذاری میکند، عملاً این برچسب هیچجا دیده نمیشود؛ نه در اینستاگرام، نه در تیکتاک، نه در یوتیوب و حتی نه در خودِ برنامه. نتیجه این است که اثرات خشونتبار و توهینآمیز این ویدئوهای دیپفیک بدون هیچ هشداری در شبکهها پخش میشود و تشخیص واقعیت از جعل روی دوش کاربر معمولی افتاده است.
چرا ساختن دیپفیک در Sora ۲ اینقدر خطرناک است؟
چهرهها و صداها را بهراحتی جعل میکند
در کمتر از یک روز پس از عرضهی عمومی، مهندسان Reality Defender توانستند حفاظت شناساییشدهی Sora را دور بزنند و بهصورت مداوم کلیپهای جعلی از چهرههای سرشناس بسازند.
محتوای مضر را میدان میدهد
کاربران سریعاً فیلمهایی از انفجارهای تقلیدی، بمبخالی، گاز اشکآور علیه افراد رنگینپوست و نژادپرستی علنی ساختند؛ برخی از این ویدئوها بهسادگی با عبارت «تظاهرات شارلوتزویل» ساخته شدند.
C2PA چیست و چرا فایده ندارد؟
قرار بود چه بکند
- درج نشانهی امن در لحظهی تولید یا تغییر فایل
- ثبت زمان، مکان و ابزار مورد استفاده
- نمایش برچسب «این ویدئو هوشمصنوعی است» به مخاطبان
در عمل چه شد
تنها راه دیدن این نشانه بازکردن سایت جداگانه، افزونهی کروم یا آپلود فایل در ابزار خاص است؛ بنابراین ۹۹٪ بینندگان هیچگاه متوجه نمیشوند که فیلم جعلی است.
شبکههای اجتماعی چقدر همکاری میکنند؟
| بستر | برچسب دیده میشود؟ | توضیح کوتاه |
|---|---|---|
| YouTube | خیر | برچسب در نمونههای واقعی مشاهده نشده است |
| TikTok | خیر | برچسب غیرقابل مشاهده یا حذف شده است |
| خیلی کم | بعد از اعتراض عکاسان، «Made by AI» به «AI Info» تغییر کرد و اغلب هم نمیآید | |
| توئیتر (X) | ندارد | عضو نبودن در C2PA + اتکا به گزارش کاربران |
متادیتا که پاک شد، دیگر معلوم نیست چه خبر است
فشردن و ضبط دوباره، برچسبها را میزداید
هنگام بارگذاری مجدد، بسیاری از پلتفرمها اطلاعات پشتصحنه را حذف میکنند تا حجم کم شود؛ در نتیجه C2PA هم از بین میرود.
مارکهای آبیُ-سفید Sora هم برداشته میشود
کافیاست فیلم را کمی برش دهید یا فیلتر بگذارید تا لوگوی شفاف Sora محو شود؛ سایتهای زدنواترمارک در کمترین زمان همین کار را انجام دادهاند.
درمان سرپایی؛ لزوم ترکیب چند ابزار
- C2PA برای ردیابی منبع مفید است اما بهتنهایی کافی نیست
- سیستمهای استنتاجی (مثل Reality Defender) بدون توجه به متادیتا، احتمال ساختگی بودن را میسنجند
- هر دو روش باید با هم کار کنند تا اگر یکی نگرفت دیگری هشدار دهد
چرا راهحل نهایی قانون است نه تکنولوژی
قانون «جعلی نساز»
لوایح «No Fakes» و «PADRA» در حال بررسی در کنگرهاند و میخواهند استفاده تجاری از چهره یا صدای افراد بدون رضایتشان را ممنوع کنند.
فشار روی پلتفرمها
بسیاری از نمایندگان میگویند دیگر نمیشود حسننیت شرکتها را ملاک قرار داد؛ باید قوانین شفافِ الزامآور و جریمهی سنگین تعریف کرد تا شبکهها تشخیص و برچسبگذاری را جدی بگیرند.
