
همزمان با انتشار خبرها و گزارشها از اعتراضات دی ماه ۱۴۰۴ در ایران صحنهها و تصاویر دلخراش و تکاندهنده فراوانی منتشر شد. اما در کنار تعداد زیادی ویدیو و عکس واقعی، تعدادی تصاویر با هوش مصنوعی دستکاری شده و نسخههای غیر واقعی آنها به طور گسترده در شبکههای اجتماعی بازنشر میشوند. (لینک۱ ، لینک۲ ، لینک۳ ، لینک۴ ، لینک۵ ، لینک۶ )
در پی انتشار تصاویر فراوان با کیفیت پایین و در شرایط قطعی اینترنت، برخی از کاربران یا رسانهها برای افزایش وضوح تصاویر به سراغ ابزارهای هوش مصنوعی رفتند. با این وجود استفاده بیشتر از هوش مصنوعی در مواردی با هدف «تولید آثار هنری» منجر به تولید تصاویر و محتوای نادرست شد و در مواردی بیشتر از تصاویر واقعی در شبکههای اجتماعی منتشر شد. اتفاقی که منجر به زیرسوال بردن واقعیت از جانب رسانههای نزدیک به حکومت شد.
فکتنامه پیشتر تعداد قابل توجهی از این تصاویر را راستیآزمایی کرده است.
در شرایط قطعی اینترنت و محدودیتهای قابل توجه مخابره و انتقال تصاویر به خارج از کشور، تصاویری که از اعتراضات ثبت میشد اغلب کیفیت بسیار پایینی داشتند. در مواردی برخی کاربران تلاش کردند برای افزایش کیفیت، اصلاح فنی محدودی روی برخی تصاویر از جمله کمی روشنتر کردن، تنظیم کنتراست و کاهش نویز را روی برخی تصاویر انجام دهند.
یکی از نمونه های مهم تصویر زنی در میان اجساد است که بازسازی آن با هوش مصنوعی منجر به استفاده مکرر از تصویر دستکاری شده، شدهاست.

تصویر اصلی و واقعی، برای اولین بار در ۲۳ دی ۱۴۰۴ به همراه ویدیوهای کهریزک در کانال وحید آنلاین منتشر شد.
انتشار تصاویر دستکاری شده اما موجب شده در شبکههای اجتماعی هواداران جمهوری اسلامی آن را به «صهیونیستهای دروغگو» نسبت دهند و خبرگزاری فارس آن را درستیسنجی کند.
یکی دیگر از تصاویری که به طور گسترده بازنشر شده نیز نسخه دستکاری شده یک عکس واقعی از زنی است که یکی از پیکرهای کشتهشدگان را در آغوش گرفته است:

تصویری از ایستادن دو معترض در برابر آبپاش ضدشورش در همدان هم با هوش مصنوعی بازسازی شده (لینک۱ ، لینک۲)


علاوه بر دستکاری تصاویر، برخی ویدیوها به طور کامل با هوش مصنوعی تولید شدند که آشکارا در آنها رفتارهای خشونتآمیز از جانب معترضان پررنگتر دیده میشد.
فکتنامه همچنین ادعای تصادف عمدی معترضان با موتورهای پلیس که با هوش مصنوعی دستکاری شده بود را راستیآزمایی کرده و به آن نشان نادرست داده است.
در مواردی از جمله اعتراضات یا صحنههایی که بازتابدهنده نقض حقوق بشر هستند، گاهی تنها یک نشانه از هوش مصنوعی در یک سند میتواند اعتبار آن را زیر سوال ببرد. برای نمونه تصاویر متعدد از مردی که در روزهای ابتدایی اعتراضات مقابل نیروهای یگان ویژه روی زمین نشسته بود مسیر ادعاهای نادرست را از جمله انتساب آن به تایلند هموار میکرد.
در این میان بازنشر گسترده تصاویر نادرست یا دستکاری شده کار را برای روزنامهنگاران، نهادهای مدافع حقوق بشر و مراجع قضایی دشوارتر میکند؛ چرا که یافتن تصویر واقعی سختتر میشود.
از طرف دیگر وقتی تصاویر واقعی با افکت و بازسازی منتشر میشوند، مرز میان خبر واقعی و «سرگرمی» از بین میرود. این نه تنها منجر به افزایش بیاعتمادی نسبت به تصاویر واقعی خواهد شد بلکه حساسیت عمومی را نسبت به موارد نقض حقوق بشر کاهش میدهد.
ایجاد بیاعتمادی عمومی یکی از ابزارهای حکومتها در مواقعی است که افشای حقیقت میتواند برایش زیانبار باشد. یک پژوهش نشان میدهد ویدیوهای ساختگی و دستکاری شده با محتوای سیاسی میتوانند احساس «عدم قطعیت» و «بیاعتمادی» در فضای عمومی به دنبال داشته باشند.
بسیاری از رسانهها و خبرگزاریها از جمله آسوشیتدپرس با صراحت میگویند عکسها و ویدیو هایشان را تغییر نمیدهند و تصاویر و ویدیوهایی را که با هوش مصنوعی دستکاری یا ساخته شدهاند را برای انتشار نمیپذیرند مگر این که خود تصویر تولید شده با هوش مصنوعی موضوع خبر باشد.
خبرگزاری رویترز هم سیاست مشابهی را دنبال میکند و در صفحه مربوط به استانداردها و ارزشها، در بخش مربوط به هوش مصنوعی اعلام کرده که در حوزه تصویر از «واقعیت دست نخورده» استفاده میکند و از هوش مصنوعی چه برای تولید و چه برای بهبود کیفیت هیچ تصویری استفاده نمیکند. رویترز میافزاید که استفاده از هر عنصر بصری که با هوش مصنوعی تولید یا ویرایش شده باشد به طور کلی ممنوع است.
خبرگزاری فرانسه یا AFP قواعد نسبتا سختگیرانهتری دارد و نه تنها از خود از تصاویر تولید شده یا دستکاری شده حتی در حد بهبود کیفیت با هوش مصنوعی استفاده نمیکنند بلکه به صراحت میگوید سایر مشارکتکنندگان آزاد مانند شهروندخبرنگاران نباید محتوای ساخته شده با هوش مصنوعی ارائه دهند. AFP همچنین تاکید میکند که عکاسان اجازه ندارند برای بهبود کیفیت تصویر هیچ چیزی را در تصاویر دستکاری کنند.
سایر رسانههای معتبر در جهان نیز قواعد مشابهی دارند. از این رو بازنشر ویدیوها و تصاویر نادرست حتی به عنوان اثر هنری ممکن است منجر به عدم انتشار نسخههای دیگر در خبرگزاریهای بینالمللی و معتبر شود.
بازنشر نسخههای اصلی و دستکاری نشده کمک بزرگی به روزنامهنگاران و پژوهشگران حوزه حقوق بشر خواهد بود؛ چرا که آنها به اسناد واقعی نیاز بیشتری دارند تا تصاویر تکاندهنده با کیفیت بالا.
در عین حال در بسیاری از موارد کاربران درباره ساختگی یا غیرساختگی بودن محتوایی که بازنشر میکنند اطلاعی ندارند. در اینجا شاید بتوان یک دستورالعمل ساده و کاربردی تعریف کرد:
شما همچنین میتوانید به فکتنامه مراجعه کنید. در شبکههای اجتماعی زیر ویدیوها و تصاویری که ممکن است نادرست یا دستکاری شده باشند فکتنامه را منشن کنید تا ما آن را بررسی کنیم.