برو به محتوای اصلی
  • فکت‌نامه چیست؟
  • روش کار ما
English
پادکست
جستجو
خانهفکت‌خانهدرستی‌سنجی

انتشار تصاویر دستکاری شده اعتراضات ۱۴۰۴ در شبکه‌های اجتماعی

درستی‌سنجی

زمان خواندن: ۵ دقیقه

اگر وقت ندارید …

  • در اعتراضات دی ماه ۱۴۰۴ در کنار تصاویر دلخراش و تکان‌دهنده فراوان واقعی، تصاویر بازسازی شده با هوش مصنوعی هم منتشر شد.
  • در برخی موارد کاربران تلاش کردند برای افزایش کیفیت و وضوح، با استفاده از هوش مصنوعی اصلاحاتی روی برخی تصاویر انجام دهند.
  • در مواردی هم تصاویر واقعی را مبنای ساخت آثار هنری قرار دادند، آثاری که شباهت زیادی به نسخه اصلی داشتند.
  • انتشار این تصاویر منجر به زیر سوال بردن تصاویر واقعی از جانب رسانه‌های نزدیک به حکومت شد.
  • نشانه‌های استفاده از هوش مصنوعی می‌تواند اعتبار اسناد مرتبط با اعتراضات و نقض حقوق بشر را زیر سوال ببرد.
  • بازنشر تصاویر نادرست یا دستکاری‌شده، دسترسی به شواهد واقعی را برای روزنامه‌نگاران و نهادهای حقوق بشری دشوار می‌کند.
  • این روند باعث بی‌اعتمادی عمومی و کاهش حساسیت نسبت به تصاویر واقعی می‌شود، ابزاری که حکومت‌ها از آن بهره می‌برند.

همزمان با انتشار خبرها و گزارش‌ها از اعتراضات دی ماه ۱۴۰۴ در ایران صحنه‌ها و تصاویر دلخراش و تکان‌دهنده فراوانی منتشر شد. اما در کنار تعداد زیادی ویدیو و عکس واقعی، تعدادی تصاویر با هوش مصنوعی دستکاری شده‌ و نسخه‌های غیر واقعی آنها به طور گسترده در شبکه‌های اجتماعی بازنشر می‌شوند. (لینک۱ ، لینک۲ ، لینک۳ ، لینک۴ ، لینک۵ ،‌ لینک۶ )

در پی انتشار تصاویر فراوان با کیفیت پایین و در شرایط قطعی اینترنت، برخی از کاربران یا رسانه‌ها برای افزایش وضوح تصاویر به سراغ ابزارهای هوش مصنوعی رفتند. با این وجود استفاده بیشتر از هوش مصنوعی در مواردی با هدف «تولید آثار هنری» منجر به تولید تصاویر و محتوای نادرست شد و در مواردی بیشتر از تصاویر واقعی در شبکه‌های اجتماعی منتشر شد. اتفاقی که منجر به زیرسوال بردن واقعیت از جانب رسانه‌های نزدیک به حکومت شد.

فکت‌نامه پیش‌تر تعداد قابل توجهی از این تصاویر را راستی‌آزمایی کرده است.

بهبود کیفیت یا تحریف واقعیت؟

در شرایط قطعی اینترنت و محدودیت‌های قابل توجه مخابره و انتقال تصاویر به خارج از کشور، تصاویری که از اعتراضات ثبت می‌شد اغلب کیفیت بسیار پایینی داشتند. در مواردی برخی کاربران تلاش کردند برای افزایش کیفیت، اصلاح فنی محدودی روی برخی تصاویر از جمله کمی روشن‌تر کردن، تنظیم کنتراست و کاهش نویز را روی برخی تصاویر انجام دهند.

یکی از نمونه های مهم تصویر زنی در میان اجساد است که بازسازی آن با هوش مصنوعی منجر به استفاده مکرر از تصویر دستکاری شده، شده‌است.

تصویر اصلی و واقعی، برای اولین بار در ۲۳ دی ۱۴۰۴ به همراه ویدیوهای کهریزک در کانال وحید آنلاین منتشر شد.

انتشار تصاویر دستکاری شده اما موجب شده در شبکه‌های اجتماعی هواداران جمهوری اسلامی آن را به «صهیونیست‌های دروغگو» نسبت دهند و خبرگزاری فارس آن را درستی‌سنجی کند.

یکی دیگر از تصاویری که به طور گسترده بازنشر شده نیز نسخه دستکاری شده‌ یک عکس واقعی از زنی است که یکی از پیکرهای کشته‌شدگان را در آغوش گرفته است:

تصویری از ایستادن دو معترض در برابر آبپاش ضدشورش در همدان هم با هوش مصنوعی بازسازی شده (لینک۱ ، لینک۲)

همچنین تصویر مربوط به سلاح نیمه‌سنگین در صادقیه تهران نیز به صورت دستکاری شده بازنشر شد.

علاوه بر دستکاری تصاویر، برخی ویدیوها به طور کامل با هوش مصنوعی تولید شدند که آشکارا در آنها رفتارهای خشونت‌آمیز از جانب معترضان پررنگ‌تر دیده می‌شد.

فکت‌نامه همچنین ادعای تصادف عمدی معترضان با موتورهای پلیس که با هوش مصنوعی دستکاری شده بود را راستی‌آزمایی کرده و به آن نشان نادرست داده است.

چرا بازنشر گسترده تصاویر غیرواقعی یا دستکاری شده خطرناک است؟

در مواردی از جمله اعتراضات یا صحنه‌هایی که بازتاب‌دهنده نقض حقوق بشر هستند، گاهی تنها یک نشانه از هوش مصنوعی در یک سند می‌تواند اعتبار آن را زیر سوال ببرد. برای نمونه تصاویر متعدد از مردی که در روزهای ابتدایی اعتراضات مقابل نیروهای یگان ویژه روی زمین نشسته بود مسیر ادعاهای نادرست را از جمله انتساب آن به تایلند هموار می‌کرد.

در این میان بازنشر گسترده تصاویر نادرست یا دستکاری شده کار را برای روزنامه‌نگاران، نهادهای مدافع حقوق بشر و مراجع قضایی دشوارتر می‌کند؛ چرا که یافتن تصویر واقعی سخت‌تر می‌شود.

از طرف دیگر وقتی تصاویر واقعی با افکت و بازسازی منتشر می‌شوند، مرز میان خبر واقعی و «سرگرمی» از بین می‌رود. این نه تنها منجر به افزایش بی‌اعتمادی نسبت به تصاویر واقعی خواهد شد بلکه حساسیت عمومی را نسبت به موارد نقض حقوق بشر کاهش می‌دهد.

ایجاد بی‌اعتمادی عمومی یکی از ابزارهای حکومت‌ها در مواقعی است که افشای حقیقت می‌تواند برایش زیان‌بار باشد. یک پژوهش نشان می‌دهد ویدیوهای ساختگی و دستکاری شده با محتوای سیاسی می‌توانند احساس «عدم قطعیت» و «بی‌اعتمادی» در فضای عمومی به دنبال داشته باشند.

استاندارد حرفه‌ای رسانه‌ها در بازنشر تصاویر با هوش مصنوعی چیست؟

بسیاری از رسانه‌ها و خبرگزاری‌ها از جمله آسوشیتدپرس با صراحت می‌گویند عکس‌ها و ویدیو هایشان را تغییر نمی‌دهند و تصاویر و ویدیوهایی را که با هوش مصنوعی دستکاری یا ساخته‌ شده‌اند را برای انتشار نمی‌پذیرند مگر این که خود تصویر تولید شده با هوش مصنوعی موضوع خبر باشد.

خبرگزاری رویترز هم سیاست مشابهی را دنبال می‌کند و در صفحه مربوط به استانداردها و ارزش‌ها، در بخش مربوط به هوش مصنوعی اعلام کرده که در حوزه تصویر از «واقعیت دست نخورده» استفاده می‌کند و از هوش مصنوعی چه برای تولید و چه برای بهبود کیفیت هیچ تصویری استفاده نمی‌‌کند. رویترز می‌افزاید که استفاده از هر عنصر بصری که با هوش مصنوعی تولید یا ویرایش شده باشد به طور کلی ممنوع است.

خبرگزاری فرانسه یا AFP قواعد نسبتا سخت‌گیرانه‌تری دارد و نه تنها از خود از تصاویر تولید شده یا دستکاری شده حتی در حد بهبود کیفیت با هوش مصنوعی استفاده نمی‌کنند بلکه به صراحت می‌گوید سایر مشارکت‌کنندگان آزاد مانند شهروندخبرنگاران نباید محتوای ساخته شده با هوش مصنوعی ارائه دهند. AFP همچنین تاکید می‌کند که عکاسان اجازه ندارند برای بهبود کیفیت تصویر هیچ چیزی را در تصاویر دستکاری کنند.

سایر رسانه‌های معتبر در جهان نیز قواعد مشابهی دارند. از این رو بازنشر ویدیوها و تصاویر نادرست حتی به عنوان اثر هنری ممکن است منجر به عدم انتشار نسخه‌های دیگر در خبرگزاری‌های بین‌المللی و معتبر شود.

شهروندان و کاربران شبکه‌های اجتماعی چه می‌توانند بکنند؟

بازنشر نسخه‌های اصلی و دستکاری نشده کمک بزرگی به روزنامه‌‌نگاران و پژوهشگران حوزه حقوق بشر خواهد بود؛ چرا که آنها به اسناد واقعی نیاز بیشتری دارند تا تصاویر تکان‌دهنده با کیفیت بالا.

در عین حال در بسیاری از موارد کاربران درباره ساختگی یا غیرساختگی بودن محتوایی که بازنشر می‌کنند اطلاعی ندارند. در اینجا شاید بتوان یک دستورالعمل ساده و کاربردی تعریف کرد:

  • آیا تصویر بیش‌از اندازه شفاف نیست؟ پاسخ به این پرسش باید در بازنشر محتوا تاثیر داشته باشد.
  • آیا روی تصویر نشانه‌های عجیب هست؟ نوشته‌های نامفهوم، دست‌های غیرعادی، پلاک‌های نامشخص و … تصویر را بازنشر نکنید.
  • آیا چند منبع مستقل هم‌زمان همان ادعا یا تصویر یا ویدیو را بازنشر کرده‌اند؟ اگر نه، دست نگه دارید.
  • آیا ناشر مطلب گفته که تصویر را با هوش مصنوعی بازسازی کرده؟ آن را هیچ وقت منتشر نکنید.

شما همچنین می‌توانید به فکت‌نامه مراجعه کنید. در شبکه‌های اجتماعی زیر ویدیوها و تصاویری که ممکن است نادرست یا دستکاری شده باشند فکت‌نامه را منشن کنید تا ما آن را بررسی کنیم.

پرش به فهرست
فکت‌نامه اولین سایت درستی‌سنجی (فکت‌چکینگ) سیاسی درباره ایران است.پیشنهاد سوژه
فکت‌نامه اولین سایت درستی‌سنجی (فکت‌چکینگ) سیاسی درباره ایران است.پیشنهاد سوژه

آخرین گزارش‌ها