رسانههای اجتماعی همزمان با آغاز جنگ حماس و اسرائیل چنان مملو از تصاویر و اطلاعات جعلی و گمراه کننده شده که بررسی تمامی آنها کار بسیار دشوار و زمانبری است، به ویژه که تولیدکنندگان این محتواهای دروغین با بکارگیری ابزارهای هوش مصنوعی سرعت عمل، حجم تولید و ظرافت کار خود را افزایش دادهاند.
اکثر اطلاعات نادرستی که در آغاز جنگ (۷ اکتبر) منتشر شد مربوط به ویدئوها و تصاویر قدیمی منتسب به درگیریها بین اسرائیل و حماس بود اما با گذشت زمان، تصاویری در شبکههای اجتماعی منتشر شده که ردیابی منشا اولیه آنها غیرممکن است چون که با استفاده از هوش مصنوعی (AI) تولید شدهاند.
یکی از این تصاویر تولید شده توسط هوش مصنوعی که در فضای مجازی پخش شده است، عکس نوزادی است که زیر آوار ناشی از حملات اسرائیل به غزه مدفون شده است.
بسیاری از مردم، از جمله تعدادی از روزنامه نگاران مستقر در غزه، همچنان آن را به عنوان نمادی از مظلومیت ساکنان نوار غزه بازنشر میکنند.
اما چگونه میتوان تشخیص داد که این تصویر با هوش مصنوعی تولید شده است؟ اولین چیزی که بسیار قابل توجه است، حالت بیش از حد اغراقآمیز چهره این کودک به خصوص در بخش چانه و پیشانی اوست.
همچنین وقتی با دقت بیشتری به عکس نگاه میکنیم، به نظر میرسد که این کودک انگشتان اضافی دارد. این به این دلیل است که اگرچه هوش مصنوعی در ایجاد تصاویری شبیه انسان بهتر از گذشته عمل میکند اما همچنان در بازتولید برخی از قسمتهای بدن از جمله دستها و پاهای انسان مشکل دارد.
اگرچه تشخیص جعلی بودن این عکس آسان است ولی پیشرفت فناوری قطعا به زودی به تولید تصاویری منجر خواهد شد که بررسی آنها با چند نگاه ریزبینانه ممکن نخواهد بود.
به کانال تلگرام یورونیوز فارسی بپیوندید
البته اخیرا برخی پلتفرمهای هوش مصنوعی مانند Dall-E و Stable Diffusion که بر پایه اطلاعات ارسالی تصویر تولید میکنند، محدودیتهایی را برای تولید تصاویر سیاسی ایجاد کردهاند تا بتوانند به کند شدن سرعت تولید اطلاعات نادرست مرتبط با جنگ حماس و اسرائیل کمک کنند.
source