جنگ 12 روزه اسرائیل با ایران تنها در میدان و به‌صورت فیزیکی نبود بلکه وجه پنهانی در فضای مجازی داشت که در اصطلاح ناتو به آن جنگ شناختی می‌گویند. ناتو در تعریف آن می‌نویسد: «فعالیت‌هایی که هم‌زمان با سایر ابزارهای قدرت انجام می‌شوند تا بر نگرش‌ها و رفتارها به ‌واسطة محافظت یا مختل کردن شناخت‌های انسانی تأثیر بگذارند. این فعالیت‌ها بسیار متفاوت هستند و ممکن است شامل مؤلفه‌های فرهنگی یا شخصی همانند روان‌شناسی اجتماعی، نظریه بازی و اخلاق باشند. 


بنابراین، فعالیت‌های جنگ مدرن لزوماً دارای یک جزء جنبشی یا پیامدهای مستقیم ملموس مانند دستیابی به سرزمین‌ها یا منابع نیست. هدف جنگ ‌شناختی حمله به عقلانیت و تحقیر آن است تا از آن طریق به نظام‌ها ضربه بزند. در این مرحله، اهداف غیرنظامی درگیر و جنگ پیچیده‌تر می‌شود.». به این‌ترتیب، دشمن در کنار درگیری فیزیکی فضای دیگری از کشور هدف را مورد حمله قرار می‌دهد که بنابر تعریف ناتو در بُعد ذهنی یا تأثیرگذاری شناختی عموم مردم متمرکز می‌شود. از این جهت،  برخی از مقالات علمی یا پایگاه‌های خبری نیز آن را عملیات روانی می‌نامند؛ نامی آشنا که در سخنرانی‌های رهبر انقلاب به آن اشاره شده است.


حال، در تهاجم رژیم صهیونیستی به ایران وجه پنهانی جنگ در شبکه‌های اجتماعی به‌وِیژه توییتر، تلگرام و تیک تاک با قدرت بیشتری دنبال می‌شد. هدف هم بازنمایی عدم مشروعیت جمهوری اسلامی در عرصه حاکمیتی کشور و جهانی بود. در این حمله چه نام آن جنگ شناختی باشد و چه عملیات روانی باید گفت دشمن با تکرار و برجسته‌سازی وارونه‌سازی واقعیت، اخبار جعلی، انتساب جعلی ودیپ فیک‌ها توانست بخشی از تأثیرگذاری خود بر اذهان عمومی را داشته باشد. موارد مذکوری که هر کدام برای خود مصادیقی در انتخابات آمریکا یا جنگ اوکراین و روسیه دارند و تاکنون توسط مقالات معتبر علمی و تجربه‌های خبری مهم به آنان اشاره شده است. 


اکنون، در این یادداشت قصد من تحلیل و بررسی آنان بنابر جنگ 12 روزه نیست؛ بلکه بر آنم تا توصیفی از نقش دیپ فیک‌ها یا جعل عمیق بر اذهان عمومی انجام دهم. البته این نکته فراموش نگردد که هر توصیف یا تحلیلی خالی از عیب نیست و امکان تأیید یا رد مصادیق این یادداشت نیز وجود دارد اما هدف از نوشتار حاضر آگاه‌سازی مخاطبین برابر فنون عملیات‌ شناختی است. با این اقدام می‌توان هزینه درگیری‌های شناختی آینده را کاهش داد و مردم به‌ویژه قشر خاکستری را با هدف دشمن در ضربه به امنیت ملی آشنا ساخت. 


دیپ فیک چیست؟
دیپ فیک‌ها شکل جدیدی از رسانه‌های مصنوعی Synthetic media هستند که  بر پایه یک مصداق واقعی تولید می‌شوند. در اوایل سال 2018، گروهی در شبکه اجتماعی رددیت با استفاده از هوش مصنوعی اقدام به تعویض چهره‌های افراد مشهور با ویدئوهای مستهجن کردند تا پدیده Deep fake را مورد توجه رسانه‌ها قرار دهند.

بنابراین، از آن زمان دانشمندان شناختی درخواست رسمی توجه دولت‌ها را به آن داشتند. آنان می‌خواستند جهت رفع خلل‌های معرفتی در دریافت کنندگان پیام‌های ساختگی چاره‌ای اندیشیده شود و مخاطبان را بیش از این دچار گمراهی نکند. از نگرش متخصصان جعل عمیق تصاویر یا اصوات تنها در فریب افکار عمومی کاربرد نداشت و ضربه مهم‌تر در اعتماد کاربران به قابلیت اطمینان اطلاعات بصری بود. چنان‌که مصداق بارز آن در ویدئو جعلی زلنسکی مبنی بر تسلیم ارتش مقابل روسیه در  سال 2022 مشاهده شد. هر چند این ویدئو از کیفیت بالا و مناسب برخوردار نبود اما در آن زمان کارشناسان هشدار دادند این نمونه ابتدایی می‌تواند هشدار‌دهنده موجی از دیپ‌فیک‌های پیچیده‌تر در آینده باشد. 
در سال بعد چنین اتفاقی در دو سطح مذهبی و سیاسی رخ داد و سبب بازدید میلیاردی در صفحات مجازی شد.

در سال 2023 کلیپی ساختگی از پاپ فرانسیس با کاپیشن سفید پفی بسیار مورد بازدید قرار گرفت و به فاصله اندک زمانی بعد،  فایل صوتی ساختگی از صدای رهبر حزب کارگر انگلیس منتشر شد که در حال رفتاری نامناسب با کارکنان خود بود. یا در مصداقی دیگر در همان سال یک حساب توییتری ادعای انفجار در نزدیکی پنتاگون را با عکسی ساختگی مطرح کرد. سپس این خبر جعلی و تصویر ساختگی آن در بلومبرگ و راشاتودی بازنشر یافت و درنتیجه آن شاخص بورس آمریکا سه درصد افت کرد. سخنگوی پنتاگون و آتش‌نشانی آرلینگتون وجود چنین انفجار یا آتش‌سوزی را قاطعانه تکذیب کردند و بنابر بررسی عکس مذکور توسط شبکه‌های عصبی مشخص شد که حصارها و ساختمان ناپیوستگی غیرطبیعی دارند. آسوشیتد پرس در این زمینه گفت این واقعه نشان داد که حتی یک تصویر جعلی واحد می‌تواند در زمانی کوتاه «لرزه بر بازارها» بیندازد و افکار عمومی و سرمایه‌گذاران را فریب دهد. بنابراین، جعل عمیق بازوی تبلیغاتی انتشار اخبار جعلی به‌شمار می‌رفت و سبب تضعیف حقیقت، دموکراسی و ضربه به اعتماد ملی در صحت داشتن اخبار رسانه‌ها می‌شد. چنان‌که مقاله‌ای علمی در سال 2023 درباره آن نوشت:« تشویق شک و تردید نسبت به رسانه‌های تصویری ممکن است ناخواسته اثر نامطلوبی داشته باشد و احتمال اینکه مردم شواهد ویدیویی واقعی ارائه شده را به طور کامل انکار کنند، افزایش یابد.

در حالی‌که مداخلات پیشگیرانه‌ای از جمله برچسب‌گذاری برای اطلاعات نادرست می‌تواند راهکار مفیدی برای مبارزه با آنان باشد، برچسب‌گذاری دیپ‌فیک‌ها ممکن است تنها آسیب‌های معرفتی‌شان را افزایش دهد. به این‌ترتیب که تحقیقات کمی در مورد اثربخشی برچسب‌گذاری دیپ‌فیک‌ها می‌گوید اگرچه آنان توانایی افراد در شناسایی دیپ‌فیک‌ها را بهبود بخشیده‌اند اما توانایی شرکت‌کنندگان در شناسایی صحیح رسانه‌های واقعی را نیز 9٪ کاهش داده‌اند.»


کاهش اعتماد به رسانه، مهم‌ترین چالش شناختی متخصصان است و امروز با نرم‌افزارهایی همانند Midjournay-V5این خطر بیش از چهار سال گذشته به‌ویژه در زمان جنگ اسرائیل با ایران احساس می‌شود. 
مشهورترین دیپ فیک‌های جنگ اسرائیل با ایران


در جریان حملات نظامی رژیم صهیونیستی به ایران حجم عظیمی از تصاویر و ویدئوهای جعلی در شبکه‌های اجتماعی منتشر شد. این تصاویر با هدف روانی – سیاسی جهت شکل‌دهی به افکار عمومی، ترساندن مردم یا نابودی اعتماد به رسانه  طراحی و منتشر شدند. در این زمینه شبکه‌های اجتماعی، از جمله پلتفرم X ، تلگرام، اینستاگرام و TikTok، بسیار فعال بودند. کلیپ‌ها و عکس‌هایی که یا متکی بر هوش مصنوعی بودند و یا با اخذ از وقایع قدیمی نسخه اصلاحی آن را جعل می‌کردند؛ در برخی موارد نیز همان‌ قدیمی‌ها مجدد بازنشر و با متنی دروغی منتشر می‌شدند. در نتیجه بسیاری از آنان قبل تأیید راستی‌آزمایان میلیونی بازدید جذب می‌کردند و تأثیر منفی خود را بر کاربران می‌گذاشتند. 


برای مثال در کانال‌های تلگرامی و برخی از شبکه‌های تلویزیونی محلی روس زبان، تصاویر حملات ایران به فلسطین اشغالی به‌ویژه تل‌آویو با روش‌های افکت و هوش مصنوعی بسیار اغراق‌آمیز منتشر می‌شد. در این راستا یک کانال صحت‌سنجی اخبار روسی به‌نام Provereno.Media با استفاده از Deep fake metro میزان واقعی یا ساختگی تصاویر را مشخص می‌کرد و در پایان بر آنان برچسب دروغ محض یا به احتمال زیاد کذب می‌زد. این پایگاه صحت‌سنجی شاید منشأ تصاویر جعلی درباره حمله ایران به اسرائیل را معرفی می‌کرد اما تأثیری که بر مخاطبان می‌گذاشت ارائه یک تصویر بی‌اعتمادی نسبت به اقدامات ایران در تقابل با رژیم صهیونیستی بود. زیرا برای ذهن کاربر خارجی دیگر هر خبری مبنی بر پاسخ نظامی ایران بیشتر یک خبر جعلی به‌شمار می‌رفت و مخاطب دیگر نسبت به آن اعتماد را از دست داده بود. البته اغراق ویدئوهای موشکی ایران تنها ابزار ایجاد بدبینی در کاربر نبود بلکه اکانت‌های اسرائیلی فارسی‌زبان و سلطنت‌طلبان با بازنشر ویدئوهای قدیمی تجمعات و اعتراضات در ایران چنین وانمود می‌کردند که پس از حملات، موج تازه‌ای از نارضایتی عمومی علیه حکومت و حمایت از اقدام نظامی اسرائیل در داخل ایران به‌راه افتاده است.

مرکز مطالعه استراتژی هند و واحد راستی‌آزمایی بی‌بی‌سی انگلیسی چنین مسأله‌ای را تأیید کردند و گفتند این کلیپ‌ها تنها جهت نمایش اغراق‌آمیز شادی مردم ایران از حمله به جمهوری اسلامی یا القای وجود اعتراضات گسترده ضد حکومتی بازنشر یافته‌اند. یکی از مصادیق برجسته این موضوع نیز که بازنشر بالایی در توییتر، تیک‌تاک و اینستاگرام داشت، ویدئویی مربوط به پایکوبی و جشن مردم در یکی از تونل‌ها بود تا آن را به‌عنوان استقبال ایرانیان از حمله اسرائیل معرفی نمایند. پایگاه خبری یورونیوز اعلام کرد این ویدئو متعلق به اکانتی در اینستاگرام در شهریور 1402 است و هیچ ارتباطی به حملات اخیر رژیم صهیونیستی ندارد. یا در مثالی دیگر  ارتش اسرائیل در راستای ضربه به اعتماد و فریب افکار عمومی، ویدئویی از حمله در ورودی زندان اوین منتشر کرد. هانی فرید، استاد علوم کامپیوتر در دانشگاه کالیفرنیا از بنیانگذاران شرکت GetReal Security جز اولین نفراتی بود که در صفحه لینکدین خود جعلی بودن آن را به همراه اشیاء اضافه شده اثبات کرد. 


بنابراین، دور تند دیپ فیک‌ها در تهاجم اسرائیل به ایران مشخص بود اما باید راهکارهایی در تقابل با آنان ایجاد می‌شد تا بخشی از حملات خنثی شوند. در این راستا، بررسی تجربه برخی کشورها و توصیه متخصصین می‌تواند راهگشایی برای ما باشد. 


راهکارهای مقابله با دیپ فیک چیست؟ 
شاید اگر هوش مصنوعی مولد در دهه‌های ابتدایی 2010 میلادی به‌سمت پیشرفت در تولید رسانه‌های مصنوعی نمی‌رفت، اکنون شاهد نگرانی پدیده‌های تصاویر یا صوت‌های جعلی نبودیم. اما در هر صورت دایره پیشرفت علم همانند چرخش کره زمین قابل توقف نیست و ما نسبت به آن باید هوشمندانه برخورد کنیم. امروزه این آگاهی در جهان به‌صورت مقابله دولت‌ها و مردم با خطرات روزافزون رسانه‌های مصنوعی تعریف شده است. گام‌هایی هماهنگ که اگر دولت یا مردم بر همدیگر پیشی بگیرند دیگر روند مقابله با آنان سخت خواهد شد. از منظر دولتی اگر به اتحادیه اروپا توجه کنیم می‌بینیم قوانین جدید این اتحادیه در قالب "قانون هوش مصنوعی"، الزام به برچسب‌گذاری محتوای دیپ‌فیک و ممنوعیت استفاده مخرب از آن را پیش‌بینی کرده است. در چین نیز از ابتدای سال 2023 مقررات سختی برای Deep Synthesisوضع شد از جمله برچسب‌گذاری«مجازی/ساخته‌شده» بر محتواهای تولید شده با هوش مصنوعی و ممنوعیت انتشار دیپ فیک‌های گمراه‌کننده. یا در کره جنوبی به دنبال افزایش نگرانی‌ها از دیپ‌فیک قوانین جدیدی در سال ۲۰۲۴ تصویب شد که هرگونه ویدئوی دیپ‌فیک انتخاباتی را در بازه‌ی ۹۰ روز قبل از انتخابات جرم‌انگاری می‌کند؛ حتی اگر مستقیماً آسیب قابل‌اثباتی نداشته باشد.
 اما در طرفی دیگر، مردم باید بخش تفکر انتقادی یا سواد رسانه‌ای خود را افزایش دهند.

موضوعی که در تحقیق یکی از اساتید دانشگاه آراکانزاس(ژانویه 2025) به‌صورت مراقبت از سوگیری تایید، تشدید علاقه و توهم دانایی بروز می‌کند. این استاد دانشگاه می‌نویسد:« سوگیری تایید، تشدید علاقه به موضوع مورد نظر و توهم دانایی مکانیسم‌هایی هستند که ما را مستعد باور به مطالب دیپ‌فیک می‌کنند. سوگیری تایید، تمایل به جستجو و ترجیح اطلاعاتی است که با باورهای از پیش موجود ما همسو باشد؛ این امر در نتیجه سبب چشم بستن ما بر شواهدی متضاد از اطلاعات ذخیره شده ذهن ما خواهد شد. اما در تشدید علاقه به موضوع موردنظر باید گفت وقتی کسی از نظر احساسی در باور خود سرمایه‌گذاری کرده باشد، تمایل دارد که بر درست بودن آن تأکید ورزد و از موضع خود عقب‌نشینی نکند. اگر هم اشتباه او در باور نسبت به موضوعی یا محتوای نادرست اثبات گردد، به احتمال زیاد او هم‌چنان به دفاع از صحت آن خواهد پرداخت و اصلاح محتوا چندان مفید نخواهد بود. (برای مثال اگر ویدئو یا تصویری با هوش مصنوعی ساخته شود و پس از مدتی این موضوع مشخص شود، اعلان آن در مراجع عمومی کمک زیادی به اذهان عمومی نخواهد کرد.) و در آخر توهم دانایی، یک حالت شناختی است که افراد بنابر دانش و تخصص خود باور دارند فریب دیپ فیک‌ها را نخواهند خورد.

این توهم در مورد مهارت‌های خودمان منجر به اعتماد به نفس بیش از حد می‌شود و ما را در برابر دیپ‌فیک‌ها، به ویژه در سناریوهای پرخطر مانند کلاهبرداری مالی یا مبارزات سیاسی، آسیب‌پذیرتر می‌کند. به این‌ترتیب،  سه سوگیری تایید، تشدید علاقه و توهم دانایی محیطی را ایجاد می‌کنند که به دیپ‌فیک‌ها اجازه سوء استفاده از آسیب‌پذیری‌های فردی می‌دهند و اعتماد جمعی ما را به رسانه‌های دیجیتال از بین می‌برند.». در ادامه دکتر مریدت تیلور افزون بر راه‌حل‌های شناختی به راهکارهای اخلاقی اشاراتی دارد تا نسبت به بازنشر دیپ فیک‌ها یا باورپذیری آنان مسئولیت اخلاقی تعریف کند. 


اما در طرف دیگر، نقش متخصصان در شناسایی ویدئوها یا اصوات جعلی کمتر از مردم نیست. زیرا بنابر مقاله‌ای در سایت مجله میس اینفورمیشن پروویو، کارشناسان باید در دو سطح اقدام کنند: نخست، برای محققان ضروری است که به طور مداوم چشم‌انداز در حال تحول رسانه‌های مصنوعی را رصد و به طور انتقادی ارزیابی کنند. دوم، برای جامعه تحقیقاتی به طور فزاینده‌ای حیاتی است که در سراسر شکاف دانشگاهی و صنعتی در توسعه روش‌های باز، قابل اعتماد و شفاف برای شناسایی رسانه‌های تولید شده توسط هوش مصنوعی تلاش کنند و ابزارهای لازم را برای مقابله با ظهور این پدیده جدید در اختیار عموم قرار دهند.
بنابراین، راهکار مقابله با دیپ فیک فقط به دولت و مردم خلاصه نمی‌شود بلکه باید همانند اضلاع مثلثی هماهنگ خطر شناختی آن را کاهش کنند. 
فائزه سادات حسینی

تاریخ انتشار: 1404/05/04

نظر بدهید
user
envelope.svg
pencil