ویژههای فکرت
مجموعه فکرت درصدد است، مسائل روزِ حوزه اندیشه را با نگاهی جدید و در قالبهای متنوع رسانهای به تصویر بکشد.
جنگ 12 روزه اسرائیل با ایران تنها در میدان و بهصورت فیزیکی نبود بلکه وجه پنهانی در فضای مجازی داشت که در اصطلاح ناتو به آن جنگ شناختی میگویند. ناتو در تعریف آن مینویسد: «فعالیتهایی که همزمان با سایر ابزارهای قدرت انجام میشوند تا بر نگرشها و رفتارها به واسطة محافظت یا مختل کردن شناختهای انسانی تأثیر بگذارند. این فعالیتها بسیار متفاوت هستند و ممکن است شامل مؤلفههای فرهنگی یا شخصی همانند روانشناسی اجتماعی، نظریه بازی و اخلاق باشند.
بنابراین، فعالیتهای جنگ مدرن لزوماً دارای یک جزء جنبشی یا پیامدهای مستقیم ملموس مانند دستیابی به سرزمینها یا منابع نیست. هدف جنگ شناختی حمله به عقلانیت و تحقیر آن است تا از آن طریق به نظامها ضربه بزند. در این مرحله، اهداف غیرنظامی درگیر و جنگ پیچیدهتر میشود.». به اینترتیب، دشمن در کنار درگیری فیزیکی فضای دیگری از کشور هدف را مورد حمله قرار میدهد که بنابر تعریف ناتو در بُعد ذهنی یا تأثیرگذاری شناختی عموم مردم متمرکز میشود. از این جهت، برخی از مقالات علمی یا پایگاههای خبری نیز آن را عملیات روانی مینامند؛ نامی آشنا که در سخنرانیهای رهبر انقلاب به آن اشاره شده است.
حال، در تهاجم رژیم صهیونیستی به ایران وجه پنهانی جنگ در شبکههای اجتماعی بهوِیژه توییتر، تلگرام و تیک تاک با قدرت بیشتری دنبال میشد. هدف هم بازنمایی عدم مشروعیت جمهوری اسلامی در عرصه حاکمیتی کشور و جهانی بود. در این حمله چه نام آن جنگ شناختی باشد و چه عملیات روانی باید گفت دشمن با تکرار و برجستهسازی وارونهسازی واقعیت، اخبار جعلی، انتساب جعلی ودیپ فیکها توانست بخشی از تأثیرگذاری خود بر اذهان عمومی را داشته باشد. موارد مذکوری که هر کدام برای خود مصادیقی در انتخابات آمریکا یا جنگ اوکراین و روسیه دارند و تاکنون توسط مقالات معتبر علمی و تجربههای خبری مهم به آنان اشاره شده است.
اکنون، در این یادداشت قصد من تحلیل و بررسی آنان بنابر جنگ 12 روزه نیست؛ بلکه بر آنم تا توصیفی از نقش دیپ فیکها یا جعل عمیق بر اذهان عمومی انجام دهم. البته این نکته فراموش نگردد که هر توصیف یا تحلیلی خالی از عیب نیست و امکان تأیید یا رد مصادیق این یادداشت نیز وجود دارد اما هدف از نوشتار حاضر آگاهسازی مخاطبین برابر فنون عملیات شناختی است. با این اقدام میتوان هزینه درگیریهای شناختی آینده را کاهش داد و مردم بهویژه قشر خاکستری را با هدف دشمن در ضربه به امنیت ملی آشنا ساخت.
دیپ فیک چیست؟
دیپ فیکها شکل جدیدی از رسانههای مصنوعی Synthetic media هستند که بر پایه یک مصداق واقعی تولید میشوند. در اوایل سال 2018، گروهی در شبکه اجتماعی رددیت با استفاده از هوش مصنوعی اقدام به تعویض چهرههای افراد مشهور با ویدئوهای مستهجن کردند تا پدیده Deep fake را مورد توجه رسانهها قرار دهند.
بنابراین، از آن زمان دانشمندان شناختی درخواست رسمی توجه دولتها را به آن داشتند. آنان میخواستند جهت رفع خللهای معرفتی در دریافت کنندگان پیامهای ساختگی چارهای اندیشیده شود و مخاطبان را بیش از این دچار گمراهی نکند. از نگرش متخصصان جعل عمیق تصاویر یا اصوات تنها در فریب افکار عمومی کاربرد نداشت و ضربه مهمتر در اعتماد کاربران به قابلیت اطمینان اطلاعات بصری بود. چنانکه مصداق بارز آن در ویدئو جعلی زلنسکی مبنی بر تسلیم ارتش مقابل روسیه در سال 2022 مشاهده شد. هر چند این ویدئو از کیفیت بالا و مناسب برخوردار نبود اما در آن زمان کارشناسان هشدار دادند این نمونه ابتدایی میتواند هشداردهنده موجی از دیپفیکهای پیچیدهتر در آینده باشد.
در سال بعد چنین اتفاقی در دو سطح مذهبی و سیاسی رخ داد و سبب بازدید میلیاردی در صفحات مجازی شد.
در سال 2023 کلیپی ساختگی از پاپ فرانسیس با کاپیشن سفید پفی بسیار مورد بازدید قرار گرفت و به فاصله اندک زمانی بعد، فایل صوتی ساختگی از صدای رهبر حزب کارگر انگلیس منتشر شد که در حال رفتاری نامناسب با کارکنان خود بود. یا در مصداقی دیگر در همان سال یک حساب توییتری ادعای انفجار در نزدیکی پنتاگون را با عکسی ساختگی مطرح کرد. سپس این خبر جعلی و تصویر ساختگی آن در بلومبرگ و راشاتودی بازنشر یافت و درنتیجه آن شاخص بورس آمریکا سه درصد افت کرد. سخنگوی پنتاگون و آتشنشانی آرلینگتون وجود چنین انفجار یا آتشسوزی را قاطعانه تکذیب کردند و بنابر بررسی عکس مذکور توسط شبکههای عصبی مشخص شد که حصارها و ساختمان ناپیوستگی غیرطبیعی دارند. آسوشیتد پرس در این زمینه گفت این واقعه نشان داد که حتی یک تصویر جعلی واحد میتواند در زمانی کوتاه «لرزه بر بازارها» بیندازد و افکار عمومی و سرمایهگذاران را فریب دهد. بنابراین، جعل عمیق بازوی تبلیغاتی انتشار اخبار جعلی بهشمار میرفت و سبب تضعیف حقیقت، دموکراسی و ضربه به اعتماد ملی در صحت داشتن اخبار رسانهها میشد. چنانکه مقالهای علمی در سال 2023 درباره آن نوشت:« تشویق شک و تردید نسبت به رسانههای تصویری ممکن است ناخواسته اثر نامطلوبی داشته باشد و احتمال اینکه مردم شواهد ویدیویی واقعی ارائه شده را به طور کامل انکار کنند، افزایش یابد.
در حالیکه مداخلات پیشگیرانهای از جمله برچسبگذاری برای اطلاعات نادرست میتواند راهکار مفیدی برای مبارزه با آنان باشد، برچسبگذاری دیپفیکها ممکن است تنها آسیبهای معرفتیشان را افزایش دهد. به اینترتیب که تحقیقات کمی در مورد اثربخشی برچسبگذاری دیپفیکها میگوید اگرچه آنان توانایی افراد در شناسایی دیپفیکها را بهبود بخشیدهاند اما توانایی شرکتکنندگان در شناسایی صحیح رسانههای واقعی را نیز 9٪ کاهش دادهاند.»
کاهش اعتماد به رسانه، مهمترین چالش شناختی متخصصان است و امروز با نرمافزارهایی همانند Midjournay-V5این خطر بیش از چهار سال گذشته بهویژه در زمان جنگ اسرائیل با ایران احساس میشود.
مشهورترین دیپ فیکهای جنگ اسرائیل با ایران
در جریان حملات نظامی رژیم صهیونیستی به ایران حجم عظیمی از تصاویر و ویدئوهای جعلی در شبکههای اجتماعی منتشر شد. این تصاویر با هدف روانی – سیاسی جهت شکلدهی به افکار عمومی، ترساندن مردم یا نابودی اعتماد به رسانه طراحی و منتشر شدند. در این زمینه شبکههای اجتماعی، از جمله پلتفرم X ، تلگرام، اینستاگرام و TikTok، بسیار فعال بودند. کلیپها و عکسهایی که یا متکی بر هوش مصنوعی بودند و یا با اخذ از وقایع قدیمی نسخه اصلاحی آن را جعل میکردند؛ در برخی موارد نیز همان قدیمیها مجدد بازنشر و با متنی دروغی منتشر میشدند. در نتیجه بسیاری از آنان قبل تأیید راستیآزمایان میلیونی بازدید جذب میکردند و تأثیر منفی خود را بر کاربران میگذاشتند.
برای مثال در کانالهای تلگرامی و برخی از شبکههای تلویزیونی محلی روس زبان، تصاویر حملات ایران به فلسطین اشغالی بهویژه تلآویو با روشهای افکت و هوش مصنوعی بسیار اغراقآمیز منتشر میشد. در این راستا یک کانال صحتسنجی اخبار روسی بهنام Provereno.Media با استفاده از Deep fake metro میزان واقعی یا ساختگی تصاویر را مشخص میکرد و در پایان بر آنان برچسب دروغ محض یا به احتمال زیاد کذب میزد. این پایگاه صحتسنجی شاید منشأ تصاویر جعلی درباره حمله ایران به اسرائیل را معرفی میکرد اما تأثیری که بر مخاطبان میگذاشت ارائه یک تصویر بیاعتمادی نسبت به اقدامات ایران در تقابل با رژیم صهیونیستی بود. زیرا برای ذهن کاربر خارجی دیگر هر خبری مبنی بر پاسخ نظامی ایران بیشتر یک خبر جعلی بهشمار میرفت و مخاطب دیگر نسبت به آن اعتماد را از دست داده بود. البته اغراق ویدئوهای موشکی ایران تنها ابزار ایجاد بدبینی در کاربر نبود بلکه اکانتهای اسرائیلی فارسیزبان و سلطنتطلبان با بازنشر ویدئوهای قدیمی تجمعات و اعتراضات در ایران چنین وانمود میکردند که پس از حملات، موج تازهای از نارضایتی عمومی علیه حکومت و حمایت از اقدام نظامی اسرائیل در داخل ایران بهراه افتاده است.
مرکز مطالعه استراتژی هند و واحد راستیآزمایی بیبیسی انگلیسی چنین مسألهای را تأیید کردند و گفتند این کلیپها تنها جهت نمایش اغراقآمیز شادی مردم ایران از حمله به جمهوری اسلامی یا القای وجود اعتراضات گسترده ضد حکومتی بازنشر یافتهاند. یکی از مصادیق برجسته این موضوع نیز که بازنشر بالایی در توییتر، تیکتاک و اینستاگرام داشت، ویدئویی مربوط به پایکوبی و جشن مردم در یکی از تونلها بود تا آن را بهعنوان استقبال ایرانیان از حمله اسرائیل معرفی نمایند. پایگاه خبری یورونیوز اعلام کرد این ویدئو متعلق به اکانتی در اینستاگرام در شهریور 1402 است و هیچ ارتباطی به حملات اخیر رژیم صهیونیستی ندارد. یا در مثالی دیگر ارتش اسرائیل در راستای ضربه به اعتماد و فریب افکار عمومی، ویدئویی از حمله در ورودی زندان اوین منتشر کرد. هانی فرید، استاد علوم کامپیوتر در دانشگاه کالیفرنیا از بنیانگذاران شرکت GetReal Security جز اولین نفراتی بود که در صفحه لینکدین خود جعلی بودن آن را به همراه اشیاء اضافه شده اثبات کرد.
بنابراین، دور تند دیپ فیکها در تهاجم اسرائیل به ایران مشخص بود اما باید راهکارهایی در تقابل با آنان ایجاد میشد تا بخشی از حملات خنثی شوند. در این راستا، بررسی تجربه برخی کشورها و توصیه متخصصین میتواند راهگشایی برای ما باشد.
راهکارهای مقابله با دیپ فیک چیست؟
شاید اگر هوش مصنوعی مولد در دهههای ابتدایی 2010 میلادی بهسمت پیشرفت در تولید رسانههای مصنوعی نمیرفت، اکنون شاهد نگرانی پدیدههای تصاویر یا صوتهای جعلی نبودیم. اما در هر صورت دایره پیشرفت علم همانند چرخش کره زمین قابل توقف نیست و ما نسبت به آن باید هوشمندانه برخورد کنیم. امروزه این آگاهی در جهان بهصورت مقابله دولتها و مردم با خطرات روزافزون رسانههای مصنوعی تعریف شده است. گامهایی هماهنگ که اگر دولت یا مردم بر همدیگر پیشی بگیرند دیگر روند مقابله با آنان سخت خواهد شد. از منظر دولتی اگر به اتحادیه اروپا توجه کنیم میبینیم قوانین جدید این اتحادیه در قالب "قانون هوش مصنوعی"، الزام به برچسبگذاری محتوای دیپفیک و ممنوعیت استفاده مخرب از آن را پیشبینی کرده است. در چین نیز از ابتدای سال 2023 مقررات سختی برای Deep Synthesisوضع شد از جمله برچسبگذاری«مجازی/ساختهشده» بر محتواهای تولید شده با هوش مصنوعی و ممنوعیت انتشار دیپ فیکهای گمراهکننده. یا در کره جنوبی به دنبال افزایش نگرانیها از دیپفیک قوانین جدیدی در سال ۲۰۲۴ تصویب شد که هرگونه ویدئوی دیپفیک انتخاباتی را در بازهی ۹۰ روز قبل از انتخابات جرمانگاری میکند؛ حتی اگر مستقیماً آسیب قابلاثباتی نداشته باشد.
اما در طرفی دیگر، مردم باید بخش تفکر انتقادی یا سواد رسانهای خود را افزایش دهند.
موضوعی که در تحقیق یکی از اساتید دانشگاه آراکانزاس(ژانویه 2025) بهصورت مراقبت از سوگیری تایید، تشدید علاقه و توهم دانایی بروز میکند. این استاد دانشگاه مینویسد:« سوگیری تایید، تشدید علاقه به موضوع مورد نظر و توهم دانایی مکانیسمهایی هستند که ما را مستعد باور به مطالب دیپفیک میکنند. سوگیری تایید، تمایل به جستجو و ترجیح اطلاعاتی است که با باورهای از پیش موجود ما همسو باشد؛ این امر در نتیجه سبب چشم بستن ما بر شواهدی متضاد از اطلاعات ذخیره شده ذهن ما خواهد شد. اما در تشدید علاقه به موضوع موردنظر باید گفت وقتی کسی از نظر احساسی در باور خود سرمایهگذاری کرده باشد، تمایل دارد که بر درست بودن آن تأکید ورزد و از موضع خود عقبنشینی نکند. اگر هم اشتباه او در باور نسبت به موضوعی یا محتوای نادرست اثبات گردد، به احتمال زیاد او همچنان به دفاع از صحت آن خواهد پرداخت و اصلاح محتوا چندان مفید نخواهد بود. (برای مثال اگر ویدئو یا تصویری با هوش مصنوعی ساخته شود و پس از مدتی این موضوع مشخص شود، اعلان آن در مراجع عمومی کمک زیادی به اذهان عمومی نخواهد کرد.) و در آخر توهم دانایی، یک حالت شناختی است که افراد بنابر دانش و تخصص خود باور دارند فریب دیپ فیکها را نخواهند خورد.
این توهم در مورد مهارتهای خودمان منجر به اعتماد به نفس بیش از حد میشود و ما را در برابر دیپفیکها، به ویژه در سناریوهای پرخطر مانند کلاهبرداری مالی یا مبارزات سیاسی، آسیبپذیرتر میکند. به اینترتیب، سه سوگیری تایید، تشدید علاقه و توهم دانایی محیطی را ایجاد میکنند که به دیپفیکها اجازه سوء استفاده از آسیبپذیریهای فردی میدهند و اعتماد جمعی ما را به رسانههای دیجیتال از بین میبرند.». در ادامه دکتر مریدت تیلور افزون بر راهحلهای شناختی به راهکارهای اخلاقی اشاراتی دارد تا نسبت به بازنشر دیپ فیکها یا باورپذیری آنان مسئولیت اخلاقی تعریف کند.
اما در طرف دیگر، نقش متخصصان در شناسایی ویدئوها یا اصوات جعلی کمتر از مردم نیست. زیرا بنابر مقالهای در سایت مجله میس اینفورمیشن پروویو، کارشناسان باید در دو سطح اقدام کنند: نخست، برای محققان ضروری است که به طور مداوم چشمانداز در حال تحول رسانههای مصنوعی را رصد و به طور انتقادی ارزیابی کنند. دوم، برای جامعه تحقیقاتی به طور فزایندهای حیاتی است که در سراسر شکاف دانشگاهی و صنعتی در توسعه روشهای باز، قابل اعتماد و شفاف برای شناسایی رسانههای تولید شده توسط هوش مصنوعی تلاش کنند و ابزارهای لازم را برای مقابله با ظهور این پدیده جدید در اختیار عموم قرار دهند.
بنابراین، راهکار مقابله با دیپ فیک فقط به دولت و مردم خلاصه نمیشود بلکه باید همانند اضلاع مثلثی هماهنگ خطر شناختی آن را کاهش کنند.
فائزه سادات حسینی
تاریخ انتشار: 1404/05/04
مجموعه فکرت درصدد است، مسائل روزِ حوزه اندیشه را با نگاهی جدید و در قالبهای متنوع رسانهای به تصویر بکشد.