💢 دیپ فیک یا جعل عمیق چیست؟
🔴 دیپ فیک (Deep Fake) فناوری جدیدی بر مبنای هوش مصنوعی است که بهواسطه آن تصاویر و ویدیوهای دروغین اما واقع گرایانه درست میشود و میتواند هر بینندهای را تحت تاثیر خود قرار دهد. امروزه ویدیوهای دیپ فیک بسیاری از هنرمندان و افراد مشهور ساخته میشود و بیننده بدون آنکه متوجه عدم صحت و واقعیت آنها شود، محتوای آنها را باور کرده و به انتشار آنها در فضای مجازی دست میزند. در نتیجه با توجه به پیشروی بدون محدودیت این فناوری، باید گفت که به زودی تشخیص بین مرز حقیقت و دروغ کاملا غیرممکن میشود.
🛑 دیپ فیک از ترکیب دو واژه دیپ (Deep) به معنای عمیق و فیک (Fake) به معنای جعلی و دروغین تشکیل شده است و براساس هوش مصنوعی قادر است تصاویر انسان را به صورت واقع گرایانه تولید و سنتز کند. در فناوری Deep Fake یا همان جعل عمیق، از دسته خاصی از الگوریتم یادگیری ماشین با نام «شبکههای مولد تخاصمی» یا «Generative Adversarial Networks» استفاده میشود تا تصاویر یا ویدیوهای موجود روی مجموعهای از تصاویر و ویدیوهای منبع، ترکیب و برهمنهی شود.
❗️تکنولوژی جعل عمیق مبتنی بر روش یادگیری عمیق است و از شبکههای مولد تخاصمی که به اختصار به آنها شبکههای GAN گفته میشود، استفاده میکند. الگوریتمهای GAN از دو مدل هوش مصنوعی تشکیل میشوند. در این سیستم وظیفه یکی از مدلها تولید محتوا (تولید تصاویر افراد) و وظیفه مدل رقیب، تشخیص واقعی بودن و یا جعلی بودن عکس تولید شده است. گفتنی است در ابتدای کار مدل هوش مصنوعی رقیب قادر است به راحتی عکس جعلی را از عکس واقعی تشخیص دهد اما با گذشت زمان دقت و عملکرد مدل هوش مصنوعی تولید کننده به قدری افزایش مییابد که تشخیص جعلی بودن محتوای تولید شده برای مدل رقیب بسیار سخت میشود.
#پدافند_سایبری
#هوش_مصنوعی
#جعل_عمیق
✅ با ما باسواد شوید
🚩 نهضت سواد رسانه ای انقلاب اسلامی استان گیلان
🌐 @nasra_guilan
⭕️ پنتاگون و استفاده از جعل عمیق
🔹اگرچه پیشرفت در حوزه فناوری و تکنولوژی، یکی از کارویژههای زندگی بشری محسوب میشود اما برخی دولتها وکشورها مانند آمریکا نشان دادهاند که اساسا تکنولوژی را ابزاری جهت استهداف امنیت و ثبات جهانی قلمداد کرده و از این زاویه به آن مینگرند. در قاعده، درخصوص پدیدهای تحت عنوان «جعل عمیق»نیز صادق است.
🔸یک پایگاه آمریکایی فاش کرد ارتش این کشور به دنبال استخدام تولیدکنندگان محتواهای به اصطلاح #جعل_عمیق در فضای مجازی است. بر این اساس، وبگاه آمریکایی «اینترسپت» گزارش داد فرماندهی عملیاتهای ویژه ارتش آمریکا به دنبال استخدام نیروهای مقاطعهکاری است که کاربران اینترنتی «جعل عمیق» را که نه توسط انسانها و نه توسط کامپیوترها قابل شناسایی باشند، ایجاد کنند. این رسانه آمریکایی با استناد به یک طرح متعلق به این واحد فرماندهی نوشت: «نیروهای عملیات ویژه علاقهمند به فن آوریهایی هستند که بتوانند شخصیتهای اینترنتی قانعکنندهای به منظور استفاده از آنها در پلتفرمهای رسانههای اجتماعی، سایتهای شبکههای اجتماعی و دیگر محتواهای آنلاین را ایجاد کنند. این کاربران اینترنتی باید همچون یک فرد منحصر به فرد به نظر برسند که به عنوان یک انسان بتوان آنها را به رسمیت شناخت اما در جهان واقعی وجود نداشته باشند.»
🔺 #جعل_عمیق، تکنیکی بوده که آمریکا بارها از آن در راستای تصویرسازیهای نادرست در قبال واقعیات و پدیدههای گذشته، جاری و حتی آتی در نظام بینالملل استفاده کرده اما اکنون خود در دام آن گرفتار شده است! تبعات این موضوع، گریبانگیر نهادهای اطلاعاتی و جاسوسی آمریکا شده است. در یکی از این موارد، فرماندهی ارتش آمریکا علاقهمند است که مسئله راستیآزمایی کاربران در شبکههای اجتماعی حل شود بنا بر این به دنبال فنآوری است که بتوان با آن تصاویر سلفی و اسناد رسمی را برای دور زدن این بررسیها تولید کرد. در ادامه این گزارش نوشته شد: «نظامیان عملیات ویژه از این قابلیت برای جمعآوری اطلاعات از تالارهای گفتوگوی اینترنتی استفاده خواهند کرد.»
🔸طبق این گزارش این برنامهها با موضع رسمی دولت آمریکا مغایر هستند. نهادهایی همچون دفتر تحقیقات فدرال آمریکا (اف.بی.آی)، آژانس امنیت زیرساخت و امنیت سایبری آمریکا و آژانس امنیت ملی آمریکا پیش از این اعلام کرده بودند که فنآوری جعل عمیق یک تهدید به حساب میآید! عدول آشکار آمریکاییها از این سیاست کلان و رسمی، بیانگر بحرانهای اطلاعاتی و امنیتی عمیقی است که واشنگتن در آستانه انتخابات ریاست جمهوری سال ۲۰۲۴ و متعاقب مداخله گرایی دهشتناک و وقیحانه خود در جنگ غزه و لبنان، به آن مبتلا شده است.
#جهادگران_تبیین
✅ با ما باسواد شوید
🚩 نهضت سواد رسانه ای انقلاب اسلامی استان گیلان
🌐 @nasra_guilan