eitaa logo
نسرا گیلان
437 دنبال‌کننده
796 عکس
235 ویدیو
10 فایل
نسرا (نهضت سواد رسانه ای انقلاب اسلامی)
مشاهده در ایتا
دانلود
💢 دیپ فیک یا جعل عمیق چیست؟ 🔴 دیپ فیک (Deep Fake) فناوری جدیدی بر مبنای هوش مصنوعی است که به‌واسطه آن تصاویر و ویدیوهای دروغین اما واقع گرایانه درست می‌شود و می‌تواند هر بیننده‌ای را تحت تاثیر خود قرار دهد. امروزه ویدیوهای دیپ فیک بسیاری از هنرمندان و افراد مشهور ساخته می‌شود و بیننده بدون آنکه متوجه عدم صحت و واقعیت آنها شود، محتوای آن‌ها را باور کرده و به انتشار آن‌ها در فضای مجازی دست می‌زند. در نتیجه با توجه به پیشروی بدون محدودیت این فناوری، باید گفت که به زودی تشخیص بین مرز حقیقت و دروغ کاملا غیرممکن می‌شود. 🛑 دیپ فیک از ترکیب دو واژه دیپ (Deep) به معنای عمیق و فیک (Fake) به معنای جعلی و دروغین تشکیل شده است و براساس هوش مصنوعی قادر است تصاویر انسان را به صورت واقع گرایانه تولید و سنتز کند. در فناوری Deep Fake یا همان جعل عمیق، از دسته خاصی از الگوریتم یادگیری ماشین با نام «شبکه‌های مولد تخاصمی» یا «Generative Adversarial Networks» استفاده می‌شود تا تصاویر یا ویدیوهای موجود روی مجموعه‌ای از تصاویر و ویدیوهای منبع، ترکیب و برهم‌نهی شود. ❗️تکنولوژی جعل عمیق مبتنی بر روش‌ یادگیری عمیق است و از شبکه‌های مولد تخاصمی که به اختصار به آنها شبکه‌های GAN گفته می‌شود، استفاده می‌کند. الگوریتم‌های GAN از دو مدل هوش مصنوعی تشکیل می‌شوند. در این سیستم وظیفه یکی از مدلها تولید محتوا (تولید تصاویر افراد) و وظیفه مدل رقیب، تشخیص واقعی بودن و یا جعلی بودن عکس تولید شده است. گفتنی است در ابتدای کار مدل هوش مصنوعی رقیب قادر است به راحتی عکس جعلی را از عکس واقعی تشخیص دهد اما با گذشت زمان دقت و عملکرد مدل هوش مصنوعی تولید کننده به قدری افزایش می‌یابد که تشخیص جعلی بودن محتوای تولید شده برای مدل رقیب بسیار سخت می‌شود. ‌ ✅ با ما باسواد شوید 🚩 نهضت سواد رسانه ای انقلاب اسلامی استان گیلان 🌐 @nasra_guilan
⭕️ پنتاگون و استفاده از جعل عمیق 🔹اگرچه پیشرفت در حوزه فناوری و تکنولوژی، یکی از کارویژه‌های زندگی بشری محسوب می‌شود اما برخی دولت‌ها وکشورها مانند آمریکا نشان داده‌اند که اساسا تکنولوژی را ابزاری جهت استهداف امنیت و ثبات جهانی قلمداد کرده و از این زاویه به آن می‌نگرند. در قاعده، درخصوص پدیده‌ای تحت عنوان «جعل عمیق»نیز صادق است. 🔸یک پایگاه آمریکایی فاش کرد ارتش این کشور به دنبال استخدام تولیدکنندگان محتواهای به اصطلاح در فضای مجازی است. بر این اساس، وبگاه آمریکایی «اینترسپت» گزارش داد فرماندهی عملیات‌های ویژه ارتش آمریکا به دنبال استخدام نیروهای مقاطعه‌کاری است که کاربران اینترنتی «جعل عمیق» را که نه توسط انسان‌ها و نه توسط کامپیوترها قابل شناسایی باشند، ایجاد کنند. این رسانه آمریکایی با استناد به یک طرح متعلق به این واحد فرماندهی نوشت: «نیروهای عملیات ویژه علاقه‌مند به فن آوری‌هایی هستند که بتوانند شخصیت‌های اینترنتی قانع‌کننده‌ای به منظور استفاده از آنها در پلتفرم‌های رسانه‌های اجتماعی، سایت‌های شبکه‌های اجتماعی و دیگر محتواهای آنلاین را ایجاد کنند. این کاربران اینترنتی باید همچون یک فرد منحصر به فرد به نظر برسند که به عنوان یک انسان بتوان آنها را به رسمیت شناخت اما در جهان واقعی وجود نداشته باشند.» 🔺 ، تکنیکی بوده که آمریکا بارها از آن در راستای تصویرسازی‌های نادرست در قبال واقعیات و پدیده‌های گذشته، جاری و حتی آتی در نظام بین‌الملل استفاده کرده اما اکنون خود در دام آن گرفتار شده است! تبعات این موضوع، گریبانگیر نهادهای اطلاعاتی و جاسوسی آمریکا شده است. در یکی از این موارد، فرماندهی ارتش آمریکا علاقه‌مند است که مسئله راستی‌آزمایی کاربران در شبکه‌های اجتماعی حل شود بنا بر این به دنبال فن‌آوری است که بتوان با آن تصاویر سلفی و اسناد رسمی را برای دور زدن این بررسی‌ها تولید کرد. در ادامه این گزارش نوشته شد:‌ «نظامیان عملیات ویژه از این قابلیت برای جمع‌آوری اطلاعات از تالارهای گفت‌وگوی اینترنتی استفاده خواهند کرد.» 🔸طبق این گزارش این برنامه‌ها با موضع رسمی دولت آمریکا مغایر هستند. نهادهایی همچون دفتر تحقیقات فدرال آمریکا (اف.بی.آی)، آژانس امنیت زیرساخت و امنیت سایبری آمریکا و آژانس امنیت ملی آمریکا پیش از این اعلام کرده بودند که فن‌آوری جعل عمیق یک تهدید به حساب می‌آید! عدول آشکار آمریکایی‌ها از این سیاست کلان و رسمی، بیانگر بحران‌های اطلاعاتی و امنیتی عمیقی است که واشنگتن در آستانه انتخابات ریاست جمهوری سال ۲۰۲۴ و متعاقب مداخله گرایی دهشتناک و وقیحانه خود در جنگ غزه و لبنان، به آن مبتلا شده است. ✅ با ما باسواد شوید 🚩 نهضت سواد رسانه ای انقلاب اسلامی استان گیلان 🌐 @nasra_guilan