eitaa logo
نسرا لرستان
479 دنبال‌کننده
3.3هزار عکس
417 ویدیو
30 فایل
مشاهده در ایتا
دانلود
😳شاید بسیار متعجب شوید اگر به شما بگویم این فیلم جعلی است🔺 👺این فیلم تحت قالب تکنولوژی دیپ فیک [Deep fake] یا ساخته شده است! 👈کافیست فقط به تورم زیر گلوی رونالدو که زبان زدِ خاص و عام است و در فیلم وجود ندارد ، توجه کنید! تفاوت در حجم سرشانه ها و قطر گردن هم سر جای خود! ⚠️در عصر رسانه ها گاهی فاصله حقیقت با نسخه‌ی مشابه سازی و بدل آن ، به اندازه‌ی مویی بسیار نازک است! 😈نیاز به گفتن ندارد که اگر این تکنولوژی و تکنولوژی های مشابه در اختیار افراد نااهل و بی اخلاق بیوفتد ، با فریب مردم چه انحرافاتی می‌توانند ایجاد کنند و چه فاجعه هایی می‌توانند به بار بیاورند! 😱با این تکنولوژی میتوان افراد مُرده را هم به حرف زدن در آورد و و تفکر انتقادی تا یک جایی میتوانند مخاطب را در تشخیص محتوای حق و باطل یاری کند. اما در موارد حرفه‌ای تر حتی سواد رسانه ای هم به کار نمی‌اید! ✍ خورسندی 💠نسرا (نهضت سواد رسانه ای انقلاب اسلامی) استان لرستان 🆔 @nasralorestan
8.81M حجم رسانه بالاست
مشاهده در ایتا
🔰 (Deep Fake) دارد به خطری جدی تبدیل میشود !!! کم‌کم با عمومی شدن هوش مصنوعی  اصالت و صحت بسیاری از کلیپ‌ها، با تردید مواجه خواهد شد و این می‌تواند علیه امنیت یک جامعه بسیار خطرناک شود.‌‌ قبلا می‌گفتیم تا با چشم خودم نبینم باور نمی‌کنم، الان و با توجه به شرایط موجود رخ داده در حوزه تکنولوژی، با چشم خودتان دیدید هم باور نکنید. •┈┈••••✾•🌿🌺🌿•✾•••┈┈• 📳 (نهضت سواد رسانه‌ای انقلاب اسلامی) 🔖 به ما در ایتا ، تلگرام ، روبیکا و اینستاگرام  بپیوندید👇👇 🆔 @nasralorestan
⭕️ پنتاگون و استفاده از جعل عمیق 🔹اگرچه پیشرفت در حوزه فناوری و تکنولوژی، یکی از کارویژه‌های زندگی بشری محسوب می‌شود اما برخی دولت‌ها وکشورها مانند آمریکا نشان داده‌اند که اساسا تکنولوژی را ابزاری جهت استهداف امنیت و ثبات جهانی قلمداد کرده و از این زاویه به آن می‌نگرند. در قاعده، درخصوص پدیده‌ای تحت عنوان «جعل عمیق»نیز صادق است. 🔸یک پایگاه آمریکایی فاش کرد ارتش این کشور به دنبال استخدام تولیدکنندگان محتواهای به اصطلاح در فضای مجازی است. بر این اساس، وبگاه آمریکایی «اینترسپت» گزارش داد فرماندهی عملیات‌های ویژه ارتش آمریکا به دنبال استخدام نیروهای مقاطعه‌کاری است که کاربران اینترنتی «جعل عمیق» را که نه توسط انسان‌ها و نه توسط کامپیوترها قابل شناسایی باشند، ایجاد کنند. این رسانه آمریکایی با استناد به یک طرح متعلق به این واحد فرماندهی نوشت: «نیروهای عملیات ویژه علاقه‌مند به فن آوری‌هایی هستند که بتوانند شخصیت‌های اینترنتی قانع‌کننده‌ای به منظور استفاده از آنها در پلتفرم‌های رسانه‌های اجتماعی، سایت‌های شبکه‌های اجتماعی و دیگر محتواهای آنلاین را ایجاد کنند. این کاربران اینترنتی باید همچون یک فرد منحصر به فرد به نظر برسند که به عنوان یک انسان بتوان آنها را به رسمیت شناخت اما در جهان واقعی وجود نداشته باشند.» 🔺 ، تکنیکی بوده که آمریکا بارها از آن در راستای تصویرسازی‌های نادرست در قبال واقعیات و پدیده‌های گذشته، جاری و حتی آتی در نظام بین‌الملل استفاده کرده اما اکنون خود در دام آن گرفتار شده است! تبعات این موضوع، گریبانگیر نهادهای اطلاعاتی و جاسوسی آمریکا شده است. در یکی از این موارد، فرماندهی ارتش آمریکا علاقه‌مند است که مسئله راستی‌آزمایی کاربران در شبکه‌های اجتماعی حل شود بنا بر این به دنبال فن‌آوری است که بتوان با آن تصاویر سلفی و اسناد رسمی را برای دور زدن این بررسی‌ها تولید کرد. در ادامه این گزارش نوشته شد:‌ «نظامیان عملیات ویژه از این قابلیت برای جمع‌آوری اطلاعات از تالارهای گفت‌وگوی اینترنتی استفاده خواهند کرد.» 🔸طبق این گزارش این برنامه‌ها با موضع رسمی دولت آمریکا مغایر هستند. نهادهایی همچون دفتر تحقیقات فدرال آمریکا (اف.بی.آی)، آژانس امنیت زیرساخت و امنیت سایبری آمریکا و آژانس امنیت ملی آمریکا پیش از این اعلام کرده بودند که فن‌آوری جعل عمیق یک تهدید به حساب می‌آید! عدول آشکار آمریکایی‌ها از این سیاست کلان و رسمی، بیانگر بحران‌های اطلاعاتی و امنیتی عمیقی است که واشنگتن در آستانه انتخابات ریاست جمهوری سال ۲۰۲۴ و متعاقب مداخله گرایی دهشتناک و وقیحانه خود در جنگ غزه و لبنان، به آن مبتلا شده است. 📳 (نهضت سواد رسانه‌ای انقلاب اسلامی) 🔖 به ما در ایتا ، تلگرام ، روبیکا و اینستاگرام بپیوندید👇👇 🆔 @nasralorestan