eitaa logo
جعبه سیاه
339 دنبال‌کننده
320 عکس
219 ویدیو
0 فایل
پشت پرده و تاکتیک های جنگ شناختی؛ آموزش و تحلیل ارتباط با ادمین: @Alia162
مشاهده در ایتا
دانلود
🔰اهم و در ۴۸ ساعت گذشته 1️⃣   سهمیه‌ای بودن 75 درصد دانشجویان پزشکی دانشگاه تهران ▫️ هدف: ایجاد خشم و باورسازی فقدان عدالت آموزشی در سیستم حکمرانی علم کشور ▫️ بستر انتشار: تلگرام/اینستاگرام ▫️سطح انتشار: ملی 2️⃣ ترور سردار فلاح زاده؛ از فرماندهان ارشد سپاه قدس در حمله ارتش اسرائیل به یک ساختمان در دمشق ▫️ هدف: باورسازی شکست کامل جبهه مقاومت از ارتش مجهز اسرائیل ▫️ بستر انتشار: تلگرام/ توییتر ▫️سطح انتشار: ملی/ بین المللی 3️⃣ مذاکرات همه جانبه آمریکا و کشورهای عربی با ایران برای رسیدن به یک آتش بس جامع ▫️ هدف: باورسازی تلاش های منطقه ای و بین المللی برای جلوگیری از توسعه جنگ توسط ایران ▫️ بستر انتشار: تلگرام/توییتر ▫️سطح انتشار: ملی/ بین المللی 4️⃣ ادعای استخدام مجرمان و مأموران اطلاعات خصوصی در انگلستان توسط جمهوری اسلامی ایران ▫️ هدف: باورسازی تروریستی بودن نظام جمهوری اسلامی و استفاده این نظام از ابزارهای غیرقانونی برای توسعه خود ▫️ بستر انتشار: تلگرام/توییتر ▫️ سطح انتشار: ملی/ بین المللی 5️⃣ ضرب و شتم زندانی سیاسی کرد؛ پرهام پروری توسط زندانیان جرائم خطرناک ▫️ هدف : باورسازی شکنجه غیرمستقیم زندانیان سیاسی توسط زندانیان خطرناک ▫️ بستر انتشار: تلگرام ▫️سطح انتشار: ملی 6️⃣ انتقال غیرمنتظره وجوه هنگفت به حساب‌های شخصی افراد در بانک صادرات در استان‌های کرمان و سیستان و بلوچستان ▫️ هدف : سواستفاده نظام از حساب‌های شخصی افراد برای انجام مبادلات پولی غیرقانونی، پولشویی و دور زدن تحریم‌ها ▫️ بستر انتشار: تلگرام/توییتر ▫️سطح انتشار: ملی 🔗اتاق وضعیت معاونت فضای مجازی @BlackBoox
🔰 و در عصر رسانه‌های دیجیتال، انتشار به ابزاری برای جنگ روانی تبدیل شده است. دشمنان با شایعاتی چون "سقوط حلب" تلاش می‌کنند روحیه مردم را تضعیف و واقعیت‌ها را وارونه جلوه دهند. کاربران باید به منابع اخبار توجه کرده و از بازنشر مطالب غیرموثق خودداری کنند. اعتماد به رسانه‌های معتبر( ، ) و تحلیل درست اطلاعات، نقشی کلیدی در خنثی کردن این توطئه‌ها دارد. پس با دقت و مسئولیت‌پذیری، مانع گسترش خبرهای جعل و اهداف شوم دشمن در فضای مجازی شویم. هوشیاری رسانه‌ای، وظیفه‌ای ملی است. @BlackBoox
🔰به چشم‌هایتان هم اعتماد نکنید! تا دیروز اگر می‌خواستیم از صحت چیزی مطمئن شویم، می‌گفتیم: به اندازه چشمانم به آن اطمینان دارم! اما حالا این جمله هم بی‌معنا شده! چون چشمان ما به راحتی فریب می‌خورند! هوش مصنوعی، با پدیده‌ای به نام دیپ فیک (Deepfake)، از مرزهای واقعیت عبور کرده و حقیقت را به چالشی خطرناک کشانده است. این فناوری، تصاویر و ویدئوهای واقعی را با دقتی باورنکردنی تغییر می‌دهد و افراد را در موقعیت‌هایی نشان می‌دهد که هرگز در آن حضور نداشته‌اند. از ساختن سخنرانی‌های جعلی گرفته تا ویدیوهایی که در آن، یک سیاستمدار، سلبریتی یا حتی یک شهروند عادی کاری را انجام می‌دهد که هرگز واقعاً آن‌را انجام نداده است! این تکنیک با استفاده از هوش مصنوعی، چهره یا صدای افراد را از ویدئوها استخراج کرده و روی فیلم‌های دیگری جایگذاری می‌کند و ویدئویی جدید می‌سازد که کاملاً واقعی به نظر می‌رسد، اما کاملاً دروغ است! چرا این فناوری خطرناک است؟ ، ممکن است به زودی نتوانید بفهمید که یک ویدئو واقعی است یا جعلی. ، می‌توان از آن برای تخریب شخصیت‌های سیاسی و اجتماعی استفاده کرد. و یا حذف رقبا، می‌توان تصاویر افراد را در موقعیت‌های غیرواقعی و رسواکننده مونتاژ کرد. گسترش ، رسانه‌ها و شبکه‌های اجتماعی ممکن است پر از محتوای جعلی شوند. عصر جدیدی آغاز شده، عصری که در آن دیگر نمی‌توان به چشمانمان هم اعتماد کنیم چون حقیقت در محاصره دیپ فیک‌هاست. بنابراین: به هر ویدیویی اعتماد نکنید! منابع معتبر را بررسی کنید! از ابزارهای تشخیص دیپ فیک استفاده کنید! سواد رسانه‌ای خود را افزایش دهید! @BlackBoox