eitaa logo
میم‌مثل مادر مثل مقاومت
157 دنبال‌کننده
63 عکس
115 ویدیو
1 فایل
إِنَّ الَّذِینَ قالُوا رَبُّنَا اللّهُ ثُمَّ اسْتَقامُوا تَتَنَزَّلُ عَلَیْهِمُ الْمَلائِکَةُ.... @Salam_313
مشاهده در ایتا
دانلود
🔴 به چشم‌هایتان هم اعتماد نکنید! 🔺تا دیروز اگر می‌خواستیم از صحت چیزی مطمئن شویم، می‌گفتیم: به اندازه چشمانم به آن اطمینان دارم! اما حالا این جمله هم بی‌معنا شده! چون چشمان ما به راحتی فریب می‌خورند! ▪️هوش مصنوعی، با پدیده‌ای به نام دیپ فیک (Deepfake)، از مرزهای واقعیت عبور کرده و حقیقت را به چالشی خطرناک کشانده است. این فناوری، تصاویر و ویدئوهای واقعی را با دقتی باورنکردنی تغییر می‌دهد و افراد را در موقعیت‌هایی نشان می‌دهد که هرگز در آن حضور نداشته‌اند. از ساختن سخنرانی‌های جعلی گرفته تا ویدیوهایی که در آن، یک سیاستمدار، سلبریتی یا حتی یک شهروند عادی کاری را انجام می‌دهد که هرگز واقعاً آن‌را انجام نداده است! 🔺این تکنیک با استفاده از هوش مصنوعی، چهره یا صدای افراد را از ویدئوها استخراج کرده و روی فیلم‌های دیگری جایگذاری می‌کند و ویدئویی جدید می‌سازد که کاملاً واقعی به نظر می‌رسد، اما کاملاً دروغ است! 📌 چرا این فناوری خطرناک است؟ ✅ ، ممکن است به زودی نتوانید بفهمید که یک ویدئو واقعی است یا جعلی. ✅ ، می‌توان از آن برای تخریب شخصیت‌های سیاسی و اجتماعی استفاده کرد. ✅ و یا حذف رقبا، می‌توان تصاویر افراد را در موقعیت‌های غیرواقعی و رسواکننده مونتاژ کرد. ✅ گسترش ، رسانه‌ها و شبکه‌های اجتماعی ممکن است پر از محتوای جعلی شوند. 🚫عصر جدیدی آغاز شده، عصری که در آن دیگر نمی‌توان به چشمانمان هم اعتماد کنیم چون حقیقت در محاصره دیپ فیک‌هاست. بنابراین: 🔹 به هر ویدیویی اعتماد نکنید! 🔹 منابع معتبر را بررسی کنید! 🔹 از ابزارهای تشخیص دیپ فیک استفاده کنید! 🔹 سواد رسانه‌ای خود را افزایش دهید!