eitaa logo
میم‌مثل مادر مثل مقاومت
160 دنبال‌کننده
59 عکس
108 ویدیو
1 فایل
إِنَّ الَّذِینَ قالُوا رَبُّنَا اللّهُ ثُمَّ اسْتَقامُوا تَتَنَزَّلُ عَلَیْهِمُ الْمَلائِکَةُ.... @Salam_313
مشاهده در ایتا
دانلود
14.75M حجم رسانه بالاست
مشاهده در ایتا
مادر فلسطینی بر خانه‌اش در اردوگاه پناهجویان در شمال نشسته است و با عزم راسخ میگوید: «حتی اگر آجر به بسازم، میمانم.» تصویری از مقاومت و امید در میان ویرانه ها.... 🆔https://eitaa.com/mimmotharmimmoghavemat
هدایت شده از جهاد تبیین
20.96M حجم رسانه بالاست
مشاهده در ایتا
✧ متأسفانه استفاده از قهوه و نسکافه و کاکائو زیاد شده😞 ⛔️افشاگری در مورد قهوه، کاکائو، اسپرسو و... 🎤حکیم روازاده ❌برای بچه دارا بفرستین حتما... ‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌‌ـ ـ ـ ـ ـ ــــــ « 🌼🌸🌼 » ـــــ ـ ـ ـ ـ ـ  ִֶָ ◁بـہ‌‌ڪانال‌ما‌ بپیوندید▷ ╭┈───🦋 ⃟⃟⃟ ⃟✨ ╰┈➤ @madine_fazele🕊
هدایت شده از رادیو انتظار 📻
دیدار به وقت سهله03.mp3
21.87M
🔸دیدار به وقت سهله داستان شماره ۱۶۳: 🎧 قسمت سوم: شهد وصال 📚العبقری‌الحسان، ج۲، ص۴۸۴. حکایاتی از تشرف‌یافتگان به محضر امام عصر علیه‌السلام این ماجرای 9 قسمتی ادامه دارد...... ─═┅═༅𖣔👇𖣔༅═┅┅─ 📻 به :ملحق شوید👇 🆔 https://eitaa.com/joinchat/2471231687Ca52bb40a84
6.27M حجم رسانه بالاست
مشاهده در ایتا
🎥 جنگ شناختی به زبان ساده این صحبت‌های فاطمه معتمد آریا را با دقت گوش کنیم؛ می‌گوید: اگر بخواهی بر یک ملتی مسلط بشوی باید هویتش را از آن بگیری و ... همین حرف‌ها را باید چندباره در تربیت فردی، خانوادگی و اجتماعی گوش بدهیم ... پی‌نوشت: بابت برخی از تصاویر عذر میخوام 🌹🙏
🔴 به چشم‌هایتان هم اعتماد نکنید! 🔺تا دیروز اگر می‌خواستیم از صحت چیزی مطمئن شویم، می‌گفتیم: به اندازه چشمانم به آن اطمینان دارم! اما حالا این جمله هم بی‌معنا شده! چون چشمان ما به راحتی فریب می‌خورند! ▪️هوش مصنوعی، با پدیده‌ای به نام دیپ فیک (Deepfake)، از مرزهای واقعیت عبور کرده و حقیقت را به چالشی خطرناک کشانده است. این فناوری، تصاویر و ویدئوهای واقعی را با دقتی باورنکردنی تغییر می‌دهد و افراد را در موقعیت‌هایی نشان می‌دهد که هرگز در آن حضور نداشته‌اند. از ساختن سخنرانی‌های جعلی گرفته تا ویدیوهایی که در آن، یک سیاستمدار، سلبریتی یا حتی یک شهروند عادی کاری را انجام می‌دهد که هرگز واقعاً آن‌را انجام نداده است! 🔺این تکنیک با استفاده از هوش مصنوعی، چهره یا صدای افراد را از ویدئوها استخراج کرده و روی فیلم‌های دیگری جایگذاری می‌کند و ویدئویی جدید می‌سازد که کاملاً واقعی به نظر می‌رسد، اما کاملاً دروغ است! 📌 چرا این فناوری خطرناک است؟ ✅ ، ممکن است به زودی نتوانید بفهمید که یک ویدئو واقعی است یا جعلی. ✅ ، می‌توان از آن برای تخریب شخصیت‌های سیاسی و اجتماعی استفاده کرد. ✅ و یا حذف رقبا، می‌توان تصاویر افراد را در موقعیت‌های غیرواقعی و رسواکننده مونتاژ کرد. ✅ گسترش ، رسانه‌ها و شبکه‌های اجتماعی ممکن است پر از محتوای جعلی شوند. 🚫عصر جدیدی آغاز شده، عصری که در آن دیگر نمی‌توان به چشمانمان هم اعتماد کنیم چون حقیقت در محاصره دیپ فیک‌هاست. بنابراین: 🔹 به هر ویدیویی اعتماد نکنید! 🔹 منابع معتبر را بررسی کنید! 🔹 از ابزارهای تشخیص دیپ فیک استفاده کنید! 🔹 سواد رسانه‌ای خود را افزایش دهید!
فعلا قابلیت پخش رسانه در مرورگر فراهم نیست
نمایش در ایتا
فعلا قابلیت پخش رسانه در مرورگر فراهم نیست
نمایش در ایتا
هدایت شده از رادیو انتظار 📻
doaye ahd master1.mp3
19.81M
زمزمه هر صبحگاه عاشقان و منتظران 📻 دعای عهد... تولیدی اختصاصی رادیو انتظار 🎙 با صدای مصطفی صالحی(ادمین کانال) 📻 : 👇🏻 🆔 https://eitaa.com/joinchat/2471231687Ca52bb40a84
✨🌿 زمزمه صبحگاهی 🌿✨ 🌅 صبح از نو رسید و باز هم لطف تو بیدارم کرد، خدایا! 💛 شکرت برای چشمانی که روشنی روز را می‌بینند ، 🌸 برای قلبی که هنوز با عشق می‌تپد ، 🍃 برای فرصت دوباره‌ای که به من بخشیدی … 🌞 امروز را با لبخند و امید آغاز می‌کنم، 💖 با دلی سرشار از شکرگزاری و آرامش ، و با یقین به اینکه رحمت تو همیشه همراه من است . ✨ خدایا شکرت، که هر صبح نشانه‌ای از مهربانی توست. ✨ 🌺💫☕🍃😊 🆔https://eitaa.com/mimmotharmimmoghavemat