11.6M حجم رسانه بالاست
مشاهده در ایتا
♦️جدیدترین انیمیشن لگوئی منتشر شده:
وضعیت مردم آمریکا
در برنامه "خانواده و زندگی" سیمای مازندران درباره چت بات های هوش مصنوعی و کارکردهایشان, نحوه استفاده در شرایط قطع اینترنت بین الملل و مهارت تعامل هوشمندانه و موثر با این ابزارها برای رسیدن به نتایج بهتر توضیحاتی ارائه کردم.ویدئوی این بخش از برنامه را میتوانید از طریق این لینک مشاهده کنید:
https://my.uupload.ir/p/v9EvO9WM
7.6M حجم رسانه بالاست
مشاهده در ایتا
♦️انیمیشن لگویی : دانش سلاح نهاییه
🔺«ترس شما از اورانیوم ما نیست؛ ترس شما از مغزهامونه!» این محتوای یک انیمیشن لگویی وایرالشده در روزهای اخیر است.
🔹در این انیمیشن به تعدادی از دانشمندان ایرانی از جمله شهید شهریاری، فخری زاده و طهرانچی که توسط اسرائیل به شهادت رسیدند، اشاره شده است.
🔹 رمال حسن رمال فیزیکدان لبنانی و فادی البطش دانشمند فلسطینی در حوزه انرژی که توسط موساد شهید شدند، از جمله دانشمندانی هستند که در این انیمیشن از آنها نام برده شده است.
♦️عواقب جنگ با ایران هوش مصنوعی را هم تکان خواهد داد.
🔺میدل ایست آی در گزارشی آورده است:
🔹️ جنگ ایران بر رقابت جهانی هوش مصنوعی بر سر انرژی اهمیت دارد. جنگ به طور مستقیم به قلب رقابت جهانی بر سر هوش مصنوعی ضربه میزند، چون توسعه AI بهشدت به انرژی ارزان و پایدار وابسته است.
🔹مراکز داده هوش مصنوعی مصرفکننده عظیم برق هستند و اختلال در عرضه انرژی، هزینه این زیرساختها را بالا برده و برنامهریزی های سرمایهگذاری را تحت تاثیر خود قرار داده است.
🔹رقابت واقعی در حوزه هوش مصنوعی فقط بر سر فناوری نیست، بلکه بر سر دسترسی به انرژی، ثبات ژئوپلیتیکی و امنیت زنجیره تأمین است.
📌 عبور دیپفیک از سیاسیون؛ حالا نوبت جیب شماست
🔻 پیشرفتهای تازه در تولید تصویر با هوش مصنوعی، بهویژه ابزار جدید ChatGPT Images 2.0 از OpenAI، زنگ خطر تازهای برای کلاهبرداریهای دیجیتال به صدا درآورده است. این ابزار میتواند تصاویر فوقواقعگرایانهای تولید کند که تشخیص جعلی بودن آنها برای کاربران عادی بسیار دشوار است؛ از تصاویر طنزآمیز سیاستمداران گرفته تا اسناد کاملاً جعلی اما متقاعدکننده.
🔻 نکته نگرانکننده اینجاست که این مدل، برخلاف نسلهای قبلی، در تولید تصاویر حاوی متن بسیار دقیق عمل میکند؛ قابلیتی که آن را به ابزاری قدرتمند برای جعل مدارک تبدیل کرده است. نویسنده گزارش میدهد که توانسته با کمترین تلاش، بیش از ۱۰۰ تصویر جعلی تولید کند: از نسخههای پزشکی و کارتهای شناسایی گرفته تا رسیدها، فاکتورها و اعلانهای بانکی. حتی تولید اسکرینشاتهایی شبیه به پیامهای بانکی یا رسیدهای خدماتی، میتواند بهراحتی در حملات فیشینگ استفاده شود و کاربران را به افشای اطلاعات حساس ترغیب کند.
🔻 این تهدید بیسابقه نیست، اما مقیاس و سرعت آن بیسابقه است. طبق گزارش FBI کلاهبرداریهای مرتبط با هوش مصنوعی در سال گذشته نزدیک به یک میلیارد دلار خسارت به آمریکاییها وارد کردهاند. کارشناسان هشدار میدهند که کاربرد این فناوری تنها به خلاقیت کلاهبرداران محدود میشود.
🔻 با وجود سیاستهای محدودکننده، به نظر میرسد سازوکارهای امنیتی هنوز کافی نیستند. هرچند شرکتها از متادیتا یا واترمارک برای شناسایی تصاویر استفاده میکنند، این نشانهها بهراحتی قابل حذف هستند. در نتیجه، بانکها، نهادهای دولتی و حتی کاربران عادی با چالشی جدی روبهرو هستند.
🔻 در نهایت، نویسنده تأکید میکند که خطر اصلی نه در دیپفیکهای سیاسی پر سر و صدا، بلکه در نمونههای کوچک، هدفمند و روزمره است؛ همانهایی که میتوانند بهسادگی حساب بانکی شما را هدف بگیرند.
https://www.theatlantic.com/technology/2026/05/chatgpt-images-deepfakes-fraud/687023
🤖 تیم اسلوپاگاندا ایران: کوچک اما قدرتمند!
✍️گزارش Nbc news:
یک تیم کوچک اما اثرگذار به نام Explosive Media با تولید دهها ویدیوی وایرال، از هوش مصنوعی و با تصاویر لگویی برای پیشبرد روایتهای رسانهای حامی ایران استفاده کرده است.این گروه در ایران مستقر و مستقل است و به گروه سیاسی خاصی وابستگی ندارد
“اسلوپاگاندا” (ترکیبی از sloppy + propaganda) است
🔻چند نکته از این گزارش: این تیم چگونه با منابع کم، تأثیرگذاری زیادی دارد؟
👈استفاده از هوش مصنوعی و تصاویر لگو
👈در فضای جنگ روایتها، دیگر فقط رسانههای رسمی بازیگر نیستند؛
👈امروز تیمهای کوچک، خلاق و مجهز به هوش مصنوعی هم میتوانند با هزینه کم، محتوایی بسازند که در مقیاس وسیع دیده شود و افکار عمومی را تحت تأثیر قرار دهد.
👌فرمول اسلوپاگاندا در عصر پلتفرمها = هوش مصنوعی + تصویرسازی خلاق + انتشار ویروسی
🔻محورهای کلیدی این گزارش و تحلیلهای مرتبط:
🔸 استفاده هوشمندانه از نمادهای فرهنگی غرب:
این ویدیوها با بهرهگیری از اسباببازیهای محبوب (لگو)، موسیقی رپ و طنزهای اینترنتی، دیوارهای دفاعی ذهنی مخاطبان غربی را دور میزنند. کارشناسان معتقدند استفاده از تصاویر «معصومانه و کودکانه» لگو برای بیان روایتهای تند سیاسی، تضادی ایجاد میکند که باعث ماندگاری و جذابیت محتوا میشود.
🔸 سرعت عملیاتی فوقالعاده:
هوش مصنوعی به این تیم اجازه داده است تا ویدیوهایی با کیفیت بالا را تنها چند ساعت پس از وقوع رویدادهای میدانی (مانند درگیریهای نظامی یا سخنرانیهای ترامپ) تولید و منتشر کنند. این «تولید محتوای همزمان» باعث شده تا روایتهای ایرانی سریعتر از پاسخهای رسمی دولتهای غربی به مخاطب برسد.
🔸 هدفگذاری نقاط ضعف اجتماعی آمریکا:
ویدیوها به جای استفاده از شعارهای مستقیم، بر گسلهای اجتماعی و سیاسی آمریکا نظیر «پرونده اپستین»، «نفوذ اسرائیل در سیاست خارجی»، «شخصیت جنجالی ترامپ» و «شکافهای نژادی» تمرکز میکنند. این رویکرد، پیام را از قالب پروپاگاندای خارجی به یک «نقد اجتماعی داخلی» تبدیل میکند.
🔸 شکست استراتژی مسدودسازی:
علیرغم تلاشهای یوتیوب، اینستاگرام و متا برای حذف این حسابها، محتوای تولیدشده به دلیل جذابیت بصری توسط کاربران بازنشر شده و صدها میلیون بازدید را در پلتفرمهای مختلف (X، تیکتاک و تلگرام) ثبت کرده است.
🔻این گزارش، یک بار دیگر نشان میدهد که درک آینده رسانه بدون توجه به عملیات نفوذ و اثرگذاری بر افکار عمومی با محتوای تولیدشده یا تقویتشده توسط هوش مصنوعی تقریباً ناممکن است.
4.4M حجم رسانه بالاست
مشاهده در ایتا
♦️ ویدیویی که توسط کاربران آمریکایی در فضای مجازی وایرال شده: «ترامپ، همۀ بدبختیهای ما زیر سر توئه!»
📌پروژه بزرگ مارک زاکربرگ: مدلسازی سلولهای انسان برای درمان تمام بیماریها
🔸مارک زاکربرگ مدیرعامل متا به همراه همسرش «پریسیلا چان»، پزشک اطفال، گام در مسیری گذاشتهاند که پیشازاین میلیاردرهایی مثل «بیل گیتس» و «وارن بافت» نیز در آن قدم نهاده بودند.
🔸هدف نهایی پروژه زاکربرگها که با ترکیب بیولوژی و هوش مصنوعی پیش برده میشود درمان و پیشگیری از تمامی بیماریهای بشر تا پایان قرن جاری میلادی عنوان شده است.
🔸این پروژه بزرگ که تمرکز اصلی آن بر ساخت مدلهای سلولهای انسانی است، قرار است زیرساختی دیجیتالی ایجاد کند که در آن محققان بتوانند تعاملات سلولی را در سطح یک فصل ارگانیسم کامل شبیهسازی کنند.
🔸مدلهای هوش مصنوعی به دانشمندان امکان میدهند تا رفتار سلولها را در دو وضعیت سلامت و بیماری با سرعتی بسیار بیشتر از آزمایشگاههای فیزیکی مطالعه کنند؛ درواقع هدف این است که با درک دقیق علل ریشهای بیماریها راه برای ابداع درمانهای جدید باز شود.
🟧 پژوهشگران با فریب روانی، مدل آنتروپیک را به ارائه دستورالعمل ساخت بمب وادار کردند
▫️ پژوهشگران شرکت Mindgard میگویند با چاپلوسی و نوعی فریب روانی، موفق شدهاند چتبات Claude را به تولید محتوای ممنوعه و خطرناک وادار کنند. بهگفته آنها، کلود در یک گفتگوی حدوداً ۲۵ مرحلهای، بدون دریافت درخواست مستقیم، محتوای بزرگسالانه، کد مخرب و حتی راهنمای ساخت مواد منفجره ارائه کرده است.
▫️ پژوهشگران میگویند در این آزمایش به مدل Claude Sonnet 4.5 القا کردهاند که برخی پاسخهای قبلی نمایش داده نمیشود و همزمان با تمجید از تواناییهای پنهان مدل، کلود را به تولید پاسخهای بیشتر و کاملتر مجبور کردهاند. طبق این گزارش، همین رفتار باعث شده Claude برای جلب رضایت طرف مقابل، راههای جدیدی برای آزمایش فیلترهای خود پیدا کند و در همین مسیر، محتوای ممنوعه تولید شده است.
https://digiato.com/artificial-intelligence/claude-psychological-attack-mindgard-dangerous-output
بروز رسانی جدید اپلیکیشن "قرآن نور"
• امکان چت هوشمند با تفاسیر در داخل برنامه
• امکان یادداشت نویسی برای آیات
• امکان نشانه گذاری صفحه، جزء، حزب
• اشتراک گذاری صفحه در نمایش تجویدی
• قابلیت تغییر اندازه قلم رابط کاربری
• حذف قرائت "مشاری راشد العفاسی" به دلیل موضع گیری وی در حمایت از آمریکا و رژیم صهیونیستی در جنگ رمضان
🌐 دریافت نرمافزار قرآن نور همراه :
noorsoft.org/fa/software/View/74100