بسته شدن تنگه هرمز چگونه اینترنت ماهوارهای استارلینک را زمینگیر کرد؟
🔸تصور عمومی بر این بود که شبکهای متشکل از بیش از 9400 ماهواره در مدار پایین زمین میتواند مستقل از زیرساختهای فیزیکی زمینی عمل کند و ارتباطات جهانی را حفظ کند اما واقعیت میدانی چیز دیگری را نشان داد.
🔸براساس تحلیلی که مرکز امنیت داخلی آمریکا (HSToday) در 8 آوریل 2026 منتشر کرده است، بسته شدن تنگه هرمز از اسفند 1404، دسته جدیدی از آسیبپذیریهای زیرساختی را افشا کرده که دکترین تابآوری ایالات متحده در حال حاضر قادر به مدلسازی آن نیست. بر اساس این تحلیل، مخابرات ماهوارهای مدار پایین (LEO)، چه نظامی و چه تجاری، به زیرساخت بخش زمینی وابسته است.
🔸ورودیهای حیاتی این بخش که از مسیر تنگه هرمز عبور میکنند شامل هلیوم، گازهای خنککننده تخصصی و خانوادههای خاص نیمههادی هستند. این تحلیل تأکید کرده است: برای مختل کردن شبکه استارلینک، نیازی نیست دشمنی به ماهواره حمله کند یا ایستگاه زمینی را هدف قرار دهد. تخریب (degradation) محیطی، توزیعشده و قابل انکار است. صرفاً بسته شدن یک گذرگاه دریایی، بدون شلیک یک گلوله، زنجیره تأمین تجهیزات حیاتی شبکه ماهوارهای را از کار انداخته است.
https://tasnimnews.ir/3579328
3.5M حجم رسانه بالاست
مشاهده در ایتا
پاسخِ مصطفی پورمحمدی به یک شبهه متداول امنیتی؛
علتِ موفقیتِ دشمن در ترورها برایِ چیست؟
مرکز تحقیقات کامپیوتری علوم اسلامی (نور) از سامانه «گفتگوی هوشمند با آثار شهید مطهری» رونمایی کرد
https://noorlib.ir/chatbot/motahari
یک ترفند:
از طریق این سایت میتوانید در بستر شبکه ملی اطلاعات به کدها و پروژههای گیتهاب دسترسی داشته باشید:
http://Scorpian.ir
17.3M حجم رسانه بالاست
مشاهده در ایتا
📹 بازسازی عملیات غرورآفرین ارتش جمهوری اسلامی ایران در حمله به پایگاه آمریکا با هوش مصنوعی
🔸 ۲ فروند اف۵ ایرانی با عبور از سامانههای روشنِ پدافندیِ پاتریوت، به زیرساختهای یک پایگاه هوایی ارتش آمریکا در کویت حمله موفق هوائی کرده و بهسلامت در پایگاه ششم شکاری بوشهر فرود آمدند.
آکادمی اسکار: بازیگران هوش مصنوعی برنده جایزه نمیشوند!
▪️ آکادمی اسکار برای مقابله با موج هوش مصنوعی در سینما، قوانین سختگیرانهای وضع کرد. طبق این مقررات، بازیگران ساختهشده با AI مشمول دریافت جایزه نمیشوند و تنها آثاری واجد شرایط هستند که توسط انسانها و با رضایت آنها تولید شده باشند.
▪️ این تصمیم پس از حواشی استفاده از نسخههای دیجیتالی بازیگران فقید و اعتصابات گسترده نویسندگان اتخاذ شد. حالا فیلمنامهها باید بهطور کامل توسط انسان نوشته شوند و آکادمی در صورت نیاز، مدارک اثبات نقش انسان در تولید اثر را درخواست میکند.
📱چت جیپیتی یک مسئله ریاضی ۶۰ ساله را حل کرد
🔹 چت جیپیتی یک مسئله ریاضی را حل کرد که نابغههای حوزه ریاضیات بیش از ۶۰ سال از حل آن باز مانده بودند.
🔹این پیشرفت جدید میتواند نمونهای از این باشد که یک هوش مصنوعی واقعا «خارج از چارچوب فکر کرده» و بر نوعی ذهن جمعیِ ناکارآمدی که نابغههای انسانی ریاضی در آن گرفتار شده بودند، غلبه کرده است.
https://www.citna.ir/node/335981
وسواس عجیب ChatGPT به «اجنه و غولها» کار دست این چتبات داد
▪️شرکت OpenAI اخیراً مجبور شد با صدور دستورات امنیتی و فنی جدید، چتجیپیتی (ChatGPT) را از صحبت مداوم درباره «گابلینها» (جنهای افسانهای) منع کند. این مداخله پس از آن صورت گرفت که مدلهای جدید این چتبات به شکلی غیرعادی و بیربط، پای موجودات افسانهای را به گفتگوهای روزمره کاربران باز میکردند.
🔺ظهور ناگهانی ارتش موجودات خیالی در چتها
▪️گزارشهای منتشر شده حاکی از آن است که مدلهای اخیر هوش مصنوعی این شرکت، در میان صحبتهای جدی و تخصصی، به طور ناگهانی از کلماتی نظیر «گابلین»، «ترول»، «غول» و «گرملین» استفاده میکردند.
▪️این رفتار عجیب ابتدا توجه برنامهنویسان را جلب کرد که از کاربران حرفهای و دائمی این ابزار هستند. آنها متوجه شدند که بات بدون هیچ پیشزمینهای، لحنی عجیب و متمایل به دنیای فانتزی پیدا کرده است.
🔺وقتی «خوره کتاب بودن» دردسرساز میشود
▪️شرکت OpenAI در توضیح این پدیده اعلام کرد که ریشه این مشکل در تلاش برای بهبود شخصیت (Persona) ربات بوده است. برنامهنویسان قصد داشتند شخصیتی «خوره کتاب و متفکر» (Nerdy) برای هوش مصنوعی طراحی کنند تا لحن آن برای کاربران جذابتر و صمیمیتر شود.
▪️با این حال، این تلاش به یک نتیجه معکوس ختم شد؛ هوش مصنوعی به جای استفاده از ادبیات علمی یا آکادمیک، به سمت واژگان خاص دنیای فانتزی و بازیهای نقشآفرینی کشیده شد و در انتخاب کلمات دچار وسواس (Obsession) نسبت به موجودات افسانهای شد.
▪️سازنده chatgpt در بیانیهای کوتاه تأیید کرد: «تلاش برای ایجاد یک شخصیت متمایز و متفکر برای بات، منجر به انتخاب واژگان غیرعادی شد که اکنون با دستورالعملهای جدید اصلاح شده است.»
🔺مداخله فنی؛ «دیگر از گابلینها حرف نزن!»
▪️برای پایان دادن به این وضعیت مضحک و گاهی ترسناک، تیم فنی OpenAI کدهای دستوری سختی را برای مدلهای خود تعریف کردهاند که آنها را مستقیماً از تکرار این واژگان منع میکند. کارشناسان معتقدند این اتفاق نشاندهنده چالشهای بزرگ در کنترل «لحن» و «شخصیت» در هوش مصنوعی مولد است؛ جایی که یک تغییر کوچک در پارامترها میتواند منجر به رفتارهای پیشبینینشده و عجیب شود.
▪️این اولین بار نیست که هوش مصنوعی رفتارهای غیرعادی از خود نشان میدهد، اما «وسواس گابلینی» یکی از عجیبترین نمونههای گزارش شده در سال ۲۰۲۶ میلادی به شمار میرود که مرز میان دنیای کدنویسی و افسانههای کهن را جابجا کرده است.
8.7M حجم رسانه بالاست
مشاهده در ایتا
▪️گزارش الجزیره : چگونه حزبالله با «FPV» اسرائیل را فلج کرد؟
🔻پایان عصر جنگ الکترونیک
♦️ «ابلاغیه قضایی الکترونیکی» از طریق «پستچی» جعلی است
🔺 کلاهبرداران اینبار با سوءاستفاده از عنوان «پستچی» در پیامرسانهایی مثل بله و ایتا، تلاش میکنند حساب مردم را خالی کنند.
🔹 در این روش، پیامی با عنوان «پستچی» ارسال میشود و ادعا میکنند مأمور پست برای تحویل ابلاغیه قضایی به منزل شما مراجعه کرده، اما موفق نشده است. برای جلب اعتماد بیشتر، کلاهبرداران از نام و مشخصات واقعی کاربران استفاده میکنند و سپس لینک یا فایلی بهعنوان ابلاغیه ارسال میکنند تا کاربر را به کلیک کردن ترغیب کنند.
🔹 اما این فقط یک ترفند است: کلیک روی این لینکها یا باز کردن فایلهای ارسالی میتواند منجر به سرقت اطلاعات و خالی شدن حسابهای بانکی شود.
🔹 بر اساس اعلام قوه قضاييه،ارسال ابلاغیههای قضائی تنها از طریق مجاری قانونی و رسمی صورت میگیرد و هرگونه پیام در فضای مجازی با این عنوان، فاقد اعتبار است ؛ عنوان «پستچی» هم در این پیامها جعلی است.
♦️ هوش مصنوعی به ابزار جدید جنگ سایبری و دستکاری اطلاعات تبدیل میشود
🔻 یک گزارش تحلیلی از یک نشریه تخصصی در ایالات متحده آمریکا هشدار میدهد که هوش مصنوعی بهسرعت در حال تبدیل شدن به یکی از ابزارهای کلیدی در جنگهای مدرن، بهویژه در حوزه سایبری و اطلاعاتی است.
🔹 بر اساس این گزارش، تهدید اصلی AI تنها در حملات مستقیم یا سلاحهای خودکار نیست، بلکه در توانایی آن برای تولید اطلاعات ظاهراً معتبر اما گمراهکننده نهفته است؛ موضوعی که میتواند تصمیمگیری در حوزههای نظامی، زیرساختی و حتی مدیریت بحران را تحت تأثیر قرار دهد.
🔹 در این تحلیل تأکید شده که مهاجمان میتوانند با دستکاری دادهها یا ورودیهای سیستمهای هوش مصنوعی، خروجیهایی تولید کنند که در ظاهر دقیق و قابل اعتماد هستند اما در عمل باعث ایجاد خطا و اختلال در سیستمها میشوند.
🔻 همچنین استفاده از هوش مصنوعی در حملات فیشینگ، تولید بدافزار و عملیات فریب اطلاعاتی، باعث شده تهدیدات سایبری پیچیدهتر و گستردهتر از گذشته شوند.
🔹 این گزارش نتیجه میگیرد که در آینده، مهمترین چالش امنیتی نه صرفاً مقابله با حملات، بلکه توانایی تشخیص اطلاعات قابل اعتماد از دادههای دستکاریشده خواهد بود.