♨️ جنگ جهانیِ هکرها! (تماشای زنده حملات سایبری دنیا)
▪️تا حالا فکر کرده اید در حال حاضر چند حمله هکری در حال انجام است؟ یا کدام کشورها در حال نفوذ به زیرساختهای همدیگر هستند؟
▪️این ابزار مثل یک رادارِ نظامی، تمام حملات سایبری دنیا را به صورت «زنده و لحظهای» نمایش میدهد
▪️امکان بررسی آماری هم وجود دارد ، مثلاً میتوانید ببینید اکنون ایران در کشورهای تحت حمله چه رتبه ای دارد یا کدام نوع ویروس یا بدافزار در دنیا ترند شده.
🌐 Cybermap.kaspersky.com
مدیرعامل نتبلاکس: خاموشی اینترنت ایران الگوریتمهای جهانی را هم بههم ریخت
▪️بنیانگذار نتبلاکس گفته قطع اینترنت در ایران، الگوریتمهای شبکههای اجتماعی را خراب کرده است؛ به طوری که این سیستمها برای پر کردن «جای خالی دادهها»، به جای اخبار واقعی، شروع به پخش اطلاعات غلط و شایعات کردهاند
▪️قطع سراسری اینترنت در دی و بهمن ، «الگوریتمها»- همان ماشینهایی که هر روز تصمیم میگیرند کاربران سراسر جهان در فید شبکههای اجتماعی خود چه ببیند- را تحت تاثیر قرار داد. این الگوریتمها ناگهان با یک حفره داده روبهرو شدند؛ حفرهای به بزرگی یک کشور با جمعیت چند ۱۰ میلیون کاربر پلتفرمهای آنلاین.
▪️آلپ توکر، بنیانگذار نهاد پایش اینترنت نت بلاکس میگوید:الگوریتمهای شبکههای اجتماعی و پلتفرمهای خبری برای کارکرد طبیعی به «جریان آزاد اطلاعات» نیاز دارند؛ وقتی از یک منطقه «خلأ» ایجاد میشود، الگوریتم همچنان باید خروجی تولید کند و محدودیتهای خودش را (مثل نگه داشتن کاربر، تنوع محتوا، تازگی، نرخ تعامل) برآورده کند. نتیجه این است که محتوای نمایشدادهشده دیگر لزوماً همان چیزی نیست که کاربر انتظارش را داشته؛ ممکن است کمربطتر شود و حتی فضای بیشتری برای روایتسازی، اطلاعات غلط یا منابع حاشیهای باز کند.
▪️آلپ توکر توضیح داد که «سیستمهای توصیهگر» (Recommendation Systems) معمولا از دادههای زنده (live) تغذیه میکنند: حجم پستها، هشتگها، بازنشرها، ویدئوها، نرخ تعامل و حتی الگوهای جستوجو در جایجای دنیا. وقتی یک کشور بزرگ با جمعیت انبوه کاربران آنلاین ناگهان از چرخه تولید داده حذف میشود، منطق توزیع دادهها عوض میشود؛ در زبان یادگیری ماشین این همان چیزی است که به گفته آلپ توکر به آن distribution shift میگویند.
▪️یعنی مدل هنوز باید پیشبینی کند، اما زمین زیر پایش تغییر کرده. طبیعی است در چنین شرایطی، فیدهای جهانی میتوانند «لغزش» پیدا کنند: از گزارش میدانی واقعی به سمت تحلیلهای دورادور، از خبرهای تاییدشده و صحیح به سمت گمانهزنیها، از محتوای محلی به سمت محتوای خارج از کشور و کسانی که از بیرون تلاش میکنند جای خالی را پر کنند.
.
▪️وقتی مجاری رسمی و واقعیِ خبر بسته میشود، بازار «شایعه» داغ میشود و هیچ شخص و هیچ ناظر بیرونی هم نمیتواند اطلاعات و اخبار منتشرشده را صحتسنجی کند.
▪️اثر جهانی این خاموشی، ریشه در ذات «تشنه به کلیک» الگوریتمها دارد. سیستمهای توصیهگر برای کشف حقیقت طراحی نشدهاند؛ آنها برای «حداکثر کردن تعامل» (Engagement) کدنویسی شدهاند. پژوهشهای فنی نشان میدهد که وقتی «دادههای معتبر» (مثل ویدیوهای شهروندان یا گزارشهای زنده) از شبکه حذف میشوند، سیستم دچار خلأ میشود.
▪️در این وضعیت، الگوریتم به سمت تنها چیزی میرود که باقی مانده: شایعات و اخبار جعلی. چرا؟ چون اخبار جعلی معمولا هیجانانگیزترند و نرخ تعامل بالاتری دارند. به زبان ساده، وقتی صدای یک جمعیت کلان آنلاین قطع میشود، الگوریتمها ناخواسته بلندگو را به دستِ پرسروصداترین منابع میسپارند؛ اما علامت خطر همینجا ظاهر میشود که شاید جذابتر باشند اما الزاما صحیح نیستند. مسالهای که میتواند به گمراهی اطلاعاتی و نشر اخبار جعلی و اطلاعات غلط در سطح جهان منتهی شود.
♨️ تماشای زنده دوربینهای دنیا ؛ هیجانانگیز یا نگرانکننده؟
▪️سایت
http://www.insecam.org/
آرشیوی از دوربینهای مداربستهی متصل به اینترنت را لیست کرده؛ دوربینهایی که به دلایل مختلف بدون رمز مانده اند یا با رمز پیشفرض کارخانهای فعال هستند.
▪️از دوربینهای ترافیکی و میادین شهری گرفته تا سواحل، پارکها، بعضی فروشگاهها و حتی فضاهای داخلی. فقط کافیست کشور مورد نظرتان را انتخاب کنید و ببینید که همین لحظه چه اتفاقاتی در حال رخ دادن است
⚠️ اما…خیلی از این تصاویر بدون اطلاع صاحبان دوربین در دسترس قرار گرفته اند ؛ این یعنی ضعف جدی در امنیت سایبری و حریم خصوصی!
+ اگر خودتان دوربین تحت شبکه دارید:
- رمز پیشفرض را تغییر دهید
-فریمور را آپدیت کنید
- تنظیمات دسترسی از راه دور را بازبینی و در صورت امکان، آنرا محدود کنید
جمینای وارد دنیای موسیقی شد؛ تولید آهنگهای ۳۰ ثانیهای
▪️گوگل مدل Lyria 3 را به چتبات هوش مصنوعی جمینای (Gemini) اضافه کرد. کاربران اکنون میتوانند براساس یک دستور متنی (پرامپت)، آهنگهای ۳۰ ثانیهای تولید کرده یا آهنگهای موجود را ریمیکس کنند.
▪️علاوه بر متن، جمینای میتواند بر اساس یک عکس یا ویدیو نیز آهنگ بسازد و برای آهنگها، مدل تصویری Nano Banana گوگل میتواند کاور هنری (Album Art) تولید کند.
▪️این ویژگی هماکنون در جمینای فعال شده است؛ به شرطی که به یکی از زبانهای انگلیسی، اسپانیایی، آلمانی، فرانسوی، هندی، ژاپنی، کرهای یا پرتغالی با آن تعامل کنید.
https://digiato.com/artificial-intelligence/gemini-lyria-generate-30-second-music
🔴 فحاشی، ماشین جنگی سلطنتطلبان
شاید شما هم از شدت خشونت کلامی که جریان سلطنتطلب به کار میبرد تعجب کرده باشید؛ خشونتی که پیش از این در حافظه جمعی ایرانی ثبت نشده بود.
🔹در نگاه نخست، ممکن است این رفتارها به «خشم فروخورده» یا «هیجانات سیاسی» تعبیر شود، اما واکاوی دقیقتر با بهرهگیری از مدلهای علمی، حقیقتی پیچیدهتر را آشکار میکند.
🔸بر اساس پژوهش دانشگاه آکسفورد در سال ۲۰۱۹ با عنوان «نظم جهانی اطلاعات نادرست»، این رفتارها، نه یک واکنش عصبیِ لحظهای، بلکه یک «استراتژی مهندسیشده» برای سرکوب سیستماتیک تفکر انتقادی است.
◾این پژوهش نشان میدهد که بازیگران سیاسی از «پروپاگاندای محاسباتی» برای دستکاری افکار عمومی استفاده میکنند.
نکته کلیدی این پژوهش در پاسخ به چراییِ استفاده از «فحاشی» و «نفرتپراکنی» نهفته است؛ برخلاف تصور سنتی که فحاشی را نشانه ضعف استدلال میدانست، در مدلهای جدید جنگ روانی، فحاشی یک «ابزار جنگی» است.
📍هدف از این تاکتیک، اقناع طرف مقابل نیست، بلکه «خسته کردن»، «فرسایشی کردن فضا» و در نهایت «حذف رقیب» از گردونه است.
◾حامیان جریان سلطنتطلب، یکی از بارزترین مجریان این الگو در اکوسیستم فارسیزبان هستند.
آنها با ایجاد لشکرهای سایبری، چه به صورت رباتیک و چه با کاربران واقعیِ سازمانیافته، فضایی را خلق میکنند که در آن هزینه ابراز عقیده مخالف، به شدت بالا میرود.
📍وقتی یک کاربر یا تحلیلگر سیاسی یا حتی یک چهره مشهور با سیل عظیمی از دشنامهای رکیک، تهدید به قتل و برچسبهایی مانند «مزدور» یا «خائن» مواجه میشود، مغز او به طور غریزی در وضعیت «تدافعی» یا «گریز» قرار میگیرد.
🔖یکی از مستندترین نمونههای این «استبدادِ نظر»، برخورد این جریان با گلشیفته فراهانی بود. او با موضعگیری علیه جنگ، بلافاصله با سونامیِ سازمانیافتهای از فحاشیها مواجه شد؛ فشاری که نتیجهاش وادارسازی او به عقبنشینی و تغییر موضع بود. این رخداد، سند زندهای است که نشان میدهد فحاشی در این جریان، ابزاری برای «پاکسازی» فضا از هر صدایی جز صدای خودشان است.
📑پژوهش آکسفورد تأکید میکند که این تاکتیکها برای «اشباع نفرت» طراحی شدهاند. وقتی فضای گفتوگو به توهین تبدیل شود، نخبگان و شهروندان عادی عطای بحث را به لقایش میبخشند.
🌀این دقیقاً نقطهای است که نظریه «مارپیچ سکوت» به آن میرسد. بر اساس این نظریه، وقتی افراد احساس کنند بیان نظرشان هزینههای سنگین اجتماعی دارد، سکوت میکنند. حامیان پهلوی با ترور روانی منتقدان، آنها را به گوشه رینگِ سکوت میرانند و با ایجاد توهم اکثریت، «خفقان کامل» بر فضا حاکم میکنند.
⚠️خطر اصلی اینجاست که جامعه تحت تأثیر این بمباران روانی، دچار فلج تحلیلی شده و تکصداییِ ناشی از ارعاب را با اجماع ملی اشتباه بگیرد.
📌مقابله با این پدیده، نه از طریق فحاشی متقابل، بلکه با افشای این مکانیسم، شکستن مارپیچ سکوت و اصرار بر عقلانیت در برابر هیجانزدگیِ مهندسیشده امکانپذیر است.
🔴 یک عکس ساده، پرده از دنیای جاسوسی دیجیتال برداشت
یک اشتباه به ظاهر بیاهمیت در لینکدین، توجه تحلیلگران امنیت سایبری را جلب کرد:
انتشار یک عکس یادگاری از کارکنان «Paragon Solutions» که در پسزمینه آن، بهطور ناخواسته بخشی از رابط کاربری داخلی نرمافزار جاسوسی «گرافیت» نمایش داده شده بود. هرچند این عکس به سرعت حذف شد اما شامل اطلاعاتی بود که به نظر میرسید نباید هرگز عمومی میشد.
🔎 چه چیزی لو رفت؟
بر اساس گزارشها، تصویر شامل بخشی از داشبورد کنترل این ابزار بود: شمارهای در جمهوری چک، وضعیت رهگیریهای «تکمیلشده» و دستهبندی دادههای استخراجشده از پیامرسانهای رمزنگاریشده واتساپ و سیگنال_ نشانههایی از جاسوسی هدفمند.
❓«گرافیت» چیست؟
این نرمافزار بهعنوان یک ابزار پیشرفته برای دسترسی به دادههای گوشی شناخته میشود که میتواند دادهها و پیامها را از گوشی استخراج کند و معمولاً برای استفاده نهادهای دولتی طراحی شده است. بسیاری آن را نسل جدید ابزارهایی شبیه «پگاسوس» میدانند
⚠️ حملات صفر کلیک
تحقیقات، نشان داده این ابزار در حملات «صفر کلیک» استفاده شده؛ یعنی دستگاه بدون اقدام کاربر آلوده میشود و دسترسی به پیامها، تماسها و حتی دوربین و میکروفون ممکن است.
🏢 پشتپرده شرکت پاراگون
؛«Paragon solutions» که در ۲۰۱۹ تأسیس شد و ریشههای آن به چهرهها و واحدهای اطلاعاتی اسرائیل نسبت داده میشود. این شرکت اخیراً در معاملهای حدود ۹۰۰ میلیون دلاری به یک صندوق سرمایهگذاری آمریکایی واگذار شده است.
جمینای ۳.۱ پرو معرفی شد: تمرکز بر استدلال پیچیده و برنامهنویسی
◾نسخه جدید جمینای روی بخشهایی تمرکز کرده که یک پاسخ ساده برای آنها کافی نیست. برای مثال، برنامهنویسان اکنون میتوانند با نوشتن یک پرامپت، انیمیشنهای مبتنیبر کد (SVG) تولید کنند که بسیار سبکتر از ویدیوهای عادی هستند و کیفیت خود را در هر ابعادی حفظ میکنند.
◾این مدل از طریق نسخه وب و اپلیکیشن جمینای و پلتفرم NotebookLM در دسترس است
43.1M حجم رسانه بالاست
مشاهده در ایتا
استاد ریاضی که الگوی تصمیمهای ترامپ را کشف کرد!
کریستینا پاگل، ریاضیدانی است که در سالهای اخیر پروژهای به نام «ترامپ اکشن ترکِر» راهاندازی کرده؛ یک داشبورد جامع که اقدامات، اظهارات و برنامههای دولت دونالد ترامپ را ثبت و دستهبندی میکند.
22.3M حجم رسانه بالاست
مشاهده در ایتا
در روزهای اخیر یک ویدئو با موضوع "گریه های مادر اردبیلی بر سر مزار دخترش" در حال انتشار در شبکه های اجتماعی است. اما واقعیت چیست؟
2.1M حجم رسانه بالاست
مشاهده در ایتا
🎥 در Gemini 3.1 میتوانید با یک پرامپت متنی، انیمیشنهای SVG آمادهی استفاده در وبسایت تولید کنید:
◾این انیمیشنهای SVG بهجای پیکسل، کاملاً با کدنویسی ساخته میشوند؛ یعنی:
🔹 در هر سایزی کاملاً شارپ و بدون افت کیفیت
🔹 حجم بسیار کمتر نسبت به ویدئوهای سنتی
🔹 ایدهآل برای وبسایتهای سریع و بهینه
زاکربرگ در دادگاه: وقتی «طراحی» اینستاگرام متهم ردیف اول میشود!
چند روز پیش (۱۸ فوریه ۲۰۲۶)، مارک زاکربرگ، مدیرعامل متا، در یکی از دادگاههای لسآنجلس حاضر شد تا به پرسشی پاسخ دهد که سالهاست خانوادهها را درگیر کرده است؛ اما این بار پای قانون در میان است:
«آیا شبکههای اجتماعی طوری طراحی شدهاند که به روان نوجوانان آسیب بزنند؟»
این پرونده که علیه شرکت «متا» (مالک اینستاگرام، فیسبوک و واتساپ) تشکیل شده، بخشی از یک موج بزرگ شکایت در آمریکاست. خانوادههایی که از متا شکایت کردهاند، میگویند استفاده مداوم از اینستاگرام باعث شده فرزندان نوجوانشان درگیر اضطراب، افسردگی، نارضایتی از ظاهر خود و حتی رفتارهای خودآزاری شوند. دادگاه فعلاً چند مورد از این شکایتها را به عنوان «پروندههای نمونه» بررسی میکند تا تکلیف صدها و شاید هزاران شکایت مشابه دیگر روشن شود.
🔸 دعوا سر چیست؟ محتوای بد یا طراحی فریبنده؟
شاکیان میگویند مشکل اصلی فقط یک پست ناراحتکننده یا «ترولها» (افرادی که در فضای مجازی عمداً دیگران را آزار میدهند) نیستند. دعوای اصلی سر «طراحی و معماری خود برنامه» است!
خانوادهها معتقدند اینستاگرام ویژگیهایی دارد که عمداً برای معتاد کردن کاربر طراحی شدهاند؛ از جمله:
• اسکرول بیپایان (Infinite Scroll): وقتی صفحه اینستاگرام را پایین میکشید، هیچوقت به انتهای آن نمیرسید. این یعنی مغز شما نقطهی توقفی برای بستن برنامه پیدا نمیکند.
• بمباران نوتیفیکیشنها: اعلانهای پیدرپی که مدام حواس کاربر را پرت میکنند و او را مجبور میکنند دوباره به برنامه برگردد.
• سیستم پاداش متغیر: این سیستم دقیقا مثل دستگاههای قمار عمل میکند؛ شما نمیدانید چه زمانی لایک یا کامنت جدید دریافت میکنید، بنابراین برای رسیدن به این حس خوب، مدام گوشی را چک میکنید.
• الگوریتمهای تشنهی تعامل: هوش مصنوعی اینستاگرام به جای اینکه محتوای مفید به شما نشان دهد، محتوایی را پیشنهاد میدهد که شما را بیشتر در برنامه نگه دارد؛ حتی اگر آن محتوا مقایسههای سمی و آسیبزا باشد.
وکلای خانوادهها میگویند این ترفندها، کاربر را در یک چرخه تمامنشدنی گیر میاندازند. این موضوع برای نوجوانان که به شدت نیازمند تایید دیگران هستند و خودشان را با بقیه مقایسه میکنند، ضربه روانی بسیار سنگینتری به همراه دارد. جالب اینجاست که اسناد لو رفته از داخل شرکت متا نشان میدهد کارمندان خود این شرکت هم از این خطرات باخبر بودهاند، اما مدیران تغییرات اساسی برای حل آن ایجاد نکردهاند.
🔸 دفاعیات شرکت متا: ما مقصر نیستیم!
شرکت متا این اتهامات را قبول ندارد و در دادگاه چنین دفاعیاتی را مطرح کرده است:
• محدودیت سنی: ما به افراد زیر ۱۳ سال اجازه ساخت حساب کاربری نمیدهیم (هرچند تایید سن واقعی کاربران در اینترنت کار بسیار سختی است).
• ابزارهای کنترل: ما ابزارهایی در اختیار والدین گذاشتهایم تا بتوانند زمان استفاده فرزندانشان از برنامه را مدیریت و کنترل کنند.
• فقدان مدرک علمی قطعی: هنوز از نظر علمی ثابت نشده است که رابطه مستقیمی بین استفاده از شبکههای اجتماعی و بیماریهای روانی وجود دارد.
🔸 چرا این دادگاه اینقدر مهم است؟
این دادگاه فقط یک دعوای حقوقی ساده نیست، بلکه پای مفهومی به نام «اقتصاد توجه» در میان است؛ یعنی سیستم و تجارتی که در آن، شرکتها با دزدیدنِ توجه و زمان شما، پول درمیآورند.
تا پیش از این، همه در میزگردها و مقالات از بدیهای فضای مجازی میگفتند، اما حالا این نقدها وارد دادگاه شده و رنگوبوی مجازات و غرامت به خود گرفته است.
اگر دادگاه به نفع خانوادهها رای بدهد، مرزهای قانون جابهجا میشود. در این صورت، شبکههای اجتماعی دیگر نمیتوانند بگویند «ما فقط یک پلتفرم هستیم و مسئول کارهای کاربرانمان نیستیم». آنها مجبور میشوند کل ظاهر و امکانات برنامههایشان را برای نوجوانان تغییر دهند، احراز هویت را سختگیرانهتر کنند و الگوریتمهایشان را زیر نظر قانون قرار دهند.
هنوز حکم نهایی صادر نشده، اما همین که کلماتی مثل «اسکرول بیپایان» و «الگوریتم توصیهگر» به زبان رسمی قاضی و دادگاه باز شده، نشان میدهد دوران فرار از زیر بار مسئولیت برای غولهای فناوری رو به پایان است.
سوال نهایی ساده است، اما پاسخش میتواند مسیر دنیای تکنولوژی را تغییر دهد:
آیا میتوان اپلیکیشنی که برای دزدیدن توجه ما طراحی شده را بیطرف و بیخطر دانست؟
هوش مصنوعی داکداکگو حالا تصاویر را هم ویرایش میکند
🔸چتبات متمرکز بر حریم خصوصی Duck.ai امکان ویرایش تصاویر را اضافه کرد.
◾برای کار با قابلیت یادشده، باید ابتدا گزینهی New Image را از منوی کناری انتخاب کنید. در مرحلهی بعد کافی است روی دکمهی Start with an image ضربه بزنید یا فایل مدنظرتان (با فرمت JPEG و JPG و PNG یا WebP) را درون کادر پیام بکشید. سپس تغییرات دلخواهتان را در قالب متن توصیف کنید؛ مدل هوش مصنوعی OpenAI بقیهی کارها را پیش میبرد.
◾توسعهدهندگان داکداکگو تأکید میکنند که درست مانند ابزار ساخت عکس، تمام متادیتای تصویر و آدرس IP کاربر پیشاز ارسالِ دستور برای OpenAI، پاک میشوند.
◾داکداکگو، رویکرد جذاب دیگری را نیز برای محافظت از اطلاعات افراد به کار میگیرد. به گفتهی تیم توسعه، «عکسهای آپلود شده بهصورت محلی روی دستگاه ذخیره خواهند شد» تا امنیت اطلاعاتِ اشخاص بیشازپیش تضمین شود.