eitaa logo
کاوش در دنیای هوش مصنوعی
23.5هزار دنبال‌کننده
2.3هزار عکس
1.3هزار ویدیو
357 فایل
بررسی فرصت ها و تهدیدهای نوین با گسترش ابزارهای هوش مصنوعی ارتباط با ادمین: @h_etesami1979
مشاهده در ایتا
دانلود
♨️ جنگ جهانیِ هکرها! (تماشای زنده حملات سایبری دنیا) ▪️تا حالا فکر کرده اید در حال حاضر چند حمله هکری در حال انجام است؟ یا کدام کشورها در حال نفوذ به زیرساخت‌های همدیگر هستند؟ ▪️این ابزار مثل یک رادارِ نظامی، تمام حملات سایبری دنیا را به صورت «زنده و لحظه‌ای» نمایش میدهد ▪️امکان بررسی آماری هم وجود دارد ، مثلاً میتوانید ببینید اکنون ایران در کشورهای تحت حمله چه رتبه ای دارد یا کدام نوع ویروس یا بدافزار در دنیا ترند شده. 🌐 Cybermap.kaspersky.com
مدیرعامل نت‌بلاکس: خاموشی اینترنت ایران الگوریتم‌های جهانی را هم به‌هم ریخت ▪️بنیان‌گذار نت‌بلاکس گفته قطع اینترنت در ایران، الگوریتم‌های شبکه‌های اجتماعی را خراب کرده است؛ به طوری که این سیستم‌ها برای پر کردن «جای خالی داده‌ها»، به جای اخبار واقعی، شروع به پخش اطلاعات غلط و شایعات کرده‌اند ▪️قطع سراسری اینترنت در دی و بهمن ، «الگوریتم‌ها»- همان ماشین‌هایی که هر روز تصمیم می‌گیرند کاربران سراسر جهان در فید شبکه‌های اجتماعی خود چه ببیند- را تحت تاثیر قرار داد. این الگوریتم‌ها ناگهان با یک حفره‌ داده روبه‌رو شدند؛ حفره‌ای به بزرگی یک کشور با جمعیت چند ۱۰ میلیون کاربر پلتفرم‌های آنلاین. ▪️آلپ توکر، بنیان‌گذار نهاد پایش اینترنت نت بلاکس میگوید:الگوریتم‌های شبکه‌های اجتماعی و پلتفرم‌های خبری برای کارکرد طبیعی به «جریان آزاد اطلاعات» نیاز دارند؛ وقتی از یک منطقه «خلأ» ایجاد می‌شود، الگوریتم همچنان باید خروجی تولید کند و محدودیت‌های خودش را (مثل نگه داشتن کاربر، تنوع محتوا، تازگی، نرخ تعامل) برآورده کند. نتیجه این است که محتوای نمایش‌داده‌شده دیگر لزوماً همان چیزی نیست که کاربر انتظارش را داشته؛ ممکن است کم‌ربط‌تر شود و حتی فضای بیشتری برای روایت‌سازی، اطلاعات غلط یا منابع حاشیه‌ای باز کند. ▪️آلپ توکر توضیح داد که «سیستم‌های توصیه‌گر» (Recommendation Systems) معمولا از داده‌های زنده (live) تغذیه می‌کنند: حجم پست‌ها، هشتگ‌ها، بازنشرها، ویدئوها، نرخ تعامل و حتی الگوهای جست‌وجو در جای‌جای دنیا. وقتی یک کشور بزرگ با جمعیت انبوه کاربران آنلاین ناگهان از چرخه‌ تولید داده حذف می‌شود، منطق توزیع داده‌ها عوض می‌شود؛ در زبان یادگیری ماشین این همان چیزی است که به گفته آلپ توکر به آن distribution shift می‌گویند. ▪️یعنی مدل هنوز باید پیش‌بینی کند، اما زمین زیر پایش تغییر کرده. طبیعی است در چنین شرایطی، فیدهای جهانی می‌توانند «لغزش» پیدا کنند: از گزارش میدانی واقعی به سمت تحلیل‌های دورادور، از خبرهای تاییدشده و صحیح به سمت گمانه‌زنی‌ها، از محتوای محلی به سمت محتوای خارج از کشور و کسانی که از بیرون تلاش می‌کنند جای خالی را پر کنند. . ▪️وقتی مجاری رسمی و واقعیِ خبر بسته می‌شود، بازار «شایعه» داغ می‌شود و هیچ شخص و هیچ ناظر بیرونی هم نمی‌تواند اطلاعات و اخبار منتشرشده را صحت‌سنجی کند. ▪️اثر جهانی این خاموشی، ریشه در ذات «تشنه به کلیک» الگوریتم‌ها دارد. سیستم‌های توصیه‌گر برای کشف حقیقت طراحی نشده‌اند؛ آن‌ها برای «حداکثر کردن تعامل» (Engagement) کدنویسی شده‌اند. پژوهش‌های فنی نشان می‌دهد که وقتی «داده‌های معتبر» (مثل ویدیوهای شهروندان یا گزارش‌های زنده) از شبکه حذف می‌شوند، سیستم دچار خلأ می‌شود. ▪️در این وضعیت، الگوریتم به سمت تنها چیزی می‌رود که باقی مانده: شایعات و اخبار جعلی. چرا؟ چون اخبار جعلی معمولا هیجان‌انگیزترند و نرخ تعامل بالاتری دارند. به زبان ساده، وقتی صدای یک جمعیت کلان آنلاین قطع می‌شود، الگوریتم‌ها ناخواسته بلندگو را به دستِ پرسروصداترین منابع می‌سپارند؛ اما علامت خطر همین‌جا ظاهر می‌شود که شاید جذاب‌تر باشند اما الزاما صحیح نیستند. مساله‌ای که می‌تواند به گمراهی اطلاعاتی و نشر اخبار جعلی و اطلاعات غلط در سطح جهان منتهی شود.
♨️ تماشای زنده دوربین‌های دنیا ؛ هیجان‌انگیز یا نگران‌کننده؟ ▪️سایت http://www.insecam.org/ آرشیوی از دوربین‌های مداربسته‌ی متصل به اینترنت را لیست کرده؛ دوربین‌هایی که به دلایل مختلف بدون رمز مانده اند یا با رمز پیش‌فرض کارخانه‌ای فعال هستند. ▪️از دوربین‌های ترافیکی و میادین شهری گرفته تا سواحل، پارک‌ها، بعضی فروشگاه‌ها و حتی فضاهای داخلی. فقط کافیست کشور مورد نظرتان را انتخاب کنید و ببینید که همین لحظه چه اتفاقاتی در حال رخ دادن است ⚠️ اما…خیلی از این تصاویر بدون اطلاع صاحبان دوربین در دسترس قرار گرفته اند ؛ این یعنی ضعف جدی در امنیت سایبری و حریم خصوصی! + اگر خودتان دوربین تحت شبکه دارید: - رمز پیش‌فرض را تغییر دهید -فریم‌ور را آپدیت کنید - تنظیمات دسترسی از راه دور را بازبینی و در صورت امکان، آنرا محدود کنید
جمینای وارد دنیای موسیقی شد؛ تولید آهنگ‌های ۳۰ ثانیه‌ای ▪️گوگل مدل Lyria 3 را به چت‌بات هوش مصنوعی جمینای (Gemini) اضافه کرد. کاربران اکنون می‌توانند براساس یک دستور متنی (پرامپت)، آهنگ‌های ۳۰ ثانیه‌ای تولید کرده یا آهنگ‌های موجود را ریمیکس کنند. ▪️علاوه بر متن، جمینای می‌تواند بر اساس یک عکس یا ویدیو نیز آهنگ بسازد و برای آهنگ‌ها، مدل تصویری Nano Banana گوگل می‌تواند کاور هنری (Album Art) تولید کند. ▪️این ویژگی هم‌اکنون در جمینای فعال شده است؛ به شرطی که به یکی از زبان‌های انگلیسی، اسپانیایی، آلمانی، فرانسوی، هندی، ژاپنی، کره‌ای یا پرتغالی با آن تعامل کنید. https://digiato.com/artificial-intelligence/gemini-lyria-generate-30-second-music
🔴 فحاشی، ماشین جنگی سلطنت‌طلبان شاید شما هم از شدت خشونت کلامی که جریان سلطنت‌طلب به کار می‌برد تعجب کرده باشید؛ خشونتی که پیش از این در حافظه جمعی ایرانی ثبت نشده بود. 🔹در نگاه نخست، ممکن است این رفتارها به «خشم فروخورده» یا «هیجانات سیاسی» تعبیر شود، اما واکاوی دقیق‌تر با بهره‌گیری از مدل‌های علمی، حقیقتی پیچیده‌تر را آشکار می‌کند. 🔸بر اساس پژوهش دانشگاه آکسفورد در سال ۲۰۱۹ با عنوان «نظم جهانی اطلاعات نادرست»، این رفتارها، نه یک واکنش عصبیِ لحظه‌ای، بلکه یک «استراتژی مهندسی‌شده» برای سرکوب سیستماتیک تفکر انتقادی است. ◾این پژوهش نشان می‌دهد که بازیگران سیاسی از «پروپاگاندای محاسباتی» برای دستکاری افکار عمومی استفاده می‌کنند. نکته کلیدی این پژوهش در پاسخ به چراییِ استفاده از «فحاشی» و «نفرت‌پراکنی» نهفته است؛ برخلاف تصور سنتی که فحاشی را نشانه ضعف استدلال می‌دانست، در مدل‌های جدید جنگ روانی، فحاشی یک «ابزار جنگی» است. 📍هدف از این تاکتیک، اقناع طرف مقابل نیست، بلکه «خسته کردن»، «فرسایشی کردن فضا» و در نهایت «حذف رقیب» از گردونه است. ◾حامیان جریان سلطنت‌طلب، یکی از بارزترین مجریان این الگو در اکوسیستم فارسی‌زبان هستند. آن‌ها با ایجاد لشکرهای سایبری، چه به صورت رباتیک و چه با کاربران واقعیِ سازمان‌یافته، فضایی را خلق می‌کنند که در آن هزینه ابراز عقیده مخالف، به شدت بالا می‌رود. 📍وقتی یک کاربر یا تحلیلگر سیاسی یا حتی یک چهره مشهور با سیل عظیمی از دشنام‌های رکیک، تهدید به قتل و برچسب‌هایی مانند «مزدور» یا «خائن» مواجه می‌شود، مغز او به طور غریزی در وضعیت «تدافعی» یا «گریز» قرار می‌گیرد. 🔖یکی از مستندترین نمونه‌های این «استبدادِ نظر»، برخورد این جریان با گلشیفته فراهانی بود. او با موضع‌گیری علیه جنگ، بلافاصله با سونامیِ سازمان‌یافته‌ای از فحاشی‌ها مواجه شد؛ فشاری که نتیجه‌اش وادارسازی او به عقب‌نشینی و تغییر موضع بود. این رخداد، سند زنده‌ای است که نشان می‌دهد فحاشی در این جریان، ابزاری برای «پاکسازی» فضا از هر صدایی جز صدای خودشان است. 📑پژوهش آکسفورد تأکید می‌کند که این تاکتیک‌ها برای «اشباع نفرت» طراحی شده‌اند. وقتی فضای گفت‌وگو به توهین تبدیل شود، نخبگان و شهروندان عادی عطای بحث را به لقایش می‌بخشند. 🌀این دقیقاً نقطه‌ای است که نظریه «مارپیچ سکوت» به آن می‌رسد. بر اساس این نظریه، وقتی افراد احساس کنند بیان نظرشان هزینه‌های سنگین اجتماعی دارد، سکوت می‌کنند. حامیان پهلوی با ترور روانی منتقدان، آن‌ها را به گوشه رینگِ سکوت می‌رانند و با ایجاد توهم اکثریت، «خفقان کامل» بر فضا حاکم می‌کنند. ⚠️خطر اصلی اینجاست که جامعه تحت تأثیر این بمباران روانی، دچار فلج تحلیلی شده و تک‌صداییِ ناشی از ارعاب را با اجماع ملی اشتباه بگیرد. 📌مقابله با این پدیده، نه از طریق فحاشی متقابل، بلکه با افشای این مکانیسم، شکستن مارپیچ سکوت و اصرار بر عقلانیت در برابر هیجان‌زدگیِ مهندسی‌شده امکان‌پذیر است.
🔴 یک عکس ساده، پرده از دنیای جاسوسی دیجیتال برداشت ‌ یک اشتباه به ظاهر بی‌اهمیت در لینکدین، توجه تحلیلگران امنیت سایبری را جلب کرد: انتشار یک عکس یادگاری از کارکنان «Paragon Solutions» که در پس‌زمینه آن، به‌طور ناخواسته بخشی از رابط کاربری داخلی نرم‌افزار جاسوسی «گرافیت» نمایش داده شده بود. هرچند این عکس به سرعت حذف شد اما شامل اطلاعاتی بود که به نظر می‌رسید نباید هرگز عمومی می‌شد. ‌ 🔎 چه چیزی لو رفت؟ بر اساس گزارش‌ها، تصویر شامل بخشی از داشبورد کنترل این ابزار بود: شماره‌ای در جمهوری چک، وضعیت رهگیری‌های «تکمیل‌شده» و دسته‌بندی داده‌های استخراج‌شده از پیام‌رسان‌های رمزنگاری‌شده واتساپ و سیگنال_ نشانه‌هایی از جاسوسی هدفمند. ‌ ❓«گرافیت» چیست؟ این نرم‌افزار به‌عنوان یک ابزار پیشرفته برای دسترسی به داده‌های گوشی شناخته می‌شود که می‌تواند داده‌ها و پیام‌ها را از گوشی استخراج کند و معمولاً برای استفاده نهادهای دولتی طراحی شده است. بسیاری آن را نسل جدید ابزارهایی شبیه «پگاسوس» می‌دانند ‌ ⚠️ حملات صفر کلیک تحقیقات، نشان داده این ابزار در حملات «صفر کلیک» استفاده شده؛ یعنی دستگاه بدون اقدام کاربر آلوده می‌شود و دسترسی به پیام‌ها، تماس‌ها و حتی دوربین و میکروفون ممکن است. ‌ 🏢 پشت‌پرده شرکت پاراگون ؛«Paragon solutions» که در ۲۰۱۹ تأسیس شد و ریشه‌های آن به چهره‌ها و واحدهای اطلاعاتی اسرائیل نسبت داده می‌شود. این شرکت اخیراً در معامله‌ای حدود ۹۰۰ میلیون دلاری به یک صندوق سرمایه‌گذاری آمریکایی واگذار شده است. ‌ ‌
جمینای ۳.۱ پرو معرفی شد: تمرکز بر استدلال پیچیده و برنامه‌نویسی ◾نسخه جدید جمینای روی بخش‌هایی تمرکز کرده که یک پاسخ ساده برای آنها کافی نیست. برای مثال، برنامه‌نویسان اکنون می‌توانند با نوشتن یک پرامپت، انیمیشن‌های مبتنی‌بر کد (SVG) تولید کنند که بسیار سبک‌تر از ویدیوهای عادی هستند و کیفیت خود را در هر ابعادی حفظ می‌کنند. ◾این مدل از طریق نسخه وب و اپلیکیشن جمینای و پلتفرم NotebookLM در دسترس است
43.1M حجم رسانه بالاست
مشاهده در ایتا
استاد ریاضی که الگوی تصمیم‌های ترامپ را کشف کرد! کریستینا پاگل، ریاضی‌دانی است که در سال‌های اخیر پروژه‌ای به نام «ترامپ اکشن ترکِر» راه‌اندازی کرده؛ یک داشبورد جامع که اقدامات، اظهارات و برنامه‌های دولت دونالد ترامپ را ثبت و دسته‌بندی می‌کند.
22.3M حجم رسانه بالاست
مشاهده در ایتا
در روزهای اخیر یک ویدئو با موضوع "گریه های مادر اردبیلی بر سر مزار دخترش" در حال انتشار در شبکه های اجتماعی است. اما واقعیت چیست؟
2.1M حجم رسانه بالاست
مشاهده در ایتا
🎥 در Gemini 3.1 می‌توانید با یک پرامپت متنی، انیمیشن‌های SVG آماده‌ی استفاده در وب‌سایت تولید کنید: ◾این انیمیشن‌های SVG به‌جای پیکسل، کاملاً با کدنویسی ساخته می‌شوند؛ یعنی: 🔹 در هر سایزی کاملاً شارپ و بدون افت کیفیت 🔹 حجم بسیار کم‌تر نسبت به ویدئوهای سنتی 🔹 ایده‌آل برای وب‌سایت‌های سریع و بهینه
زاکربرگ در دادگاه: وقتی «طراحی» اینستاگرام متهم ردیف اول می‌شود! چند روز پیش (۱۸ فوریه ۲۰۲۶)، مارک زاکربرگ، مدیرعامل متا، در یکی از دادگاه‌های لس‌آنجلس حاضر شد تا به پرسشی پاسخ دهد که سال‌هاست خانواده‌ها را درگیر کرده است؛ اما این بار پای قانون در میان است: «آیا شبکه‌های اجتماعی طوری طراحی شده‌اند که به روان نوجوانان آسیب بزنند؟» این پرونده که علیه شرکت «متا» (مالک اینستاگرام، فیس‌بوک و واتس‌اپ) تشکیل شده، بخشی از یک موج بزرگ شکایت در آمریکاست. خانواده‌هایی که از متا شکایت کرده‌اند، می‌گویند استفاده مداوم از اینستاگرام باعث شده فرزندان نوجوانشان درگیر اضطراب، افسردگی، نارضایتی از ظاهر خود و حتی رفتارهای خودآزاری شوند. دادگاه فعلاً چند مورد از این شکایت‌ها را به عنوان «پرونده‌های نمونه» بررسی می‌کند تا تکلیف صدها و شاید هزاران شکایت مشابه دیگر روشن شود. 🔸 دعوا سر چیست؟ محتوای بد یا طراحی فریبنده؟ شاکیان می‌گویند مشکل اصلی فقط یک پست ناراحت‌کننده یا «ترول‌ها» (افرادی که در فضای مجازی عمداً دیگران را آزار می‌دهند) نیستند. دعوای اصلی سر «طراحی و معماری خود برنامه» است! خانواده‌ها معتقدند اینستاگرام ویژگی‌هایی دارد که عمداً برای معتاد کردن کاربر طراحی شده‌اند؛ از جمله: • اسکرول بی‌پایان (Infinite Scroll): وقتی صفحه اینستاگرام را پایین می‌کشید، هیچ‌وقت به انتهای آن نمی‌رسید. این یعنی مغز شما نقطه‌ی توقفی برای بستن برنامه پیدا نمی‌کند. • بمباران نوتیفیکیشن‌ها: اعلان‌های پی‌درپی که مدام حواس کاربر را پرت می‌کنند و او را مجبور می‌کنند دوباره به برنامه برگردد. • سیستم پاداش متغیر: این سیستم دقیقا مثل دستگاه‌های قمار عمل می‌کند؛ شما نمی‌دانید چه زمانی لایک یا کامنت جدید دریافت می‌کنید، بنابراین برای رسیدن به این حس خوب، مدام گوشی را چک می‌کنید. • الگوریتم‌های تشنه‌ی تعامل: هوش مصنوعی اینستاگرام به جای اینکه محتوای مفید به شما نشان دهد، محتوایی را پیشنهاد می‌دهد که شما را بیشتر در برنامه نگه دارد؛ حتی اگر آن محتوا مقایسه‌های سمی و آسیب‌زا باشد. وکلای خانواده‌ها می‌گویند این ترفندها، کاربر را در یک چرخه تمام‌نشدنی گیر می‌اندازند. این موضوع برای نوجوانان که به شدت نیازمند تایید دیگران هستند و خودشان را با بقیه مقایسه می‌کنند، ضربه روانی بسیار سنگین‌تری به همراه دارد. جالب اینجاست که اسناد لو رفته از داخل شرکت متا نشان می‌دهد کارمندان خود این شرکت هم از این خطرات باخبر بوده‌اند، اما مدیران تغییرات اساسی برای حل آن ایجاد نکرده‌اند. 🔸 دفاعیات شرکت متا: ما مقصر نیستیم! شرکت متا این اتهامات را قبول ندارد و در دادگاه چنین دفاعیاتی را مطرح کرده است: • محدودیت سنی: ما به افراد زیر ۱۳ سال اجازه ساخت حساب کاربری نمی‌دهیم (هرچند تایید سن واقعی کاربران در اینترنت کار بسیار سختی است). • ابزارهای کنترل: ما ابزارهایی در اختیار والدین گذاشته‌ایم تا بتوانند زمان استفاده فرزندانشان از برنامه را مدیریت و کنترل کنند. • فقدان مدرک علمی قطعی: هنوز از نظر علمی ثابت نشده است که رابطه مستقیمی بین استفاده از شبکه‌های اجتماعی و بیماری‌های روانی وجود دارد. 🔸 چرا این دادگاه این‌قدر مهم است؟ این دادگاه فقط یک دعوای حقوقی ساده نیست، بلکه پای مفهومی به نام «اقتصاد توجه» در میان است؛ یعنی سیستم و تجارتی که در آن، شرکت‌ها با دزدیدنِ توجه و زمان شما، پول درمی‌آورند. تا پیش از این، همه در میزگردها و مقالات از بدی‌های فضای مجازی می‌گفتند، اما حالا این نقدها وارد دادگاه شده و رنگ‌وبوی مجازات و غرامت به خود گرفته است. اگر دادگاه به نفع خانواده‌ها رای بدهد، مرزهای قانون جابه‌جا می‌شود. در این صورت، شبکه‌های اجتماعی دیگر نمی‌توانند بگویند «ما فقط یک پلتفرم هستیم و مسئول کارهای کاربرانمان نیستیم». آن‌ها مجبور می‌شوند کل ظاهر و امکانات برنامه‌هایشان را برای نوجوانان تغییر دهند، احراز هویت را سخت‌گیرانه‌تر کنند و الگوریتم‌هایشان را زیر نظر قانون قرار دهند. هنوز حکم نهایی صادر نشده، اما همین که کلماتی مثل «اسکرول بی‌پایان» و «الگوریتم توصیه‌گر» به زبان رسمی قاضی و دادگاه باز شده، نشان می‌دهد دوران فرار از زیر بار مسئولیت برای غول‌های فناوری رو به پایان است. سوال نهایی ساده است، اما پاسخش می‌تواند مسیر دنیای تکنولوژی را تغییر دهد: آیا می‌توان اپلیکیشنی که برای دزدیدن توجه ما طراحی شده را بی‌طرف و بی‌خطر دانست؟
هوش مصنوعی داک‌داک‌گو حالا تصاویر را هم ویرایش می‌کند 🔸چت‌بات متمرکز بر حریم خصوصی Duck.ai امکان ویرایش تصاویر را اضافه کرد. ◾برای کار با قابلیت یادشده، باید ابتدا گزینه‌ی New Image را از منوی کناری انتخاب کنید. در مرحله‌ی بعد کافی است روی دکمه‌ی Start with an image ضربه بزنید یا فایل مدنظرتان (با فرمت JPEG و JPG و PNG یا WebP) را درون کادر پیام بکشید. سپس تغییرات دلخواهتان را در قالب متن توصیف کنید؛ مدل هوش مصنوعی OpenAI بقیه‌ی کارها را پیش می‌برد. ◾توسعه‌دهندگان داک‌داک‌گو تأکید می‌کنند که درست مانند ابزار ساخت عکس، تمام متادیتای تصویر و آدرس IP کاربر پیش‌از ارسالِ دستور برای OpenAI، پاک می‌شوند. ◾داک‌داک‌گو، رویکرد جذاب دیگری را نیز برای محافظت از اطلاعات افراد به کار می‌گیرد. به گفته‌ی تیم توسعه، «عکس‌های آپلود شده به‌صورت محلی روی دستگاه ذخیره خواهند شد» تا امنیت اطلاعاتِ اشخاص بیش‌ازپیش تضمین شود.