eitaa logo
کاوش در دنیای هوش مصنوعی
23.5هزار دنبال‌کننده
2.3هزار عکس
1.3هزار ویدیو
358 فایل
بررسی فرصت ها و تهدیدهای نوین با گسترش ابزارهای هوش مصنوعی ارتباط با ادمین: @h_etesami1979
مشاهده در ایتا
دانلود
♨️ تماشای زنده دوربین‌های دنیا ؛ هیجان‌انگیز یا نگران‌کننده؟ ▪️سایت http://www.insecam.org/ آرشیوی از دوربین‌های مداربسته‌ی متصل به اینترنت را لیست کرده؛ دوربین‌هایی که به دلایل مختلف بدون رمز مانده اند یا با رمز پیش‌فرض کارخانه‌ای فعال هستند. ▪️از دوربین‌های ترافیکی و میادین شهری گرفته تا سواحل، پارک‌ها، بعضی فروشگاه‌ها و حتی فضاهای داخلی. فقط کافیست کشور مورد نظرتان را انتخاب کنید و ببینید که همین لحظه چه اتفاقاتی در حال رخ دادن است ⚠️ اما…خیلی از این تصاویر بدون اطلاع صاحبان دوربین در دسترس قرار گرفته اند ؛ این یعنی ضعف جدی در امنیت سایبری و حریم خصوصی! + اگر خودتان دوربین تحت شبکه دارید: - رمز پیش‌فرض را تغییر دهید -فریم‌ور را آپدیت کنید - تنظیمات دسترسی از راه دور را بازبینی و در صورت امکان، آنرا محدود کنید
جمینای وارد دنیای موسیقی شد؛ تولید آهنگ‌های ۳۰ ثانیه‌ای ▪️گوگل مدل Lyria 3 را به چت‌بات هوش مصنوعی جمینای (Gemini) اضافه کرد. کاربران اکنون می‌توانند براساس یک دستور متنی (پرامپت)، آهنگ‌های ۳۰ ثانیه‌ای تولید کرده یا آهنگ‌های موجود را ریمیکس کنند. ▪️علاوه بر متن، جمینای می‌تواند بر اساس یک عکس یا ویدیو نیز آهنگ بسازد و برای آهنگ‌ها، مدل تصویری Nano Banana گوگل می‌تواند کاور هنری (Album Art) تولید کند. ▪️این ویژگی هم‌اکنون در جمینای فعال شده است؛ به شرطی که به یکی از زبان‌های انگلیسی، اسپانیایی، آلمانی، فرانسوی، هندی، ژاپنی، کره‌ای یا پرتغالی با آن تعامل کنید. https://digiato.com/artificial-intelligence/gemini-lyria-generate-30-second-music
🔴 فحاشی، ماشین جنگی سلطنت‌طلبان شاید شما هم از شدت خشونت کلامی که جریان سلطنت‌طلب به کار می‌برد تعجب کرده باشید؛ خشونتی که پیش از این در حافظه جمعی ایرانی ثبت نشده بود. 🔹در نگاه نخست، ممکن است این رفتارها به «خشم فروخورده» یا «هیجانات سیاسی» تعبیر شود، اما واکاوی دقیق‌تر با بهره‌گیری از مدل‌های علمی، حقیقتی پیچیده‌تر را آشکار می‌کند. 🔸بر اساس پژوهش دانشگاه آکسفورد در سال ۲۰۱۹ با عنوان «نظم جهانی اطلاعات نادرست»، این رفتارها، نه یک واکنش عصبیِ لحظه‌ای، بلکه یک «استراتژی مهندسی‌شده» برای سرکوب سیستماتیک تفکر انتقادی است. ◾این پژوهش نشان می‌دهد که بازیگران سیاسی از «پروپاگاندای محاسباتی» برای دستکاری افکار عمومی استفاده می‌کنند. نکته کلیدی این پژوهش در پاسخ به چراییِ استفاده از «فحاشی» و «نفرت‌پراکنی» نهفته است؛ برخلاف تصور سنتی که فحاشی را نشانه ضعف استدلال می‌دانست، در مدل‌های جدید جنگ روانی، فحاشی یک «ابزار جنگی» است. 📍هدف از این تاکتیک، اقناع طرف مقابل نیست، بلکه «خسته کردن»، «فرسایشی کردن فضا» و در نهایت «حذف رقیب» از گردونه است. ◾حامیان جریان سلطنت‌طلب، یکی از بارزترین مجریان این الگو در اکوسیستم فارسی‌زبان هستند. آن‌ها با ایجاد لشکرهای سایبری، چه به صورت رباتیک و چه با کاربران واقعیِ سازمان‌یافته، فضایی را خلق می‌کنند که در آن هزینه ابراز عقیده مخالف، به شدت بالا می‌رود. 📍وقتی یک کاربر یا تحلیلگر سیاسی یا حتی یک چهره مشهور با سیل عظیمی از دشنام‌های رکیک، تهدید به قتل و برچسب‌هایی مانند «مزدور» یا «خائن» مواجه می‌شود، مغز او به طور غریزی در وضعیت «تدافعی» یا «گریز» قرار می‌گیرد. 🔖یکی از مستندترین نمونه‌های این «استبدادِ نظر»، برخورد این جریان با گلشیفته فراهانی بود. او با موضع‌گیری علیه جنگ، بلافاصله با سونامیِ سازمان‌یافته‌ای از فحاشی‌ها مواجه شد؛ فشاری که نتیجه‌اش وادارسازی او به عقب‌نشینی و تغییر موضع بود. این رخداد، سند زنده‌ای است که نشان می‌دهد فحاشی در این جریان، ابزاری برای «پاکسازی» فضا از هر صدایی جز صدای خودشان است. 📑پژوهش آکسفورد تأکید می‌کند که این تاکتیک‌ها برای «اشباع نفرت» طراحی شده‌اند. وقتی فضای گفت‌وگو به توهین تبدیل شود، نخبگان و شهروندان عادی عطای بحث را به لقایش می‌بخشند. 🌀این دقیقاً نقطه‌ای است که نظریه «مارپیچ سکوت» به آن می‌رسد. بر اساس این نظریه، وقتی افراد احساس کنند بیان نظرشان هزینه‌های سنگین اجتماعی دارد، سکوت می‌کنند. حامیان پهلوی با ترور روانی منتقدان، آن‌ها را به گوشه رینگِ سکوت می‌رانند و با ایجاد توهم اکثریت، «خفقان کامل» بر فضا حاکم می‌کنند. ⚠️خطر اصلی اینجاست که جامعه تحت تأثیر این بمباران روانی، دچار فلج تحلیلی شده و تک‌صداییِ ناشی از ارعاب را با اجماع ملی اشتباه بگیرد. 📌مقابله با این پدیده، نه از طریق فحاشی متقابل، بلکه با افشای این مکانیسم، شکستن مارپیچ سکوت و اصرار بر عقلانیت در برابر هیجان‌زدگیِ مهندسی‌شده امکان‌پذیر است.
🔴 یک عکس ساده، پرده از دنیای جاسوسی دیجیتال برداشت ‌ یک اشتباه به ظاهر بی‌اهمیت در لینکدین، توجه تحلیلگران امنیت سایبری را جلب کرد: انتشار یک عکس یادگاری از کارکنان «Paragon Solutions» که در پس‌زمینه آن، به‌طور ناخواسته بخشی از رابط کاربری داخلی نرم‌افزار جاسوسی «گرافیت» نمایش داده شده بود. هرچند این عکس به سرعت حذف شد اما شامل اطلاعاتی بود که به نظر می‌رسید نباید هرگز عمومی می‌شد. ‌ 🔎 چه چیزی لو رفت؟ بر اساس گزارش‌ها، تصویر شامل بخشی از داشبورد کنترل این ابزار بود: شماره‌ای در جمهوری چک، وضعیت رهگیری‌های «تکمیل‌شده» و دسته‌بندی داده‌های استخراج‌شده از پیام‌رسان‌های رمزنگاری‌شده واتساپ و سیگنال_ نشانه‌هایی از جاسوسی هدفمند. ‌ ❓«گرافیت» چیست؟ این نرم‌افزار به‌عنوان یک ابزار پیشرفته برای دسترسی به داده‌های گوشی شناخته می‌شود که می‌تواند داده‌ها و پیام‌ها را از گوشی استخراج کند و معمولاً برای استفاده نهادهای دولتی طراحی شده است. بسیاری آن را نسل جدید ابزارهایی شبیه «پگاسوس» می‌دانند ‌ ⚠️ حملات صفر کلیک تحقیقات، نشان داده این ابزار در حملات «صفر کلیک» استفاده شده؛ یعنی دستگاه بدون اقدام کاربر آلوده می‌شود و دسترسی به پیام‌ها، تماس‌ها و حتی دوربین و میکروفون ممکن است. ‌ 🏢 پشت‌پرده شرکت پاراگون ؛«Paragon solutions» که در ۲۰۱۹ تأسیس شد و ریشه‌های آن به چهره‌ها و واحدهای اطلاعاتی اسرائیل نسبت داده می‌شود. این شرکت اخیراً در معامله‌ای حدود ۹۰۰ میلیون دلاری به یک صندوق سرمایه‌گذاری آمریکایی واگذار شده است. ‌ ‌
جمینای ۳.۱ پرو معرفی شد: تمرکز بر استدلال پیچیده و برنامه‌نویسی ◾نسخه جدید جمینای روی بخش‌هایی تمرکز کرده که یک پاسخ ساده برای آنها کافی نیست. برای مثال، برنامه‌نویسان اکنون می‌توانند با نوشتن یک پرامپت، انیمیشن‌های مبتنی‌بر کد (SVG) تولید کنند که بسیار سبک‌تر از ویدیوهای عادی هستند و کیفیت خود را در هر ابعادی حفظ می‌کنند. ◾این مدل از طریق نسخه وب و اپلیکیشن جمینای و پلتفرم NotebookLM در دسترس است
43.1M حجم رسانه بالاست
مشاهده در ایتا
استاد ریاضی که الگوی تصمیم‌های ترامپ را کشف کرد! کریستینا پاگل، ریاضی‌دانی است که در سال‌های اخیر پروژه‌ای به نام «ترامپ اکشن ترکِر» راه‌اندازی کرده؛ یک داشبورد جامع که اقدامات، اظهارات و برنامه‌های دولت دونالد ترامپ را ثبت و دسته‌بندی می‌کند.
22.3M حجم رسانه بالاست
مشاهده در ایتا
در روزهای اخیر یک ویدئو با موضوع "گریه های مادر اردبیلی بر سر مزار دخترش" در حال انتشار در شبکه های اجتماعی است. اما واقعیت چیست؟
2.1M حجم رسانه بالاست
مشاهده در ایتا
🎥 در Gemini 3.1 می‌توانید با یک پرامپت متنی، انیمیشن‌های SVG آماده‌ی استفاده در وب‌سایت تولید کنید: ◾این انیمیشن‌های SVG به‌جای پیکسل، کاملاً با کدنویسی ساخته می‌شوند؛ یعنی: 🔹 در هر سایزی کاملاً شارپ و بدون افت کیفیت 🔹 حجم بسیار کم‌تر نسبت به ویدئوهای سنتی 🔹 ایده‌آل برای وب‌سایت‌های سریع و بهینه
زاکربرگ در دادگاه: وقتی «طراحی» اینستاگرام متهم ردیف اول می‌شود! چند روز پیش (۱۸ فوریه ۲۰۲۶)، مارک زاکربرگ، مدیرعامل متا، در یکی از دادگاه‌های لس‌آنجلس حاضر شد تا به پرسشی پاسخ دهد که سال‌هاست خانواده‌ها را درگیر کرده است؛ اما این بار پای قانون در میان است: «آیا شبکه‌های اجتماعی طوری طراحی شده‌اند که به روان نوجوانان آسیب بزنند؟» این پرونده که علیه شرکت «متا» (مالک اینستاگرام، فیس‌بوک و واتس‌اپ) تشکیل شده، بخشی از یک موج بزرگ شکایت در آمریکاست. خانواده‌هایی که از متا شکایت کرده‌اند، می‌گویند استفاده مداوم از اینستاگرام باعث شده فرزندان نوجوانشان درگیر اضطراب، افسردگی، نارضایتی از ظاهر خود و حتی رفتارهای خودآزاری شوند. دادگاه فعلاً چند مورد از این شکایت‌ها را به عنوان «پرونده‌های نمونه» بررسی می‌کند تا تکلیف صدها و شاید هزاران شکایت مشابه دیگر روشن شود. 🔸 دعوا سر چیست؟ محتوای بد یا طراحی فریبنده؟ شاکیان می‌گویند مشکل اصلی فقط یک پست ناراحت‌کننده یا «ترول‌ها» (افرادی که در فضای مجازی عمداً دیگران را آزار می‌دهند) نیستند. دعوای اصلی سر «طراحی و معماری خود برنامه» است! خانواده‌ها معتقدند اینستاگرام ویژگی‌هایی دارد که عمداً برای معتاد کردن کاربر طراحی شده‌اند؛ از جمله: • اسکرول بی‌پایان (Infinite Scroll): وقتی صفحه اینستاگرام را پایین می‌کشید، هیچ‌وقت به انتهای آن نمی‌رسید. این یعنی مغز شما نقطه‌ی توقفی برای بستن برنامه پیدا نمی‌کند. • بمباران نوتیفیکیشن‌ها: اعلان‌های پی‌درپی که مدام حواس کاربر را پرت می‌کنند و او را مجبور می‌کنند دوباره به برنامه برگردد. • سیستم پاداش متغیر: این سیستم دقیقا مثل دستگاه‌های قمار عمل می‌کند؛ شما نمی‌دانید چه زمانی لایک یا کامنت جدید دریافت می‌کنید، بنابراین برای رسیدن به این حس خوب، مدام گوشی را چک می‌کنید. • الگوریتم‌های تشنه‌ی تعامل: هوش مصنوعی اینستاگرام به جای اینکه محتوای مفید به شما نشان دهد، محتوایی را پیشنهاد می‌دهد که شما را بیشتر در برنامه نگه دارد؛ حتی اگر آن محتوا مقایسه‌های سمی و آسیب‌زا باشد. وکلای خانواده‌ها می‌گویند این ترفندها، کاربر را در یک چرخه تمام‌نشدنی گیر می‌اندازند. این موضوع برای نوجوانان که به شدت نیازمند تایید دیگران هستند و خودشان را با بقیه مقایسه می‌کنند، ضربه روانی بسیار سنگین‌تری به همراه دارد. جالب اینجاست که اسناد لو رفته از داخل شرکت متا نشان می‌دهد کارمندان خود این شرکت هم از این خطرات باخبر بوده‌اند، اما مدیران تغییرات اساسی برای حل آن ایجاد نکرده‌اند. 🔸 دفاعیات شرکت متا: ما مقصر نیستیم! شرکت متا این اتهامات را قبول ندارد و در دادگاه چنین دفاعیاتی را مطرح کرده است: • محدودیت سنی: ما به افراد زیر ۱۳ سال اجازه ساخت حساب کاربری نمی‌دهیم (هرچند تایید سن واقعی کاربران در اینترنت کار بسیار سختی است). • ابزارهای کنترل: ما ابزارهایی در اختیار والدین گذاشته‌ایم تا بتوانند زمان استفاده فرزندانشان از برنامه را مدیریت و کنترل کنند. • فقدان مدرک علمی قطعی: هنوز از نظر علمی ثابت نشده است که رابطه مستقیمی بین استفاده از شبکه‌های اجتماعی و بیماری‌های روانی وجود دارد. 🔸 چرا این دادگاه این‌قدر مهم است؟ این دادگاه فقط یک دعوای حقوقی ساده نیست، بلکه پای مفهومی به نام «اقتصاد توجه» در میان است؛ یعنی سیستم و تجارتی که در آن، شرکت‌ها با دزدیدنِ توجه و زمان شما، پول درمی‌آورند. تا پیش از این، همه در میزگردها و مقالات از بدی‌های فضای مجازی می‌گفتند، اما حالا این نقدها وارد دادگاه شده و رنگ‌وبوی مجازات و غرامت به خود گرفته است. اگر دادگاه به نفع خانواده‌ها رای بدهد، مرزهای قانون جابه‌جا می‌شود. در این صورت، شبکه‌های اجتماعی دیگر نمی‌توانند بگویند «ما فقط یک پلتفرم هستیم و مسئول کارهای کاربرانمان نیستیم». آن‌ها مجبور می‌شوند کل ظاهر و امکانات برنامه‌هایشان را برای نوجوانان تغییر دهند، احراز هویت را سخت‌گیرانه‌تر کنند و الگوریتم‌هایشان را زیر نظر قانون قرار دهند. هنوز حکم نهایی صادر نشده، اما همین که کلماتی مثل «اسکرول بی‌پایان» و «الگوریتم توصیه‌گر» به زبان رسمی قاضی و دادگاه باز شده، نشان می‌دهد دوران فرار از زیر بار مسئولیت برای غول‌های فناوری رو به پایان است. سوال نهایی ساده است، اما پاسخش می‌تواند مسیر دنیای تکنولوژی را تغییر دهد: آیا می‌توان اپلیکیشنی که برای دزدیدن توجه ما طراحی شده را بی‌طرف و بی‌خطر دانست؟
هوش مصنوعی داک‌داک‌گو حالا تصاویر را هم ویرایش می‌کند 🔸چت‌بات متمرکز بر حریم خصوصی Duck.ai امکان ویرایش تصاویر را اضافه کرد. ◾برای کار با قابلیت یادشده، باید ابتدا گزینه‌ی New Image را از منوی کناری انتخاب کنید. در مرحله‌ی بعد کافی است روی دکمه‌ی Start with an image ضربه بزنید یا فایل مدنظرتان (با فرمت JPEG و JPG و PNG یا WebP) را درون کادر پیام بکشید. سپس تغییرات دلخواهتان را در قالب متن توصیف کنید؛ مدل هوش مصنوعی OpenAI بقیه‌ی کارها را پیش می‌برد. ◾توسعه‌دهندگان داک‌داک‌گو تأکید می‌کنند که درست مانند ابزار ساخت عکس، تمام متادیتای تصویر و آدرس IP کاربر پیش‌از ارسالِ دستور برای OpenAI، پاک می‌شوند. ◾داک‌داک‌گو، رویکرد جذاب دیگری را نیز برای محافظت از اطلاعات افراد به کار می‌گیرد. به گفته‌ی تیم توسعه، «عکس‌های آپلود شده به‌صورت محلی روی دستگاه ذخیره خواهند شد» تا امنیت اطلاعاتِ اشخاص بیش‌ازپیش تضمین شود.
🟠 انقلاب هوش مصنوعی و عملیات‌های آینده (بخش اول) آیا میدان نبرد و جاسوسی تغییر کرده است؟ 🔹امروزه هوش مصنوعی دیگر فقط یک فناوری کمکی نیست. این تکنولوژی به یکی از ارکان اصلی تصمیم‌گیری در عملیات‌های نظامی و جاسوسی تبدیل شده است. 🔸ارتش‌ها و سرویس‌های اطلاعاتی با بهره‌گیری از هوش مصنوعی توانسته‌اند داده‌های پیچیده را در زمان‌های بسیار کوتاه تحلیل کرده و پیش‌بینی‌های دقیقی ارائه دهند. این تغییرات می‌تواند مرز میان ابزار و عامل را در عملیات‌های جاسوسی و جنگی به‌طور کامل از بین ببرد. ⬇️ سه سطح اصلی استفاده از هوش مصنوعی در عملیات‌ها ◾سطح داده‌ها: پایان انباشت بی‌هدف در گذشته، چالش اصلی، حجم عظیم داده‌ها، مانند تصاویر ماهواره‌ای و گزارش‌های شنود بود. اما اکنون در این سطح، هوش مصنوعی به‌طور خودکار داده‌ها را فیلتر کرده و اطلاعات عملیاتی را در کسری از ثانیه در دسترس تحلیل‌گران قرار می‌دهد. این روش سرعت جمع‌آوری اطلاعات را به‌طور قابل توجهی افزایش می‌دهد و فرآیندهای معمولی را سرعت می‌بخشد. ◾سطح تحلیل: پیشگویی بر اساس احتمالات در این مرحله، هوش مصنوعی وارد عرصه تحلیل و پیش‌بینی می‌شود. AI می‌تواند با شبیه‌سازی سناریوهای مختلف، احتمالات وقوع بحران یا حمله را محاسبه کند. این محاسبات به فرماندهان و تحلیل‌گران این امکان را می‌دهد که با اطلاعات دقیق‌تر و جامع‌تر، تصمیمات استراتژیک بگیرند. ◾سطح خودمختاری: حذف انسان از حلقه تصمیم‌گیری در این سطح، هوش مصنوعی می‌تواند خودمختار تصمیم بگیرد. نمونه‌ای از آن پهپادهایی هستند که هدف می‌گیرند یا سیستم‌های خودمختاری که بدون دخالت انسان، عملیات‌ها را هدایت می‌کنند.
go-elmi92.pdf
حجم: 2.5M
◾بخوانید:دانشمندان با استفاده از هوش مصنوعی، روش جدیدی برای تبدیل افکار به متن ابداع کرده‌اند که دیگر نیازی به ساعت‌ها اسکن مغزی و آموزش طولانی‌مدت ندارد. ◾این فناوری با بهره‌گیری از اسکن مغزی سریع و الگوریتم‌های پیشرفته می‌تواند افکار فرد را به‌صورت تقریبی به متن تبدیل کند. ◾دستاورد مورد اشاره می‌تواند به افراد مبتلا به آفازی (اختلال در تکلم) کمک کند تا به‌راحتی با دیگران ارتباط برقرار کرده و افکار خود را بیان کنند. ◾نکته‌ جالب اینجاست که سیستم مذکور حتی با استفاده از تصاویر بی‌صدا نیز قادر است افکار فرد را رمزگشایی کند؛ موضوعی که نشان‌دهنده‌ ارتباط عمیق میان بازنمایی ایده‌ها از طریق زبان و روایت‌های بصری در مغز است.