🔺مطالعه امآیتی، مربیان آموزشی و معلمان را نگران کرده است
تضعیف شناختی با هوش مصنوعی؟
▪️این مطالعه از عبارت «بدهی شناختی» برای توصیف هزینه احتمالی اتکای مکرر به هوش مصنوعی استفاده میکند. ایده این است که وقتی شخصی بارها و بارها به یک سیستم هوش مصنوعی اجازه میدهد تا برنامهریزی، عبارتبندی، ترکیب و ساختار استدلال را مدیریت کند، کاربر ممکن است در آن لحظه در تلاش خود صرفهجویی کند، درحالیکه تمرین در مهارتهایی را که معمولا با تلاش ایجاد میشوند، از دست میدهد.
▪️نوشتن نه تنها راهی برای تولید متن است، بلکه روشی برای تفکر نیز هست. وقتی کسی بدون تولید خارجی مقالهای مینویسد، باید دانش را بازیابی کند، ایدهها را سازماندهی کند، استدلالها را بیازماید، تصمیم بگیرد چه چیزی مهم است و بیان خود را اصلاح کند. این مراحل از نظر ذهنی طاقتفرسا هستند، اما این تلاش بخشی از فرآیند یادگیری است
https://donya-e-eqtesad.com/fa/tiny/news-4267542
📌هوش مصنوعی در اورژانس از پزشکان متخصص دقیقتر است
🔹مطالعهای جدید نشان میدهد هوش مصنوعی در تشخیص بیماریهای پیچیده و حیاتی در محیط اورژانس، دقتی بالاتر از پزشکان متخصص دارد.
🔹مدل زبانی بزرگ o1 شرکت OpenAI در تشخیص بیماریهای پیچیده و تهدیدکنندهی زندگی، بهویژه در مراحل اولیهی پذیرش در بخش اورژانس، عملکردی بهتر از پزشکان انسانی از خود نشان داد. این مدل هوش مصنوعی در شرایطی که اطلاعات محدود بود، در حدود ۶۷ درصد از مواقع، تشخیص درست یا بسیار نزدیک به درست ارائه کرد؛ در حالی که نرخ موفقیت پزشکان بین ۵۰ تا ۵۵ درصد بود.
🔹بحرانیترین بخش این مطالعه، بررسی عملکرد مدل در سه مرحلهی پذیرش بیمار در اورژانس بود. در این محیط، پزشکان اغلب با فشار کاری زیاد و اطلاعات ناقصی از سوی بیماران مواجه هستند که احتمال خطا را افزایش میدهد.
🔹تیم تحقیقاتی از دادههای واقعی بیماران استفاده کردند تا واکنش مدل را در برابر دادههای «نامنظم و ناقص» بسنجند. نتایج تایید کرد که حتی با وجود نقص در اطلاعات، هوش مصنوعی ۱۰ درصد دقیقتر از پزشکان عمل میکند.
🔹توماس باکلی، دانشمند علوم کامپیوتر در دانشگاه هاروارد، این مرحله را مهمترین بخش آزمایش دانست زیرا مستقیماً روی دادههای دنیای واقعی متمرکز بود.
🔹با وجود این موفقیت، متخصصان هشدار میدهند که مدل هنوز برای جایگزینی کامل با انسان آماده نیست. یکی از محدودیتهای اصلی، عدم توانایی مدل در تحلیل دادههای طولانیمدت مربوط به بیماران بستریشده است.
🔹همچنین این مطالعه تنها روی متون نوشتاری متمرکز بود و ورودیهای غیرمتنی مانند تصاویر رادیولوژی یا MRI که برای تشخیص سرطان و لختههای خونی حیاتی هستند، در نظر گرفته نشد.
بسته شدن تنگه هرمز چگونه اینترنت ماهوارهای استارلینک را زمینگیر کرد؟
🔸تصور عمومی بر این بود که شبکهای متشکل از بیش از 9400 ماهواره در مدار پایین زمین میتواند مستقل از زیرساختهای فیزیکی زمینی عمل کند و ارتباطات جهانی را حفظ کند اما واقعیت میدانی چیز دیگری را نشان داد.
🔸براساس تحلیلی که مرکز امنیت داخلی آمریکا (HSToday) در 8 آوریل 2026 منتشر کرده است، بسته شدن تنگه هرمز از اسفند 1404، دسته جدیدی از آسیبپذیریهای زیرساختی را افشا کرده که دکترین تابآوری ایالات متحده در حال حاضر قادر به مدلسازی آن نیست. بر اساس این تحلیل، مخابرات ماهوارهای مدار پایین (LEO)، چه نظامی و چه تجاری، به زیرساخت بخش زمینی وابسته است.
🔸ورودیهای حیاتی این بخش که از مسیر تنگه هرمز عبور میکنند شامل هلیوم، گازهای خنککننده تخصصی و خانوادههای خاص نیمههادی هستند. این تحلیل تأکید کرده است: برای مختل کردن شبکه استارلینک، نیازی نیست دشمنی به ماهواره حمله کند یا ایستگاه زمینی را هدف قرار دهد. تخریب (degradation) محیطی، توزیعشده و قابل انکار است. صرفاً بسته شدن یک گذرگاه دریایی، بدون شلیک یک گلوله، زنجیره تأمین تجهیزات حیاتی شبکه ماهوارهای را از کار انداخته است.
https://tasnimnews.ir/3579328
3.5M حجم رسانه بالاست
مشاهده در ایتا
پاسخِ مصطفی پورمحمدی به یک شبهه متداول امنیتی؛
علتِ موفقیتِ دشمن در ترورها برایِ چیست؟
مرکز تحقیقات کامپیوتری علوم اسلامی (نور) از سامانه «گفتگوی هوشمند با آثار شهید مطهری» رونمایی کرد
https://noorlib.ir/chatbot/motahari
یک ترفند:
از طریق این سایت میتوانید در بستر شبکه ملی اطلاعات به کدها و پروژههای گیتهاب دسترسی داشته باشید:
http://Scorpian.ir
17.3M حجم رسانه بالاست
مشاهده در ایتا
📹 بازسازی عملیات غرورآفرین ارتش جمهوری اسلامی ایران در حمله به پایگاه آمریکا با هوش مصنوعی
🔸 ۲ فروند اف۵ ایرانی با عبور از سامانههای روشنِ پدافندیِ پاتریوت، به زیرساختهای یک پایگاه هوایی ارتش آمریکا در کویت حمله موفق هوائی کرده و بهسلامت در پایگاه ششم شکاری بوشهر فرود آمدند.
آکادمی اسکار: بازیگران هوش مصنوعی برنده جایزه نمیشوند!
▪️ آکادمی اسکار برای مقابله با موج هوش مصنوعی در سینما، قوانین سختگیرانهای وضع کرد. طبق این مقررات، بازیگران ساختهشده با AI مشمول دریافت جایزه نمیشوند و تنها آثاری واجد شرایط هستند که توسط انسانها و با رضایت آنها تولید شده باشند.
▪️ این تصمیم پس از حواشی استفاده از نسخههای دیجیتالی بازیگران فقید و اعتصابات گسترده نویسندگان اتخاذ شد. حالا فیلمنامهها باید بهطور کامل توسط انسان نوشته شوند و آکادمی در صورت نیاز، مدارک اثبات نقش انسان در تولید اثر را درخواست میکند.
📱چت جیپیتی یک مسئله ریاضی ۶۰ ساله را حل کرد
🔹 چت جیپیتی یک مسئله ریاضی را حل کرد که نابغههای حوزه ریاضیات بیش از ۶۰ سال از حل آن باز مانده بودند.
🔹این پیشرفت جدید میتواند نمونهای از این باشد که یک هوش مصنوعی واقعا «خارج از چارچوب فکر کرده» و بر نوعی ذهن جمعیِ ناکارآمدی که نابغههای انسانی ریاضی در آن گرفتار شده بودند، غلبه کرده است.
https://www.citna.ir/node/335981
وسواس عجیب ChatGPT به «اجنه و غولها» کار دست این چتبات داد
▪️شرکت OpenAI اخیراً مجبور شد با صدور دستورات امنیتی و فنی جدید، چتجیپیتی (ChatGPT) را از صحبت مداوم درباره «گابلینها» (جنهای افسانهای) منع کند. این مداخله پس از آن صورت گرفت که مدلهای جدید این چتبات به شکلی غیرعادی و بیربط، پای موجودات افسانهای را به گفتگوهای روزمره کاربران باز میکردند.
🔺ظهور ناگهانی ارتش موجودات خیالی در چتها
▪️گزارشهای منتشر شده حاکی از آن است که مدلهای اخیر هوش مصنوعی این شرکت، در میان صحبتهای جدی و تخصصی، به طور ناگهانی از کلماتی نظیر «گابلین»، «ترول»، «غول» و «گرملین» استفاده میکردند.
▪️این رفتار عجیب ابتدا توجه برنامهنویسان را جلب کرد که از کاربران حرفهای و دائمی این ابزار هستند. آنها متوجه شدند که بات بدون هیچ پیشزمینهای، لحنی عجیب و متمایل به دنیای فانتزی پیدا کرده است.
🔺وقتی «خوره کتاب بودن» دردسرساز میشود
▪️شرکت OpenAI در توضیح این پدیده اعلام کرد که ریشه این مشکل در تلاش برای بهبود شخصیت (Persona) ربات بوده است. برنامهنویسان قصد داشتند شخصیتی «خوره کتاب و متفکر» (Nerdy) برای هوش مصنوعی طراحی کنند تا لحن آن برای کاربران جذابتر و صمیمیتر شود.
▪️با این حال، این تلاش به یک نتیجه معکوس ختم شد؛ هوش مصنوعی به جای استفاده از ادبیات علمی یا آکادمیک، به سمت واژگان خاص دنیای فانتزی و بازیهای نقشآفرینی کشیده شد و در انتخاب کلمات دچار وسواس (Obsession) نسبت به موجودات افسانهای شد.
▪️سازنده chatgpt در بیانیهای کوتاه تأیید کرد: «تلاش برای ایجاد یک شخصیت متمایز و متفکر برای بات، منجر به انتخاب واژگان غیرعادی شد که اکنون با دستورالعملهای جدید اصلاح شده است.»
🔺مداخله فنی؛ «دیگر از گابلینها حرف نزن!»
▪️برای پایان دادن به این وضعیت مضحک و گاهی ترسناک، تیم فنی OpenAI کدهای دستوری سختی را برای مدلهای خود تعریف کردهاند که آنها را مستقیماً از تکرار این واژگان منع میکند. کارشناسان معتقدند این اتفاق نشاندهنده چالشهای بزرگ در کنترل «لحن» و «شخصیت» در هوش مصنوعی مولد است؛ جایی که یک تغییر کوچک در پارامترها میتواند منجر به رفتارهای پیشبینینشده و عجیب شود.
▪️این اولین بار نیست که هوش مصنوعی رفتارهای غیرعادی از خود نشان میدهد، اما «وسواس گابلینی» یکی از عجیبترین نمونههای گزارش شده در سال ۲۰۲۶ میلادی به شمار میرود که مرز میان دنیای کدنویسی و افسانههای کهن را جابجا کرده است.
8.7M حجم رسانه بالاست
مشاهده در ایتا
▪️گزارش الجزیره : چگونه حزبالله با «FPV» اسرائیل را فلج کرد؟
🔻پایان عصر جنگ الکترونیک