eitaa logo
کاوش در دنیای هوش مصنوعی
22.8هزار دنبال‌کننده
2.4هزار عکس
1.3هزار ویدیو
367 فایل
آموزش مهارت های مورد نیاز برای افزایش سواد رسانه ای در عصر هوش مصنوعی ارتباط با ادمین: @h_etesami1979
مشاهده در ایتا
دانلود
🔺مطالعه ام‌آی‌تی، مربیان آموزشی و معلمان را نگران کرده است تضعیف شناختی با هوش مصنوعی؟ ▪️این مطالعه از عبارت «بدهی شناختی» برای توصیف هزینه احتمالی اتکای مکرر به هوش مصنوعی استفاده می‌کند. ایده این است که وقتی شخصی بارها و بارها به یک سیستم هوش مصنوعی اجازه می‌دهد تا برنامه‌ریزی، عبارت‌بندی، ترکیب و ساختار استدلال را مدیریت کند، کاربر ممکن است در آن لحظه در تلاش خود صرفه‌جویی کند، درحالی‌که تمرین در مهارت‌هایی را که معمولا با تلاش ایجاد می‌شوند، از دست می‌دهد. ▪️نوشتن نه تنها راهی برای تولید متن است، بلکه روشی برای تفکر نیز هست. وقتی کسی بدون تولید خارجی مقاله‌ای می‌نویسد، باید دانش را بازیابی کند، ایده‌ها را سازماندهی کند، استدلال‌ها را بیازماید، تصمیم بگیرد چه چیزی مهم است و بیان خود را اصلاح کند. این مراحل از نظر ذهنی طاقت‌فرسا هستند، اما این تلاش بخشی از فرآیند یادگیری است https://donya-e-eqtesad.com/fa/tiny/news-4267542
📌هوش مصنوعی در اورژانس از پزشکان متخصص دقیق‌تر است 🔹مطالعه‌ای جدید نشان می‌دهد هوش مصنوعی در تشخیص بیماری‌های پیچیده و حیاتی در محیط اورژانس، دقتی بالاتر از پزشکان متخصص دارد. 🔹مدل زبانی بزرگ o1 شرکت OpenAI در تشخیص بیماری‌های پیچیده و تهدیدکننده‌ی زندگی، به‌ویژه در مراحل اولیه‌ی پذیرش در بخش اورژانس، عملکردی بهتر از پزشکان انسانی از خود نشان داد. این مدل هوش مصنوعی در شرایطی که اطلاعات محدود بود، در حدود ۶۷ درصد از مواقع، تشخیص درست یا بسیار نزدیک به درست ارائه کرد؛ در حالی که نرخ موفقیت پزشکان بین ۵۰ تا ۵۵ درصد بود. 🔹بحرانی‌ترین بخش این مطالعه، بررسی عملکرد مدل در سه مرحله‌ی پذیرش بیمار در اورژانس بود. در این محیط، پزشکان اغلب با فشار کاری زیاد و اطلاعات ناقصی از سوی بیماران مواجه هستند که احتمال خطا را افزایش می‌دهد. 🔹تیم تحقیقاتی از داده‌های واقعی بیماران استفاده کردند تا واکنش مدل را در برابر داده‌های «نامنظم و ناقص» بسنجند. نتایج تایید کرد که حتی با وجود نقص در اطلاعات، هوش مصنوعی ۱۰ درصد دقیق‌تر از پزشکان عمل می‌کند. 🔹توماس باکلی، دانشمند علوم کامپیوتر در دانشگاه هاروارد، این مرحله را مهم‌ترین بخش آزمایش دانست زیرا مستقیماً روی داده‌های دنیای واقعی متمرکز بود. 🔹با وجود این موفقیت، متخصصان هشدار می‌دهند که مدل هنوز برای جایگزینی کامل با انسان آماده نیست. یکی از محدودیت‌های اصلی، عدم توانایی مدل در تحلیل داده‌های طولانی‌مدت مربوط به بیماران بستری‌شده است. 🔹همچنین این مطالعه تنها روی متون نوشتاری متمرکز بود و ورودی‌های غیرمتنی مانند تصاویر رادیولوژی یا MRI که برای تشخیص سرطان و لخته‌های خونی حیاتی هستند، در نظر گرفته نشد.
بسته شدن تنگه هرمز چگونه اینترنت ماهواره‌ای استارلینک را زمین‌گیر کرد؟ 🔸تصور عمومی بر این بود که شبکه‌ای متشکل از بیش از 9400 ماهواره در مدار پایین زمین می‌تواند مستقل از زیرساخت‌های فیزیکی زمینی عمل کند و ارتباطات جهانی را حفظ کند اما واقعیت میدانی چیز دیگری را نشان داد. 🔸براساس تحلیلی که مرکز امنیت داخلی آمریکا (HSToday) در 8 آوریل 2026 منتشر کرده است، بسته شدن تنگه هرمز از اسفند 1404، دسته جدیدی از آسیب‌پذیری‌های زیرساختی را افشا کرده که دکترین تاب‌آوری ایالات متحده در حال حاضر قادر به مدل‌سازی آن نیست. بر اساس این تحلیل، مخابرات ماهواره‌ای مدار پایین (LEO)، چه نظامی و چه تجاری، به زیرساخت بخش زمینی وابسته است. 🔸ورودی‌های حیاتی این بخش که از مسیر تنگه هرمز عبور می‌کنند شامل هلیوم، گازهای خنک‌کننده تخصصی و خانواده‌های خاص نیمه‌هادی هستند. این تحلیل تأکید کرده است: برای مختل کردن شبکه استارلینک، نیازی نیست دشمنی به ماهواره حمله کند یا ایستگاه زمینی را هدف قرار دهد. تخریب (degradation) محیطی، توزیع‌شده و قابل انکار است. صرفاً بسته شدن یک گذرگاه دریایی، بدون شلیک یک گلوله، زنجیره تأمین تجهیزات حیاتی شبکه ماهواره‌ای را از کار انداخته است. https://tasnimnews.ir/3579328
3.5M حجم رسانه بالاست
مشاهده در ایتا
پاسخِ مصطفی پورمحمدی به یک شبهه متداول امنیتی؛ علتِ موفقیتِ دشمن در ترورها برایِ چیست؟ ‌
مرکز تحقیقات کامپیوتری علوم اسلامی (نور) از سامانه «گفتگوی هوشمند با آثار شهید مطهری» رونمایی کرد https://noorlib.ir/chatbot/motahari
یک ترفند: از طریق این سایت می‌توانید در بستر شبکه ملی اطلاعات به کدها و پروژه‌های گیتهاب دسترسی داشته باشید: http://Scorpian.ir
17.3M حجم رسانه بالاست
مشاهده در ایتا
📹 بازسازی عملیات غرورآفرین ارتش جمهوری اسلامی ایران در حمله به پایگاه آمریکا با هوش مصنوعی 🔸 ۲ فروند اف۵ ایرانی با عبور از سامانه‌های روشنِ پدافندیِ پاتریوت، به زیرساخت‌های یک پایگاه هوایی ارتش آمریکا در کویت حمله موفق هوائی کرده و به‌سلامت در پایگاه ششم شکاری بوشهر فرود آمدند.
سانسور حقیقت با ترجمه! خبرنگار از رضا پهلوی می‌پرسد: چگونه این واقعیت را ارزیابی می‌کنید که اعضای کابینه آلمان نمی‌خواهند با شما دیدار کنند؟ اما مترجم اینترنشنال اینگونه ترجمه می‌کند: آقای پهلوی، آیا شما با اشخاصی از کابینه آلمان دیدار می‌کنید؟
آکادمی اسکار: بازیگران هوش مصنوعی برنده جایزه نمی‌شوند! ▪️ آکادمی اسکار برای مقابله با موج هوش مصنوعی در سینما، قوانین سخت‌گیرانه‌ای وضع کرد. طبق این مقررات، بازیگران ساخته‌شده با AI مشمول دریافت جایزه نمیشوند و تنها آثاری واجد شرایط هستند که توسط انسان‌ها و با رضایت آن‌ها تولید شده باشند. ▪️ این تصمیم پس از حواشی استفاده از نسخه‌های دیجیتالی بازیگران فقید و اعتصابات گسترده نویسندگان اتخاذ شد. حالا فیلمنامه‌ها باید به‌طور کامل توسط انسان نوشته شوند و آکادمی در صورت نیاز، مدارک اثبات نقش انسان در تولید اثر را درخواست می‌کند.
📱چت‌ جی‌پی‌تی یک مسئله ریاضی ۶۰ ساله را حل کرد 🔹 چت جی‌پی‌تی یک مسئله‌ ریاضی را حل کرد که نابغه‌های حوزه ریاضیات بیش از ۶۰ سال از حل آن باز مانده بودند. 🔹این پیشرفت جدید می‌تواند نمونه‌ای از این باشد که یک هوش مصنوعی واقعا «خارج از چارچوب فکر کرده» و بر نوعی ذهن جمعیِ ناکارآمدی که نابغه‌های انسانی ریاضی در آن گرفتار شده بودند، غلبه کرده است. https://www.citna.ir/node/335981
وسواس عجیب ChatGPT به «اجنه و غول‌ها» کار دست این چت‌بات داد ▪️شرکت OpenAI اخیراً مجبور شد با صدور دستورات امنیتی و فنی جدید، چت‌جی‌پی‌تی (ChatGPT) را از صحبت مداوم درباره «گابلین‌ها» (جن‌های افسانه‌ای) منع کند. این مداخله پس از آن صورت گرفت که مدل‌های جدید این چت‌بات به شکلی غیرعادی و بی‌ربط، پای موجودات افسانه‌ای را به گفتگوهای روزمره کاربران باز می‌کردند. 🔺ظهور ناگهانی ارتش موجودات خیالی در چت‌ها ▪️گزارش‌های منتشر شده حاکی از آن است که مدل‌های اخیر هوش مصنوعی این شرکت، در میان صحبت‌های جدی و تخصصی، به طور ناگهانی از کلماتی نظیر «گابلین»، «ترول»، «غول» و «گرملین» استفاده می‌کردند. ▪️این رفتار عجیب ابتدا توجه برنامه‌نویسان را جلب کرد که از کاربران حرفه‌ای و دائمی این ابزار هستند. آن‌ها متوجه شدند که بات بدون هیچ پیش‌زمینه‌ای، لحنی عجیب و متمایل به دنیای فانتزی پیدا کرده است. 🔺وقتی «خوره کتاب بودن» دردسرساز می‌شود ▪️شرکت OpenAI در توضیح این پدیده اعلام کرد که ریشه این مشکل در تلاش برای بهبود شخصیت (Persona) ربات بوده است. برنامه‌نویسان قصد داشتند شخصیتی «خوره کتاب و متفکر» (Nerdy) برای هوش مصنوعی طراحی کنند تا لحن آن برای کاربران جذاب‌تر و صمیمی‌تر شود. ▪️با این حال، این تلاش به یک نتیجه معکوس ختم شد؛ هوش مصنوعی به جای استفاده از ادبیات علمی یا آکادمیک، به سمت واژگان خاص دنیای فانتزی و بازی‌های نقش‌آفرینی کشیده شد و در انتخاب کلمات دچار وسواس (Obsession) نسبت به موجودات افسانه‌ای شد. ▪️سازنده chatgpt در بیانیه‌ای کوتاه تأیید کرد: «تلاش برای ایجاد یک شخصیت متمایز و متفکر برای بات، منجر به انتخاب واژگان غیرعادی شد که اکنون با دستورالعمل‌های جدید اصلاح شده است.» 🔺مداخله فنی؛ «دیگر از گابلین‌ها حرف نزن!» ▪️برای پایان دادن به این وضعیت مضحک و گاهی ترسناک، تیم فنی OpenAI کدهای دستوری سختی را برای مدل‌های خود تعریف کرده‌اند که آن‌ها را مستقیماً از تکرار این واژگان منع می‌کند. کارشناسان معتقدند این اتفاق نشان‌دهنده چالش‌های بزرگ در کنترل «لحن» و «شخصیت» در هوش مصنوعی مولد است؛ جایی که یک تغییر کوچک در پارامترها می‌تواند منجر به رفتارهای پیش‌بینی‌نشده و عجیب شود. ▪️این اولین بار نیست که هوش مصنوعی رفتارهای غیرعادی از خود نشان می‌دهد، اما «وسواس گابلینی» یکی از عجیب‌ترین نمونه‌های گزارش شده در سال ۲۰۲۶ میلادی به شمار می‌رود که مرز میان دنیای کدنویسی و افسانه‌های کهن را جابجا کرده است.
8.7M حجم رسانه بالاست
مشاهده در ایتا
▪️گزارش الجزیره : چگونه حزب‌الله با «FPV» اسرائیل را فلج کرد؟ 🔻پایان عصر جنگ الکترونیک