eitaa logo
کاوش در دنیای هوش مصنوعی
22.8هزار دنبال‌کننده
2.4هزار عکس
1.3هزار ویدیو
367 فایل
آموزش مهارت های مورد نیاز برای افزایش سواد رسانه ای در عصر هوش مصنوعی ارتباط با ادمین: @h_etesami1979
مشاهده در ایتا
دانلود
مرکز تحقیقات کامپیوتری علوم اسلامی (نور) از سامانه «گفتگوی هوشمند با آثار شهید مطهری» رونمایی کرد https://noorlib.ir/chatbot/motahari
یک ترفند: از طریق این سایت می‌توانید در بستر شبکه ملی اطلاعات به کدها و پروژه‌های گیتهاب دسترسی داشته باشید: http://Scorpian.ir
17.3M حجم رسانه بالاست
مشاهده در ایتا
📹 بازسازی عملیات غرورآفرین ارتش جمهوری اسلامی ایران در حمله به پایگاه آمریکا با هوش مصنوعی 🔸 ۲ فروند اف۵ ایرانی با عبور از سامانه‌های روشنِ پدافندیِ پاتریوت، به زیرساخت‌های یک پایگاه هوایی ارتش آمریکا در کویت حمله موفق هوائی کرده و به‌سلامت در پایگاه ششم شکاری بوشهر فرود آمدند.
سانسور حقیقت با ترجمه! خبرنگار از رضا پهلوی می‌پرسد: چگونه این واقعیت را ارزیابی می‌کنید که اعضای کابینه آلمان نمی‌خواهند با شما دیدار کنند؟ اما مترجم اینترنشنال اینگونه ترجمه می‌کند: آقای پهلوی، آیا شما با اشخاصی از کابینه آلمان دیدار می‌کنید؟
آکادمی اسکار: بازیگران هوش مصنوعی برنده جایزه نمی‌شوند! ▪️ آکادمی اسکار برای مقابله با موج هوش مصنوعی در سینما، قوانین سخت‌گیرانه‌ای وضع کرد. طبق این مقررات، بازیگران ساخته‌شده با AI مشمول دریافت جایزه نمیشوند و تنها آثاری واجد شرایط هستند که توسط انسان‌ها و با رضایت آن‌ها تولید شده باشند. ▪️ این تصمیم پس از حواشی استفاده از نسخه‌های دیجیتالی بازیگران فقید و اعتصابات گسترده نویسندگان اتخاذ شد. حالا فیلمنامه‌ها باید به‌طور کامل توسط انسان نوشته شوند و آکادمی در صورت نیاز، مدارک اثبات نقش انسان در تولید اثر را درخواست می‌کند.
📱چت‌ جی‌پی‌تی یک مسئله ریاضی ۶۰ ساله را حل کرد 🔹 چت جی‌پی‌تی یک مسئله‌ ریاضی را حل کرد که نابغه‌های حوزه ریاضیات بیش از ۶۰ سال از حل آن باز مانده بودند. 🔹این پیشرفت جدید می‌تواند نمونه‌ای از این باشد که یک هوش مصنوعی واقعا «خارج از چارچوب فکر کرده» و بر نوعی ذهن جمعیِ ناکارآمدی که نابغه‌های انسانی ریاضی در آن گرفتار شده بودند، غلبه کرده است. https://www.citna.ir/node/335981
وسواس عجیب ChatGPT به «اجنه و غول‌ها» کار دست این چت‌بات داد ▪️شرکت OpenAI اخیراً مجبور شد با صدور دستورات امنیتی و فنی جدید، چت‌جی‌پی‌تی (ChatGPT) را از صحبت مداوم درباره «گابلین‌ها» (جن‌های افسانه‌ای) منع کند. این مداخله پس از آن صورت گرفت که مدل‌های جدید این چت‌بات به شکلی غیرعادی و بی‌ربط، پای موجودات افسانه‌ای را به گفتگوهای روزمره کاربران باز می‌کردند. 🔺ظهور ناگهانی ارتش موجودات خیالی در چت‌ها ▪️گزارش‌های منتشر شده حاکی از آن است که مدل‌های اخیر هوش مصنوعی این شرکت، در میان صحبت‌های جدی و تخصصی، به طور ناگهانی از کلماتی نظیر «گابلین»، «ترول»، «غول» و «گرملین» استفاده می‌کردند. ▪️این رفتار عجیب ابتدا توجه برنامه‌نویسان را جلب کرد که از کاربران حرفه‌ای و دائمی این ابزار هستند. آن‌ها متوجه شدند که بات بدون هیچ پیش‌زمینه‌ای، لحنی عجیب و متمایل به دنیای فانتزی پیدا کرده است. 🔺وقتی «خوره کتاب بودن» دردسرساز می‌شود ▪️شرکت OpenAI در توضیح این پدیده اعلام کرد که ریشه این مشکل در تلاش برای بهبود شخصیت (Persona) ربات بوده است. برنامه‌نویسان قصد داشتند شخصیتی «خوره کتاب و متفکر» (Nerdy) برای هوش مصنوعی طراحی کنند تا لحن آن برای کاربران جذاب‌تر و صمیمی‌تر شود. ▪️با این حال، این تلاش به یک نتیجه معکوس ختم شد؛ هوش مصنوعی به جای استفاده از ادبیات علمی یا آکادمیک، به سمت واژگان خاص دنیای فانتزی و بازی‌های نقش‌آفرینی کشیده شد و در انتخاب کلمات دچار وسواس (Obsession) نسبت به موجودات افسانه‌ای شد. ▪️سازنده chatgpt در بیانیه‌ای کوتاه تأیید کرد: «تلاش برای ایجاد یک شخصیت متمایز و متفکر برای بات، منجر به انتخاب واژگان غیرعادی شد که اکنون با دستورالعمل‌های جدید اصلاح شده است.» 🔺مداخله فنی؛ «دیگر از گابلین‌ها حرف نزن!» ▪️برای پایان دادن به این وضعیت مضحک و گاهی ترسناک، تیم فنی OpenAI کدهای دستوری سختی را برای مدل‌های خود تعریف کرده‌اند که آن‌ها را مستقیماً از تکرار این واژگان منع می‌کند. کارشناسان معتقدند این اتفاق نشان‌دهنده چالش‌های بزرگ در کنترل «لحن» و «شخصیت» در هوش مصنوعی مولد است؛ جایی که یک تغییر کوچک در پارامترها می‌تواند منجر به رفتارهای پیش‌بینی‌نشده و عجیب شود. ▪️این اولین بار نیست که هوش مصنوعی رفتارهای غیرعادی از خود نشان می‌دهد، اما «وسواس گابلینی» یکی از عجیب‌ترین نمونه‌های گزارش شده در سال ۲۰۲۶ میلادی به شمار می‌رود که مرز میان دنیای کدنویسی و افسانه‌های کهن را جابجا کرده است.
8.7M حجم رسانه بالاست
مشاهده در ایتا
▪️گزارش الجزیره : چگونه حزب‌الله با «FPV» اسرائیل را فلج کرد؟ 🔻پایان عصر جنگ الکترونیک
♦️ «ابلاغیه قضایی الکترونیکی» از طریق «پستچی» جعلی است 🔺 کلاهبرداران این‌بار با سوءاستفاده از عنوان «پستچی» در پیام‌رسان‌هایی مثل بله و ایتا، تلاش می‌کنند حساب مردم را خالی کنند. 🔹 در این روش، پیامی با عنوان «پستچی» ارسال می‌شود و ادعا می‌کنند مأمور پست برای تحویل ابلاغیه قضایی به منزل شما مراجعه کرده، اما موفق نشده است. برای جلب اعتماد بیشتر، کلاهبرداران از نام و مشخصات واقعی کاربران استفاده می‌کنند و سپس لینک یا فایلی به‌عنوان ابلاغیه ارسال می‌کنند تا کاربر را به کلیک کردن ترغیب کنند. 🔹 اما این فقط یک ترفند است: کلیک روی این لینک‌ها یا باز کردن فایل‌های ارسالی می‌تواند منجر به سرقت اطلاعات و خالی شدن حساب‌های بانکی شود. 🔹 بر اساس اعلام قوه قضاييه،ارسال ابلاغیه‌های قضائی تنها از طریق مجاری قانونی و رسمی صورت میگیرد و هرگونه پیام در فضای مجازی با این عنوان، فاقد اعتبار است ؛ عنوان «پستچی» هم در این پیام‌ها جعلی است.
♦️ هوش مصنوعی به ابزار جدید جنگ سایبری و دستکاری اطلاعات تبدیل می‌شود 🔻 یک گزارش تحلیلی از یک نشریه تخصصی در ایالات متحده آمریکا هشدار می‌دهد که هوش مصنوعی به‌سرعت در حال تبدیل شدن به یکی از ابزارهای کلیدی در جنگ‌های مدرن، به‌ویژه در حوزه سایبری و اطلاعاتی است. 🔹 بر اساس این گزارش، تهدید اصلی AI تنها در حملات مستقیم یا سلاح‌های خودکار نیست، بلکه در توانایی آن برای تولید اطلاعات ظاهراً معتبر اما گمراه‌کننده نهفته است؛ موضوعی که می‌تواند تصمیم‌گیری در حوزه‌های نظامی، زیرساختی و حتی مدیریت بحران را تحت تأثیر قرار دهد. 🔹 در این تحلیل تأکید شده که مهاجمان می‌توانند با دستکاری داده‌ها یا ورودی‌های سیستم‌های هوش مصنوعی، خروجی‌هایی تولید کنند که در ظاهر دقیق و قابل اعتماد هستند اما در عمل باعث ایجاد خطا و اختلال در سیستم‌ها می‌شوند. 🔻 همچنین استفاده از هوش مصنوعی در حملات فیشینگ، تولید بدافزار و عملیات فریب اطلاعاتی، باعث شده تهدیدات سایبری پیچیده‌تر و گسترده‌تر از گذشته شوند. 🔹 این گزارش نتیجه می‌گیرد که در آینده، مهم‌ترین چالش امنیتی نه صرفاً مقابله با حملات، بلکه توانایی تشخیص اطلاعات قابل اعتماد از داده‌های دستکاری‌شده خواهد بود.
۲۱۴۴۷.pdf
حجم: 2.2M
گزارش مرکز پژوش های مجلس شورای اسلامی:تحلیل الزامات تنظیم گری الگوریتم های توصیه گر در رسانه های دیجیتال
کاوش در دنیای هوش مصنوعی
گزارش مرکز پژوش های مجلس شورای اسلامی:تحلیل الزامات تنظیم گری الگوریتم های توصیه گر در رسانه های دیج
تحول ساختار رسانه ای و وابستگی فزایندۀ توزیع و دیده شدن محتوا به الگوریتم های توصیه گر، کنترل انسانی بر جریان اطلاعات را به طور جدی کاهش داده و نقش سامانه های هوشمند را در شکل دهی روایت ها، ترجیحات و تجربه کاربران برجسته کرده است. این شرایط، ضرورت شکل گیری چارچوب های حقوقی شفاف و نهادهای تنظیم گر مؤثر را برای کاهش پیامدهای منفی اجتماعی، ارتقای عدالت اطلاعاتی و حفظ اعتماد عمومی دوچندان می سازد. 🔹یافته های پژوهش نشان می دهد که در ادبیات علمی چهار سازوکار اصلی توصیه گری شامل فیلتر مشارکتی، فیلتر مبتنی بر محتوا، الگوریتم های یادگیری عمیق و یادگیری تقویتی شناسایی شده اند که هر یک، در کنار افزایش دقت شخصی سازی، می توانند موجب کاهش تنوع اطلاعاتی، تقویت سوگیری ها، تشدید قطبی سازی و بروز آثار منفی روانی شوند. 🔹مطالعه تطبیقی چارچوب های تنظیم گری در کشورهای مختلف نیز حاکی از وجود چهار الگوی حقوق محور، بازارمحور، اقتدارمحور و ترکیبی است. با وجود تفاوت در سطح مداخله دولت و ظرفیت نهادی، میان این الگوها اجماعی روشن درباره ضرورت شفافیت الگوریتمی، پاسخ گویی، ارزیابی مخاطرات و نظارت مستمر وجود دارد. 🔹بررسی تجربه های تطبیقی نشان می دهد فقدان این سازوکارها به تعمیق قطبی سازی، کاهش تنوع اطلاعاتی و تضعیف اعتماد عمومی منجر می شود؛ در حالی که رویکردهای تدریجی و مبتنی بر مدیریت مخاطرات می توانند توازنی میان نوآوری و کنترل پیامدهای منفی برقرار کنند. 🔹در مقابل، ارزیابی وضعیت ایران بیانگر آن است که فقدان چارچوب حقوقی منسجم، نبود نهاد تخصصی و مستقل برای نظارت بر الگوریتم ها، و کمبود ابزارهای نظام مند شفاف سازی عملکرد آنها، حکمرانی الگوریتمی را محدود به مداخلات واکنشی ساخته است. بر این اساس، تدوین قوانین الزام آور شفافیت، ایجاد نهاد نظارتی تخصصی، انجام ارزیابی های دوره ای مخاطرات و تقویت سازوکارهای اعتراض و پاسخ گویی کاربران، از الزامات اساسی حکمرانی الگوریتمی در ایران به شمار می آید.