مرکز تحقیقات کامپیوتری علوم اسلامی (نور) از سامانه «گفتگوی هوشمند با آثار شهید مطهری» رونمایی کرد
https://noorlib.ir/chatbot/motahari
یک ترفند:
از طریق این سایت میتوانید در بستر شبکه ملی اطلاعات به کدها و پروژههای گیتهاب دسترسی داشته باشید:
http://Scorpian.ir
17.3M حجم رسانه بالاست
مشاهده در ایتا
📹 بازسازی عملیات غرورآفرین ارتش جمهوری اسلامی ایران در حمله به پایگاه آمریکا با هوش مصنوعی
🔸 ۲ فروند اف۵ ایرانی با عبور از سامانههای روشنِ پدافندیِ پاتریوت، به زیرساختهای یک پایگاه هوایی ارتش آمریکا در کویت حمله موفق هوائی کرده و بهسلامت در پایگاه ششم شکاری بوشهر فرود آمدند.
آکادمی اسکار: بازیگران هوش مصنوعی برنده جایزه نمیشوند!
▪️ آکادمی اسکار برای مقابله با موج هوش مصنوعی در سینما، قوانین سختگیرانهای وضع کرد. طبق این مقررات، بازیگران ساختهشده با AI مشمول دریافت جایزه نمیشوند و تنها آثاری واجد شرایط هستند که توسط انسانها و با رضایت آنها تولید شده باشند.
▪️ این تصمیم پس از حواشی استفاده از نسخههای دیجیتالی بازیگران فقید و اعتصابات گسترده نویسندگان اتخاذ شد. حالا فیلمنامهها باید بهطور کامل توسط انسان نوشته شوند و آکادمی در صورت نیاز، مدارک اثبات نقش انسان در تولید اثر را درخواست میکند.
📱چت جیپیتی یک مسئله ریاضی ۶۰ ساله را حل کرد
🔹 چت جیپیتی یک مسئله ریاضی را حل کرد که نابغههای حوزه ریاضیات بیش از ۶۰ سال از حل آن باز مانده بودند.
🔹این پیشرفت جدید میتواند نمونهای از این باشد که یک هوش مصنوعی واقعا «خارج از چارچوب فکر کرده» و بر نوعی ذهن جمعیِ ناکارآمدی که نابغههای انسانی ریاضی در آن گرفتار شده بودند، غلبه کرده است.
https://www.citna.ir/node/335981
وسواس عجیب ChatGPT به «اجنه و غولها» کار دست این چتبات داد
▪️شرکت OpenAI اخیراً مجبور شد با صدور دستورات امنیتی و فنی جدید، چتجیپیتی (ChatGPT) را از صحبت مداوم درباره «گابلینها» (جنهای افسانهای) منع کند. این مداخله پس از آن صورت گرفت که مدلهای جدید این چتبات به شکلی غیرعادی و بیربط، پای موجودات افسانهای را به گفتگوهای روزمره کاربران باز میکردند.
🔺ظهور ناگهانی ارتش موجودات خیالی در چتها
▪️گزارشهای منتشر شده حاکی از آن است که مدلهای اخیر هوش مصنوعی این شرکت، در میان صحبتهای جدی و تخصصی، به طور ناگهانی از کلماتی نظیر «گابلین»، «ترول»، «غول» و «گرملین» استفاده میکردند.
▪️این رفتار عجیب ابتدا توجه برنامهنویسان را جلب کرد که از کاربران حرفهای و دائمی این ابزار هستند. آنها متوجه شدند که بات بدون هیچ پیشزمینهای، لحنی عجیب و متمایل به دنیای فانتزی پیدا کرده است.
🔺وقتی «خوره کتاب بودن» دردسرساز میشود
▪️شرکت OpenAI در توضیح این پدیده اعلام کرد که ریشه این مشکل در تلاش برای بهبود شخصیت (Persona) ربات بوده است. برنامهنویسان قصد داشتند شخصیتی «خوره کتاب و متفکر» (Nerdy) برای هوش مصنوعی طراحی کنند تا لحن آن برای کاربران جذابتر و صمیمیتر شود.
▪️با این حال، این تلاش به یک نتیجه معکوس ختم شد؛ هوش مصنوعی به جای استفاده از ادبیات علمی یا آکادمیک، به سمت واژگان خاص دنیای فانتزی و بازیهای نقشآفرینی کشیده شد و در انتخاب کلمات دچار وسواس (Obsession) نسبت به موجودات افسانهای شد.
▪️سازنده chatgpt در بیانیهای کوتاه تأیید کرد: «تلاش برای ایجاد یک شخصیت متمایز و متفکر برای بات، منجر به انتخاب واژگان غیرعادی شد که اکنون با دستورالعملهای جدید اصلاح شده است.»
🔺مداخله فنی؛ «دیگر از گابلینها حرف نزن!»
▪️برای پایان دادن به این وضعیت مضحک و گاهی ترسناک، تیم فنی OpenAI کدهای دستوری سختی را برای مدلهای خود تعریف کردهاند که آنها را مستقیماً از تکرار این واژگان منع میکند. کارشناسان معتقدند این اتفاق نشاندهنده چالشهای بزرگ در کنترل «لحن» و «شخصیت» در هوش مصنوعی مولد است؛ جایی که یک تغییر کوچک در پارامترها میتواند منجر به رفتارهای پیشبینینشده و عجیب شود.
▪️این اولین بار نیست که هوش مصنوعی رفتارهای غیرعادی از خود نشان میدهد، اما «وسواس گابلینی» یکی از عجیبترین نمونههای گزارش شده در سال ۲۰۲۶ میلادی به شمار میرود که مرز میان دنیای کدنویسی و افسانههای کهن را جابجا کرده است.
8.7M حجم رسانه بالاست
مشاهده در ایتا
▪️گزارش الجزیره : چگونه حزبالله با «FPV» اسرائیل را فلج کرد؟
🔻پایان عصر جنگ الکترونیک
♦️ «ابلاغیه قضایی الکترونیکی» از طریق «پستچی» جعلی است
🔺 کلاهبرداران اینبار با سوءاستفاده از عنوان «پستچی» در پیامرسانهایی مثل بله و ایتا، تلاش میکنند حساب مردم را خالی کنند.
🔹 در این روش، پیامی با عنوان «پستچی» ارسال میشود و ادعا میکنند مأمور پست برای تحویل ابلاغیه قضایی به منزل شما مراجعه کرده، اما موفق نشده است. برای جلب اعتماد بیشتر، کلاهبرداران از نام و مشخصات واقعی کاربران استفاده میکنند و سپس لینک یا فایلی بهعنوان ابلاغیه ارسال میکنند تا کاربر را به کلیک کردن ترغیب کنند.
🔹 اما این فقط یک ترفند است: کلیک روی این لینکها یا باز کردن فایلهای ارسالی میتواند منجر به سرقت اطلاعات و خالی شدن حسابهای بانکی شود.
🔹 بر اساس اعلام قوه قضاييه،ارسال ابلاغیههای قضائی تنها از طریق مجاری قانونی و رسمی صورت میگیرد و هرگونه پیام در فضای مجازی با این عنوان، فاقد اعتبار است ؛ عنوان «پستچی» هم در این پیامها جعلی است.
♦️ هوش مصنوعی به ابزار جدید جنگ سایبری و دستکاری اطلاعات تبدیل میشود
🔻 یک گزارش تحلیلی از یک نشریه تخصصی در ایالات متحده آمریکا هشدار میدهد که هوش مصنوعی بهسرعت در حال تبدیل شدن به یکی از ابزارهای کلیدی در جنگهای مدرن، بهویژه در حوزه سایبری و اطلاعاتی است.
🔹 بر اساس این گزارش، تهدید اصلی AI تنها در حملات مستقیم یا سلاحهای خودکار نیست، بلکه در توانایی آن برای تولید اطلاعات ظاهراً معتبر اما گمراهکننده نهفته است؛ موضوعی که میتواند تصمیمگیری در حوزههای نظامی، زیرساختی و حتی مدیریت بحران را تحت تأثیر قرار دهد.
🔹 در این تحلیل تأکید شده که مهاجمان میتوانند با دستکاری دادهها یا ورودیهای سیستمهای هوش مصنوعی، خروجیهایی تولید کنند که در ظاهر دقیق و قابل اعتماد هستند اما در عمل باعث ایجاد خطا و اختلال در سیستمها میشوند.
🔻 همچنین استفاده از هوش مصنوعی در حملات فیشینگ، تولید بدافزار و عملیات فریب اطلاعاتی، باعث شده تهدیدات سایبری پیچیدهتر و گستردهتر از گذشته شوند.
🔹 این گزارش نتیجه میگیرد که در آینده، مهمترین چالش امنیتی نه صرفاً مقابله با حملات، بلکه توانایی تشخیص اطلاعات قابل اعتماد از دادههای دستکاریشده خواهد بود.
۲۱۴۴۷.pdf
حجم:
2.2M
گزارش مرکز پژوش های مجلس شورای اسلامی:تحلیل الزامات تنظیم گری الگوریتم های توصیه گر در رسانه های دیجیتال
کاوش در دنیای هوش مصنوعی
گزارش مرکز پژوش های مجلس شورای اسلامی:تحلیل الزامات تنظیم گری الگوریتم های توصیه گر در رسانه های دیج
تحول ساختار رسانه ای و وابستگی فزایندۀ توزیع و دیده شدن محتوا به الگوریتم های توصیه گر، کنترل انسانی بر جریان اطلاعات را به طور جدی کاهش داده و نقش سامانه های هوشمند را در شکل دهی روایت ها، ترجیحات و تجربه کاربران برجسته کرده است. این شرایط، ضرورت شکل گیری چارچوب های حقوقی شفاف و نهادهای تنظیم گر مؤثر را برای کاهش پیامدهای منفی اجتماعی، ارتقای عدالت اطلاعاتی و حفظ اعتماد عمومی دوچندان می سازد.
🔹یافته های پژوهش نشان می دهد که در ادبیات علمی چهار سازوکار اصلی توصیه گری شامل فیلتر مشارکتی، فیلتر مبتنی بر محتوا، الگوریتم های یادگیری عمیق و یادگیری تقویتی شناسایی شده اند که هر یک، در کنار افزایش دقت شخصی سازی، می توانند موجب کاهش تنوع اطلاعاتی، تقویت سوگیری ها، تشدید قطبی سازی و بروز آثار منفی روانی شوند.
🔹مطالعه تطبیقی چارچوب های تنظیم گری در کشورهای مختلف نیز حاکی از وجود چهار الگوی حقوق محور، بازارمحور، اقتدارمحور و ترکیبی است. با وجود تفاوت در سطح مداخله دولت و ظرفیت نهادی، میان این الگوها اجماعی روشن درباره ضرورت شفافیت الگوریتمی، پاسخ گویی، ارزیابی مخاطرات و نظارت مستمر وجود دارد.
🔹بررسی تجربه های تطبیقی نشان می دهد فقدان این سازوکارها به تعمیق قطبی سازی، کاهش تنوع اطلاعاتی و تضعیف اعتماد عمومی منجر می شود؛ در حالی که رویکردهای تدریجی و مبتنی بر مدیریت مخاطرات می توانند توازنی میان نوآوری و کنترل پیامدهای منفی برقرار کنند.
🔹در مقابل، ارزیابی وضعیت ایران بیانگر آن است که فقدان چارچوب حقوقی منسجم، نبود نهاد تخصصی و مستقل برای نظارت بر الگوریتم ها، و کمبود ابزارهای نظام مند شفاف سازی عملکرد آنها، حکمرانی الگوریتمی را محدود به مداخلات واکنشی ساخته است. بر این اساس، تدوین قوانین الزام آور شفافیت، ایجاد نهاد نظارتی تخصصی، انجام ارزیابی های دوره ای مخاطرات و تقویت سازوکارهای اعتراض و پاسخ گویی کاربران، از الزامات اساسی حکمرانی الگوریتمی در ایران به شمار می آید.