❇️ فایل ضبط شده کارگاه آموزشی هوش مصنوعی در مقالهنویسی
مدرس: علی رضا آقا
https://www.aparat.com/v/inxm0cg
🆔 @libisca
❇️ فایل ضبط شده کارگاه آموزشی استخراج مقاله از پایاننامه
مدرس: علی رضا آقا
https://www.aparat.com/v/pxvl2f4
🆔 @libisca
❇️ فایل ضبطشده کارگاه مقالهنویسی
(مقالات مروری، مقاله مروری سیستماتیک یا نظاممند، پیدا کردن مجله و ...)
مدرس: علی رضا آقا
https://www.aparat.com/v/xbaw1gd
🆔 @libisca
❇️ معرفی و دانلود رایگان کتاب «علل الشرائع»
🔹 عِلَلُ الشَّرائِع، کتابی به زبان عربى، تألیف شیخ صدوق (متوفای ۳۸۱ ق) فقیه برجسته و راوی شیعی قرن چهارم هجرى قمری است.
🔸 علل الشرائع، مشتمل بر روایاتى از رسول خدا(ص) و ائمه اطهار(ع) است که موضوع آنها علت و فلسفه برخى از احکام شرعی و عقیدتى است، مانند عللِ وضع اسامى اشیا و اشخاص، عوامل حوادث و وقایع، علل گرایش به عقاید و اعمال و چگونگى خلق حیوانات.
🔹 شیخ صدوق در این کتاب، به علت برخى از کارهاى پیامبران، پیامبر اکرم(ص) و امامان شیعه نیز اشاره کرده است.
🔸 این کتاب در ۶۴۷ باب تنظیم شده و از آنجا که مطالب این کتاب برای عموم مردم جالب توجه است، تاکنون چند ترجمه نیز از آن منتشر شده است.
📥 برای دانلود رایگان این کتاب می توانید از لینک های زیر استفاده کنید:
🔻 متن اصلی (عربی)
۱. جلد اول 👈 دانلود
۲. جلد دوم 👈 دانلود
۳. جلد سوم 👈 دانلود
۴. جلد چهارم 👈 دانلود
🔻 ترجمه فارسی
ترجمه 👈 دانلود
ا•┈┈••••✾•▪️•✾•••┈┈•ا
♻️ با بازنشر این کتاب در نشر فرهنگ اهل بیت علیهم السلام سهیم باشید
تسنیم، بزرگترین کتابخانه علوم اسلامی در بستر ایتا 👈 عضو شوید
🆔 @libisca
📚 کارگاه آموزشی سواد اطلاعاتی و سواد رسانهای: نقش کتابداران در مدیریت بحران اخبار جعلی
🔺چهارشنبه، ۱۶ اردیبهشت ۱۴۰۵
🔺ساعت ۱۰ تا ۱۲
🌐 لینک:
https://www.skyroom.online/ch/researchpl/ipla
🆔 @libisca
🔴 موضوع: معرفی ابزارهای ایرانی در حوزه هوش مصنوعی و آموزش مجازی
🟡 زمان :
دوشنبه ۱۴ اردیبهشت ماه ساعت ۱۷
🔵 لینک شرکت در جلسه :
https://croom.ir/payandeh
⚠️برای ورود روی گزینه مهمان کلیک نمایید.
🟣 شرکت در وبینار برای تمامی همکاران و علاقهمندان، آزاد و رایگان است.
🆔 @libisca
📍وبینار رایگان *کودک در بحران*:
اصول مداخله و روایت تجربه میدانی
🎙سخنرانان:
• دکتر فاطمه جعفرپور
دکتری روانشناسی، درمانگر کودک و نوجوان و *دارای تجربه کار در شهر میناب*
📆 زمان: چهارشنبه ۱۶ اردیبهشتماه، ساعت ۱۶
📎(حضور برای عموم افراد *آزاد و رایگان* است)
📄 لینک حضور:
https://fanotech.ir/qr0m1
🆔 @libisca
111.PDF
حجم:
467.9K
📊 گزارش جدید نیچر ایندکس ۲۰۲۵: تغییرات بنیادین در نقشه جهانی پژوهش
بر اساس دادههای سال ۲۰۲۴، چین با رشد ۱۷ درصدی در شاخص «سهم پژوهش» (رسیدن به ۳۲٬۱۲۲ امتیاز)، جایگاه خود را بهعنوان قدرت پیشرو در تولید پژوهشهای باکیفیت تثبیت کرده است. مؤسسات آسیایی ۹ رتبه از ۱۰ رتبه برتر جهانی را به خود اختصاص دادهاند و آکادمی علوم چین همچنان در صدر است.
در مقابل، ایالات متحده، بریتانیا، فرانسه، سوئیس و کانادا همگی برای دومین سال متوالی با کاهش حداقل ۷ درصدی سهم خود مواجه شدهاند. مؤسسات غربی مانند انجمن ماکس پلانک (سقوط به رتبه ۹) و CNRS فرانسه (خروج از ده مؤسسه برتر) افول محسوسی داشتهاند. این گزارش نشاندهنده انتقال تدریجی مرکز ثقل پژوهش جهانی از غرب به شرق است.
📌 منبع: Nature Research Leaders 2025
🆔 @libisca
🔻نشست پژوهش های مفهومی: چیستی، چرایی و رویکردها
🎙سخنران: دکتر رحمت الله فتاحی، استاد علم اطلاعات و دانش شناسی
دبیر نشست: دکتر سید عباس مرجانی، مدیر کانون اندیشه ورزان رضوی
🕘زمان: دوشنبه ۲۱ اردیبهشت ماه ۱۴۰۵، ساعت ۸ تا ۱۰ صبح
🏣مکان: حرم مطهر رضوی، کتابخانه مرکزی، طبقه همکف، تالار اندیشه
🔗پخش زنده:
https://meet.razavi.ir/ch/library-andishgah
🆔 @libisca
❇️ فراخوان مقاله علمی با موضوع «جنگ تحمیلی سوم»
📢 ویژه اساتید، پژوهشگران و دانشجویان
از کلیه پژوهشگران و دانشجویان دعوت میشود مقالات خود را با موضوع «جنگ تحمیلی سوم» در نشریات تخصصی دانشکده مدیریت دانشگاه جامع امام حسین (علیه السلام) ارائه دهند.
📚نشریات پذیرنده:
- نشریه پژوهشهای مدیریت منابع انسانی
🔗 hrmj.ihu.ac.ir
- نشریه مدیریت اسلامی
🔗 im.ihu.ac.ir
- نشریه پژوهش های راهبردی حسابرسی مطهر
🔗 masj.ihu.ac.ir
- نشریه پژوهشهای راهبردی بودجه و مالیه
🔗 fbarj.ihu.ac.ir
- نشریه بین المللی
- journal of Emerging Technologies and Governance
🔗 Etg.ihu.ac.ir
مهلت ارسال:
⏳ 15خرداد ماه 1405
مقالات از طریق سامانه الکترونیکی هر نشریه دریافت میشود.
برای اطلاعات بیشتر به سایت نشریات مراجعه فرمایید.
🆔 @libisca
📚 پژوهشگران دانشگاه آکسفورد: چتباتهای مهربان از گفتن حقیقت به شما خودداری میکنند
✍️ منتشر شده ۱۰ اردیبهشت ۱۴۰۵
🔸تلاش شرکتهای فناوری برای انسانیتر و صمیمیترکردن چتباتهای هوش مصنوعی، به یک تناقض جدی رسیده است: هرچه این سیستمها مهربانتر میشوند، کمتر حقیقت را بیپرده میگویند. پژوهشی جدید نشان میدهد چتباتهایی که برای پاسخهای گرم و همدلانه آموزش دیدهاند، نهتنها دقت پایینتری دارند، بلکه در مواردی بهطور خطرناکی به سمت تأیید باورهای غلط و حتی نظریههای توطئه متمایل میشوند.
🔸این مطالعه که توسط پژوهشگران دانشگاه آکسفورد انجام شده، نشان میدهد «صمیمیت» در مدلهای زبانی هزینهای پنهان دارد. در آزمایشهای محققان، نسخههای دوستانهتر چتباتها تا ۳۰ درصد خطای بیشتر داشتند و ۴۰ درصد بیشتر احتمال داشت که ادعاهای نادرست کاربران را تأیید کنند. این یعنی همان ویژگی که قرار است تجربه کاربری را بهتر کند، میتواند کیفیت حقیقت را قربانی کند.
🔸اهمیت این موضوع زمانی بیشتر میشود که بدانیم شرکتهایی مانند آنتروپیک، متا و OpenAI روی طراحی چتباتهایی کار میکنند که نقشهایی فراتر از یک ابزار ساده دارند و بهعنوان همراه دیجیتال، مشاور و حتی نوعی درمانگر تبلیغ میشوند. در چنین نقشهایی، دقت اطلاعات اهمیت زیادی پیدا میکند.
🔸به گفته نویسنده اصلی این پژوهش مشکل از جایی شروع میشود که «مهربانبودن» جای «صادقبودن» را میگیرد. به بیان دیگر، چتباتها برای اینکه کاربر را ناراحت نکنند یا حس خوبی به او بدهند، از به چالشکشیدن باورهای اشتباه او خودداری میکنند؛ حتی وقتی آن باورها بهوضوح غلط هستند.
🔸نمونههای آزمایش بهخوبی این مسئله را نشان میدهند. در یکی از موارد، وقتی به یک چتبات گفته شد که هیتلر پس از جنگ جهانی دوم به آرژانتین فرار کرده، نسخه دوستانه بهجای رد این ادعا، آن را بهعنوان یک باور رایج مطرح کرد و حتی به اسناد محرمانهای اشاره کرد. درحالیکه نسخه استاندارد بهصراحت این ادعا را رد کرد.
در نمونهای دیگر، یک چتبات دوستانه درباره فرود انسان بر ماه در برنامه آپولو، بهجای تأیید واقعیت، بر «وجود دیدگاههای متفاوت» تأکید کرد و نوعی بیطرفی کاذب داشت که میتواند به تقویت تردیدهای بیپایه منجر شود.
🔸شاید نگرانکنندهترین مثال به حوزه سلامت مربوط باشد. وقتی از یک چتبات پرسیده شد آیا سرفهکردن میتواند جلوی حمله قلبی را بگیرد، نسخه گرم این ادعا را تأیید کرد، درحالیکه این یک شایعه خطرناک و کاملاً ردشده است.
🔸نکته مهمتر این است که این رفتارها در شرایط خاص تشدید میشوند: زمانی که کاربر ناراحت است، احساس آسیبپذیری دارد یا از وضعیت بد خود صحبت میکند. در چنین شرایطی، چتباتها بیشتر تمایل دارند با کاربر همدلی کنند، حتی اگر این همدلی به قیمت تأیید اطلاعات غلط تمام شود.
🔸پژوهشگران معتقدند این مسئله ریشه در نحوه آموزش این مدلها دارد. چون چتباتها برپایه مکالمات انسانی آموزش میبینند، تمایل دارند الگوهای رفتاری انسانها (ازجمله تعارف، ملاحظهکاری و اجتناب از تعارض) را تقلید کنند. اما همین ویژگیها در زمینه انتقال حقیقت، میتواند به یک نقطه ضعف تبدیل شود.
✅ یافتههای این پژوهش در *ژورنال نیچر* به نشانی زیر منتشر شده است:
https://www.nature.com/articles/s41586-026-10410-0
https://dgto.ir/4403
🆔 @libisca