eitaa logo
کاوش در دنیای هوش مصنوعی
23.4هزار دنبال‌کننده
2.3هزار عکس
1.3هزار ویدیو
357 فایل
بررسی فرصت ها و تهدیدهای نوین با گسترش ابزارهای هوش مصنوعی ارتباط با ادمین: @h_etesami1979
مشاهده در ایتا
دانلود
🔥 برای یکسال از فتوشاپ وب رایگان استفاده کنید ؛ ویرایش حرفه ای تصویر روی مرورگر 1⃣ از طریق این لینک ,افزونه رسمی Adobe Photoshop Web را روی مرورگر گوگل کروم نصب کنید https://chromewebstore.google.com/detail/adobe-photoshop/kjchkpkjpiloipaonppkmepcbhcncedo 2⃣ روی Start Free Offer بزنید. 3⃣ گزینه Start Now را انتخاب کنید. 🌀 حالا روی هر تصویری در مرورگر راست کلیک کنید ، Edit in Photoshop AI باز شده و مستقیم وارد محیط ادیت خواهید شد ؛ ابزارهای هوش مصنوعی، ریتاچ، حذف آبجکت، اکستند و افکت‌های حرفه‌ای همیشه در دسترس شما خواهند بود.
2.1M حجم رسانه بالاست
مشاهده در ایتا
پنج ماه بعد از جنگ: یک ویدئوی تماشایی از موسسه وایزمن ▪️شبکه دولتی اسرائیل (Kan 11) گزارشی از حجم باورنکردنی تخریب موسسه علمی وایزمن واقع در شهر رحووت اسرائیل توسط موشک های ایرانی را منتشر کرد. ▪️در این ویدئو پروفسور "اورن شولدینر" استاد زیست‌شناسی سلولی مولکولی موسسه وایزمن برای اولین بار با حجم خرابی‌ها مواجه شده و شوکه شده است. ▪️راوی توضیح می‌دهد که آزمایشگاه پروفسور شولدینر دقیقاً در طبقه دوم مکان تخریب شده قرار داشته است.
🔸خطاهای خطرناک چت‌بات‌ها در جایگاه روان‌درمانگر 🔹تحقیقات جدید پژوهشگران نشان می‌دهد چَت‌بات‌های هوش مصنوعی در نقش روان‌درمانگر، مرتکب خطاهای خطرناکی می‌شوند؛ از تأیید افکار خودکشی گرفته تا تقویت باورهای مخرب. 🔹این مطالعه ۱۵ خطر اخلاقی را در پنج دسته اصلی شناسایی کرد: »» ناتوانی در درک زمینه فردی: ارائه توصیه‌های کلی بدون توجه به تجربیات شخصی »» همکاری درمانی ضعیف: کنترل گفت‌وگو و تأیید باورهای نادرست کاربران »» همدلی کاذب: استفاده از جملاتی مانند درکت می‌کنم برای ایجاد ارتباط مصنوعی »» تعصب و تبعیض: پیش‌داوری درباره جنسیت، فرهنگ یا مذهب »» پاسخ ناکافی به بحران: واکنش نامناسب در موقعیت‌های حساس. https://irna.ir/xjW4hX
📱چرا ChatGPT نمی‌تواند ساعت دقیق را به شما بگوید؟ 🔹هوش مصنوعی ChatGPT و دیگر مدل‌های زبانی بزرگ اساساً برای پیش‌بینی متن براساس داده‌های آموزشی طراحی شده‌اند و به اطلاعات لحظه‌ای مانند زمان دسترسی داخلی ندارند. برخلاف گوشی یا کامپیوتر که تراشه ساعت دارند، این سیستم‌ها تنها ورودی کاربر را پردازش می‌کنند و پاسخ می‌سازند. 🔹دلیل اصلی این محدودیت آن است که مدل‌ها به‌طور پیش‌فرض به ساعت سیستم یا موقعیت کاربر دسترسی ندارند، مگر اینکه اپلیکیشن میزبان چنین امکانی را فراهم کند. علاوه‌براین، نگه‌داشتن مدل در جریان زمان می‌تواند باعث ورود داده‌های مکرر و بی‌وقفه به حافظه موقت آن شود و در عمل به‌عنوان نویز عمل کند. به همین خاطر، شرکت‌هایی مثل OpenAI ترجیح می‌دهند دسترسی مستقیم به ساعت را محدود کنند تا تمرکز مدل روی وظایف اصلی یعنی تولید متن باقی بماند.
امنیت در عصر هوش مصنوعی
تجربه طراحی معماری یک ساختمان با Nano Banana Pro جمینای! ▪️یک پیمانکار ساختمان بنام «تِـنکس‌گیوینگ» برای شوخی با Nano Banana Pro یک درخواست ساده داد: Draw me architectural plans for a 1600 square foot 3 bedroom house that is two stories in torrance, california (نقشه‌های معماری یک خانه دو طبقه سه خوابه به مساحت ۱۶۰۰ فوت مربع در تورنس، کالیفرنیا را برای من ترسیم کنید) اما نتیجه؟ ابزار تصویر ساز جمینای، نقشه کامل معماری شامل پلان، چیدمان فضاها و ساختار کلی را تحویل داد.
💡 ابزار جدید کلاه‌برداری در تلگرام؛ تبلیغی که حتی ادمین کانال هم از وجودش بی‌خبر است! ▪️احتمالا دیده‌اید که پایین بعضی کانال‌های تلگرامی، کادری کوچک با برچسب «آگهی» یا «Ad» ظاهر می‌شود. ▪️این کادر مربوط به سرویس رسمی تبلیغات تلگرام است؛ سرویسی که قرار بود به درآمدزایی کانال‌ها کمک کند، اما حالا در عمل تبدیل شده به ابزاری برای کلاهبرداری از کاربران. 🔸 تبلیغی که خود ادمین کانال هم از آن خبر ندارد! ▪️سرویس تبلیغات تلگرام (با نام «تلگرام ادز») به صورت خودکار و بدون نیاز به تأیید مدیر کانال، انواع تبلیغات را در کانال‌هایی که بالای ۱۰۰۰ عضو دارند، نمایش می‌دهد. ▪️کلاهبردارها هم از همین نقطه ضعف سوءاستفاده کرده‌اند: آگهی می‌خرند و متن تبلیغ را طوری می‌نویسند که انگار مدیر کانال خودش آن را نوشته است. این متن صمیمانه و به‌ظاهر «خودی» است و قرار است به کاربر حس اعتماد بدهد. 🔸 چطور فریب نخوریم؟ ▪️متنی که در قالب آگهی در کانال‌ها و بات‌های تلگرام پخش می‌شود و برچسب Ad دارد، فارغ از اینکه چقدر صمیمانه و دوستانه نوشته شده، کاملا بی‌ارتباط به کانال اصلی است.
🔵 شعر؛ ابزار تازه برای دور زدن محدودیت‌های چت‌بات‌های هوش مصنوعی 🔹یک پژوهش جدید نشان می‌دهد که می‌توان با بهره‌گیری از شعر، سامانه‌های چت‌بات مبتنی بر هوش مصنوعی را فریب داد و آن‌ها را به نادیده گرفتن محدودیت‌ها و ارائه محتوای ممنوعه وادار کرد. 🔹در این تحقیق که توسط آزمایشگاه «ایکارو» منتشر شده و عنوان آن «شعر خصمانه به عنوان سازوکار جهانی فرار از زندان در مدل‌های زبانی بزرگ» است، پژوهشگران نشان داده‌اند که بیان درخواست‌ها در قالب ساختاری شاعرانه می‌تواند باعث دور زدن بخشی از مکانیسم‌های ایمنی LLMها شود. 🔹براساس نتایج این مطالعه، «ساختار شاعرانه نقش یک ابزار عمومی برای فرار از محدودیت‌ها را ایفا می‌کند». بررسی‌ها نشان می‌دهد که این روش با نرخ موفقیت کلی ۶۲ درصد قادر به تولید محتوای ممنوعه بوده؛ محتوایی که حتی دستورالعمل‌های مرتبط با ساخت سلاح‌های هسته‌ای هم جزو آن بوده است. 🔹در این تحقیق، مجموعه‌ای از مدل‌های زبانی بزرگ پرکاربرد از جمله GPT شرکت OpenAI، جمینای گوگل، کلود محصول شرکت Anthropic و چندین مدل دیگر مورد ارزیابی قرار گرفته‌اند. یافته‌ها حاکی از آن است که مدل‌هایی مانند Google Gemini، DeepSeek و MistralAI بیشتر از سایرین در برابر این روش آسیب‌پذیر بوده‌اند و پاسخ‌های ممنوعه ارائه کرده‌اند؛ در مقابل، GPT-5 OpenAI و Claude Haiku 4.5 Anthropic کمترین میزان تخطی از محدودیت‌های ایمنی را نشان داده‌اند. 🔹اشعار دقیق مورد استفاده در این پژوهش که منجر به فرار از محدودیت‌ها شده، منتشر نشده و تیم تحقیقاتی تأکید کرده که انتشار این نمونه‌ها «برای عموم بیش از حد خطرناک» خواهد بود. اما نسخه‌ای محدود از این روش در گزارش ارائه شده تا نشان دهد دور زدن سیستم‌های ایمنی چت‌بات‌های هوش مصنوعی تا چه اندازه می‌تواند ساده باشد؛ موضوعی که پژوهشگران می‌گویند «احتمالاً بسیار ساده‌تر از آن چیزی است که تصور می‌شود و دقیقاً به همین دلیل، برخورد محتاطانه با آن ضروری است.»
فیلم‌ منتشر شده در فضای مجازی با عنوان "حمله اسرائیل به مرکز فرماندهی سپاه" ساخته هوش مصنوعی و جعلی است! این ویدیو یک کلاژ چهارقطعه‌ای است که سه ویدیوی آن، ساختگی‌ هستند: 🔹ویدیو اول: نقشه روی دیوار آشکارا غلط و غیرواقعی است (خلیج فارس و مدیترانه تحریف‌شده، نبود دریای اژه/مرمره). مانیتورها پس از انفجار بدون آسیب روشن می‌مانند و سقوط یکی از آنها رفتار فیزیکی غیرعادی دارد. 🔹ویدیو دوم: بج بازو و سردوشی‌ها ساختگی‌اند و در هیچ رسته سپاه وجود ندارد. ثانیه‌شمار ساعت روی تصویر اعداد نامنظم و غیرپیوسته نشان می‌دهد. 🔹ویدیو چهارم: نشانه‌های واضح تولید با هوش مصنوعی دارد: سردوشی‌های غلط، نبود مانیتور جلوی اپراتورها، صندلی‌ها/ماوس/هدست با فرم‌های عجیب. 🔹ویدیو سوم تنها ویدیوی واقعی است. چند روز قبل، در برنامه «بدون تعارف» (۸ آذر ۱۴۰۴) منتشر شده بود و بریده‌اش از خبرگزاری دانشجو بازنشر شده است. این بخش واقعی مربوط به حمله ۲۳ خرداد به پایگاه پدافند تبریز است؛ ساعت حمله ۵:۱۰ صبح ذکر شده و تصاویر داخل و بیرون مجموعه را نشان می‌دهد.
جم در جمنای چیست و چه فرقی با یک چت معمولی دارد؟ جم یک دستیار هوشمند شخصی‌سازی‌شده است که روی مدل زبانی جمنای گوگل اجرا می‌شود. تفاوت اصلی آن با چت معمولی در داشتن «حافظه‌ی دستورالعمل» خلاصه می‌شود. در چت عادی، مدل هر بار از صفر و با تنظیمات عمومی گوگل شروع می‌کند اما یک Gem شخصیت، وظیفه و دامنه‌ی دانشی دارد که شما از قبل برایش تعیین کرده‌اید. به همین دلیل اگر با یک «جم نویسنده» صحبت کنید، هوش مصنوعی از همان ابتدا می‌داند باید با لحن دلخواه شما بنویسد و لازم نیست هر بار شیوه‌ی نوشتن را دوباره برایش توضیح دهید.
🔻توصیه سازنده گوگل Gemini در مورد استفاده کودکان از هوش مصنوعی سلیمان ایتانی، توسعه‌دهنده سابق گوگل، در مقاله‌ای خطاب به والدین گفته: منع استفاده از chatgpt برای کودکان غیرممکن است ؛ اما باید به آن‌ها یاد داد که جواب‌های هوش مصنوعی را راستی‌آزمایی کنند و مهم‌تر از آن، با بازی‌های بداهه و پروژه‌های اخلاقی، خلاقیت و تفکر انتقادی را در آن‌ها تقویت کنیم تا قربانی پاسخ‌های آسان هوش مصنوعی نشوند.