یک ترفند: ساخت عکس بصورت رایگان و نامحدود با سرویس nanobanana pro جمینای
با طی مراحل بالا در سایت
https://lmarena.ai/
میتوانید بصورت رایگان و نامحدود از سرویس تصویر ساز جدید جمینای استفاده کنید.
پ.ن:
نیاز به استفاده از تحریم شکن (با سرویس های ایرانی تحریم شکن مثل "شکن" هم میتوانید به این ابزار دسترسی پیدا کنید)
🔥 برای یکسال از فتوشاپ وب رایگان استفاده کنید ؛ ویرایش حرفه ای تصویر روی مرورگر
1⃣ از طریق این لینک ,افزونه رسمی Adobe Photoshop Web را روی مرورگر گوگل کروم نصب کنید
https://chromewebstore.google.com/detail/adobe-photoshop/kjchkpkjpiloipaonppkmepcbhcncedo
2⃣ روی Start Free Offer بزنید.
3⃣ گزینه Start Now را انتخاب کنید.
🌀 حالا روی هر تصویری در مرورگر راست کلیک کنید ، Edit in Photoshop AI باز شده و مستقیم وارد محیط ادیت خواهید شد ؛ ابزارهای هوش مصنوعی، ریتاچ، حذف آبجکت، اکستند و افکتهای حرفهای همیشه در دسترس شما خواهند بود.
2.1M حجم رسانه بالاست
مشاهده در ایتا
پنج ماه بعد از جنگ: یک ویدئوی تماشایی از موسسه وایزمن
▪️شبکه دولتی اسرائیل (Kan 11) گزارشی از حجم باورنکردنی تخریب موسسه علمی وایزمن واقع در شهر رحووت اسرائیل توسط موشک های ایرانی را منتشر کرد.
▪️در این ویدئو پروفسور "اورن شولدینر" استاد زیستشناسی سلولی مولکولی موسسه وایزمن برای اولین بار با حجم خرابیها مواجه شده و شوکه شده است.
▪️راوی توضیح میدهد که آزمایشگاه پروفسور شولدینر دقیقاً در طبقه دوم مکان تخریب شده قرار داشته است.
🔸خطاهای خطرناک چتباتها در جایگاه رواندرمانگر
🔹تحقیقات جدید پژوهشگران نشان میدهد چَتباتهای هوش مصنوعی در نقش رواندرمانگر، مرتکب خطاهای خطرناکی میشوند؛ از تأیید افکار خودکشی گرفته تا تقویت باورهای مخرب.
🔹این مطالعه ۱۵ خطر اخلاقی را در پنج دسته اصلی شناسایی کرد:
»» ناتوانی در درک زمینه فردی: ارائه توصیههای کلی بدون توجه به تجربیات شخصی
»» همکاری درمانی ضعیف: کنترل گفتوگو و تأیید باورهای نادرست کاربران
»» همدلی کاذب: استفاده از جملاتی مانند درکت میکنم برای ایجاد ارتباط مصنوعی
»» تعصب و تبعیض: پیشداوری درباره جنسیت، فرهنگ یا مذهب
»» پاسخ ناکافی به بحران: واکنش نامناسب در موقعیتهای حساس.
https://irna.ir/xjW4hX
📱چرا ChatGPT نمیتواند ساعت دقیق را به شما بگوید؟
🔹هوش مصنوعی ChatGPT و دیگر مدلهای زبانی بزرگ اساساً برای پیشبینی متن براساس دادههای آموزشی طراحی شدهاند و به اطلاعات لحظهای مانند زمان دسترسی داخلی ندارند. برخلاف گوشی یا کامپیوتر که تراشه ساعت دارند، این سیستمها تنها ورودی کاربر را پردازش میکنند و پاسخ میسازند.
🔹دلیل اصلی این محدودیت آن است که مدلها بهطور پیشفرض به ساعت سیستم یا موقعیت کاربر دسترسی ندارند، مگر اینکه اپلیکیشن میزبان چنین امکانی را فراهم کند. علاوهبراین، نگهداشتن مدل در جریان زمان میتواند باعث ورود دادههای مکرر و بیوقفه به حافظه موقت آن شود و در عمل بهعنوان نویز عمل کند. به همین خاطر، شرکتهایی مثل OpenAI ترجیح میدهند دسترسی مستقیم به ساعت را محدود کنند تا تمرکز مدل روی وظایف اصلی یعنی تولید متن باقی بماند.
تجربه طراحی معماری یک ساختمان با Nano Banana Pro جمینای!
▪️یک پیمانکار ساختمان بنام «تِـنکسگیوینگ» برای شوخی با Nano Banana Pro یک درخواست ساده داد:
Draw me architectural plans for a 1600 square foot 3 bedroom house that is two stories in torrance, california
(نقشههای معماری یک خانه دو طبقه سه خوابه به مساحت ۱۶۰۰ فوت مربع در تورنس، کالیفرنیا را برای من ترسیم کنید)
اما نتیجه؟
ابزار تصویر ساز جمینای، نقشه کامل معماری شامل پلان، چیدمان فضاها و ساختار کلی را تحویل داد.
💡 ابزار جدید کلاهبرداری در تلگرام؛ تبلیغی که حتی ادمین کانال هم از وجودش بیخبر است!
▪️احتمالا دیدهاید که پایین بعضی کانالهای تلگرامی، کادری کوچک با برچسب «آگهی» یا «Ad» ظاهر میشود.
▪️این کادر مربوط به سرویس رسمی تبلیغات تلگرام است؛ سرویسی که قرار بود به درآمدزایی کانالها کمک کند، اما حالا در عمل تبدیل شده به ابزاری برای کلاهبرداری از کاربران.
🔸 تبلیغی که خود ادمین کانال هم از آن خبر ندارد!
▪️سرویس تبلیغات تلگرام (با نام «تلگرام ادز») به صورت خودکار و بدون نیاز به تأیید مدیر کانال، انواع تبلیغات را در کانالهایی که بالای ۱۰۰۰ عضو دارند، نمایش میدهد.
▪️کلاهبردارها هم از همین نقطه ضعف سوءاستفاده کردهاند: آگهی میخرند و متن تبلیغ را طوری مینویسند که انگار مدیر کانال خودش آن را نوشته است. این متن صمیمانه و بهظاهر «خودی» است و قرار است به کاربر حس اعتماد بدهد.
🔸 چطور فریب نخوریم؟
▪️متنی که در قالب آگهی در کانالها و باتهای تلگرام پخش میشود و برچسب Ad دارد، فارغ از اینکه چقدر صمیمانه و دوستانه نوشته شده، کاملا بیارتباط به کانال اصلی است.
🔵 شعر؛ ابزار تازه برای دور زدن محدودیتهای چتباتهای هوش مصنوعی
🔹یک پژوهش جدید نشان میدهد که میتوان با بهرهگیری از شعر، سامانههای چتبات مبتنی بر هوش مصنوعی را فریب داد و آنها را به نادیده گرفتن محدودیتها و ارائه محتوای ممنوعه وادار کرد.
🔹در این تحقیق که توسط آزمایشگاه «ایکارو» منتشر شده و عنوان آن «شعر خصمانه به عنوان سازوکار جهانی فرار از زندان در مدلهای زبانی بزرگ» است، پژوهشگران نشان دادهاند که بیان درخواستها در قالب ساختاری شاعرانه میتواند باعث دور زدن بخشی از مکانیسمهای ایمنی LLMها شود.
🔹براساس نتایج این مطالعه، «ساختار شاعرانه نقش یک ابزار عمومی برای فرار از محدودیتها را ایفا میکند». بررسیها نشان میدهد که این روش با نرخ موفقیت کلی ۶۲ درصد قادر به تولید محتوای ممنوعه بوده؛ محتوایی که حتی دستورالعملهای مرتبط با ساخت سلاحهای هستهای هم جزو آن بوده است.
🔹در این تحقیق، مجموعهای از مدلهای زبانی بزرگ پرکاربرد از جمله GPT شرکت OpenAI، جمینای گوگل، کلود محصول شرکت Anthropic و چندین مدل دیگر مورد ارزیابی قرار گرفتهاند. یافتهها حاکی از آن است که مدلهایی مانند Google Gemini، DeepSeek و MistralAI بیشتر از سایرین در برابر این روش آسیبپذیر بودهاند و پاسخهای ممنوعه ارائه کردهاند؛ در مقابل، GPT-5 OpenAI و Claude Haiku 4.5 Anthropic کمترین میزان تخطی از محدودیتهای ایمنی را نشان دادهاند.
🔹اشعار دقیق مورد استفاده در این پژوهش که منجر به فرار از محدودیتها شده، منتشر نشده و تیم تحقیقاتی تأکید کرده که انتشار این نمونهها «برای عموم بیش از حد خطرناک» خواهد بود. اما نسخهای محدود از این روش در گزارش ارائه شده تا نشان دهد دور زدن سیستمهای ایمنی چتباتهای هوش مصنوعی تا چه اندازه میتواند ساده باشد؛ موضوعی که پژوهشگران میگویند «احتمالاً بسیار سادهتر از آن چیزی است که تصور میشود و دقیقاً به همین دلیل، برخورد محتاطانه با آن ضروری است.»