🔸خطاهای خطرناک چتباتها در جایگاه رواندرمانگر
🔹تحقیقات جدید پژوهشگران نشان میدهد چَتباتهای هوش مصنوعی در نقش رواندرمانگر، مرتکب خطاهای خطرناکی میشوند؛ از تأیید افکار خودکشی گرفته تا تقویت باورهای مخرب.
🔹این مطالعه ۱۵ خطر اخلاقی را در پنج دسته اصلی شناسایی کرد:
»» ناتوانی در درک زمینه فردی: ارائه توصیههای کلی بدون توجه به تجربیات شخصی
»» همکاری درمانی ضعیف: کنترل گفتوگو و تأیید باورهای نادرست کاربران
»» همدلی کاذب: استفاده از جملاتی مانند درکت میکنم برای ایجاد ارتباط مصنوعی
»» تعصب و تبعیض: پیشداوری درباره جنسیت، فرهنگ یا مذهب
»» پاسخ ناکافی به بحران: واکنش نامناسب در موقعیتهای حساس.
https://irna.ir/xjW4hX
📱چرا ChatGPT نمیتواند ساعت دقیق را به شما بگوید؟
🔹هوش مصنوعی ChatGPT و دیگر مدلهای زبانی بزرگ اساساً برای پیشبینی متن براساس دادههای آموزشی طراحی شدهاند و به اطلاعات لحظهای مانند زمان دسترسی داخلی ندارند. برخلاف گوشی یا کامپیوتر که تراشه ساعت دارند، این سیستمها تنها ورودی کاربر را پردازش میکنند و پاسخ میسازند.
🔹دلیل اصلی این محدودیت آن است که مدلها بهطور پیشفرض به ساعت سیستم یا موقعیت کاربر دسترسی ندارند، مگر اینکه اپلیکیشن میزبان چنین امکانی را فراهم کند. علاوهبراین، نگهداشتن مدل در جریان زمان میتواند باعث ورود دادههای مکرر و بیوقفه به حافظه موقت آن شود و در عمل بهعنوان نویز عمل کند. به همین خاطر، شرکتهایی مثل OpenAI ترجیح میدهند دسترسی مستقیم به ساعت را محدود کنند تا تمرکز مدل روی وظایف اصلی یعنی تولید متن باقی بماند.
تجربه طراحی معماری یک ساختمان با Nano Banana Pro جمینای!
▪️یک پیمانکار ساختمان بنام «تِـنکسگیوینگ» برای شوخی با Nano Banana Pro یک درخواست ساده داد:
Draw me architectural plans for a 1600 square foot 3 bedroom house that is two stories in torrance, california
(نقشههای معماری یک خانه دو طبقه سه خوابه به مساحت ۱۶۰۰ فوت مربع در تورنس، کالیفرنیا را برای من ترسیم کنید)
اما نتیجه؟
ابزار تصویر ساز جمینای، نقشه کامل معماری شامل پلان، چیدمان فضاها و ساختار کلی را تحویل داد.
💡 ابزار جدید کلاهبرداری در تلگرام؛ تبلیغی که حتی ادمین کانال هم از وجودش بیخبر است!
▪️احتمالا دیدهاید که پایین بعضی کانالهای تلگرامی، کادری کوچک با برچسب «آگهی» یا «Ad» ظاهر میشود.
▪️این کادر مربوط به سرویس رسمی تبلیغات تلگرام است؛ سرویسی که قرار بود به درآمدزایی کانالها کمک کند، اما حالا در عمل تبدیل شده به ابزاری برای کلاهبرداری از کاربران.
🔸 تبلیغی که خود ادمین کانال هم از آن خبر ندارد!
▪️سرویس تبلیغات تلگرام (با نام «تلگرام ادز») به صورت خودکار و بدون نیاز به تأیید مدیر کانال، انواع تبلیغات را در کانالهایی که بالای ۱۰۰۰ عضو دارند، نمایش میدهد.
▪️کلاهبردارها هم از همین نقطه ضعف سوءاستفاده کردهاند: آگهی میخرند و متن تبلیغ را طوری مینویسند که انگار مدیر کانال خودش آن را نوشته است. این متن صمیمانه و بهظاهر «خودی» است و قرار است به کاربر حس اعتماد بدهد.
🔸 چطور فریب نخوریم؟
▪️متنی که در قالب آگهی در کانالها و باتهای تلگرام پخش میشود و برچسب Ad دارد، فارغ از اینکه چقدر صمیمانه و دوستانه نوشته شده، کاملا بیارتباط به کانال اصلی است.
🔵 شعر؛ ابزار تازه برای دور زدن محدودیتهای چتباتهای هوش مصنوعی
🔹یک پژوهش جدید نشان میدهد که میتوان با بهرهگیری از شعر، سامانههای چتبات مبتنی بر هوش مصنوعی را فریب داد و آنها را به نادیده گرفتن محدودیتها و ارائه محتوای ممنوعه وادار کرد.
🔹در این تحقیق که توسط آزمایشگاه «ایکارو» منتشر شده و عنوان آن «شعر خصمانه به عنوان سازوکار جهانی فرار از زندان در مدلهای زبانی بزرگ» است، پژوهشگران نشان دادهاند که بیان درخواستها در قالب ساختاری شاعرانه میتواند باعث دور زدن بخشی از مکانیسمهای ایمنی LLMها شود.
🔹براساس نتایج این مطالعه، «ساختار شاعرانه نقش یک ابزار عمومی برای فرار از محدودیتها را ایفا میکند». بررسیها نشان میدهد که این روش با نرخ موفقیت کلی ۶۲ درصد قادر به تولید محتوای ممنوعه بوده؛ محتوایی که حتی دستورالعملهای مرتبط با ساخت سلاحهای هستهای هم جزو آن بوده است.
🔹در این تحقیق، مجموعهای از مدلهای زبانی بزرگ پرکاربرد از جمله GPT شرکت OpenAI، جمینای گوگل، کلود محصول شرکت Anthropic و چندین مدل دیگر مورد ارزیابی قرار گرفتهاند. یافتهها حاکی از آن است که مدلهایی مانند Google Gemini، DeepSeek و MistralAI بیشتر از سایرین در برابر این روش آسیبپذیر بودهاند و پاسخهای ممنوعه ارائه کردهاند؛ در مقابل، GPT-5 OpenAI و Claude Haiku 4.5 Anthropic کمترین میزان تخطی از محدودیتهای ایمنی را نشان دادهاند.
🔹اشعار دقیق مورد استفاده در این پژوهش که منجر به فرار از محدودیتها شده، منتشر نشده و تیم تحقیقاتی تأکید کرده که انتشار این نمونهها «برای عموم بیش از حد خطرناک» خواهد بود. اما نسخهای محدود از این روش در گزارش ارائه شده تا نشان دهد دور زدن سیستمهای ایمنی چتباتهای هوش مصنوعی تا چه اندازه میتواند ساده باشد؛ موضوعی که پژوهشگران میگویند «احتمالاً بسیار سادهتر از آن چیزی است که تصور میشود و دقیقاً به همین دلیل، برخورد محتاطانه با آن ضروری است.»
فیلم منتشر شده در فضای مجازی با عنوان "حمله اسرائیل به مرکز فرماندهی سپاه" ساخته هوش مصنوعی و جعلی است!
این ویدیو یک کلاژ چهارقطعهای است که سه ویدیوی آن، ساختگی هستند:
🔹ویدیو اول: نقشه روی دیوار آشکارا غلط و غیرواقعی است (خلیج فارس و مدیترانه تحریفشده، نبود دریای اژه/مرمره). مانیتورها پس از انفجار بدون آسیب روشن میمانند و سقوط یکی از آنها رفتار فیزیکی غیرعادی دارد.
🔹ویدیو دوم: بج بازو و سردوشیها ساختگیاند و در هیچ رسته سپاه وجود ندارد. ثانیهشمار ساعت روی تصویر اعداد نامنظم و غیرپیوسته نشان میدهد.
🔹ویدیو چهارم: نشانههای واضح تولید با هوش مصنوعی دارد: سردوشیهای غلط، نبود مانیتور جلوی اپراتورها، صندلیها/ماوس/هدست با فرمهای عجیب.
🔹ویدیو سوم تنها ویدیوی واقعی است. چند روز قبل، در برنامه «بدون تعارف» (۸ آذر ۱۴۰۴) منتشر شده بود و بریدهاش از خبرگزاری دانشجو بازنشر شده است. این بخش واقعی مربوط به حمله ۲۳ خرداد به پایگاه پدافند تبریز است؛ ساعت حمله ۵:۱۰ صبح ذکر شده و تصاویر داخل و بیرون مجموعه را نشان میدهد.
جم در جمنای چیست و چه فرقی با یک چت معمولی دارد؟
جم یک دستیار هوشمند شخصیسازیشده است که روی مدل زبانی جمنای گوگل اجرا میشود. تفاوت اصلی آن با چت معمولی در داشتن «حافظهی دستورالعمل» خلاصه میشود. در چت عادی، مدل هر بار از صفر و با تنظیمات عمومی گوگل شروع میکند اما یک Gem شخصیت، وظیفه و دامنهی دانشی دارد که شما از قبل برایش تعیین کردهاید.
به همین دلیل اگر با یک «جم نویسنده» صحبت کنید، هوش مصنوعی از همان ابتدا میداند باید با لحن دلخواه شما بنویسد و لازم نیست هر بار شیوهی نوشتن را دوباره برایش توضیح دهید.
🔻توصیه سازنده گوگل Gemini در مورد استفاده کودکان از هوش مصنوعی
سلیمان ایتانی، توسعهدهنده سابق گوگل، در مقالهای خطاب به والدین گفته: منع استفاده از chatgpt برای کودکان غیرممکن است ؛ اما باید به آنها یاد داد که جوابهای هوش مصنوعی را راستیآزمایی کنند و مهمتر از آن، با بازیهای بداهه و پروژههای اخلاقی، خلاقیت و تفکر انتقادی را در آنها تقویت کنیم تا قربانی پاسخهای آسان هوش مصنوعی نشوند.
🔵 هوش مصنوعی در هالیوود: انقلاب یا چالش؟
🔹هالیوود و صنعت سینما همواره در تلاش بودهاند تعادلی میان کیفیت هنری آثار و منافع اقتصادی استودیوها برقرار کنند؛ بنابراین طبیعی است که اکنون هوش مصنوعی به یکی از موضوعات مهم تولیدات سینمایی تبدیل شده باشد. اما آیا فیلمها واقعاً از هوش مصنوعی استفاده میکنند؟ پاسخ کوتاه «بله» است، اما این ماجرا پیچیدگیهایی دارد.
https://www.itna.ir/news/88210