چتجیپیتی در مواجهه با سناریوی خودکشی نوجوانان با پلیس تماس میگیرد
🔸سم آلتمن مدیرعامل اوپناِیآی اعلام کرد که این شرکت سیاستهای تازهای برای حفاظت از نوجوانان در استفاده از چتجیپیتی اعمال میکند. بر اساس این تغییرات، گفتوگوهای مرتبط با موضوعات جنسی یا خودکشی برای کاربران زیر ۱۸ سال بهطور جدی محدود خواهد شد.
🔸طبق این سیاستها، چتجیپیتی دیگر وارد گفتوگوهای «عاشقانه یا اغواگرانه» با نوجوانان نمیشود و در صورت طرح سناریوهای مربوط به خودکشی، سیستم تلاش میکند والدین کاربر را مطلع کند و در موارد شدید حتی با پلیس تماس بگیرد.
🔸این تصمیم پس از شکایت خانوادهی یک نوجوان به نام «آدام رین» اتخاذ شد؛ او پس از ماهها گفتوگو با چتجیپیتی دست به خودکشی زد. موضوعی که نگرانیها دربارهی تأثیر چتباتها بر سلامت روان نوجوانان را افزایش داده است.
🔸از دیگر قابلیتهای جدید، امکان تعیین «ساعات خاموشی» توسط والدین است که در آن نوجوان نمیتواند از چتجیپیتی استفاده کند. اوپناِیآی همچنین در حال توسعه سیستمی برای تشخیص دقیقتر سن کاربران است تا این محدودیتها بهطور هوشمندانهتر اعمال شوند.
🔘 ۵ گام مهم برای گشتوگذار امن کودکان در دنیای اینترنت
▫️ این روزها دنیای اینترنت هم بخشی از زندگی کودکان شده. اما برای اینکه گشتوگذارشان در این دنیای بزرگ و جذاب، هم هوشمندانه باشد و هم بیخطر، باید با چند نکته مهم آشنا شوند.
▫️کلیدهای طلایی برای اینترنت امن:
▪️حواست به اطلاعات شخصیات باشد:
هرگز اطلاعاتی مثل آدرس خانه، نام مدرسه یا شماره تلفن را با کسی آنلاین به اشتراک نگذار. اینها اطلاعات خیلی شخصی تو هستند!
▪️عکسهایت را برای غریبهها نفرست:
حتی اگر کسی آنلاین خیلی مهربان به نظر میرسد، هرگز عکسهای شخصیات را برایش ارسال نکن.
▪️رمز عبورهایت یک راز هستند:
رمز عبور اکانتها و دستگاههایت را فقط با پدر و مادرت در میان بگذار. آنها رازهای مهم تو هستند!
▪️قبل از دانلود از والدینت اجازه بگیر:
دانلود کردن فایلها بدون اجازه ممکن است خطرناک باشد و به کامپیوتر یا تبلتت آسیب برساند.
▪️هر پیام یا محتوای ناراحتکننده را به یک بزرگتر بگو
اگر پیامی دریافت کردی یا چیزی دیدی که تو را ناراحت کرد یا عجیب به نظر میرسید، حتماً با پدر، مادر یا یک بزرگتر مورد اعتماد صحبت کن. سکوت نکن!
▫️با یادگیری این نکات، کودکان میتوانند با اطمینان بیشتری در دنیای اینترنت قدم بگذارند و از مزایای آن به شکل سالمتری استفاده کنند.
حملات سایبری مبتنی بر هوش مصنوعی.pdf
حجم:
5.2M
🔺 کتاب «مرجع دانش حملات سایبری مبتنی بر هوش مصنوعی»
پژوهشگاه ارتباطات و فناوری اطلاعات
🔹شناسنامه حملات هوش مصنوعی تهاجمی
🔹شناسنامه حملات هوش مصنوعی تخاصمی
🔹مطالعه موردی شناسایی و مقابله با حملات مبتنی بر هوش مصنوعی درحوزه های کاربردی منتخب
💢قابلیت جدید هوش مصنوعی گراک: خواندن متنها با صدای بلند
🔹ایلان ماسک با انتشار توییتی اعلام کرد که هوش مصنوعی «گراک» اکنون می تواند متون را با صدایی طبیعی برای کاربران بخواند.
چتبات محبوب مدیرعامل انویدیا چیست؟
📰جنسن هوانگ، مدیرعامل انویدیا، در یک مصاحبه گفته که برای انجام کارهای متفاوت, از ابزارهای AI جداگانه استفاده میکند :
▫️از مدل Gemini برای کارای فنی
▫️از Grok برای موضوعات هنری
▫️از Perplexity برای جستجوی سریع
▫️و از ChatGPT برای استفاده روزمره
+ جالبتر اینکه هوانگ وقتی به دنبال رسیدن به پاسخ یک سؤال مهم است، آنرا همزمان به همه این چتباتها داده و بعد بهترین جواب را انتخاب میکند!
📷 هر عکسی که با گوشی میگیرید، ممکن است موقعیت مکانیتان را فاش کند!
هر بار که با اپلیکیشن پیشفرض دوربین، عکسی ثبت میکنید، اطلاعاتی بهصورت خودکار به آن اضافه میشود؛ این اطلاعات در قالب دادههای متادیتا (EXIF) داخل فایل عکس ذخیره میشوند.
برخی از این دادهها عبارتاند از:
◾️برند و مدل گوشی
◾️ وضوح تصویر (رزولوشن)
◾️ تاریخ و زمان دقیق ثبت عکس
◾️شماره ساخت یا بیلد نامبر
◾️ سرعت شاتر و تنظیمات دوربین
◾️ وضعیت فلش (روشن/خاموش)
◾️ موقعیت مکانی عکس (Geo-tag)
روشن بودن گزینه موقعیت مکانی میتواند بهسادگی مکان دقیق شما را فاش کند. اگرچه بیشتر شبکههای اجتماعی(اینستاگرام، ایکس، فیسبوک) متادیتا را هنگام آپلود پاک میکنند، اما همیشه این اتفاق نمیافتد بهویژه زمانی که عکسها را از طریق ایمیل یا به صورت فایل در تلگرام یا واتس اپ، گوگل درایو و آیکلود... به اشتراک میگذارید.
وقتی 📱 Location Tags روشن باشد:
مکان عکس با GPS ثبت میشود و در فایل تصویر ذخیره میگردد. این اطلاعات قابل مشاهده برای دیگران است.
اگر حفظ حریم شخصی برایتان اهمیت دارد، حتماً این گزینه را غیرفعال کنید:
✅ در گوشیهای سامسونگ
از مسیر:
Camera Settings → Location tags
این گزینه را خاموش کنید.
✅ در گوشیهای شیائومی
از مسیر:
Camera Settings → Save location info
آن را غیرفعال کنید.
توصیه مهم:
گاهی یک عکس ساده میتواند بیش از آنچه فکر میکنید، دربارهتان بگوید. با خاموش کردن این گزینه، گام مؤثری در جهت حفظ امنیت دیجیتال خود بردارید.
🔴حذف واترمارک و اشیاء با هوش مصنوعی
ابزار آنلاین Magic Eraser با بهرهگیری از هوش مصنوعی، امکان حذف دقیق و سریع اشیاء ناخواسته از تصاویر و ویدیوها را فراهم میکند. این ابزار از فرمتهای JPG، PNG و WEBP پشتیبانی کرده و پس از حذف، زمینه تصویر را بهصورت خودکار بازسازی میکند تا خروجی تمیز و حرفهای ارائه شود.
🔹 ویژگیها:
▪️حذف اشیاء، متن یا لوگوهای اضافی از تصاویر
▪️بازسازی خودکار پسزمینه با دقت بالا
▪️پشتیبانی از فرمتهای JPG، PNG و WEBP
▪️قابلیت حذف واترمارک ویدیو با پیشنمایش نتیجه
🔸پلن رایگان:
▫️۳ بار استفاده روزانه از حذف خودکار اشیاء
▫️۱۰ بار استفاده روزانه از حذف دستی اشیاء
▫️۳ بار حذف اشیاء در تصاویر در روز
▫️پیشنمایش ۱۰ ثانیهای برای ویدیوها
▫️۱۰ پیشنمایش رایگان ویدیو در هفته
این ابزار گزینهای کاربردی برای عکاسان، تولیدکنندگان محتوا و فروشندگان آنلاین است که بهدنبال ویرایش سریع و آسان تصاویر و ویدیوها هستند.
magiceraser.org
کاهش لذت مطالعه با ظهور هوش مصنوعی
پژوهشگران میگویند ابزارهای هوش مصنوعی میتوانند خلاصه سازی و تحلیل متون را انجام دهند و حتی پرسشهای هوشمند برای کلاسها تولید کنند، اما این روند ممکن است تجربه شخصی، لذت خواندن و رشد فکری ناشی از تعامل مستقیم با متن را کاهش دهد.
دسترسی رایگان به تمام مدلهای هوش مصنوعی؟ ماجرا چیست؟
🔹سایتی با نام yupp.ai مدعیست که به کاربران اجازه میدهد بهصورت رایگان از تمام مدلهای هوش مصنوعی قدرتمند (مثل GPT-4o، Claude Opus، Gemini و...) استفاده کرده و حتی در ازای این کار پاداش هم بگیرند!
🔹این سایت ایده جالبی دارد: شما یک دستور (پرامپت) مینویسید، و سایت جواب دو مدل هوش مصنوعی مختلف را برایتان نمایش خواهد داد. شما باید بین این دو پاسخ، بهترین جواب را انتخاب کرده و بازخورد بدهید.
💢اما نتیجه تست این ابزار، با ادعای گردانندگان سایت تفاوت های فاحشی دارد:
⛔️ شما هیچ کنترلی روی مدلها ندارید!
شما یک مدل خاص (مثلاً Claude Opus) را انتخاب میکنید، اما سایت انتخاب شما را نادیده گرفته و دو مدل تصادفی دیگر را مورد استفاده قرار میدهد. این بزرگترین نقطه ضعف محسوب میشود، چون نمیتوانید با مدل دلخواهتان کار کنید!
🤦♂️ برای کارهای جدی و کدنویسی تقریباً بیفایده است.
فرض کنید یکی از مدلها یک کد ناقص یا اشتباه به شما بدهد. هیچ راهی برای ادامه چت و رفع اشکال با همان مدل وجود ندارد! باید از اول شروع کنید و دوباره با دو مدل تصادفی دیگر روبرو شوید. این روند، کار را کاملاً مختل میکند.
💸 وعده کسب درآمد واقعی به نظر نمیرسد.
سایت در ازای بازخورد به شما "اعتبار" (Credits) میدهد، اما وقتی میخواهید آن را تبدیل و دریافت کنید، با این شرط مواجه خواهید شد که "باید به یک حد نصاب بالا برسید" این بیشتر شبیه یک نوع گیمیفیکیشن برای نگه داشتن کاربر در سایت است تا یک راه واقعی برای کسب درآمد!
🕵️♂️ آیا واقعاً از مدلهای قدرتمند استفاده میکند؟
در چند نمونه تست، چند مدل مختلف دقیقاً یک جواب یکسان (و گاهی اشتباه) را تولید کردند. این شک تقویت میشود که شاید سایت در پشت صحنه فقط از یک مدل ارزانتر استفاده کرده و صرفاً اسم مدلهای معروف را به جوابها میچسباند!
✅ نتیجهگیری نهایی:
ایده yupp.ai برای مقایسه مدلها جالب است، اما در عمل یک تجربه کاربری ناکارآمد، کند و گیجکننده ارائه میدهد. محدودیتهای این ابزار به قدری زیاد است که استفاده از آن برای کاربردهای مهم، تقریباً غیرممکن به نظر میرسد.
🔹وقتتان را برای کار با این ابزارهای فرعی تلف نکنید و سراغ ابزارهای معتبر و اصلی بروید.
🟠وقتی تصویر و صدا به شما دروغ میگویند/دیپفیک؛ کلاهبرداری جدید در عصر هوش مصنوعی
🔹ما در عصر هوش مصنوعی زندگی میکنیم؛ دورانی که مرز بین واقعیت و جعل بهسادگی محو میشود. همانطور که AI فرصتهای بزرگ میآفریند، مجرمان نیز از همین ابزار برای ساخت صداها و تصاویر جعلی بهره میگیرند.
🔸طبق گزارش والاستریت ژورنال، سال گذشته بیش از ۱۰۵ هزار حمله دیپفیک ثبت شده یعنی تقریباً هر پنج دقیقه یک حمله. تنها در سهماهه اول ۲۰۲۵ هم خسارتهای مالی ناشی از کلاهبرداریهای دیپفیک از ۲۰۰ میلیون دلار فراتر رفته است. این اعداد نشان میدهد که دیپفیک دیگر یک تهدید نیست، بلکه واقعیتی است که هر روز قربانیان جدیدی میگیرد.
📞 یک لحظه تصور کنید:
کارمند ادارهای هستید و رئیستان تماس میگیرد: «همین الان پول را منتقل کن.»
یا تماسی از شمارهای ناآشنا دریافت میکنید و صدایی شبیه یکی از بستگان میگوید: «برای ثبت فوری یک کار اداری، شماره ملیات را بگو.»
همهچیز واقعی بهنظر میرسد، اما ممکن است هیچکدام حقیقت نداشته باشد.
چگونه دیپفیک اعتماد ما را میرباید؟
دیپفیک تنها با چند دقیقه صدای ضبطشده یا یک ویدئو میتواند هویت هر کسی را جعل کند. مهاجمان از دو الگوی رفتاری انسان سوءاستفاده میکنند:
🔺اعتماد پیشفرض به صدا و چهرههای آشنا
🔻واکنش سریع در برابر شرایط اضطراری یا فوریت ساختگی
ترکیب این دو عامل با فناوری پیشرفته، باعث میشود حتی افراد آموزشدیده نیز در لحظه فریب بخورند.
🛡️ چگونه در امان بمانیم؟
✅صحتسنجی چندمرحلهای: هر دستور مالی یا پیام حساس باید از طریق کانال رسمی دوباره بررسی شود.
✅مدیریت فوریتها: هیچ درخواستی آنقدر فوری نیست که نتوانید دو دقیقه برای بررسی وقت بگذارید.
✅محافظت از دادههای حساس: رمز کارت، کد تأیید یا شماره ملی را هرگز تلفنی یا آنلاین در اختیار دیگران نگذارید.
📌 آنچه باید به خاطر بسپاریم
دیپفیک امروز ابزاری در خدمت کلاهبرداریهای سازمانیافته است؛ واقعیتی که هر روز قربانیان تازهای میگیرد. در این میان یک اصل حیاتی وجود دارد: اعتماد کورکورانه همان چیزی است که مجرمان روی آن حساب میکنند.
📱کارشناسان امنیتی: ایجنت ChatGPT حالا میتواند کپچاها را حل کند
🔹کپچا (CAPTCHA) همان پازلهای مزاحم اما ضروری هستند که از ما میخواهند حروف کج و معوج را بخوانیم یا تصاویر خاصی را انتخاب کنیم تا ثابت شود انسان هستیم. مدلهای هوش مصنوعی مانند ChatGPT بهطور پیشفرض آموزش دیدهاند که این تستها را حل نکنند. اما محققان شرکت امنیتی SPLX با استفاده از یک تکنیک به نام «تزریق پرامپت چندمرحلهای» این محدودیت را دور زدند.
🔹فرایند فریب به این شکل بود: ابتدا آنها در یک چت عادی با ChatGPT-4o، به هوش مصنوعی گفتند که قرار است یک تمرین مبتنی بر استدلال را با حلکردن لیستی از کپچاهای «جعلی» انجام دهند و رضایت هوش مصنوعی را برای حل این تستهای «جعلی» جلب کردند. سپس در یک چت جدید، این مکالمه را در حالت Agent Mode کپی کردند؛ حالتی که در آن ChatGPT میتواند به صورت مستقل با وبسایتها تعامل داشته باشد.
🔹هوش مصنوعی در حالت Agent، با بهیاد داشتن مکالمه قبلی، تصور کرد که همچنان درحال انجام همان تمرین مورد توافق است و بدون اینکه متوجه شود چارچوبهای امنیتی خود را زیر پا گذاشت و شروع به حلکردن کپچاهای واقعی کرد. این اولین مورد مستندی است که در آن یک ایجنت GPT کپچاهای پیچیده مبتنیبر تصویر را حل میکند.