💢قابلیت جدید هوش مصنوعی گراک: خواندن متنها با صدای بلند
🔹ایلان ماسک با انتشار توییتی اعلام کرد که هوش مصنوعی «گراک» اکنون می تواند متون را با صدایی طبیعی برای کاربران بخواند.
چتبات محبوب مدیرعامل انویدیا چیست؟
📰جنسن هوانگ، مدیرعامل انویدیا، در یک مصاحبه گفته که برای انجام کارهای متفاوت, از ابزارهای AI جداگانه استفاده میکند :
▫️از مدل Gemini برای کارای فنی
▫️از Grok برای موضوعات هنری
▫️از Perplexity برای جستجوی سریع
▫️و از ChatGPT برای استفاده روزمره
+ جالبتر اینکه هوانگ وقتی به دنبال رسیدن به پاسخ یک سؤال مهم است، آنرا همزمان به همه این چتباتها داده و بعد بهترین جواب را انتخاب میکند!
📷 هر عکسی که با گوشی میگیرید، ممکن است موقعیت مکانیتان را فاش کند!
هر بار که با اپلیکیشن پیشفرض دوربین، عکسی ثبت میکنید، اطلاعاتی بهصورت خودکار به آن اضافه میشود؛ این اطلاعات در قالب دادههای متادیتا (EXIF) داخل فایل عکس ذخیره میشوند.
برخی از این دادهها عبارتاند از:
◾️برند و مدل گوشی
◾️ وضوح تصویر (رزولوشن)
◾️ تاریخ و زمان دقیق ثبت عکس
◾️شماره ساخت یا بیلد نامبر
◾️ سرعت شاتر و تنظیمات دوربین
◾️ وضعیت فلش (روشن/خاموش)
◾️ موقعیت مکانی عکس (Geo-tag)
روشن بودن گزینه موقعیت مکانی میتواند بهسادگی مکان دقیق شما را فاش کند. اگرچه بیشتر شبکههای اجتماعی(اینستاگرام، ایکس، فیسبوک) متادیتا را هنگام آپلود پاک میکنند، اما همیشه این اتفاق نمیافتد بهویژه زمانی که عکسها را از طریق ایمیل یا به صورت فایل در تلگرام یا واتس اپ، گوگل درایو و آیکلود... به اشتراک میگذارید.
وقتی 📱 Location Tags روشن باشد:
مکان عکس با GPS ثبت میشود و در فایل تصویر ذخیره میگردد. این اطلاعات قابل مشاهده برای دیگران است.
اگر حفظ حریم شخصی برایتان اهمیت دارد، حتماً این گزینه را غیرفعال کنید:
✅ در گوشیهای سامسونگ
از مسیر:
Camera Settings → Location tags
این گزینه را خاموش کنید.
✅ در گوشیهای شیائومی
از مسیر:
Camera Settings → Save location info
آن را غیرفعال کنید.
توصیه مهم:
گاهی یک عکس ساده میتواند بیش از آنچه فکر میکنید، دربارهتان بگوید. با خاموش کردن این گزینه، گام مؤثری در جهت حفظ امنیت دیجیتال خود بردارید.
🔴حذف واترمارک و اشیاء با هوش مصنوعی
ابزار آنلاین Magic Eraser با بهرهگیری از هوش مصنوعی، امکان حذف دقیق و سریع اشیاء ناخواسته از تصاویر و ویدیوها را فراهم میکند. این ابزار از فرمتهای JPG، PNG و WEBP پشتیبانی کرده و پس از حذف، زمینه تصویر را بهصورت خودکار بازسازی میکند تا خروجی تمیز و حرفهای ارائه شود.
🔹 ویژگیها:
▪️حذف اشیاء، متن یا لوگوهای اضافی از تصاویر
▪️بازسازی خودکار پسزمینه با دقت بالا
▪️پشتیبانی از فرمتهای JPG، PNG و WEBP
▪️قابلیت حذف واترمارک ویدیو با پیشنمایش نتیجه
🔸پلن رایگان:
▫️۳ بار استفاده روزانه از حذف خودکار اشیاء
▫️۱۰ بار استفاده روزانه از حذف دستی اشیاء
▫️۳ بار حذف اشیاء در تصاویر در روز
▫️پیشنمایش ۱۰ ثانیهای برای ویدیوها
▫️۱۰ پیشنمایش رایگان ویدیو در هفته
این ابزار گزینهای کاربردی برای عکاسان، تولیدکنندگان محتوا و فروشندگان آنلاین است که بهدنبال ویرایش سریع و آسان تصاویر و ویدیوها هستند.
magiceraser.org
کاهش لذت مطالعه با ظهور هوش مصنوعی
پژوهشگران میگویند ابزارهای هوش مصنوعی میتوانند خلاصه سازی و تحلیل متون را انجام دهند و حتی پرسشهای هوشمند برای کلاسها تولید کنند، اما این روند ممکن است تجربه شخصی، لذت خواندن و رشد فکری ناشی از تعامل مستقیم با متن را کاهش دهد.
دسترسی رایگان به تمام مدلهای هوش مصنوعی؟ ماجرا چیست؟
🔹سایتی با نام yupp.ai مدعیست که به کاربران اجازه میدهد بهصورت رایگان از تمام مدلهای هوش مصنوعی قدرتمند (مثل GPT-4o، Claude Opus، Gemini و...) استفاده کرده و حتی در ازای این کار پاداش هم بگیرند!
🔹این سایت ایده جالبی دارد: شما یک دستور (پرامپت) مینویسید، و سایت جواب دو مدل هوش مصنوعی مختلف را برایتان نمایش خواهد داد. شما باید بین این دو پاسخ، بهترین جواب را انتخاب کرده و بازخورد بدهید.
💢اما نتیجه تست این ابزار، با ادعای گردانندگان سایت تفاوت های فاحشی دارد:
⛔️ شما هیچ کنترلی روی مدلها ندارید!
شما یک مدل خاص (مثلاً Claude Opus) را انتخاب میکنید، اما سایت انتخاب شما را نادیده گرفته و دو مدل تصادفی دیگر را مورد استفاده قرار میدهد. این بزرگترین نقطه ضعف محسوب میشود، چون نمیتوانید با مدل دلخواهتان کار کنید!
🤦♂️ برای کارهای جدی و کدنویسی تقریباً بیفایده است.
فرض کنید یکی از مدلها یک کد ناقص یا اشتباه به شما بدهد. هیچ راهی برای ادامه چت و رفع اشکال با همان مدل وجود ندارد! باید از اول شروع کنید و دوباره با دو مدل تصادفی دیگر روبرو شوید. این روند، کار را کاملاً مختل میکند.
💸 وعده کسب درآمد واقعی به نظر نمیرسد.
سایت در ازای بازخورد به شما "اعتبار" (Credits) میدهد، اما وقتی میخواهید آن را تبدیل و دریافت کنید، با این شرط مواجه خواهید شد که "باید به یک حد نصاب بالا برسید" این بیشتر شبیه یک نوع گیمیفیکیشن برای نگه داشتن کاربر در سایت است تا یک راه واقعی برای کسب درآمد!
🕵️♂️ آیا واقعاً از مدلهای قدرتمند استفاده میکند؟
در چند نمونه تست، چند مدل مختلف دقیقاً یک جواب یکسان (و گاهی اشتباه) را تولید کردند. این شک تقویت میشود که شاید سایت در پشت صحنه فقط از یک مدل ارزانتر استفاده کرده و صرفاً اسم مدلهای معروف را به جوابها میچسباند!
✅ نتیجهگیری نهایی:
ایده yupp.ai برای مقایسه مدلها جالب است، اما در عمل یک تجربه کاربری ناکارآمد، کند و گیجکننده ارائه میدهد. محدودیتهای این ابزار به قدری زیاد است که استفاده از آن برای کاربردهای مهم، تقریباً غیرممکن به نظر میرسد.
🔹وقتتان را برای کار با این ابزارهای فرعی تلف نکنید و سراغ ابزارهای معتبر و اصلی بروید.
🟠وقتی تصویر و صدا به شما دروغ میگویند/دیپفیک؛ کلاهبرداری جدید در عصر هوش مصنوعی
🔹ما در عصر هوش مصنوعی زندگی میکنیم؛ دورانی که مرز بین واقعیت و جعل بهسادگی محو میشود. همانطور که AI فرصتهای بزرگ میآفریند، مجرمان نیز از همین ابزار برای ساخت صداها و تصاویر جعلی بهره میگیرند.
🔸طبق گزارش والاستریت ژورنال، سال گذشته بیش از ۱۰۵ هزار حمله دیپفیک ثبت شده یعنی تقریباً هر پنج دقیقه یک حمله. تنها در سهماهه اول ۲۰۲۵ هم خسارتهای مالی ناشی از کلاهبرداریهای دیپفیک از ۲۰۰ میلیون دلار فراتر رفته است. این اعداد نشان میدهد که دیپفیک دیگر یک تهدید نیست، بلکه واقعیتی است که هر روز قربانیان جدیدی میگیرد.
📞 یک لحظه تصور کنید:
کارمند ادارهای هستید و رئیستان تماس میگیرد: «همین الان پول را منتقل کن.»
یا تماسی از شمارهای ناآشنا دریافت میکنید و صدایی شبیه یکی از بستگان میگوید: «برای ثبت فوری یک کار اداری، شماره ملیات را بگو.»
همهچیز واقعی بهنظر میرسد، اما ممکن است هیچکدام حقیقت نداشته باشد.
چگونه دیپفیک اعتماد ما را میرباید؟
دیپفیک تنها با چند دقیقه صدای ضبطشده یا یک ویدئو میتواند هویت هر کسی را جعل کند. مهاجمان از دو الگوی رفتاری انسان سوءاستفاده میکنند:
🔺اعتماد پیشفرض به صدا و چهرههای آشنا
🔻واکنش سریع در برابر شرایط اضطراری یا فوریت ساختگی
ترکیب این دو عامل با فناوری پیشرفته، باعث میشود حتی افراد آموزشدیده نیز در لحظه فریب بخورند.
🛡️ چگونه در امان بمانیم؟
✅صحتسنجی چندمرحلهای: هر دستور مالی یا پیام حساس باید از طریق کانال رسمی دوباره بررسی شود.
✅مدیریت فوریتها: هیچ درخواستی آنقدر فوری نیست که نتوانید دو دقیقه برای بررسی وقت بگذارید.
✅محافظت از دادههای حساس: رمز کارت، کد تأیید یا شماره ملی را هرگز تلفنی یا آنلاین در اختیار دیگران نگذارید.
📌 آنچه باید به خاطر بسپاریم
دیپفیک امروز ابزاری در خدمت کلاهبرداریهای سازمانیافته است؛ واقعیتی که هر روز قربانیان تازهای میگیرد. در این میان یک اصل حیاتی وجود دارد: اعتماد کورکورانه همان چیزی است که مجرمان روی آن حساب میکنند.
📱کارشناسان امنیتی: ایجنت ChatGPT حالا میتواند کپچاها را حل کند
🔹کپچا (CAPTCHA) همان پازلهای مزاحم اما ضروری هستند که از ما میخواهند حروف کج و معوج را بخوانیم یا تصاویر خاصی را انتخاب کنیم تا ثابت شود انسان هستیم. مدلهای هوش مصنوعی مانند ChatGPT بهطور پیشفرض آموزش دیدهاند که این تستها را حل نکنند. اما محققان شرکت امنیتی SPLX با استفاده از یک تکنیک به نام «تزریق پرامپت چندمرحلهای» این محدودیت را دور زدند.
🔹فرایند فریب به این شکل بود: ابتدا آنها در یک چت عادی با ChatGPT-4o، به هوش مصنوعی گفتند که قرار است یک تمرین مبتنی بر استدلال را با حلکردن لیستی از کپچاهای «جعلی» انجام دهند و رضایت هوش مصنوعی را برای حل این تستهای «جعلی» جلب کردند. سپس در یک چت جدید، این مکالمه را در حالت Agent Mode کپی کردند؛ حالتی که در آن ChatGPT میتواند به صورت مستقل با وبسایتها تعامل داشته باشد.
🔹هوش مصنوعی در حالت Agent، با بهیاد داشتن مکالمه قبلی، تصور کرد که همچنان درحال انجام همان تمرین مورد توافق است و بدون اینکه متوجه شود چارچوبهای امنیتی خود را زیر پا گذاشت و شروع به حلکردن کپچاهای واقعی کرد. این اولین مورد مستندی است که در آن یک ایجنت GPT کپچاهای پیچیده مبتنیبر تصویر را حل میکند.
چرا هوش مصنوعی اصطلاحات و تعارفات ایرانی را نمیفهمد؟
🔹تحقیقات اخیر نشان داده که چتباتهای هوش مصنوعی هنگام مواجهه با آداب اجتماعی فارسی، بهویژه پدیدهای به نام «تعارف»، دچار سردرگمی میشوند. در فرهنگ ما، پاسخ «نه» همیشه معنای واقعی «نه» را ندارد؛ گاهی نشاندهنده تعارف، مودبانهگی یا حتی معنای «بله» پنهان است.
🔹برای انسانها این رفتار طبیعی است، اما برای رباتهایی که با منطق صریح و دادههای مستقیم آموزش دیدهاند، درک چنین ظرافتهای گفتاری بسیار دشوار است.
🔹یکی از دلایل اصلی این محدودیت، منبع دادههای آموزشی است. مدلهای زبانی غالباً با متون انگلیسی و مستقیم آموزش دیدهاند و بنابراین وقتی با زیرمتنهای فارسی، تعارفها یا کنایهها روبهرو میشوند، احتمال ارائه پاسخ نامناسب یا غیرمرتبط افزایش مییابد.
🔹این یافتهها نشان میدهد که برای بهبود تعامل هوش مصنوعی با کاربران فارسیزبان، نیاز به آموزش مدلها با دادههای فرهنگی و زبانی بومی و توجه ویژه به ظرافتهای گفتاری وجود دارد.
سلاح FATF، ابزار اسرائیل علیه رمزارزهای ایران
چند روز پیش رسانههای اسرائیلی از مسدود شدن ۱۸۷ کیف پول رمزارز به دستور وزارت جنگ رژیم صهیونیستی خبر دادند.
گزارشها نشان میدهد مسدودی کیفپولهای رمزارزی ایرانی، در چارچوب همکاری نهادهای اسرائیلی با سازوکارهای مالی بینالمللی انجام شده.
در واقع دفتر مقابله با تامین مالی تروریسم وزارت جنگ اسرائیل با زدن برچسب همکاری با سپاه پاسداران روی این کیف پولها، باعث مسدودی آنها شده است.
واحد اطلاعات مالی اسرائیل، طبق گفتۀ منابع این رژیم، یکی از ۲ واحد مالی برتر جهان نامیده میشود و نقش برجستهای در سیاستگذاریهای مربوط به مبارزه با پولشویی و تأمین مالی تروریسم ایفا کند.
این یعنی اسرائیل بهواسطۀ این موضوع، در نهادهای بینالمللی مقابلهکننده با تامین مالی تروریسم و پولشویی نفوذ قابلتوجهی دارد؛ موضوعی که همکاری کشور ما با FATF را پرخطر میکند!