هکرها از طریق کدام دسته از نرم افزارها بیشترین سرقت را از جیب مردم انجام میدهند؟
معاون اجتماعی پلیس فتا : یکی از روشهای سوء استفاده هکرها از اطلاعات شخصی مردم (مانند اطلاعات بانکی) ارسال لینکها و نرمافزارهای بانکی غیر رسمی است.
مردم نیز به دلیل برخی بیاطلاعیهای فنی از ابعاد این مسئله، به راحتی در دام این افراد میافتند. بیشترین آسیب نیز در اپلیکیشنهای بانکی است.
اپ استورهای خارجی نیز مرجع مناسبی برای دریافت اپلیکیشنهای بانکی نیستند. گوگل پلی سال گذشته اعلام کرد که با وجود تلاش زیادی که داشتیم نزدیک به ۶۰۰۰ بدافزار مخرب در اپ استور گوگل منتشر شد.
همچنین دانلود نرم افزار بانکی از طریق «سرچ اینترنتی» و یا «اپلیکیشنهای موجود در شبکههای اجتماعی» نیز از جمله عوامل کلاهبرداری از مردم بوده است.
پیشنهاد ما به مردم این است که از طریق اپ استورهای مجاز داخلی اقدام به نصب نرم افزارهای بانکی کنند؛ پلیس فتا روی این اپ استورها نظارت کامل و دقیقی دارد.
26.12M حجم رسانه بالاست
مشاهده در ایتا
چرا نمایشگر گوشی ها، ما را غمگین تر کرده اند؟
صحبت های« آدام آلتر» نویسنده کتاب «بازداشتگاه صورتی» درباره تاثیرات تلفن همراه روی زندگیمان
⏺ *رد درخواست صدور حق کپی رایت برای هوش مصنوعی در آمریکا*
🔹 دادگاهی در ایالات متحده اعلام کرد، به آثار هنری تولیدشده توسط هوش مصنوعی بدون مشارکت انسانی، تحت قانون این کشور، حق کپی رایت تعلق نمیگیرد. بنا به رأی این دادگاه، فقط آثاری که انسانها خلق کرده باشند، مشمول دریافت این حق هستند.
🔹 این تصمیم در پی رد درخواست استفان تالر، برای ثبت حق کپی رایت آثار تولید شده با استفاده از هوش مصنوعی توسعه یافته توسط خودش، موسوم به «DABUS» و طرح شکایت وی در این خصوص اتخاذ شد.
🔻 تالر در نقاط دیگر جهان از جمله بریتانیا، آفریقای جنوبی، استرالیا و عربستان سعودی نیز پروندههای قضایی مشابهی را تشکیل داده و خواستار رسمیت یافتن حق کپی رایت برای آثار تولید شده با استفاده از سیستمهای مبتنی بر این فناوری شده است.
▫️ادعای مایکروسافت علیه چین: تاثیرگذاری بر رایدهندگان آمریکایی با هوش مصنوعی مولد:
مایکروسافت میگوید مشکوک است که چین به منظور تاثیر گذاری بر رای دهندگان آمریکایی، سرگرم استفاده از هوشمصنوعی مولد برای پخش اطلاعات از طریق حسابهای کاربری جعلی رسانههایاجتماعی باشد.
طبق اعلام OpenAI، هیچکدام از ابزارهای تشخیص محتوای هوش مصنوعی نمیتوانند متنهای تولیدشده با هوش مصنوعی را شناسایی کنند
در بخشی از سؤالات متداول OpenAI با عنوان «آیا آشکارسازهای هوش مصنوعی کار میکنند؟» آمده است:
بهطور خلاصه خیر؛ درحالیکه برخی شرکتها ازجمله OpenAI ابزارهای منتشر کردهاند که ادعا میشود محتوای ساختهشده با هوش مصنوعی را شناسایی میکنند، هیچکدام از این ابزارها ثابتشده نیستند و محتوای تولیدشده با هوش مصنوعی و محتوایی تولید انسان را نمیتواند تشخیص دهد.
این شرکت پیشازاین ابزار آزمایشی خود که برای همین کار ساخته شده بود، متوقف کرد؛ زیرا میزان دقتش در سطح نامطلوب ۲۶ درصد قرار داشت.
پرسشهای متداول OpenAI به تصور اشتباه بزرگ دیگری نیز اشاره میکند که نشان میدهد ChatGPT میتواند متنهای ساختهشده با هوش مصنوعی را تشخیص دهد. این شرکت میگوید: چت جی پی تی دربارهی محتوای تولید هوش مصنوعی دانشی ندارد و گاهی به سؤالاتی مثل «آیا این مقاله را تو نوشتهای؟» اینگونه پاسخ میدهد: «شاید این متن را هوش مصنوعی نوشته باشد.» البته این پاسخ تصادفی است و مبنای دقیقی ندارد.
افزونبراین، OpenAI به وجود اطلاعات نادرست در موتور هوش مصنوعی خود اشاره میکند و میگوید:
گاهی اوقات ChatGPT قانعکننده بهنظر میرسد؛ اما شاید اطلاعات نادرست یا گمراهکنندهای به شما ارائه دهد. حتی گاهی اوقات این هوش مصنوعی میتواند نقلقولهای نادرستی بسازد؛ بنابراین، نباید از آن بهعنوان تنها منبع خود استفاده کنید.
هفت کاربرد اصلی هوش مصنوعی در حوزه نظامی و دفاعی
۱- رابط میان انسان و رایانه: از آنجایی که هوش مصنوعی مولد در بهترین حالت قدرت فهم انسان و زبان برنامهنویسی را بهطور توامان دارد، میتواند به تحلیلگران کمک کند که حجم زیادی از اطلاعات را مدت زمان کوتاهتری هضم کند. واحدهای نظامی باید بتوانند برنامهای مشابه چتجیپیتی طراحی کنند که در یک سیستم رزمی مشترک قابلیت استفاده داشته باشد و ماموریتها را برنامهریزی کند، اهداف را تعیین کند و با آنها درگیر شود.
۲- تصمیمگیری: از آنجا که چتجیپیتی میتواند ماموریتها را برنامهریزی کند، اهداف را تعیین کند و با آنها درگیر شود، ارتش خلق چین در تلاش است تا مقادیر زیادی از اطلاعات را پردازش کند و از هوش مصنوعی مولد برای کمک به فرماندهان کمک کند تا به سرعت بهترین طرح جنگی را برای عملیات رزمی انتخاب کنند و به تمرکززدایی در فرماندهی دست پیدا کند.
۳- در حوزه جنگ رسانهای و عملیات نفوذ: هوش مصنوعی مولد میتواند به هکرها کمک کند تا فعالیتهای «طراحی، نوشتن و بهکارگیری کدهای مخرب، ایجاد رباتها و وبسایتهای جعلی برای فریب کاربران جهت به اشتراکگذاری اطلاعات، راهاندازی عملیات فریب و کلاهبرداری فیشینگ» انجام دهند. این ابزارهای تهاجمی ممکن است آنقدر پیشرفته شوند که توسعه سامانههای هوش مصنوعی تنها راه دفاع در برابر آنها باشد.
۴- در حوزه جنگ شناختی استفاده از هوش مصنوعی مولد میتواند حجم زیادی از اخبار جعلی، تصاویر و ویدیوهای بهظاهر واقعی تولید کند که در زمان بحران برای به آشوب کشیدن افکار عمومی استفاده شود.
۵- لجستیک: هوش مصنوعی مولد میتواند به تخصیص منابع، مدیریت انبارها و منابع، برنامهریزی مسیرهای عرضه و یافتن سریعتر ناکارآمدیها کمک کند. از هوش مصنوعی میتوان برای پیشبینی نیازهای آتی و ایجاد بودجه برای خرید منابع استفاده کرد.
۶- صنایع فضایی: در جو زمین اجسام با سرعتی بسیار بیشتر از سرعت صوت حرکت میکنند. هوش مصنوعی مولد میتواند به نظارت بر ایمنی ماهوارهها کمک کند و همچنین به مهندسان این حوزه در طراحی وسایل نقلیه بهتر و پرتابگرهای پیشرفتهتر کمک کند.
۷- شبیهسازی: هوش مصنوعی مولد میتواند به فرایند آموزش و تمرین نیروهای نظامی کمک زیادی کند و با شبیهسازی فرایند جنگ با استفاده از دادههای اطلاعاتی خود امکان آموزش بهتر نیروها را فراهم کند.
استفاده متقابل از هوش مصنوعی برای امنیت و ناامنی سایبری
https://gerdab.ir/0009YH
دادگاه تخصصی جزائی که نهاد قضائی مبارزه با تروریسم در عربستان سعودی است,محمد الغامدی معلم بازنشسته ۵۴ ساله عربستانی را در اتهامات مختلفی مرتبط با فعالیت آنلاینش شامل توئیت،رییتوئیت و فعالیتهای یوتیوبی مجرم شناخته و او را به اعدام محکوم کرد.یکی از دو حساب کاربری آقای الغامدی که مورد نظر دادگاه قرار گرفتهاند، تنها ۲ دنبال کننده و دیگری ۸ دنبال کننده دارد!
افزایش 34 درصدی مصرف آب مایکروسافت بخاطر هوش مصنوعی: مصرف 6.4 میلیارد لیتر در سال ۲۰۲۲
🔺 مایکروسافت و گوگل با انتشار گزارش زیستمحیطی خود، به افزایش مصرف آب بهدلیل استفاده از فناوری هوش مصنوعی اشاره کردهاند. مایکروسافت افزایش 34 درصدی مصرف آب از سال 2021 تا 2022 را گزارش کرده که از مصرف نزدیک به 6.4 میلیارد لیتر آب خبر میدهد. گوگل هم افزایش 20 درصدی مصرف آب را تجربه کرده است.
🔹 آموزش مدلهای هوش مصنوعی نیاز به آب زیادی دارد. برای مثال طبق گزارشی در اوایل 2022، برای آموزش ChatGPT-3 حدود 700 هزار لیتر آب مصرف شده است. در این تحقیق همچنین تخمین زده شده بود که ChatGPT برای اینکه یک گفتوگو 25 تا 50 سؤالی با یک کاربر داشته باشد، به اندازه یک بطری 500 میلیلیتری آب مصرف میکند.
برایان آرمسترانگ، مدیرعامل صرافی کوینبیس با اشاره به اینکه سیاستهای فعلی آمریکا در مورد ارزهای دیجیتال باعث بوجود آمدن شکافی میان نیازهای کاربران آمریکایی و رویکرد دولت این کشور شده,گفته: به دلیل همین شکاف، ارزهای دیجیتال به یکی از داغترین موضوعات انتخابات آمریکا تبدیل خواهد شد.
https://gerdab.ir/0009Ys