🔺 #فوری #فوری 🔺 #هشدار_مهم
#مراقب_هک_شدن_ایتای_خود_باشید!
⬆️ #چت_ها_را_بخوانید
‼️بتازگی(امشب)، کاربری ناشناس، خیلی طبیعی، با آرم #ایتا و با عنوان #پشتیبان_ایتا و با این عنوان که فعالیت های بنده در ایتا آزار دهنده تشخیص داده شده و پشتیبانی ایتا هم تایید کرده، مدعی شد شماره من تا ۲۴ ساعت دیگر #مسدود و فیلتر می شود! و در #خصوصی از من درخواست #شماره_تلفن و #کد_تأیید کرد، که من هم با بهانه های مختلف وی را سرکار گذاشتم!
⛔ مشخصا هدف این فرد و افراد مشابه #هک، نفوذ و جاسوسی، کلاهبرداری، اخاذی، خرابکاری و... می باشد.
♦️ #هوشیار_باشید و #اطلاع_رسانی کنید.
🔺به دوستان پشتیبانی ایتا هم اطلاع دادم. ان شاءالله که پیگیری جدی شود. نباید اجازه داد این پیام رسان بومی و خوب، محل جولان این افراد شیاد شود.
🔺مراقب باشید با بهانه های مختلف کد ایتای خود (و در کل کدهای دریافتی در گوشی از جمله کد سایر نرم افزارها، کدهای بانکی و...) را در اختیار هیچ فردی قرار ندهید تا از اطلاعات شما سوءاستفاده نشود.
#سید_مسعود_موسوی
#مراقب_نفوذ_باشید
#سواد_رسانه_ای
#نبرد_ما
ارسالی
در حمله چین، افرادی تحت عنوان ارتش سایبری، تعدادی از مدلهایی که قرار بوده در سیستم مالی چین و آمریکا تقلب را شناسایی کنند را مورد تمرکز قرار دادند. این هکرها سعی کردند منبع این دادهها را سمی کنند. بهعنوانمثال دادههای موجود در گیتهاب را به این صورت آلوده کردند که بهصورت خیلی ظریف، رفتار درست را بهعنوان رفتار غلط برچسب زدند و با توجه به وجود انبوهی از اطلاعات، انسان نمیتوانست این موضوع تشخیص دهد.هدف اصلی این عملیات، وقوع یک فلج سراسری در حوزه مالی بود و در نتیجه آن بخش مربوط تشخیص تقلب در برخی از بانکهای بزرگ دنیا مورد حمله قرار گرفت و طی ۶ ماه، تمام خروجیهای آن آلوده شد. وزارت دفاع چین البته اعلام کرد این یک آزمایش و مانور بوده است.این سیستم جوری عمل کرده که حملات خاص و الگوهای خاصی از تقلب را عبور داده و برچسب مثبت به آن زده است. این حمله باعث شد که مجموعه کل دادههایی که برای آموزش استفاده شده را کنار بگذارند و دوباره مجدد کار آموزش را انجام دهند.

زبان مادری هوشمصنوعی، دادههای ماست
ما درگذشته هوش مصنوعی را به عنوان یک واژه کلی داشتیم که یادگیری ماشین یک بخش آن بود بخشهای دیگری هم داشت. از سال ۲۰۰۶ که مفهوم یادگیری عمیق توسعه پیدا کرد و لایههای بیشتری در شبکهها ایجاد شدند دست ما خیلی باز شد. در سال ۲۰۰۶ بهخاطر فناوریهای خاصی که در حوزه پردازشگر ایجاد شد و شرکت اینتل توانست معماری موازی را توسعه دهد قدرت محاسباتی ما بهشدت افزایش یافت و ما میتوانستیم مسائل پیچیدهتر را حل کنیم و نهایتا منجر شد به یادگیری عمیق که گوگل اولینبار استفاده کرد.بعد از اینکه یادگیری عمیق توسعه پیدا کرد مفهوم هوشمصنوعی مولد شاید در سال ۲۰۱۴ مطرح شد.هوش مصنوعی مولد (Generative AI) همانطور که از اسم آن مشخص است، مولد است؛ یعنی میتواند رفتاری را تقلید کند و بسیار شبیه به آن رفتار را انجام دهد. در واقع چتجیپیتی و تمام ابزارهایی که در حال حاضر میبینید که از جنس هوش مصنوعی مولد هستند ابزارهایی هستند که تعداد زیادی رفتارهای برچسب زده شده از انسان، کتابها، ویدئوها و صداها جمعآوری کردند و نهایتا آنها را تقلید میکنند. در واقع زبان مادری هوشمصنوعی مولد، هر آن چیزی هست که ما در اینترنت قرار دادهایم.
این یک خطر بزرگ است
شاید اولین اتفاقی که در حوزه این تکنولوژی افتاد، تهاجم بود و ما یک حجم فزایندهای در خصوص فیشینگ، بدافزارهای جدید و تقلید رفتارهای پیچیده بدافزار را داشتیم. کاری که هوش مصنوعی مولد در حوزه تهاجم انجام میدهد هم بحث بدافزار است، هم فیشینگ.
قبلا در فیشینگ، یک ایمیل سفارشیشده برای افراد زیادی ارسال میشد؛ اما ما در حال حاضر مواجه شدیم با مجموعهای از فیشینگها که بهصورت هدفمند مدیران ارشد صنایع مختلف و مخصوص صنایع مالی را هدف قرار میدهد. ویس، ویدئو و عکس تمام افرادی که در اینجا سخنرانی کردند در اینترنت است و ساختن یک آواتار که بتواند متنی شبیه صحبتکردن این فرد یا صدای آنها را تولید کند بسیار آسان است. بهعنوانمثال تصور کنید در حال حاضر همینجا نشستهاید و یک پیام در واتساپ برای شما بیاید که مثلا درخواست پول دارد و وقتی پیام صوتی را هم گوش میکنید، صدای همین فرد است.

از طرفی چتجیپیتی میتواند کدهای مختلف تولید و آسیبپذیری آن را بررسی و شبیه کدهای آلوده را برای شما تولید کند. در یک تحقیق مجموعه زیادی از بدافزارها به شکلهای کاملا خلاقانه توسط هوشمصنوعی تولید شده بهطوری که حتی به نمونه اولیهای که به آن داده شده، شباهت چندانی نداشت. این خیلی خطر بزرگی است یعنی شما با مجموعهای از ابزارهای جاسوسی مواجه میشوید که حملات منع سرویس و انواع حملات سایبری دیگر بر اساس آنها اتفاق میافتد.در برابر این تهدید بسیار مهم چه باید کرد؟در بخش دوم به تدابیر فنی و حکمرانی در مقابله با این تهدید خواهیم پرداخت.#هوش_مصنوعی#حمله_سایبری#هک#مدل_زبانی_بزرگ#LLM#خطرات_هوش_مصنوعی