eitaa logo
خبرگزاری سایبربان | Cyberbannews
1.8هزار دنبال‌کننده
5.7هزار عکس
564 ویدیو
21 فایل
دیده بان سایبری ایران🇮🇷 مرجع تخصصی امور سایبری©️ نخستین موسسه اطلاع رسانی امور سایبری در ایران📨 سایت: https://www.cyberbannews.com روابط عمومی و تبلیغات: @admin1814
مشاهده در ایتا
دانلود
🌐اChatGPT بدافزارهای پیچیده‌ای می‌سازد که ابزارهای امنیتی قادر به شناسایی آن‌ها نیستند 🔸چت‌بات هوش مصنوعی ChaGPT قابلیت‌های زیادی دارد و ظاهراً یکی از این مهارت‌ها، نوشتن بدافزارهایی است که می‌توانند رایانه‌های هدف را نابود کنند. 🔸به گزارش کارگروه امنیت سایبربان ؛ ChatGPT، چت‌بات مبتنی‌بر هوش مصنوعی با استعدادی است که مهارت‌های آن در انجام کارهای مختلف باعث شده است در چند ماه اخیر به‌شدت مورد توجه رسانه‌ها، کاربران و شرکت‌های بزرگ فناوری قرار گیرد. اکنون به‌نظر می‌رسد این ابزار در ساخت بدافزارهای پیچیده‌ نیز توانایی زیادی دارد. 🔸گزارش شرکت امنیتی CyberArk نشان می‌دهد چت‌بات ChatGPT که OpenAI آن را توسعه داده است، عملکرد بسیار خوبی در ساخت بدافزارها دارد. گفته‌ می‌شود بدافزارهایی که این هوش مصنوعی ایجاد کرده است، می‌توانند آسیب‌های زیادی به سخت‌افزارهای هدف وارد کنند. متخصصان Infosec سعی کرده‌اند درمورد قابلیت‌های این ابزار جدید مبتنی‌بر هوش مصنوعی در گسترش جرایم سایبری، زنگ خطر را به‌صدا درآورند. البته درحال‌حاضر این چت‌بات به‌طور گسترده برای ایجاد انواع بدافزارهای پیچیده مورد استفاده قرار نگرفته است... Www.cyberbannews.com 🆔 @cyberbannews_ir
🌐 هشدار محققان سایبری در مورد ایجاد بدافزار چندوجهی ChatGPT 🔸محققان امنیت سایبری هشدار دادند که «ChatGPT» می‌تواند بدافزار چندوجهی ایجاد کند. 🔸به گزارش کارگروه بین‌الملل سایبربان؛ باورش سخت است که «ChatGPT»، پیشرفته‌ترین چت‌بات هوش مصنوعی در سال 2022، تنها چند ماه است که با محققان بوده است. به نظر می‌رسد که همه از این چت‌بات برای کارهای مختلفی، از مذاکره برای معاملات تا خلق آثار هنری اشعار موسیقی پاپ، استفاده می‌کنند. اما این فناوری جدید هیجان‌انگیز پتانسیل زیادی برای خطر نیز دارد. شرکت امنیت سایبری اسرائیلی «CyberArk» نسبت به توانایی پیشرفته این برنامه برای نوشتن بدافزارهای پیچیده هشدار داد... ▶️ ادامه خبر را در سایت بخوانید: https://adr3.ir/J3h 🆔 @cyberbannews_ir
🌐هکرها از چت‌بات هوش مصنوعی بینگ برای سرقت اطلاعات شخصی کاربران استفاده می‌کنند 🔹به گفته‌ی محققان، هکرها می‌توانند چت‌بات بینگ جدید مایکروسافت وادار کنند تا اطلاعات شخصی کاربری که با آن تعامل دارد را بدون‌ اطلاع وی دراختیار آن‌ها قرار دهد. 🔹 یک تیم تحقیقاتی با بررسی‌های خود روی بینگ جدید نشان دادند گفت‌وگو با این هوش مصنوعی به‌راحتی تحت‌تأثیر پیام‌های متنی تعبیه‌شده در صفحات وب قرار می‌گیرد و بنابراین یک هکر می‌تواند درخواست خود را با فونتی به‌ابعاد صفر در یک صفحه‌ی وب قرار دهد و زمانی‌که شخصی از چت‌بات سؤالی بپرسد که این هوش مصنوعی به صفحه‌ی وب موردنظر مراجعه کند، به‌طور ناخودآگاه درخواست آن‌ها را فعال خواهد کرد. 🔹️ محققان این نوع حمله را «تزریق سریع غیرمستقیم» نامیده‌اند. 🆔️ @cyberbannews_ir
🌐شبکه خبر، در اشتباهی ، هوش مصنوعی ChatGPT را یک پیام‌رسان معرفی کرد! 😂 شبکه خبر عزیز هوش مصنوعی ChatGPT یک بات مکالمه است که توسط شرکت OpenAI توسعه یافته‌ است. 📡 @cyberbannews_ir
💔هوش مصنوعی ممکن است شغل و دوست شما را بدزدد! 🔹یکی از حوزه‌هایی که هوش مصنوعی در حال حاضر در آن انقلابی به پا کرده روابط شخصی است. "آدام مینتر" ستون نویس "بلومبرگ" می‌گوید در پنج یا چند سال گذشته تعداد تکان دهنده‌ای از شهروندان چینی از لحاظ عاطفی به همراهان چت بات وابسته شده‌اند. 📡 @cyberbannews_ir
🌐اینستاگرام احتمالاً به‌زودی به چت‌بات هوش مصنوعی مجهز می‌شود 🔹 یک اسکرین‌شات که توسط منبعی به نام «الساندرو پالوزی» توییت شده است، اطلاعاتی درباره این چت‌بات در اختیارمان قرار می‌دهد؛ اطلاعاتی مانند امکان گفت‌وگو با 30 شخصیت هوش مصنوعی مختلف. 🔹طبق اسکرین‌شات منتشرشده، چت‌بات اینستاگرام می‌تواند به سؤالات جواب داده و همچنین به شما مشاوره دهد. 🔹یکی دیگر از ویژگی‌هایی که چت‌بات شبکه اجتماعی متا در اختیارتان قرار می‌دهد، کمک به شما برای نوشتن پیام‌های بهتر است. درحقیقت این چت‌بات به خلاقیت شما کمک می‌کند. 🔵موسسه اطلاع رسانی سایبربان👇 📡@cyberbannews_ir
🌐 چت‌بات WormGPT از راه رسید؛ نسخه متفاوت ChatGPT برای اعمال مجرمانه و هک 🔹️ یک هکر دست به خلق نسخه خاصی از چت‌بات هوش مصنوعی ChatGPT با نام WormGPT زده که تفاوتی اساسی با نرم‌افزار شرکت OpenAI دارد. این چت‌بات برای همراهی با مجرمان سایبری ساخته شده و هیچ حدومرز اخلاقی ندارد. این برنامه می‌تواند برای تولید بدافزار و تولید حملات فیشینگ استفاده شود. 🔹️ شرکت SlashNext می‌گوید در آزمایشی که با این چت‌بات داشته، توانسته است یک حمله فیشینگ را شبیه‌سازی کند و نتایج کار شگفت‌انگیز بوده است. 🔹️ البته خوشبختانه دسترسی به WormGPT چندان ارزان نیست و برای استفاده از این چت‌بات باید ماهانه ۶٠ یورو یا سالانه ۵۵٠ یورو هزینه بپردازید. ➖➖➖➖➖ 🔵مــوسـسـه اطـلاع رســانی ســایبربان👇 📡@cyberbannews_ir
📱چت‌بات‌ها چگونه شبیه انسان‌ها با ما صحبت می‌کنند؟ 🔘 چت‌بات‌ها می‌توانند کارهای مختلفی برای ما انجام دهند؛ از صحبت‌کردن ساده گرفته تا ارائه اطلاعات درباره موضوع خاص یا خلاصه‌کردن مقالات، برخی از این چت‌بات‌ها به اندازه‌ای پیشرفته هستند که فکر نمی‌کنید ... |ادامه این خبر را در سایت بخوانید| ➖➖➖➖➖ 🔵مــوسـسـه اطـلاع رســانی ســایبربان 👇 📡 @cyberbannews_ir
🌐چت با شخصیت های بزرگ تاریخ 🔷این سایت از پیشرفته ترین فناوری هوش مصنوعی gpt-4 استفاده می کند تا چهره های تاریخی را زنده کند و مکالمات را معتبر جلوه دهد. هر مکالمه کاملا منحصر به فرد است و به شما امکان می دهد با شخصیت تاریخی مورد نظر خود تعامل عمیق و شخصی داشته باشید. به سادگی یک شکل از طیف گسترده گزینه ها انتخاب کنید و مکالمه را شروع کنید. 🔷شما می توانید سوال بپرسید، بحث کنید، یا حتی با شخصیت های تاریخی در مورد موضوعات مختلف مناظره کنید و بینش ها و دیدگاه های جدیدی در مورد تاریخ و زندگی به دست آورید. فناوری هوش مصنوعی ما تضمین می‌کند که هر مکالمه متناسب با علایق شما است و آن را به یک تجربه فراگیر و آموزشی تبدیل می‌کند. این هوش مصنوعی هم در سایت آنلاین و هم برای اندروید و اپل در دسترس است. 📎 Site: portal.humy.ai/ai/library 🔹 چت با مسیح 🔹چت با کوروش کبیر 🔹 چت با مولانا 🔹 چت با خوارزمی 🔹چت با آبراهام لینکلن و ... 📲سایبربان @cyberbannews_ir
🌐هشدار کارشناسان درمورد عدم ارائه اطلاعات به چت‌بات‌ها 🔹 کارشناسان سایبری نسبت به ارائه اطلاعات به چت‌بات‌ها هشدار دادند، حتی اگر بی‌ضرر به نظر برسد. 🔹ربات‌های چت مانند «ChatGPT» متعلق به «OpenAI» برای آسان‌تر کردن زندگی شما طراحی شده‌اند. 🔹آنها می‌توانند به سؤالات پیچیده پاسخ و حتی وظایف را به شیوه‌ای انسانی انجام دهند؛ بنابراین ممکن است هر از چند گاهی وسوسه‌انگیز باشد که چیزهایی را در مورد خودتان فاش کنید، از جمله نامتان، اما باید به هر قیمتی از آن اجتناب کنید. 📎 گزارش کامل 📲 سایبربان @cyberbannews_ir