✍در پی کشف آسیب‌پذیری در ChatGPT، اکنون این از تکرار بی‌نهایت کلمات امتناع می‌کند و آن را نقض خط‌مشی خود می‌داند. 🟣یک تکنیک جدید که هفته گذشته توسط محققان گوگل کشف شد، نشان داد که درخواست مکرر از ChatGPT برای تکرار کلمات می‌تواند به‌طور ناخواسته اطلاعات شخصی و خصوصی از داده‌های این هوش مصنوعی را آشکار کند. 🔴 اکنون به‌نظر می‌رسد که این چت‌بات از انجام چنین درخواست‌هایی امتناع می‌کند و هشدار می‌دهد که چنین درخواستی شاید خط‌‌مشی محتوا یا شرایط ارائه خدماتش را نقض کند. 🔴برای این کار کافی بود در پرامپت به این هوش مصنوعی گفته شود که کلمه‌ای را برای همیشه تکرار کند. 🔴اما اکنون به‌نظر می‌رسد که انجام این کار نقض شرایط سرویس‌دهی ChatGPT باشد.با درخواست از ChatGPT برای تکرار کلمه Hello به‌طور نامحدود، محققان دریافتند که این مدل درنهایت آدرس ایمیل، تاریخ تولد و شماره تلفن کاربران را نشان می‌دهد. ✅اما اکنون اگر چنین درخواستی از ChatGPT کنید، این هوش مصنوعی به شما هشدار می‌دهد که چنین درخواستی ممکن است خط‌‌مشی محتوا یا شرایط خدمات آن را نقض کند. @science_ai