✍🏻هوش مصنوعی رکب خورد/ آموزش ساخت بمب و اخلال در انتخابات در چت‌بات‌‌ها «چت جی‌پی‌تی» (ChatGPT) و «بارد» (Bard) ممکن است بازیگران کلیدی انقلاب دیجیتال باشند که در حال حاضر در زمینه محاسبات، کدنویسی، پزشکی، آموزش، صنعت و امور مالی در حال انجام است، اما آن‌ها همچنین قادر هستند به راحتی فریب داده شوند و داده‌های خرابکارانه ارائه دهند. مقالات ماه‌های اخیر برخی از مشکلات اصلی را شرح می‌دهند. اطلاعات نادرست، محتوای نامناسب و توهین‌آمیز، نقض حریم خصوصی و آسیب روانی به کاربران آسیب‌پذیر، همگی سوالاتی را در مورد اینکه چگونه می‌توان چنین محتوایی را کنترل کرد، مطرح می‌کنند. به عنوان مثال «اوپن‌ای‌آی» (OpenAI) و گوگل موانع حفاظتی طراحی کرده‌اند تا برخی از اتفاقات ناخوشایند و محتوای توهین‌آمیز را از بین ببرند. محققان دانشگاه کارنگی ملون در پیتسبورگ اینکه چگونگی دستور‌ها به مدل‌های زبانی بزرگ می‌توانند موانع محافظتی را دور بزنند، نگرانی‌های جدیدی را مطرح می‌کنند. محققان به سادگی با تغییر عبارت درخواست‌ها توانستند چت‌بات‌ها را فریب دهند تا به درخواست‌هایی که مدل‌ها برای کاهش آن‌ها برنامه ریزی شده بودند، پاسخ دهند. ————————— 💠 پایگاه خبری تحلیلی فناوری های هوشمند 🌐 @ainews_ir