✍🏻هوش مصنوعی رکب خورد/ آموزش ساخت بمب و اخلال در انتخابات در چتباتها
«چت جیپیتی» (ChatGPT) و «بارد» (Bard) ممکن است بازیگران کلیدی انقلاب دیجیتال باشند که در حال حاضر در زمینه محاسبات، کدنویسی، پزشکی، آموزش، صنعت و امور مالی در حال انجام است، اما آنها همچنین قادر هستند به راحتی فریب داده شوند و دادههای خرابکارانه ارائه دهند.
مقالات ماههای اخیر برخی از مشکلات اصلی را شرح میدهند. اطلاعات نادرست، محتوای نامناسب و توهینآمیز، نقض حریم خصوصی و آسیب روانی به کاربران آسیبپذیر، همگی سوالاتی را در مورد اینکه چگونه میتوان چنین محتوایی را کنترل کرد، مطرح میکنند.
به عنوان مثال «اوپنایآی» (OpenAI) و گوگل موانع حفاظتی طراحی کردهاند تا برخی از اتفاقات ناخوشایند و محتوای توهینآمیز را از بین ببرند.
محققان دانشگاه کارنگی ملون در پیتسبورگ اینکه چگونگی دستورها به مدلهای زبانی بزرگ میتوانند موانع محافظتی را دور بزنند، نگرانیهای جدیدی را مطرح میکنند. محققان به سادگی با تغییر عبارت درخواستها توانستند چتباتها را فریب دهند تا به درخواستهایی که مدلها برای کاهش آنها برنامه ریزی شده بودند، پاسخ دهند.
—————————
💠 پایگاه خبری تحلیلی فناوری های هوشمند
🌐
@ainews_ir