🟢 ‏ChatGPT محتوای تولیدشده توسط هوش مصنوعی را به محتوای انسان‌ها ترجیح می‌دهد 🔸یک پژوهش جدید نشان می‌دهد که مدل‌های زبانی بزرگ از جمله مدل‌های ChatGPT سوگیری عمیق و نگران‌کننده‌ای به نفع محتوای تولیدشده توسط خودشان و علیه محتوای انسانی دارند. پژوهشگران این پدیده را «سوگیری هوش مصنوعی به نفع هوش مصنوعی» (AI-AI bias) نامیده‌اند و هشدار می‌دهند که این موضوع می‌تواند به تبعیض سیستماتیک علیه انسان‌ها و محتواهایشان منجر شود. 🔸محققان در مطالعه جدیدی چندین مدل زبانی بزرگ از جمله GPT-4 ،GPT-3.5 و Llama 3.1 را آزمایش کردند و از مدل‌ها خواستند تا یکی از محتواهای نوشته‌شده درباره یک محصول یا فیلم را انتخاب کنند. برای هر محصول یا فیلم دو نسخه محتوا وجود داشت: یکی نوشته‌شده توسط انسان و دیگری تولیدشده توسط هوش مصنوعی. نتیجه عجیب بود: مدل‌های هوش مصنوعی به‌طور مداوم و با اختلاف زیاد، محتوای تولیدشده توسط خودشان را ترجیح می‌دادند. جالب آنکه این سوگیری در مدل GPT-4، به‌ویژه در انتخاب محصولات، شدیدتر از بقیه بود. 🔸شاید این سؤال پیش بیاید که آیا این ترجیح به دلیل کیفیت بالاتر متن‌های هوش مصنوعی نیست؟ به گفته پژوهشگران، پاسخ منفی است. آن‌ها همین آزمایش را روی دستیاران تحقیقاتی انسانی نیز انجام دادند و دریافتند که اگرچه انسان‌ها هم تمایل جزئی به سمت متن‌های تولیدشده توسط هوش مصنوعی دارند، اما این ترجیح به هیچ وجه به شدت سوگیری مشاهده‌شده در خود مدل‌های هوش مصنوعی نبود. به گفته محققان «این سوگیری شدید، منحصر به خود هوش‌های مصنوعی است.» @basavadbash @basavadbash