eitaa logo
سلسله🌴🔥
1.5هزار دنبال‌کننده
111.1هزار عکس
152.1هزار ویدیو
439 فایل
سلسله: آل، دودمان، طایفه، قبیله، گروه، دسته، فرقه، حلقه، زنجیر، رشته، سری، ردیف، صف، اتصال، پیوند. با«سلسله» باشید تا بهترین ها را از دنیای اطلاعات ایران و جهان دریافت کنید. جهت ارتباط با مدیر کانال (انتقاد و پیشنهاد) https://eitaa.com/wahed_14
مشاهده در ایتا
دانلود
⭕️محققان هشدار جدی ‌درباره “ فروپاشی مدل"در برنامه هایی که از هوش مصنوعی استفاده می‌کنند، دادند 🔺در اصل، فروپاشی مدل زمانی اتفاق می‌افتد که داده‌هایی که مدل‌های هوش مصنوعی تولید می‌کنند، مجموعه آموزشی را برای مدل‌های بعدی آلوده می‌کنن به این معنی که اطلاعات اشتباه و درست با هم میکس خواهند شد 👤شومیلوف توضیح داد: «داده‌های اصلی تولید شده توسط انسان، جهان را منصفانه‌تر نشان می‌دهند، یعنی حاوی داده‌های غیرمحتملی نیز هستند». از سوی دیگر، مدل‌های مولد تمایل دارند برای داده‌های رایج بیش از حد مناسب باشند و اغلب داده‌های کمتر محبوب را به اشتباه می‌فهمند/نادرست نشان می‌دهند.» Shumailov این مشکل را برای VentureBeat با یک سناریوی فرضی نشان داد، که در آن یک مدل یادگیری ماشینی بر روی مجموعه داده ای با تصاویر 100 گربه آموزش داده می شود - 10 تای آنها با خز آبی و 90 گربه با رنگ زرد. این مدل می‌آموزد که گربه‌های زرد رایج‌تر هستند، اما همچنین گربه‌های آبی را زردتر از آنچه واقعا هستند نشان می‌دهد، و زمانی که از آنها خواسته می‌شود داده‌های جدید تولید کنند، برخی از نتایج گربه سبز را نشان می‌دهد. با گذشت زمان، صفت اصلی خز آبی از طریق چرخه های تمرینی متوالی فرسایش می یابد و از آبی به سبز و در نهایت زرد می شود. این اعوجاج پیشرونده و از دست دادن نهایی ویژگی های داده های اقلیت، فروپاشی مدل است. برای جلوگیری از این امر، اطمینان از نمایش عادلانه گروه های اقلیت در مجموعه داده ها، از نظر کمیت و نمایش دقیق ویژگی های متمایز، مهم است. این کار به دلیل مشکل یادگیری مدل ها از رویدادهای نادر چالش برانگیز است. 🔺این "آلودگی" با داده های تولید شده توسط هوش مصنوعی منجر به این می شود که مدل ها درک تحریف شده ای از واقعیت به دست آورند. حتی زمانی که محققان به مدل‌ها آموزش دادند که پاسخ‌های تکرار شونده زیادی تولید نکنند، متوجه شدند که فروپاشی مدل همچنان رخ می‌دهد، زیرا مدل‌ها شروع به ساختن پاسخ‌های اشتباه می‌کنند تا از تکرار بیش از حد داده‌ها جلوگیری کنن 👤راس اندرسون، استاد مهندسی امنیت در دانشگاه کمبریج و دانشگاه ادینبورگ، در یک پست وبلاگی در مورد مقاله نوشت: «همانطور که اقیانوس ها را با زباله های پلاستیکی پر کرده ایم و جو را با کربن پر کرده ایم. دی اکسید، بنابراین ما در شرف پر کردن اینترنت هستیم. این کار آموزش مدل‌های جدیدتر را با خراش دادن وب سخت‌تر می‌کند و به شرکت‌هایی که قبلاً این کار را انجام داده‌اند یا دسترسی به رابط‌های انسانی را در مقیاس مقیاس کنترل می‌کنند، مزیت خواهد داشت. در واقع، ما قبلاً شاهد هستیم که استارت‌آپ‌های هوش مصنوعی بایگانی اینترنت را برای آموزش داده‌ها چکش می‌کنند.» 👤تد چیانگ، نویسنده تحسین‌شده علمی تخیلی «داستان زندگی تو»، رمانی که الهام‌بخش فیلم ورود است، و نویسنده‌ای در مایکروسافت، اخیراً قطعه‌ای را در نیویورکر منتشر کرده است که در آن فرض می‌شود کپی‌هایی با هوش مصنوعی از کپی‌ها منجر به کیفیت پایین‌تر می‌شوند. تشبیه مشکل به افزایش مصنوعات قابل مشاهده در هنگام کپی کردن مکرر یک تصویر JPEG. 🔺راه دیگری برای فکر کردن به این مشکل مانند فیلم کمدی علمی-تخیلی Multiplicity در سال 1996 با بازی مایکل کیتون است که در آن مردی فروتن خود را شبیه سازی می کند و سپس کلون ها را شبیه سازی می کند که هر کدام منجر به کاهش تصاعدی سطح هوش و افزایش حماقت می شود. ✅ @A_purm