⭕️محققان هشدار جدی درباره “ فروپاشی مدل"در برنامه هایی که از هوش مصنوعی استفاده میکنند، دادند
🔺در اصل، فروپاشی مدل زمانی اتفاق میافتد که دادههایی که مدلهای هوش مصنوعی تولید میکنند، مجموعه آموزشی را برای مدلهای بعدی آلوده میکنن به این معنی که اطلاعات اشتباه و درست با هم میکس خواهند شد
👤شومیلوف توضیح داد: «دادههای اصلی تولید شده توسط انسان، جهان را منصفانهتر نشان میدهند، یعنی حاوی دادههای غیرمحتملی نیز هستند». از سوی دیگر، مدلهای مولد تمایل دارند برای دادههای رایج بیش از حد مناسب باشند و اغلب دادههای کمتر محبوب را به اشتباه میفهمند/نادرست نشان میدهند.»
Shumailov این مشکل را برای VentureBeat با یک سناریوی فرضی نشان داد، که در آن یک مدل یادگیری ماشینی بر روی مجموعه داده ای با تصاویر 100 گربه آموزش داده می شود - 10 تای آنها با خز آبی و 90 گربه با رنگ زرد. این مدل میآموزد که گربههای زرد رایجتر هستند، اما همچنین گربههای آبی را زردتر از آنچه واقعا هستند نشان میدهد، و زمانی که از آنها خواسته میشود دادههای جدید تولید کنند، برخی از نتایج گربه سبز را نشان میدهد. با گذشت زمان، صفت اصلی خز آبی از طریق چرخه های تمرینی متوالی فرسایش می یابد و از آبی به سبز و در نهایت زرد می شود. این اعوجاج پیشرونده و از دست دادن نهایی ویژگی های داده های اقلیت، فروپاشی مدل است. برای جلوگیری از این امر، اطمینان از نمایش عادلانه گروه های اقلیت در مجموعه داده ها، از نظر کمیت و نمایش دقیق ویژگی های متمایز، مهم است. این کار به دلیل مشکل یادگیری مدل ها از رویدادهای نادر چالش برانگیز است.
🔺این "آلودگی" با داده های تولید شده توسط هوش مصنوعی منجر به این می شود که مدل ها درک تحریف شده ای از واقعیت به دست آورند. حتی زمانی که محققان به مدلها آموزش دادند که پاسخهای تکرار شونده زیادی تولید نکنند، متوجه شدند که فروپاشی مدل همچنان رخ میدهد، زیرا مدلها شروع به ساختن پاسخهای اشتباه میکنند تا از تکرار بیش از حد دادهها جلوگیری کنن
👤راس اندرسون، استاد مهندسی امنیت در دانشگاه کمبریج و دانشگاه ادینبورگ، در یک پست وبلاگی در مورد مقاله نوشت: «همانطور که اقیانوس ها را با زباله های پلاستیکی پر کرده ایم و جو را با کربن پر کرده ایم. دی اکسید، بنابراین ما در شرف پر کردن اینترنت هستیم. این کار آموزش مدلهای جدیدتر را با خراش دادن وب سختتر میکند و به شرکتهایی که قبلاً این کار را انجام دادهاند یا دسترسی به رابطهای انسانی را در مقیاس مقیاس کنترل میکنند، مزیت خواهد داشت. در واقع، ما قبلاً شاهد هستیم که استارتآپهای هوش مصنوعی بایگانی اینترنت را برای آموزش دادهها چکش میکنند.»
👤تد چیانگ، نویسنده تحسینشده علمی تخیلی «داستان زندگی تو»، رمانی که الهامبخش فیلم ورود است، و نویسندهای در مایکروسافت، اخیراً قطعهای را در نیویورکر منتشر کرده است که در آن فرض میشود کپیهایی با هوش مصنوعی از کپیها منجر به کیفیت پایینتر میشوند. تشبیه مشکل به افزایش مصنوعات قابل مشاهده در هنگام کپی کردن مکرر یک تصویر JPEG.
🔺راه دیگری برای فکر کردن به این مشکل مانند فیلم کمدی علمی-تخیلی Multiplicity در سال 1996 با بازی مایکل کیتون است که در آن مردی فروتن خود را شبیه سازی می کند و سپس کلون ها را شبیه سازی می کند که هر کدام منجر به کاهش تصاعدی سطح هوش و افزایش حماقت می شود.
✅ @A_purm
#سواد_رسانه
#هوش_مصنوعی
#فیلم_ورود