eitaa logo
| اندکی اندیشه |
346 دنبال‌کننده
918 عکس
251 ویدیو
17 فایل
💠💠خُرده تاملات حسینعلی رحمتی در اخلاق فناوری اطلاعات، فلسفه اخلاق ، و برخی موضوعات دیگر. 📌سایت رسمی: www.harahmati.ir 📌آدرس در همه شبکه های اجتماعی: @harahmati 📌 ارتباط با بنده در ایتا: @harahmati2
مشاهده در ایتا
دانلود
❇️آیا ممکن است ماشین های هوشمند مقلد الگوهای معرفتی و رفتاری سازندگان خود شوند؟ (قسمت ۲ از ۲) ترجمه: حسینعلی رحمتی ✅ هوش مصنوعی امروزه جزوی از زندگی روزمره ما شده است، و به ما این امکان را می دهد که بدون گرفتار شدن در ترافیک خیابان ها به آسانی قدم به جاهایی بگذاریم که پیش از این هرگز نرفته بودیم، بدون داشتن زبان مشترک، با دوست چینی مان ارتباط برقرار کنیم، یا در کارخانه ها عهده دار کارهای پیچیده اما به شدت خسته کننده و تکراری شویم. اما، از سوی دیگر، بهره گیری از می تواند منجر به مسئله ای شود که می توان آن را «تبعیض یا جهت گیری مصنوعی» (artificial bias) نامید؛ یعنی آن دسته از رفتار ماشین های هوشمند، البته اگر به وسیله انسان تولید شده باشند، که می توانیم آنها را نسبت به گروه های خاصی چون اقلیت های نژادی، دارای جهت گیری تبعیض آمیز بدانیم. آموزش این ماشین ها که با استفاده از مجموعه های بزرگی از داده ها انجام می شود، یکی از ابزارهای به کارگیری هوش مصنوعی است که به طور خاص استعداد تولید سیستم های تبعیض آمیز را دارد؛ چرا که این ماشین ها اطلاعات خود را از رفتارهای انسان الگوبرداری می کنند که خود این رفتارها ممکن است تبعیض آمیز باشد. یافتن راه هایی برای اصلاح این جهت گیری ها، و تولید های بی طرفانه (fair algorithms) مستلزم پاسخ به مجموعه ای از پرسش ها است، از جمله: 🔻1. کدام یک از تعاریفی که در فلسفه و رشته های دیگر برای بی طرفی و عدالت گفته شده، برای شناخت بی طرفی، (equality) و عدالت در استفاده از داده ها و آموزش ماشین های هوشمند مفیدتر است؟ 🔻2. با توجه به تکنیک های متفاوتی که برای آموزش ماشین های هوشمند به کار می رود، تعریف های مختلف از بی طرفی و تا چه اندازه در مورد این ماشین ها امکان عملیاتی شدن یا محاسباتی شدن را دارد؟ 🔻3. آیا ممکن است سیستم های تصمیم گیر در ماشین های آموزش دیده پیش از این که در یک صنعت خاص، مثلا وام دادن (lending) یا خدمات اجتماعی (از قبیل سرویس های نگهداری از کودکان) به کار گرفته شوند نسبت به رفتارهایی که هم اکنون عادلانه و بی طرفانه محسوب می شود، از سطح بالاتر و متفاوت تری از عدالت و بی طرفی برخوردار شوند؟ 🔻4. نقش متخصصان داده پردازی و برنامه نویسان کامپیوتر در اصلاح جهت گیری هایی که گفته شد چیست؟ آموزش ماشین ها چگونه می تواند در ایفای این نقش موثر واقع شود؟ 🔻5. برخی از جهت گیری ها بسیار هم مفید هستند(تبعیض مثبت- م). پس کدام یک از آنها غیرعادلانه اند؟ و چرا؟ 🔻6. برنامه نویسان امروزیِ متخصص طبقه بندی داده ها (classification)، برای پرهیز از جهت گیری های نادرست، چه چیزهایی را می توانند از تجارب دیگر رشته های مرتبط با طبقه بندی (مانند کتاب داری) بیاموزند؟ 🔻7. پژوهش های هنجاری در حوزه های دیگر، از قبیل تشکیل پرونده برای افراد توسط پلیس، درباره این که چه زمانی و تحت چه شرایطی تشکیل پرونده برای دیگران توسط ماشین های آموزش دیده قابل پذیرش و توجیه است چه چیزهایی را به ما می آموزد؟ 🔻8. چه ارتباطی وجود دارد بین تبیین پذیری/تفسیر پذیری (explainability/interpretability) تصمیم گیری ماشین های آموزش دیده و به کارگیری عادلانه این ماشین ها در زمینه های دیگر؟