eitaa logo
فاروق
456 دنبال‌کننده
4.1هزار عکس
3.3هزار ویدیو
145 فایل
مجموعه تحلیل های سیاسی،اجتماعی و... ارتباط با مدیر @Heifa5
مشاهده در ایتا
دانلود
🎯 شما طوطی نيستيد، چت‌جی‌پی‌تی هم انسان نيست 🔴 معمولاً اینطور تصور می‌کنیم که ربات‌ها هر چه در حرکات، واکنش‌ها یا جواب‌هایشان به رفتار طبیعی یک انسان واقعی نزدیک‌تر شوند، ربات‌های بهتر یا پیشرفته‌تری محسوب می‌شوند. بنابراین سازندگان ربات‌ها تمایل فراوانی به هر چه شبیه‌تر کردن ساخته‌هایشان به انسان‌ها دارند. بااین‌حال، بسیاری از متخصصان اخلاق فناوری دربارۀ این موضوع تردید دارند. آیا واقعاً خوب است که مرز میان انسان‌ها و ربات‌ها کمرنگ شوند؟ انسان فرض‌کردن ربات‌ها دقیقاً چه پیامدهایی یا آسیب‌هایی را می‌تواند به دنبال بیاورد؟ 🔴 این موضوع وقتی پیچیده‌تر می‌شود که بدانیم در میان ما آدم‌ها نیز تمایلِ زیادی برای «انسان‌وار» قلمداد کردن موجودات غیرانسانی وجود دارد، چه پای حیوانات در میان باشد، چه ربات‌ها یا حتی عروسک‌ها و مجسمه‌ها. 🔴 این روزها با فراگیرشدن بحث از چت جی‌پی‌تی و توانایی‌های خارق‌العادۀ زبانی آن، این مسئله بار دیگر به میان آمده است: امیلی بِندِر، زبان‌شناس مشهوری که یکی از خبره‌ترین متخصصانِ کاربرد زبان در هوش‌های مصنوعی است، می‌پرسد: چرا باید مثل آدم‌های معمولی حرف بزند؟ آیا چنین قابلیتی، به جز «فریب‌دادن» کاربران فایدۀ دیگری هم دارد؟ بِندر می‌نویسد: فرض ما این است که وقتی کسی حرف می‌زند، قصد دارد پیامی به ما منتقل کند و مسئولیت حرفش را هم می‌پذیرد، اما ربات‌ها درکی از حرفی که می‌زنند و پیامدهایش ندارند. 🔴 «ما دنیا را تغییر داده‌ایم. ما یاد گرفته‌ایم ماشین‌هایی بسازیم که به‌طور مکانیکی متن تولید کنند. اما هنوز یاد نگرفته‌ایم که چطور بین ماشین و ذهن انسان تمایز قائل شویم». 🔴 از نظر بِندِر «چت‌بات‌هایی که ما به‌راحتی آن‌ها را با انسان اشتباه می‌گیریم، صرفاً بامزه یا اعصاب‌‌خردکن نیستند.» بلکه مبهم‌شدن مرز میان ربات و انسان، می‌تواند آسیب‌های جدی در بر داشته باشد. یا اساساً منجر به از هم گسستن جامعه شود. یکی از مثال‌های ساده‌اش، مسئلۀ «انسان‌های جعلی» است. دنیل دنت، فیلسوف مشهور، می‌نویسد: ما نمی‌توانیم در دنیایی با «افراد جعلی» زندگی کنیم. از وقتی پول وجود داشته، جعل پول نوعی خراب‌کاری اجتماعی قلمداد می‌شد که مجازات آن اعدام، درآوردن احشاء و شقه‌شقه‌کردن بود. بحث هم دست‌کم به همین اندازه جدی است. 🔴 از نظر دنت رباتی که می‌تواند مثل یک انسان حرف بزند، فقط یک قدم تا سلاح خطرناکی که در جنگ‌های بیولوژیک یا هسته‌ای می‌تواند به کار گرفته شود، فاصله دارد. 🔴 بِندِر می‌گوید من یک قانون دارم: «کمرنگ‌کردن مرزها ممنوع!» اگر این قانون را بپذیرید، آنگاه خیلی راحت‌تر می‌توانید از شرکت‌های بزرگ تکنولوژی که برای توسعۀ هر چه بیشتر سر و دست می‌شکنند، بپرسید: این کارها برای چیست؟ اگر این ابزارها ساخته می‌شوند تا زندگی ما انسان‌ها را راحت‌تر کنند، پس چرا اصرار دارید آن‌ها را مثل دیگر انسان‌ها ببینیم؟ به آن‌ها علاقه‌مند و وابسته شویم؟ یا وقتی آن‌ها را از دست می‌دهیم، فکر کنیم یک دوست را از دست داده‌ایم؟ چرا ابزارها را در قلمرویی آن‌سوی انسانیت نگه نمی‌دارید؟ 📌 ادامۀ مطلب را در لینک زیر بخوانید: https://B2n.ir/t19517 @farooq313