eitaa logo
فلسفه ذهن
890 دنبال‌کننده
137 عکس
68 ویدیو
21 فایل
محتوای تخصصی در حوزه #فلسفه_ذهن و فلسفه #علوم_شناختی توسط: مهدی همازاده ابیانه @MHomazadeh با همکاری هیئت تحریریه
مشاهده در ایتا
دانلود
🖥 برخی مهندسان و پژوهشگران علاقه چندانی به مباحث وجودشناختی AI ندارند و در بین مباحث ، حداکثر مسائل را بدلیل آن‌که اوّلاً کاربردی‌تر می‌یابند و ثانیاً توانایی هوش مصنوعی و امکان تحقّق چشم‌اندازهای آتی را به چالش نمی‌کشد، ترجیح می‌دهند. 🖥 این اتفاق البته در میان مهندسان در کشورمان بنحوی شایع‌تر و جدی‌تر وجود دارد و تعاملات بینارشته‌ای فلسفی – فنّی که بین برخی دپارتمان‌ها و دانشمندان غربی در حوزه هوش مصنوعی مشاهده می‌شود در کشور ما تقریباً هیچ نمونه‌ای (ولو تقلیل‌یافته) ندارد. 🎖درباره ضرورت توجه به متافیزیک هوش مصنوعی می‌توان به تأثیر متقابل علمی و تئوریک اشاره کرد. تأملات فلسفی چه در زمانی که رویکرد کلاسیک دیجیتال در پی برنامه‌نویسی‌های کامپیوتری بود و چه در زمانی که نظریات محاسباتی جدید در یا تئوری‌های به کار گرفته شد، در هر دو جنبه ارائه‌ تئوری‌های ایجابی برای ساخت هوش مصنوعی و هم در نقد و نقض آن‌ها فعال بوده‌اند. 🎖نظریه محاسباتی کلاسیک ذهن (CCTM) که بعدها توسط فودور – فیلسوف ذهن دانشگاه راتگرز - با نظریه بازنمودگرایی تلفیق گردید، زمینه و پایه تولیدات فنّی و پژوهش‌های دهه 70 پیرامون هوش مصنوعی را شکل داد. کما این‌که تأملات و انتقادات امثال هابرت (درباره حسّ عمومی و مرتبط بودن) و (درباره درک زبانی)، چالش‌هایی جدّی پیش روی تئوری‌ها و تکنیک‌های ساخت هوش مصنوعی قرار داد. این تعاملات فلسفی – فنّی با زمستان هوش مصنوعی در دهه 80 و ورشکستگی کمپانی‌ها تکمیل شد و دوره جدیدی را با تئوری‌هایی متفاوت رقم زد. 🎖در دوره جدید نیز تئوری‌های پیوندگرایی و بدن‌مندی با چالش‌هایی جدی از سوی فیلسوفان مواجه بوده‌اند. دریفوس در دهه 70 و در مقاله پر ارجاع What Computers Can't Do استدلال می‏کرد که توانایی ما در تعامل با دیگران، یک نوع مهارت غیر توصیفی و تجربه‌ای از سنخ دانستنِ چگونگی (know how)‌ و دانستنِ گزاره‌ای است که قابل تقلیل به کدگذاری‏های گزاره‏ای در برنامه‏نویسی نیست. 🎖او در سال 1999 و در کتاب What Computers Still Can't Do توانایی شبکه‏های نورونی پیوندگرا که بر پایه دسته‌بندی رفتارها برنامه‌ریزی می‌شود را نیز به چالش کشید. دستگاه‌های پیوندگرا قادر به تعمیم هستند و هرگاه با یک الگوی ورودی جدید - که از نوع الگوی تمرین‌شده قبلی است – مواجه می‌شوند، خروجی‌ای مشابه تولید خواهند کرد. دریفوس و حامیانش اما اشکال مرتبط بودن را در این‌جا نیز تکرار می‌کنند: «از یک نوع بودن» در دسته‌بندی و تعمیم رفتارها را چه چیزی مشخّص می‏کند؟ به اعتقاد این‌ها مدل‌سازی نمی‌تواند جلوی تعمیم‌های ناجور و بی‌جا را بگیرد. کما این‌که اشکال اتاق چینی سرل درباره درک زبانی کامپیوترهای دیجیتال، در برابر شبکه‌های پیوندگرا نیز قابل بازسازی است و پاسخ روبات وی (Robot Reply) هم در برابر رویکرد بدن‌مندی. 🎖توجه به مباحث فلسفی هوش مصنوعی نه تنها اشکالات و نواقص نظریه‌های رایج در ساخت روبات‌ها را گوشزد می‌کند، بلکه حتی می‌تواند به رویکردهای جدیدی در تولید بینجامد. از جمله نظریه آگاهی در که زمینه را برای امکان و بلکه شیوه تولید در شبکه‌های نورونی مصنوعی متناسب با شبکه‌های نورونی طبیعی، فراهم می‌آورد. @PhilMind
🎈 طبق دیدگاه در کتاب Consciousness Explained، آگاه بودن تماماً عبارتست از اجرای یک‏دست برنامه یا برنامه‏های خاص در یک ماشین موازی که در طبیعت به تکامل رسیده است. مهم است توجّه داشته باشیم از آن‏جا که دنت، اساسا وجود و را انکار می‌کند، نیازی به استدلال بیشتر برای حمایت از نمی‏بیند. 🎈 دنت در برابر استدلال (که می‌گوید: المثناهای فیزیکی ما که فاقد حس درونی و آگاهی پدیداری باشند، بنحوی منسجم تصورپذیرند و در نتیجه امکان وقوعی دارند، پس آگاهی فراتر از فیزیک است)، تصریح دارد که امکان ندارد چنین زامبی‏هایی وجود داشته باشند. به بیان او، هر ماشینی - صرفنظر از آن‏که از چه موادی درست شده - اگر دقیقاً شبیه ما رفتار می‏کند، پس باید همان‏طور که درباره ما صادق است، دارای آگاهی نیز باشد. 🎈 شاید به نظر برسد او دارد ادّعا می‏کند زامبی‏های به قدر کافی پیچیده، در حقیقت زامبی نیستند؛ بلکه حالات آگاهانه درونی را دقیقاً شبیه ما دارند. اما این قطعاً ادّعای او نیست. در واقع دیدگاه وی اینست که ما هم زامبی هستیم و هیچ تفاوتی بین ما و ماشین‏های فاقد حالات آگاهانه وجود ندارد. 🎈 به اعتقاد او درد نام یک احساس نیست؛ بلکه خیالات عقیم‏مانده و امیدهای شکست‏خورده است و این ایده که زامبی‏ها «رنج می‏برند»، هیچ تفاوتی با رنج آگاهانه ما ندارد. 🎈 نکته استدلال از سوی این بود که نحو برنامه برای محتوای معناشناختی موجود در ذهن انسان چینی زبان، کافی نیست. سرل می‌پرسد: چرا دنت با استدلال آن‏گونه که من طرح کرده‏ام، مواجه نمی‏شود؟ چرا او به ما نمی‏گوید کدامیک از سه مقدّمه استدلال اتاق چینی را ردّ می‏کند؟ این مقدّمه‏ها خیلی پیچیده نیستند: الف) برنامه‏های محاسباتی بر اساس نحو هستند، ب) ذهن‏ها دارای محتوای معناشناختی هستند، ج) نحو فی‏نفسه، معادل با یا کافی برای محتوای معناشناختی نیست. 🎈 سرل اعتقاد دارد پاسخ روشن است؛ دنت استدلال صوری را دنبال نمی‏کند، زیرا در آن حالت باید بپذیرد که مقدّمه دوم را ردّ می‏کند. او براساس فرضیه‏اش مجبور است انکار کند که اذهان دارای محتوای ذاتی معناشناختی هستند. (See: Searle, J., 1997, The Mystery of Consciousness, pp. 106-109) 🎈 اکثر کسانی که از هوش مصنوعی قوی دفاع می‏کنند، فکر می‏کنند که کامپیوترها هم مانند ما دارای محتوای ذهنی‏اند و به اشتباه، دنت را نیز همراه خویش می‏انگارند. حال آن‏که دنت فکر نمی‏کند کامپیوترها دارای محتوای ذهنی باشند؛ زیرا او فکر نمی‏کند که اساساً چیزی به نام محتوای ذهنی وجود داشته باشد. 🎈 در واقع بدنبال اشکالاتی که به دیدگاه‌های تقلیل‌گرایانه در باب ذهن و مطرح شد، دنت و همراهان او دیدگاه () را برای حذف صورت مسئله آگاهی مطرح کردند که البته در میان فیلسوفان با اقبال چندانی مواجه نشده است. این دیدگاه اساسا وجود چیزی بنام کوالیا یا حالات پدیداری سابجکتیو را در حد توهم می‌داند و در نتیجه نیازی هم برای تبیینش نمی‌بیند؛ البته توهمی که برای عبور از مراحل تکامل زیست‌شناختی، کارآمد بوده است. @PhilMind
فعلا قابلیت پخش رسانه در مرورگر فراهم نیست
مشاهده در پیام رسان ایتا
❄️ دونالد هافمن - استاد شناخته‌شده دانشکده دانشگاه ایروین کالیفرنیا - از فواید و ناکارآمدی‌های (Computational Theory of Mind: CTM) می‌گوید👆 ❄️ اشکالات مختلفی در کانتکست فلسفی علیه مطرح شده؛ از جمله آزمون از سوی که درک معنا و را در رویکرد محاسباتی و زیر سؤال می‌برد، و اشکال (frame problem) یا حس عمومی (common sense) از سوی که را پیشامفهومی و فراتر از معرفت‌های گزاره‌ای می‌داند. ❄️ هافمن در اینجا از تقلیل یا تبیین کارکردگرایانه در رویکرد محاسباتی سخن می‌گوید. طبیعتاً اگر را اینهمان با/ یا حتی برآمده از کدهای برنامه‌ای و کارکردها در مغز بدانیم، مدل‌های محاسباتی و رویکردهای رفتارگرا در ساخت می‌تواند نویدبخش چشم‌انداز و تولید مصنوعی آگاهی باشد. اما اگر استدلال‌ها علیه این تبیین کارکردی را قابل توجه بدانیم، باید بدنبال رویکردهای جایگزین در هوش مصنوعی و باشیم که - برخلاف - مجددا ذیل رویکرد محاسباتی قرار نگیرد. @PhilMind