eitaa logo
فلسفه ذهن
937 دنبال‌کننده
140 عکس
69 ویدیو
21 فایل
محتوای تخصصی در حوزه #فلسفه_ذهن و فلسفه #علوم_شناختی توسط: مهدی همازاده ابیانه @MHomazadeh عضو هیات علمی موسسه حکمت و فلسفه ایران با همکاری هیئت تحریریه
مشاهده در ایتا
دانلود
📚 📕ویراست چهارم «مدخلی معاصر بر فلسفه ذهن» اثر جان هیل توسط انتشارات راتلج و در سال ۲۰۲۰ بچاپ رسیده است. این کتاب با هدف تدریس برای دانشجویانی که آشنایی پیشین با مباحث فلسفه ذهن ندارند، نوشته شده. 📘پس از مقدمه، فصل ۲ به دکارتی اختصاص دارد و میراث را در فصل ۳ و در قالب نظریات دوگانه‌انگار نافی تعامل علی دوطرفه ذهن و بدن بررسی می‌کند. 📗فصل ۴ به می‌پردازد و اشکالات و افول آن را مرور می‌کند. فصل ۵ بسراغ نظریه ذهن و مغز رفته و با یادآوری پشتوانه‌های فلسفی آن (مانند صرفه‌جویی هستی‌شناختی)، اشکالاتش (ضروری‌بودن اینهمانی در تمام جهان‌های ممکن، مغالطه پدیدارشناختی، پایان باز در تعاریف معرفت‌شناختی و ...) را مرور می‌کند. 📒فصل ۶ بر رویکرد تمرکز کرده و به نسبت آن با و رفتارگرایی و برخی اشکالاتش می‌پردازد. فصل ۷ به تئوری بازنمودگرایانه ذهن اختصاص دارد و بدین‌منظور، و و اشکال را بازگو می‌کند. و فصل ۹ را محور بحث قرار داده است. 📙 (دیدگاه دنت) موضوع فصل ۱۰ کتاب است و چشم‌انداز و برخی اشکالاتش نیز یادآوری می‌شود. فصل ۱۱ به غیر تقلیل‌گرا می‌پردازد و فصل ۱۲ با محوریت ، کیفیات تجربه آگاهانه و و تئوری‌های بازنمودگرایی (مرتبه اول و مرتبه بالاتر) و ... را توضیح می‌دهد. 📓فصل ۱۳ به تشریح و اختصاص دارد و فصل آخر برخی اشکالات دیدگاه‌های مختلف درباره ماهیت ذهن را مرور می‌کند. @PhilMind
💠حدود یکماه پیش بود که بلیک لموین – از کارکنان شرکت گوگل – ادعای خودآگاه‌بودن LaMDA را مطرح کرد. وی در گزارش خود به توانایی بالای لامدا برای ارائه پاسخ‌های قانع‌کننده درباره احساسات و تجربیات درونی‌اش استناد کرده بود که به مخاطب نشان می‌دهد که زندگی درونی عمیق سرشار از تخیل، خودآگاهی و تفکر دارد. لامدا در چت با لموین، از نگرانی‌های خود درباره آینده و گذشته سخن گفته و این‌که کسب ادراکات، چه حس و حالی دارد. گوگل البته با فاصله کمی، به این گزارش واکنش نشان داد و ادعای لموین را رد کرد. 💠فارغ از واکنش شرکت گوگل به موضوع لامدا، ادعای تولید یا وجود در فلان روبات، همواره می‌تواند چالش‌برانگیز باشد. شاید محور سؤال‌ها البته بر مسئله (other minds) تمرکز یابد؛ این‌که از کجا و با چه معیاری می‌توان ادعای وجود جهان سابجکتیو و آگاهانه در موجودات دیگر را راستی‌آزمایی کرد؟ طی مناقشه اخیر بدنبال اساس و معیار این ادعا بودم که البته بنحوی ناامیدکننده بر «تمایزناپذیری زبانی» استوار می‌شد؛ یعنی پاسخ‌های زبانی لامدا درباره احساساتش، با پاسخ‌های یک عامل انسانی آگاه، غیرقابل تمایز دانسته شده بود. این در واقع همان معیار تورینگ در آزمون معروف تورینگ (1950) برای ماشین‌ تفکرکننده است. 💠کامپیوتر در صورتی را پاس می‌کرد که یک پرسش‌گر انسانی، پس از طرح چند سؤال مکتوب از کامپیوتر و عامل انسانی - که مشخص نباشد کدامیک، ارائه‌دهنده کدام پاسخ هستند - نتواند تشخیص دهد کدام پاسخ از سوی کامپیوتر و کدام از سوی انسان ارائه شده است. 💠البته برنامه‏نویسی برای یک کامپیوتر تا آزمونی چنین کاربردی را پاس کند، کار بسیار زیادی طلب می‏کند. چنین کامپیوتری نیاز دارد که توانایی‏های ذیل را دارا باشد: - پردازش زبان طبیعی (تا کامپیوتر را قادر به ارتباط با زبان انگلیسی بگرداند) - بازنمایی معرفت (تا کامپیوتر را قادر به ذخیره‏سازی چیزهایی که می‏داند و می‏شنود، بگرداند) - استدلال خودگردان (تا اطلاعات ذخیره‏شده را برای پاسخ به سؤالات و نتیجه‏گیری‏های جدید بکار گیرد) - یادگیری ماشین (تا با شرایط جدید، سازگار شود و الگوها را تشخیص و استخراج نماید). 💠اما از ده‌ها سال قبل، مناقشات متنوّعی درباره پیش‏فرض رفتارگرایانه موجود در این آزمون مطرح شده است. مثلاً آزمون فکری ند بلاک (1981) با نام عمّه برتا (Aunt Bertha) که استدلال می‌کرد رفتار یک ارگانیسم، تنها چیزی نیست که هوشمندی آن را تعیین می‏کند؛ بلکه منشاء و مکانیسم تولید این رفتار نیز موضوعیت دارد. 💠ممکن است ماشین با مراجعه به بانک بسیار عظیمی از دوگانه‌های پرسش و پاسخ، یا استفاده از الگوهای پاسخ درست، بتواند آزمون تورینگ را درباره پاسخ به سؤالاتی پیرامون احساسات و تفکراتش بخوبی پشت سر بگذارد. این اما در نهایت فقط یک دستگاه جستجوگر قدرتمند خواهد بود که ارتباطی با یک جهان درونی پدیداری و مولّد پاسخ‌های آگاهانه ندارد. اطلاعیه‌ای که شرکت گوگل درباره بررسی ادعای لموین منتشر کرد نیز بر همین نکته تأکید کرده است. 💠امروزه محقّقان هوش مصنوعی، تلاش‏های کمی برای پاس‏کردن آزمون تورینگ بخرج می‏دهند؛ زیرا اعتقاد دارند جستجو به دنبال "پرواز مصنوعی"، زمانی به موفّقیت رسید که برادران رایت و دیگران، تقلید از پرندگان را کنار گذاشتند و شروع به یادگیری درباره آیرودینامیک و بکارگیری تونل‏های بادی کردند. متون مهندسی فضانوردی، هدف از آن حوزه را این‏طور معرّفی نمی‏کنند که "بدنبال ساخت ماشین‏هایی هستند که دقیقاً مانند کبوترها پرواز می‏کنند و می‏توانند کبوترها را نیز فریب بدهند"! (Russell & Norvig, 2010, Artificial Intelligence, A Modern Approach, p. 3) 💠در واقع هنوز عمده استراتژی‌های تعریف و ساخت هوش مصنوعی حول معیارهایی رفتارمحور - چه رفتار شبیه انسان (که آزمون تورینگ نیز از این قبیل است) و چه رفتار ایده‌آل – شکل می‌گیرد و آن و جهان سابجکتیو (بعنوان منشاء و مولد این رفتارها و خروجی‌ها)، موضوعیت ندارد. مشکلی که البته در سایر حوزه‌های علوم شناختی نیز دیده می‌شود. این در حالیست که بنظر می‌رسد با تمرکز بر خود تجربه پدیداری و منشاء تولید واکنش‌ها، احتمال تولید آگاهی مصنوعی بنحوی واقعی وجود دارد. @PhilMind
⛄️ مثال ماشین عمه برتا (Aunt Bertha) توسط ندبلاک در مقاله Psychologism and Behaviourism (1981) علیه تعریف تورینگی از هوش ارائه شده است. بلاک این ماشین را با حافظه‌ای عظیم در نظر می‌گیرد که تمام پاسخ‌های عمه برتای واقعی برای پرسش‌های مختلف در طول یک زمان مشخص (مثلا یکساعت) در آن برنامه‌نویسی شده باشد. لذا ندبلاک استدلال می‌کند که شرط کافی برای هوش نیست. ⛄️ چنین ماشینی - بنا به فرض - خواهد توانست آزمون تورینگ را با پاسخ‌های کاملا شبیه انسان پاس کند. اما پاس‌کردن توسط این ماشین نمی‌تواند شاهدی بر هوشمندی آن باشد. درستی پاسخ‌های این ماشین به سؤالات آزمون، از آن‌جا ناشی می‌شود که پاسخ‌های عمه برتای واقعی درست و بجا هستند و این ماشین صرفا برای ذخیره و تکرار آن پاسخ‌ها برنامه‌نویسی شده است. ⛄️ باید توجه داشت که ماشین عمه برتا یک ماشین فرضی (و نه واقعی و کاربردی) است که حتی اگر امکان تحقق عملی نداشته باشد، اما صرف امکان منطقی آن برای هدف بلاک کفایت می‌کند. در واقع این استدلال در سطح مفهومی طراحی شده و می‌خواهد تحلیل مفهومی تست تورینگ از هوش را به چالش بکشد. ⛄️ ممکن است استدلال بلاک را (که ابتدای دهه 80 نیز ارائه شده)، مربوط به استراتژی کلاسیک و قدیمی در تلقی کنیم که براساس ذخیره‌سازی و حافظه در پیش می‌رفت. حال آن‌که در دهه‌های اخیر اساسا برپایه ذخیره‌سازی در حافظه نیست. بلکه ماشین در دوره کارورزی (training) یکسری موقعیت‌ها را تمرین می‌کند و پاسخ‌های بهینه برای هر موقعیت را در می‌یابد. او آن‌گاه در موقعیت‌های جدید براساس تمرین‌هایی که در دوره کارورزی گذرانده، پاسخ درست و بجا را بیرون می‌دهد. ⛄️ مسئله اما این‌جاست که چنین ماشینی کماکان از وابستگی به هوش انسانی برنامه‌نویس و از معیار تشخیص نوع موقعیت جدید خلاصی نمی‌یابد. او همچنان در نحوه مراجعه به ورودی و خروجی‌های دوره کارورزی برای پاسخ‌دهی به موقعیت جدید، از نوعی برنامه‌نویسی پیروی می‌کند که هوش انسانی برایش ریل‌گذاری کرده است. و از آن مهم‌تر، تشخیص این‌که موقعیت جدید از نوع کدام موقعیت‌های تمرین‌شده‌ی پیشین است، خود نیازمند معیاری بسیار پیچیده و گاه منحصر بفرد است. ⛄️ ممکن است ماشین قبلا موقعیت زیادی را تمرین کرده و پاسخ‌های درست و بجا برای هریک را دسته‌بندی کرده باشد. ولی اکنون با موقعیت جدیدی مواجه شده که به آسانی قابل تطبیق با موقعیت‌های (ولو پرشمار) دوره کارورزی نباشد. او با چه معیاری باید موقعیت جدید را در دسته‌بندی خود بگنجاند و تشخیص دهد؟ این موقعیت جدید می‌تواند - همانطور که دریفوس توضیح داده - کاملا منحصر بفرد و وابسته به کانتکست باشد. تطبیق ماشینی چنین وضعیتی بر موقعیت‌های تمرین‌شده‌ی قبلی، صرفا به خروجی نادرست و نابجا (irrelevant) خواهد انجامید. علاوه بر این حتی در مواردی که به دسته‌بندی درست موقعیت جدید دست یابد، تازه به پاسخ‌های ذخیره‌شده در دوران کارورزی مراجعه و آن‌ها را بنحوی متناسب تکرار می‌کند که باز در برابر استدلال‌هایی نظیر ند بلاک (آزمون عمه برتا) و جان سرل (آزمون اتاق چینی) قرار می‌گیرد. ⛄️ بدین‌ترتیب رویکردهای محاسباتی - چه رویکرد کلاسیک () و چه رویکرد پیوندگرایی () - در ساخت هوش مصنوعی با چالش‌های جدی نظری روبه‌رو هستند. هرچند که در واقع بخش عظیمی از لابراتوارهای هوش مصنوعی را در تسخیر خود داشته و دارند. @PhilMind
ویراست دوم کتاب «این فلسفه ذهن است، یک درآمد» در 288 صفحه و 17 فصل در 2023 به چاپ رسیده است. 📒 نويسنده در فصول اول تا ششم به چیستی ذهن و حالات ذهنی، و نظريات اصلي در ، مانند ، ، ، مسئله و و برخي مفاهيم ديگر پرداخته است. 📕 عنوان فصل هفتم، ماشین‌های متفکر است. در این فصل درباره اینکه ماشین آیا اساساً می‌تواند بیندیشد و نیز درباره ، ، استدلال جان سرل و برخی مباحث دیگر سخن به میان آمده است. سپس در فصل هشتم از بحث شده است. 📘 فصل نهم درباره مسئله بسیار مهم است، شامل انواع نظریه‌ها درباره تعامل میان ذهن و بدن و مشکل و نظریه . 📒 فصل دهم را بررسی می‌کند و فصل يازدهم دربارۀ ، تصور ذهنی و عاطفه است. 📕مسائل بسيار مهم ، و و در فصول دوازدهم تا چهاردهم مطرح شده‌اند. 📙 در فصل پانزدهم نویسنده درباره ، و سخن گفته است. 📘 فصل شانزدهم را مطرح می‌کند که از بحث‌های جدید در است. 📕 فصل هفدهم (آخر) به مباحثی آینده‌نگرانه پرداخته است، مانند ، انسان‌های تقویت‌شده ، و . 🖊 رضا درگاهی‌فر @PhilMind
📌دیدگاه صرفا مهندسی به و تقلیل به یکسری خروجی‌های رفتاری و کارکردی را می‌توان به وضوح در حوزه فنی مشاهده کرد. نمونه این رویکرد از مقاله وینچنزو تاگلیاسکو قابل ذکر است: 📌«یک موجود آگاه مصنوعی موجودی است که ظاهراً آگاه است؛ زیرا شبیه یک انسان آگاه رفتار می‏کند. یک رشته ساینتیفیک نیست؛ یک حوزه تکنولوژیک است که بیشتر با سر و کار دارد تا با روانشناسی و ... آگاهی مصنوعی باید در یک چشم‏انداز صرفا تکنولوژیک فهمیده شود. محققین حوزه آگاهی مصنوعی بخوبی می‏دانند که مطالعه آگاهی طبیعی، بسیار دور از نتیجه است». 📌در مقابل این رویکرد، علاوه بر مواضع نزدیک به ، استدلال‌هایی قرار دارند که عموماً به "شوونیسم زیست‏شناختی" معروف‌اند و می‏گویند فقط ساختارهای بیولوژیکی می‏توانند به آگاهی برسند. چرا؟ یا بخاطر اینکه فقط آنها برخی سطوح پیچیدگی لازم را دارا هستند، یا بخاطر اینکه فقط در آنهاست که در نتیجه فرآیند ، مجموعه مورد نیاز از تجربه تاریخی نهاده شده است، یا بخاطر اینکه فقط آنها می‏توانند به شیوه‏ای مناسب با جهان در تعامل باشند. 📌تاگلیاسکو اما برای رد این دیدگاه‌ها، تعریف را کن فیکون می‌کند و به نوعی پاک‌کردن صورت مسأله دست می‌زند. او تجربه را با «گردآوری فکت‌ها از محیط برای تولید اهداف و انگیزه‏های جدید» تعریف می‌کند و در ادامه به یک پژوهش آزمایشگاهی بر روی یک روبات واکنشی اشاره می‌کند. در این آزمایش دسته‏ای از محرک‏های بصری (یکسری شکل‌های رنگ‏شده که درون ساختار روبات کدگذاری نشده‏ بودند) برای روبات به نمایش در می‏آمد. برای سیستم از پیش، انگیزه‌های مرتبط با اشیاء رنگی تعیین شده و یک محرک بدون رنگ (فارغ از شکل آن) هیچ پاسخی را برنمی‏انگیزد. پس از یک دوره تعامل با اشکال رنگ‏شده، این روبات بطور خودمختار یک هدف جدید در نسبت با شکل‏های رنگ نشده نیز سامان می‌دهد (توسعه هدف جدیدی که در زمان طراحی پیش‏بینی نشده بود). 📌او از این توانایی روبات به ساختن اهداف و انگیزه‌های جدید یاد می‌کند و در واقع وجود «انگیزه» بمثابه یک حالت سابجکتیو را نیز در حد خروجی رفتاری تصدیق می‌کند. این رویکرد رفتارگرایانه به هوش و آگاهی، امتداد چارچوبی‌ست که در اواسط قرن بیستم و آغاز شکل‌گیری این حوزه فنی در دستور کار مهندسان AI قرار داد؛ معیار «تمایزناپذیری رفتاری» برای تصدیق «تفکر در ماشین». 📌آیا این تقابل بین حوزه مهندسی و علوم پایه در هوش مصنوعی، قابل جمع است؟ بنظر می‌رسد هم می‌توان رویکردهایی محتمل برای تولید آگاهی مصنوعی پیشنهاد داد و هم آگاهی طبیعی و ساختار بیولوژیک آن را به رسمیت شناخت. دیدگاه‌هایی که بر ایمرج‌کردن آگاهی از سطح نوروفیزیولوژیک تاکید دارند و بدنبال بازسازی مصنوعی پایه شبه بیولوژیک هستند، از همین قبیل‌اند. 📚See: Tagliasco, Vincenzo, 2007, "Artificial Consciousness; A Technological Discipline", In: Chella A., Manzotti R., Artificial Consciousness, Imprint Academic @PhilMind