eitaa logo
فلسفه ذهن
932 دنبال‌کننده
140 عکس
69 ویدیو
21 فایل
محتوای تخصصی در حوزه #فلسفه_ذهن و فلسفه #علوم_شناختی توسط: مهدی همازاده ابیانه @MHomazadeh عضو هیات علمی موسسه حکمت و فلسفه ایران با همکاری هیئت تحریریه
مشاهده در ایتا
دانلود
🔴 دریفوس در برابر استدلال می‏ کند که توانایی ما در شناخت جهان و دیگر مردمان، یک نوع مهارت غیر توصیفی از سنخ دانستنِ چگونگی (know-how) ‌است که قابل تقسیم به کدگذاری‏ و برنامه‏ نویسی و ... نیست. انسان‏ها این توانایی را دارند که براساس تجربه در هر موقعیت به نحوی معقول و متناسب رفتار کنند؛ بدون آن‌که نیاز داشته باشند در فعّالیت‏های روزمرّه‏ شان بدنبال پیروی از دستورالعمل‏ها بروند. 🔵 هرچه بسمت کارکردهای تجربه‌ای‌تر برویم (مثلاً کارکرد تربیتی)، این تمایز بیشتر آشکار می‌شود. مربّی در هر لحظه و در مواجهه با هر رفتار کودک، به فراخور تجربه‌ای که از تعامل با او و سایر کودکان اندوخته و برحسب ادراک درونی که از نوع واکنش کودک در آن لحظه دارد، تصمیم خاصّی می‌گیرد که می‌تواند کاملاً موردی باشد. این قبیل مهارت‏ها غیر قابل بیان و پیشا مفهومی‏ اند و یک بُعد ضروری دارند که نمی‏ تواند بوسیله هیچ سیستم قاعده‌مندی به تصویر درآید. 🔴 دریفوس حتّی تأکید داشت که شاید هیچ دسته واقعیت‏های رها از کانتکست (Context-free) وجود نداشته باشد که شیوه‌های رفتاری را مشخّص نماید و ما باید فقط از تجربیات وسیع خود بیاموزیم که چطور به هزاران مورد معمول و رایج، پاسخ بدهیم. 🔵 او همچنین بر اهمیت ظرفیت‏هایی مانند تخیّل و بکارگیری استعاره و ... تأکید می‏ کرد که همگی در مقابل تلقّی محاسباتی قرار دارند. (Dreyfus, 1999, What Computers Still Can't Do, p. xxvii.) 🔴 آن‌هایی که انتقاد به GOFAI (هوش مصنوعی کلاسیک) را جدّی می‌گیرند، می‌توانند همانند خود وی برخی تردیدهای مشابه را درباره رویکرد (Connectionism) هم داشته باشند. 🔵 کار در حوزه تقویت یادگیری شبکه‎‌های پیوندگرا بر مسائل محدودی تمرکز دارد. رفتارها البته می‌توانند تعریف شوند و به آسانی تمایز یابند، ولی هوش با رفتارهایی سر و کار دارد که دسته‌بندی مناسب آن‌ها وابسته به شرایط و کانتکست است. روال رایج در مصنوعی که مستلزم دسته‌بندی‌های ساده رفتارهاست، یک عنصر اساسی هوش را دور می‌زند و نادیده می‌گیرد؛ یعنی یادگیری این که چطور شرایط و کانتکست، بر اهمیت و معنای رفتار تأثیر می‌گذارد. (Robinson, 2014, The Cambridge Handbook of Artificial Intelligence, pp. 101-102.) مهمترین مباحث فلسفی درباره ذهن/نفس و علوم شناختی را اینجا ببینید: https://eitaa.com/joinchat/183304263Cbe50a0e2d9
19.42M حجم رسانه بالاست
مشاهده در ایتا
❄️ دونالد هافمن - استاد شناخته‌شده دانشکده دانشگاه ایروین کالیفرنیا - از فواید و ناکارآمدی‌های (Computational Theory of Mind: CTM) می‌گوید👆 ❄️ اشکالات مختلفی در کانتکست فلسفی علیه مطرح شده؛ از جمله آزمون از سوی که درک معنا و را در رویکرد محاسباتی و زیر سؤال می‌برد، و اشکال (frame problem) یا حس عمومی (common sense) از سوی که را پیشامفهومی و فراتر از معرفت‌های گزاره‌ای می‌داند. ❄️ هافمن در اینجا از تقلیل یا تبیین کارکردگرایانه در رویکرد محاسباتی سخن می‌گوید. طبیعتاً اگر را اینهمان با/ یا حتی برآمده از کدهای برنامه‌ای و کارکردها در مغز بدانیم، مدل‌های محاسباتی و رویکردهای رفتارگرا در ساخت می‌تواند نویدبخش چشم‌انداز و تولید مصنوعی آگاهی باشد. اما اگر استدلال‌ها علیه این تبیین کارکردی را قابل توجه بدانیم، باید بدنبال رویکردهای جایگزین در هوش مصنوعی و باشیم که - برخلاف - مجددا ذیل رویکرد محاسباتی قرار نگیرد. @PhilMind
🪝یکی از معضلات فنی-فلسفی در برابر ، (frame problem) بوده است. البته این اصطلاح امروزه بصورتی مبهم درآمده؛ گاه به شکل مسئله مرتبط بودن رفتارها با موقعیت‌ها فهمیده می‏شود که در واقع مسئله مطرح‌شده از سوی هیوبرت دریفوس است و قبلاً بدان پرداخته‌ایم. گاه نیز آن را بصورتی توضیح می‌دهند که ظاهر غیرمعقول محاسباتی برای فرآیندهای جامع تفکر را نشان دهد. 🪝شاید خوانش عمومی‏تر با اشتباه کمتر از مسئله چارچوب، این‏چنین باشد: تعیین شرایطی که تحت آن شرایط، یک باور باید پس از به انجام‌رساندن یک فعل خاص، به روزرسانی شود. این مسئله در صورت‏بندی اوّلیه‏اش بیشتر فنی و محدود بود و در زمینه‏ای از وظایف خاص به وجود آمد؛ مثل استدلال درباره رفتار در «محاسبه موقعیت» (Situation Calculus). «محاسبه موقعیت» در واقع یک سیستم صوری بر مبنای منطق مرتبه اوّل است جهت و استدلال درباره رفتار، زمان، و تغییرات. 🪝مفهوم اساسی این سیستم، مفهوم سیال (fluent) است؛ یعنی ویژگی‏ای که می‏تواند مقدار آن در طول زمان تغییر کند. مثل دمای یک اتاق یا موقعیت مکانی یک شیء متحرّک. سیال‏های گزاره‏ای می‏توانند بازنمایی کنند که آیا یک شیء در سمت چپ شیء دیگر قرار دارد یا نه، آیا چراغ اتاق روشن است یا نه، ... . جهان در هر نقطه‏ای از زمان می‏تواند بطور کامل توسط دسته‏ای از فرمول‏ها که ارزش تمام سیال‏ها در آن زمان خاص را بیان می‏دارد، توصیف یا بازنمایی شود. رفتارهای روبات نیز بدین‌صورت، بازنویسی می‏شوند؛ هر فعلی دارای دسته‏ای از پیش‏شرط‏ها و تأثیرات است که هر دو در قالب سیال‏ها تعریف می‏گردند. اگر پیش‏شرط‏های یک فعل در یک حالت خاص برآورده شوند، آن فعل هم می‏تواند انجام پذیرد و برآورده‏سازی تأثیرات خودش را در حالت جدید به دنبال خواهد داشت. 🪝جهت ممانعت از مدل‏های عجیب و غریب که در آن‏ها، یک رفتار دارای تأثیراتی نامربوط به خودش باشد، نیازمند تشخیص دقیق ناتأثیرها (Non-Effects) از طریق چیزی هستیم که قواعد چارچوب (Frame-Axioms) نامیده می‏‏شود. با آن‏که گونه‏های مختصری از قواعد چارچوب طراحی شده، اما پیچیدگی محاسباتی استدلال با آن‏ها به صورت یک چالش باقی مانده است. راه‏حل‏های متنوع دیگری نیز پیشنهاد شده است ... اما قابل توجه است که هیچ‏کدام از این راه‏حل‏ها تاکنون حتی به کارآمدی رویکردی که بچه‏های کوچک درباره رفتارها استدلال می‏کنند، نزدیک نشده‏اند. 🪝این‏طور پیشنهاد شده که انسان‏ها بدنبال استدلال برای ناتأثیرهای یک رفتار نمی‏روند، زیرا این‏ را فرض می‏گیرند که یک فعل، تأثیر بر هیچ‏چیز ندارد مگر آن‏که شواهدی بر خلافش وجود داشته باشد. [یعنی اصل اوّلی بر عدم تأثیر است، مگر آن‏که خلافش ثابت شود.] هرچند در این‏جا هم معضل واقعی که فیلسوفانی مانند فودور بر آن متمرکز شده‏اند، این خواهد بود: چطور می‏توانیم بگوییم یک بخش از اطلاعات، تشکیل‏دهنده «شواهد بر خلاف» است؟ 🪝حداقل دو مسئله مجزا در این‏جا وجود دارد: اوّل آن‏که باید بتوانیم مشخص کنیم یک بخش از اطلاعات، بنحو بالقوه با برخی باورهای ما مرتبط است. این همان مسئله ارتباط است. دوم آن‏که باید بتوانیم مشخص کنیم آیا این اطلاعات، باور را مخدوش می‏سازد؟ هر دوی این‏ها، مسائلی مهندسی برای هوش مصنوعی کلاسیک (GOFAI) هستند و معضلات عام فلسفی. از جنبه مهندسی، خیلی دشوار نیست که یک سیستم نمادین بسازیم به یک حکم معقول برسد که: باورهای با پس‏زمینه درست،‌ شناسایی شدند. مشکل مهم عملی اینست که به سرعت، اطلاعات مرتبط را به صفر برسانیم. بسیاری این اعتقاد را دارند که خیلی بعید است هیچ سیستم دستکاری نماد بتواند بر این مشکل فائق شود. See: Konstantine & Bringsjord, 2014, in: The Cambridge Handbook of AI, pp.68-69. @PhilMind