#مسئله_چارچوب
#فلسفه_هوش_مصنوعی
🔴 دریفوس در برابر #هوش_مصنوعی استدلال می کند که توانایی ما در شناخت جهان و دیگر مردمان، یک نوع مهارت غیر توصیفی از سنخ دانستنِ چگونگی (know-how) است که قابل تقسیم به کدگذاری و برنامه نویسی و ... نیست.
انسانها این توانایی را دارند که براساس تجربه در هر موقعیت به نحوی معقول و متناسب رفتار کنند؛ بدون آنکه نیاز داشته باشند در فعّالیتهای روزمرّه شان بدنبال پیروی از دستورالعملها بروند.
🔵 هرچه بسمت کارکردهای تجربهایتر برویم (مثلاً کارکرد تربیتی)، این تمایز بیشتر آشکار میشود. مربّی در هر لحظه و در مواجهه با هر رفتار کودک، به فراخور تجربهای که از تعامل با او و سایر کودکان اندوخته و برحسب ادراک درونی که از نوع واکنش کودک در آن لحظه دارد، تصمیم خاصّی میگیرد که میتواند کاملاً موردی باشد.
این قبیل مهارتها غیر قابل بیان و پیشا مفهومی اند و یک بُعد #پدیدارشناسی ضروری دارند که نمی تواند بوسیله هیچ سیستم قاعدهمندی به تصویر درآید.
🔴 دریفوس حتّی تأکید داشت که شاید هیچ دسته واقعیتهای رها از کانتکست (Context-free) وجود نداشته باشد که شیوههای رفتاری را مشخّص نماید و ما باید فقط از تجربیات وسیع خود بیاموزیم که چطور به هزاران مورد معمول و رایج، پاسخ بدهیم.
🔵 او همچنین بر اهمیت ظرفیتهایی مانند تخیّل و بکارگیری استعاره و ... تأکید می کرد که همگی در مقابل تلقّی محاسباتی قرار دارند. (Dreyfus, 1999, What Computers Still Can't Do, p. xxvii.)
🔴 آنهایی که انتقاد #دریفوس به GOFAI (هوش مصنوعی کلاسیک) را جدّی میگیرند، میتوانند همانند خود وی برخی تردیدهای مشابه را درباره رویکرد #پیوندگرایی (Connectionism) هم داشته باشند.
🔵 کار در حوزه تقویت یادگیری شبکههای پیوندگرا بر مسائل محدودی تمرکز دارد.
رفتارها البته میتوانند تعریف شوند و به آسانی تمایز یابند، ولی هوش با رفتارهایی سر و کار دارد که دستهبندی مناسب آنها وابسته به شرایط و کانتکست است.
روال رایج در #شبکههای_نورونی مصنوعی که مستلزم دستهبندیهای ساده رفتارهاست، یک عنصر اساسی هوش را دور میزند و نادیده میگیرد؛ یعنی یادگیری این که چطور شرایط و کانتکست، بر اهمیت و معنای رفتار تأثیر میگذارد. (Robinson, 2014, The Cambridge Handbook of Artificial Intelligence, pp. 101-102.)
مهمترین مباحث فلسفی درباره ذهن/نفس و علوم شناختی را اینجا ببینید:
https://eitaa.com/joinchat/183304263Cbe50a0e2d9
19.42M حجم رسانه بالاست
مشاهده در ایتا
❄️ دونالد هافمن - استاد شناختهشده دانشکده #علوم_شناختی دانشگاه ایروین کالیفرنیا - از فواید و ناکارآمدیهای #نظریه_محاسباتی_ذهن (Computational Theory of Mind: CTM) میگوید👆
❄️ اشکالات مختلفی در کانتکست فلسفی علیه #نظریه_محاسباتی مطرح شده؛ از جمله آزمون #اتاق_چینی از سوی #جان_سرل که درک معنا و #حیث_التفاتی را در رویکرد محاسباتی و #هوش_مصنوعی زیر سؤال میبرد، و اشکال #مسئله_چارچوب (frame problem) یا حس عمومی (common sense) از سوی #هیوبرت_دریفوس که #تجربه_پدیداری را پیشامفهومی و فراتر از معرفتهای گزارهای میداند.
❄️ هافمن در اینجا از تقلیل یا تبیین کارکردگرایانه در رویکرد محاسباتی سخن میگوید.
طبیعتاً اگر #آگاهی را اینهمان با/ یا حتی برآمده از کدهای برنامهای و کارکردها در مغز بدانیم، مدلهای محاسباتی و رویکردهای رفتارگرا در ساخت #روبات میتواند نویدبخش چشمانداز #هوش_مصنوعی_قوی و تولید مصنوعی آگاهی باشد.
اما اگر استدلالها علیه این تبیین کارکردی را قابل توجه بدانیم، باید بدنبال رویکردهای جایگزین در هوش مصنوعی و #آگاهی_ماشین باشیم که - برخلاف #پیوندگرایی - مجددا ذیل رویکرد محاسباتی قرار نگیرد.
@PhilMind
🪝یکی از معضلات فنی-فلسفی در برابر #هوش_مصنوعی، #مسئله_چارچوب (frame problem) بوده است. البته این اصطلاح امروزه بصورتی مبهم درآمده؛ گاه به شکل مسئله مرتبط بودن رفتارها با موقعیتها فهمیده میشود که در واقع مسئله مطرحشده از سوی هیوبرت دریفوس است و قبلاً بدان پرداختهایم. گاه نیز آن را بصورتی توضیح میدهند که ظاهر غیرمعقول محاسباتی برای فرآیندهای جامع تفکر را نشان دهد.
🪝شاید خوانش عمومیتر با اشتباه کمتر از مسئله چارچوب، اینچنین باشد: تعیین شرایطی که تحت آن شرایط، یک باور باید پس از به انجامرساندن یک فعل خاص، به روزرسانی شود. این مسئله در صورتبندی اوّلیهاش بیشتر فنی و محدود بود و در زمینهای از وظایف خاص به وجود آمد؛ مثل استدلال درباره رفتار در «محاسبه موقعیت» (Situation Calculus). «محاسبه موقعیت» در واقع یک سیستم صوری بر مبنای منطق مرتبه اوّل است جهت #بازنمایی و استدلال درباره رفتار، زمان، و تغییرات.
🪝مفهوم اساسی این سیستم، مفهوم سیال (fluent) است؛ یعنی ویژگیای که میتواند مقدار آن در طول زمان تغییر کند. مثل دمای یک اتاق یا موقعیت مکانی یک شیء متحرّک. سیالهای گزارهای میتوانند بازنمایی کنند که آیا یک شیء در سمت چپ شیء دیگر قرار دارد یا نه، آیا چراغ اتاق روشن است یا نه، ... . جهان در هر نقطهای از زمان میتواند بطور کامل توسط دستهای از فرمولها که ارزش تمام سیالها در آن زمان خاص را بیان میدارد، توصیف یا بازنمایی شود.
رفتارهای روبات نیز بدینصورت، بازنویسی میشوند؛ هر فعلی دارای دستهای از پیششرطها و تأثیرات است که هر دو در قالب سیالها تعریف میگردند. اگر پیششرطهای یک فعل در یک حالت خاص برآورده شوند، آن فعل هم میتواند انجام پذیرد و برآوردهسازی تأثیرات خودش را در حالت جدید به دنبال خواهد داشت.
🪝جهت ممانعت از مدلهای عجیب و غریب که در آنها، یک رفتار دارای تأثیراتی نامربوط به خودش باشد، نیازمند تشخیص دقیق ناتأثیرها (Non-Effects) از طریق چیزی هستیم که قواعد چارچوب (Frame-Axioms) نامیده میشود. با آنکه گونههای مختصری از قواعد چارچوب طراحی شده، اما پیچیدگی محاسباتی استدلال با آنها به صورت یک چالش باقی مانده است. راهحلهای متنوع دیگری نیز پیشنهاد شده است ... اما قابل توجه است که هیچکدام از این راهحلها تاکنون حتی به کارآمدی رویکردی که بچههای کوچک درباره رفتارها استدلال میکنند، نزدیک نشدهاند.
🪝اینطور پیشنهاد شده که انسانها بدنبال استدلال برای ناتأثیرهای یک رفتار نمیروند، زیرا این را فرض میگیرند که یک فعل، تأثیر بر هیچچیز ندارد مگر آنکه شواهدی بر خلافش وجود داشته باشد. [یعنی اصل اوّلی بر عدم تأثیر است، مگر آنکه خلافش ثابت شود.] هرچند در اینجا هم معضل واقعی که فیلسوفانی مانند فودور بر آن متمرکز شدهاند، این خواهد بود: چطور میتوانیم بگوییم یک بخش از اطلاعات، تشکیلدهنده «شواهد بر خلاف» است؟
🪝حداقل دو مسئله مجزا در اینجا وجود دارد: اوّل آنکه باید بتوانیم مشخص کنیم یک بخش از اطلاعات، بنحو بالقوه با برخی باورهای ما مرتبط است. این همان مسئله ارتباط است. دوم آنکه باید بتوانیم مشخص کنیم آیا این اطلاعات، باور را مخدوش میسازد؟
هر دوی اینها، مسائلی مهندسی برای هوش مصنوعی کلاسیک (GOFAI) هستند و معضلات عام فلسفی. از جنبه مهندسی، خیلی دشوار نیست که یک سیستم نمادین بسازیم به یک حکم معقول برسد که: باورهای با پسزمینه درست، شناسایی شدند. مشکل مهم عملی اینست که به سرعت، اطلاعات مرتبط را به صفر برسانیم. بسیاری این اعتقاد را دارند که خیلی بعید است هیچ سیستم دستکاری نماد بتواند بر این مشکل فائق شود.
See: Konstantine & Bringsjord, 2014, in: The Cambridge Handbook of AI, pp.68-69.
@PhilMind