#مسئله_چارچوب
#فلسفه_هوش_مصنوعی
🔴 دریفوس در برابر #هوش_مصنوعی استدلال می کند که توانایی ما در شناخت جهان و دیگر مردمان، یک نوع مهارت غیر توصیفی از سنخ دانستنِ چگونگی (know-how) است که قابل تقسیم به کدگذاری و برنامه نویسی و ... نیست.
انسانها این توانایی را دارند که براساس تجربه در هر موقعیت به نحوی معقول و متناسب رفتار کنند؛ بدون آنکه نیاز داشته باشند در فعّالیتهای روزمرّه شان بدنبال پیروی از دستورالعملها بروند.
🔵 هرچه بسمت کارکردهای تجربهایتر برویم (مثلاً کارکرد تربیتی)، این تمایز بیشتر آشکار میشود. مربّی در هر لحظه و در مواجهه با هر رفتار کودک، به فراخور تجربهای که از تعامل با او و سایر کودکان اندوخته و برحسب ادراک درونی که از نوع واکنش کودک در آن لحظه دارد، تصمیم خاصّی میگیرد که میتواند کاملاً موردی باشد.
این قبیل مهارتها غیر قابل بیان و پیشا مفهومی اند و یک بُعد #پدیدارشناسی ضروری دارند که نمی تواند بوسیله هیچ سیستم قاعدهمندی به تصویر درآید.
🔴 دریفوس حتّی تأکید داشت که شاید هیچ دسته واقعیتهای رها از کانتکست (Context-free) وجود نداشته باشد که شیوههای رفتاری را مشخّص نماید و ما باید فقط از تجربیات وسیع خود بیاموزیم که چطور به هزاران مورد معمول و رایج، پاسخ بدهیم.
🔵 او همچنین بر اهمیت ظرفیتهایی مانند تخیّل و بکارگیری استعاره و ... تأکید می کرد که همگی در مقابل تلقّی محاسباتی قرار دارند. (Dreyfus, 1999, What Computers Still Can't Do, p. xxvii.)
🔴 آنهایی که انتقاد #دریفوس به GOFAI (هوش مصنوعی کلاسیک) را جدّی میگیرند، میتوانند همانند خود وی برخی تردیدهای مشابه را درباره رویکرد #پیوندگرایی (Connectionism) هم داشته باشند.
🔵 کار در حوزه تقویت یادگیری شبکههای پیوندگرا بر مسائل محدودی تمرکز دارد.
رفتارها البته میتوانند تعریف شوند و به آسانی تمایز یابند، ولی هوش با رفتارهایی سر و کار دارد که دستهبندی مناسب آنها وابسته به شرایط و کانتکست است.
روال رایج در #شبکههای_نورونی مصنوعی که مستلزم دستهبندیهای ساده رفتارهاست، یک عنصر اساسی هوش را دور میزند و نادیده میگیرد؛ یعنی یادگیری این که چطور شرایط و کانتکست، بر اهمیت و معنای رفتار تأثیر میگذارد. (Robinson, 2014, The Cambridge Handbook of Artificial Intelligence, pp. 101-102.)
مهمترین مباحث فلسفی درباره ذهن/نفس و علوم شناختی را اینجا ببینید:
https://eitaa.com/joinchat/183304263Cbe50a0e2d9
🖥 برخی مهندسان و پژوهشگران #هوش_مصنوعی علاقه چندانی به مباحث وجودشناختی AI ندارند و در بین مباحث #فلسفه_هوش_مصنوعی ، حداکثر مسائل #اخلاق_هوش_مصنوعی را بدلیل آنکه اوّلاً کاربردیتر مییابند و ثانیاً توانایی هوش مصنوعی و امکان تحقّق چشماندازهای آتی را به چالش نمیکشد، ترجیح میدهند.
🖥 این اتفاق البته در میان مهندسان #علوم_کامپیوتر در کشورمان بنحوی شایعتر و جدیتر وجود دارد و تعاملات بینارشتهای فلسفی – فنّی که بین برخی دپارتمانها و دانشمندان غربی در حوزه هوش مصنوعی مشاهده میشود در کشور ما تقریباً هیچ نمونهای (ولو تقلیلیافته) ندارد.
🎖درباره ضرورت توجه به متافیزیک هوش مصنوعی میتوان به تأثیر متقابل علمی و تئوریک اشاره کرد. تأملات فلسفی چه در زمانی که رویکرد کلاسیک دیجیتال در پی برنامهنویسیهای کامپیوتری بود و چه در زمانی که نظریات محاسباتی جدید در #پیوندگرایی یا تئوریهای #بدن_مندی به کار گرفته شد، در هر دو جنبه ارائه تئوریهای ایجابی برای ساخت هوش مصنوعی و هم در نقد و نقض آنها فعال بودهاند.
🎖نظریه محاسباتی کلاسیک ذهن (CCTM) که بعدها توسط فودور – فیلسوف ذهن دانشگاه راتگرز - با نظریه بازنمودگرایی تلفیق گردید، زمینه و پایه تولیدات فنّی و پژوهشهای دهه 70 پیرامون هوش مصنوعی را شکل داد.
کما اینکه تأملات و انتقادات امثال هابرت #دریفوس (درباره حسّ عمومی و مرتبط بودن) و #جان_سرل (درباره درک زبانی)، چالشهایی جدّی پیش روی تئوریها و تکنیکهای ساخت هوش مصنوعی قرار داد.
این تعاملات فلسفی – فنّی با زمستان هوش مصنوعی در دهه 80 و ورشکستگی کمپانیها تکمیل شد و دوره جدیدی را با تئوریهایی متفاوت رقم زد.
🎖در دوره جدید نیز تئوریهای پیوندگرایی و بدنمندی با چالشهایی جدی از سوی فیلسوفان مواجه بودهاند. دریفوس در دهه 70 و در مقاله پر ارجاع What Computers Can't Do استدلال میکرد که توانایی ما در تعامل با دیگران، یک نوع مهارت غیر توصیفی و تجربهای از سنخ دانستنِ چگونگی (know how) و دانستنِ گزارهای است که قابل تقلیل به کدگذاریهای گزارهای در برنامهنویسی نیست.
🎖او در سال 1999 و در کتاب What Computers Still Can't Do توانایی شبکههای نورونی پیوندگرا که بر پایه دستهبندی رفتارها برنامهریزی میشود را نیز به چالش کشید.
دستگاههای پیوندگرا قادر به تعمیم هستند و هرگاه با یک الگوی ورودی جدید - که از نوع الگوی تمرینشده قبلی است – مواجه میشوند، خروجیای مشابه تولید خواهند کرد. دریفوس و حامیانش اما اشکال مرتبط بودن را در اینجا نیز تکرار میکنند: «از یک نوع بودن» در دستهبندی و تعمیم رفتارها را چه چیزی مشخّص میکند؟
به اعتقاد اینها مدلسازی نمیتواند جلوی تعمیمهای ناجور و بیجا را بگیرد. کما اینکه اشکال اتاق چینی سرل درباره درک زبانی کامپیوترهای دیجیتال، در برابر شبکههای پیوندگرا نیز قابل بازسازی است و پاسخ روبات وی (Robot Reply) هم در برابر رویکرد بدنمندی.
🎖توجه به مباحث فلسفی هوش مصنوعی نه تنها اشکالات و نواقص نظریههای رایج در ساخت روباتها را گوشزد میکند، بلکه حتی میتواند به رویکردهای جدیدی در تولید #آگاهی_مصنوعی بینجامد. از جمله نظریه #حدوث_جسمانی آگاهی در #علم_النفس #ملاصدرا که زمینه را برای امکان و بلکه شیوه تولید #آگاهی در شبکههای نورونی مصنوعی متناسب با شبکههای نورونی طبیعی، فراهم میآورد.
@PhilMind
1_8415113464.mp3
31.45M
♦️صوت نشست سوم از مجموعه نشستهای #فلسفه_هوش_مصنوعی، با ارائه دکتر صبرآمیز و موضوع «مسئله چارچوب و عواطف انسانی: از #هوش_مصنوعی به فلسفه»، سهشنبه ۲۱ آذر، دانشکدگان فارابی دانشگاه تهران
@PhilMind
1402-10-05-event_ai_philosophy4.mp3
36.66M
📢 صوت رویداد
✳️ نشست علمی با موضوع:
«#هوش_مصنوعی و خطر وجودی»
از سلسله نشستهای «#فلسفه_هوش_مصنوعی»
نشست چهارم
🔺 با ارائهی «دکتر محمدحسن مرصعی»
دانشگاه صنعتی شریف
🗓 سهشنبه ۵ دی ۱۴۰۲
📍 دانشکده مهندسی دانشکدگان فارابی دانشگاه تهران
👈 توسط دانشکدگان فارابی دانشگاه تهران
با حمایت ستاد توسعه علوم و فناوریهای شناختی
@PhilMind