🕒 مباحث ذیل #فلسفه_هوش_مصنوعی را میتوان به دو حوزه کلّی تفکیک کرد:
1) موضوعات مربوط به #اخلاق_هوش_مصنوعی (مانند مسئولیت پیامد تصمیمات و رفتار #هوش_مصنوعی، حق مالکیت خلاقیتهای هنری یا علمی هوش مصنوعی، تأثیر روباتها بر تعاملات بشری، جواز و نحوه محدودکردن هوش مصنوعی، جواز پاداش و تنبیه روباتها، ...) که بیشتر در حوزه $فلسفه_اخلاق قرار میگیرند.
2) موضوعات مربوط به «وجودشناسی هوش مصنوعی» یا #متافیزیک_هوش_مصنوعی (مانند امکان بالقوهی #آگاهی_ماشین، چشمانداز #هوش_مصنوعی_قوی، ماهیت و حیطهی #آگاهی_مصنوعی، میزان قابلیت رویکرد کلاسیک محاسباتی و رویکردهای #پیوندگرایی و #بدن_مندی در تولید #آگاهی_پدیداری، ...) که عمدتاً در حوزه #فلسفه_ذهن بررسی میشوند.
🕓 برخی مهندسان و پژوهشگران فنّی هوش مصنوعی اما علاقه چندانی به دسته دوم مباحث فوق ندارند و در بین مباحث فلسفی هوش مصنوعی، دسته نخست را به دلیل آنکه اوّلاً کاربردیتر مییابند و ثانیاً توانایی هوش مصنوعی و امکان تحقّق چشماندازهای آتی را به چالش نمیکشد، ترجیح میدهند.
ضمن اینکه برخی چشماندازهای معاصر هوش مصنوعی نیز از وعدههای دهه 60 و 70 میلادی مبنی بر تولید شخص (person) با تمام حالات آگاهانه و ویژگیهای پدیداری کوتاه آمده و بعضاً تحقّق اهدافی صرفاً کاربردی و جزئی را دنبال میکنند.
🕔 این اتفاق البته در میان محققان و مهندسان هوش مصنوعی در داخل کشورمان بنحوی شایعتر و جدیتر وجود دارد و تعاملات بینارشتهای فلسفی – فنّی که بین برخی دپارتمانها و دانشمندان غربی در حوزه هوش مصنوعی مشاهده میشود در کشور ما تقریباً هیچ نمونهای (ولو تقلیلیافته) ندارد.
🕕 هندبوک هوش مصنوعی که چاپ اوّل آن در سال 2015 توسط انتشارات دانشگاه کمبریج به چاپ رسیده و اساتید مطرح بینالمللی در فصول مختلف آن قلم زدهاند، چهار فصل کلّی دارد که فصل اول آن به «بنیادهای فلسفی» و «چالشهای فلسفی» میپردازد و فصول تکنیکال بعدی نیز مکرّراً در لابلای مباحث GOFAI و پیوندگرایی و بدنمندی و #حیات_مصنوعی (Artificial Life) و حتی #یادگیری_ماشین، به مسائل فلسفی ارجاع میدهد و تأملاتی دوطرفه را پیش روی مخاطب میگذارد. (See: The Handbook of Artificial Intelligence, 2015, Cambridge University Press)
درباره ضرورت توجه به مباحث وجودشناسی هوش مصنوعی لااقل از دو منظر میتوان سخن گفت که در پستهای آینده بدانها اشاره خواهد شد.
@PhilMind
🖥 برخی مهندسان و پژوهشگران #هوش_مصنوعی علاقه چندانی به مباحث وجودشناختی AI ندارند و در بین مباحث #فلسفه_هوش_مصنوعی ، حداکثر مسائل #اخلاق_هوش_مصنوعی را بدلیل آنکه اوّلاً کاربردیتر مییابند و ثانیاً توانایی هوش مصنوعی و امکان تحقّق چشماندازهای آتی را به چالش نمیکشد، ترجیح میدهند.
🖥 این اتفاق البته در میان مهندسان #علوم_کامپیوتر در کشورمان بنحوی شایعتر و جدیتر وجود دارد و تعاملات بینارشتهای فلسفی – فنّی که بین برخی دپارتمانها و دانشمندان غربی در حوزه هوش مصنوعی مشاهده میشود در کشور ما تقریباً هیچ نمونهای (ولو تقلیلیافته) ندارد.
🎖درباره ضرورت توجه به متافیزیک هوش مصنوعی میتوان به تأثیر متقابل علمی و تئوریک اشاره کرد. تأملات فلسفی چه در زمانی که رویکرد کلاسیک دیجیتال در پی برنامهنویسیهای کامپیوتری بود و چه در زمانی که نظریات محاسباتی جدید در #پیوندگرایی یا تئوریهای #بدن_مندی به کار گرفته شد، در هر دو جنبه ارائه تئوریهای ایجابی برای ساخت هوش مصنوعی و هم در نقد و نقض آنها فعال بودهاند.
🎖نظریه محاسباتی کلاسیک ذهن (CCTM) که بعدها توسط فودور – فیلسوف ذهن دانشگاه راتگرز - با نظریه بازنمودگرایی تلفیق گردید، زمینه و پایه تولیدات فنّی و پژوهشهای دهه 70 پیرامون هوش مصنوعی را شکل داد.
کما اینکه تأملات و انتقادات امثال هابرت #دریفوس (درباره حسّ عمومی و مرتبط بودن) و #جان_سرل (درباره درک زبانی)، چالشهایی جدّی پیش روی تئوریها و تکنیکهای ساخت هوش مصنوعی قرار داد.
این تعاملات فلسفی – فنّی با زمستان هوش مصنوعی در دهه 80 و ورشکستگی کمپانیها تکمیل شد و دوره جدیدی را با تئوریهایی متفاوت رقم زد.
🎖در دوره جدید نیز تئوریهای پیوندگرایی و بدنمندی با چالشهایی جدی از سوی فیلسوفان مواجه بودهاند. دریفوس در دهه 70 و در مقاله پر ارجاع What Computers Can't Do استدلال میکرد که توانایی ما در تعامل با دیگران، یک نوع مهارت غیر توصیفی و تجربهای از سنخ دانستنِ چگونگی (know how) و دانستنِ گزارهای است که قابل تقلیل به کدگذاریهای گزارهای در برنامهنویسی نیست.
🎖او در سال 1999 و در کتاب What Computers Still Can't Do توانایی شبکههای نورونی پیوندگرا که بر پایه دستهبندی رفتارها برنامهریزی میشود را نیز به چالش کشید.
دستگاههای پیوندگرا قادر به تعمیم هستند و هرگاه با یک الگوی ورودی جدید - که از نوع الگوی تمرینشده قبلی است – مواجه میشوند، خروجیای مشابه تولید خواهند کرد. دریفوس و حامیانش اما اشکال مرتبط بودن را در اینجا نیز تکرار میکنند: «از یک نوع بودن» در دستهبندی و تعمیم رفتارها را چه چیزی مشخّص میکند؟
به اعتقاد اینها مدلسازی نمیتواند جلوی تعمیمهای ناجور و بیجا را بگیرد. کما اینکه اشکال اتاق چینی سرل درباره درک زبانی کامپیوترهای دیجیتال، در برابر شبکههای پیوندگرا نیز قابل بازسازی است و پاسخ روبات وی (Robot Reply) هم در برابر رویکرد بدنمندی.
🎖توجه به مباحث فلسفی هوش مصنوعی نه تنها اشکالات و نواقص نظریههای رایج در ساخت روباتها را گوشزد میکند، بلکه حتی میتواند به رویکردهای جدیدی در تولید #آگاهی_مصنوعی بینجامد. از جمله نظریه #حدوث_جسمانی آگاهی در #علم_النفس #ملاصدرا که زمینه را برای امکان و بلکه شیوه تولید #آگاهی در شبکههای نورونی مصنوعی متناسب با شبکههای نورونی طبیعی، فراهم میآورد.
@PhilMind
🔐 واژه «هوش» (Intelligence) در عنوان حوزه مطالعاتی #هوش_مصنوعی، گمراهکننده است. این واژه را وقتی درباره انسانها بکار میبریم، به شاهکارهای ذهنی در خلاقیت و استعداد آنها ارجاع میدهیم. در حالیکه جذّابترین مسائل هوش مصنوعی، به تلاشها برای تقلید قوای ذهنی مردم عادی (مانند بینایی و زبان طبیعی) برمیگردد.
🔐 مردم عادی کارهایی مانند دیدن و صحبت کردن را راحت مییابند و اهمیت زیادی برای آنها قائل نیستند. از سوی دیگر، کارهایی مانند ضرب اعداد ده رقمی برای اکثر ایشان، دشوار بنظر میرسد.
ولی استفاده از کامپیوترها برای مطالعه قوای ذهنی، مشخّص کرد که چقدر بازسازی کارهای ساده انسانی مانند دیدن و معاشرت و ... - برخلاف انجام عملیاتهای پیچیده ریاضیاتی - در کامپیوترها چالشبرانگیز است.
🔐 در واقع آنچه محور پژوهش و ساخت در حوزه مطالعاتی و مهندسی هوش مصنوعی قرار دارد، بسیار نزدیک به مفهوم #آگاهی در کانتکست فلسفی و #علوم_شناختی است؛ چه مصادیق #گرایشات_گزارهای (مانند باور، تردید، تفکّر، تصمیم، ...) و چه مصادیق #حالات_پدیداری (مانند شادی، غم، خشم، مهربانی، ...).
🔐 البته مسئله بسیار مهم، "رویکردهای مطالعاتی و تولیدی" هوش مصنوعی نسبت به حالات آگاهانه فوق است. همانطور که راسل و نورویگ در «رویکردی مدرن به هوش مصنوعی» (2010) توضیح میدهند، چهار تعریف/الگوی عمده «تفکّر شبیه انسان»، «تفکّر ایدهآل»، «رفتار شبیه انسان»، «رفتار ایدهآل» در مطالعه و ساخت هوش مصنوعی طی 70 سال گذشته وجود داشته است.
چهار الگویی که بنحوی کاملاً کارکردگرایانه، صرفاً خروجیهای محاسباتی (در الگوهای تفکّرمحور) و رفتاری (در الگوهای رفتارمحور) را هدف میگیرند و نسبت به جنبههای سابجکتیو و اوّلشخص #حالات_آگاهانه هیچ پروپوزالی و تمرکزی ندارند.
چیزی که جان سرل، #هوش_مصنوعی_ضعیف مینامید.
🔐 هرچند ذیل پروژه #آگاهی_ماشین (Machine Consciousness) تلاشهایی برای بازسازی جنبههای پدیداری و اوّلشخص حالات آگاهانه در دست انجام است.
فارغ از اینکه در این کلانپروژه نیز تا چه اندازه مدلکردن آگاهی ماشین (Machine Modeling of Consciousness: MMC) با رویکرد محاسباتی و کارکردگرایانه سایه انداخته، اما هدف و تعریف مسئله را منطبق با #مسئله_دشوار آگاهی مییابیم که بنحوی بنیادین با رویکرد و تعریف مسئله در جریان اصلی پروژه هوش مصنوعی، متفاوت است.
🔐 و البته برخی زمزمهها و پروپوزالهای حاشیهای برای تولید و ساخت با رویکردی نوظهورگرایانه و شبه زیستشناختی و ... هم در حال طرح و بررسی است که بنحوی بسیار جدیتر از رویکردهای محاسباتی و رفتارگرا، تولید #آگاهی_مصنوعی را هدف میگیرند. (See: Clowes, R., & Torrance, S., & Chrisley, R., 2007, "Machine Consciousness, Embodiment and Imagination", Journal of Consciousness Studies, 14, No. 7, pp. 9–13.)
@PhilMind
💠حدود یکماه پیش بود که بلیک لموین – از کارکنان شرکت گوگل – ادعای خودآگاهبودن #هوش_مصنوعی LaMDA را مطرح کرد. وی در گزارش خود به توانایی بالای لامدا برای ارائه پاسخهای قانعکننده درباره احساسات و تجربیات درونیاش استناد کرده بود که به مخاطب نشان میدهد که زندگی درونی عمیق سرشار از تخیل، خودآگاهی و تفکر دارد.
لامدا در چت با لموین، از نگرانیهای خود درباره آینده و گذشته سخن گفته و اینکه کسب ادراکات، چه حس و حالی دارد. گوگل البته با فاصله کمی، به این گزارش واکنش نشان داد و ادعای لموین را رد کرد.
💠فارغ از واکنش شرکت گوگل به موضوع لامدا، ادعای تولید #آگاهی_مصنوعی یا وجود #خودآگاهی در فلان روبات، همواره میتواند چالشبرانگیز باشد. شاید محور سؤالها البته بر مسئله #اذهان_دیگر (other minds) تمرکز یابد؛ اینکه از کجا و با چه معیاری میتوان ادعای وجود جهان سابجکتیو و آگاهانه در موجودات دیگر را راستیآزمایی کرد؟
طی مناقشه اخیر بدنبال اساس و معیار این ادعا بودم که البته بنحوی ناامیدکننده بر «تمایزناپذیری زبانی» استوار میشد؛ یعنی پاسخهای زبانی لامدا درباره احساساتش، با پاسخهای یک عامل انسانی آگاه، غیرقابل تمایز دانسته شده بود. این در واقع همان معیار تورینگ در آزمون معروف تورینگ (1950) برای ماشین تفکرکننده است.
💠کامپیوتر در صورتی #آزمون_تورینگ را پاس میکرد که یک پرسشگر انسانی، پس از طرح چند سؤال مکتوب از کامپیوتر و عامل انسانی - که مشخص نباشد کدامیک، ارائهدهنده کدام پاسخ هستند - نتواند تشخیص دهد کدام پاسخ از سوی کامپیوتر و کدام از سوی انسان ارائه شده است.
💠البته برنامهنویسی برای یک کامپیوتر تا آزمونی چنین کاربردی را پاس کند، کار بسیار زیادی طلب میکند. چنین کامپیوتری نیاز دارد که تواناییهای ذیل را دارا باشد:
- پردازش زبان طبیعی (تا کامپیوتر را قادر به ارتباط با زبان انگلیسی بگرداند)
- بازنمایی معرفت (تا کامپیوتر را قادر به ذخیرهسازی چیزهایی که میداند و میشنود، بگرداند)
- استدلال خودگردان (تا اطلاعات ذخیرهشده را برای پاسخ به سؤالات و نتیجهگیریهای جدید بکار گیرد)
- یادگیری ماشین (تا با شرایط جدید، سازگار شود و الگوها را تشخیص و استخراج نماید).
💠اما از دهها سال قبل، مناقشات متنوّعی درباره پیشفرض رفتارگرایانه موجود در این آزمون مطرح شده است. مثلاً آزمون فکری ند بلاک (1981) با نام عمّه برتا (Aunt Bertha) که استدلال میکرد رفتار یک ارگانیسم، تنها چیزی نیست که هوشمندی آن را تعیین میکند؛ بلکه منشاء و مکانیسم تولید این رفتار نیز موضوعیت دارد.
💠ممکن است ماشین با مراجعه به بانک بسیار عظیمی از دوگانههای پرسش و پاسخ، یا استفاده از الگوهای پاسخ درست، بتواند آزمون تورینگ را درباره پاسخ به سؤالاتی پیرامون احساسات و تفکراتش بخوبی پشت سر بگذارد. این اما در نهایت فقط یک دستگاه جستجوگر قدرتمند خواهد بود که ارتباطی با یک جهان درونی پدیداری و مولّد پاسخهای آگاهانه ندارد. اطلاعیهای که شرکت گوگل درباره بررسی ادعای لموین منتشر کرد نیز بر همین نکته تأکید کرده است.
💠امروزه محقّقان هوش مصنوعی، تلاشهای کمی برای پاسکردن آزمون تورینگ بخرج میدهند؛ زیرا اعتقاد دارند جستجو به دنبال "پرواز مصنوعی"، زمانی به موفّقیت رسید که برادران رایت و دیگران، تقلید از پرندگان را کنار گذاشتند و شروع به یادگیری درباره آیرودینامیک و بکارگیری تونلهای بادی کردند. متون مهندسی فضانوردی، هدف از آن حوزه را اینطور معرّفی نمیکنند که "بدنبال ساخت ماشینهایی هستند که دقیقاً مانند کبوترها پرواز میکنند و میتوانند کبوترها را نیز فریب بدهند"! (Russell & Norvig, 2010, Artificial Intelligence, A Modern Approach, p. 3)
💠در واقع هنوز عمده استراتژیهای تعریف و ساخت هوش مصنوعی حول معیارهایی رفتارمحور - چه رفتار شبیه انسان (که آزمون تورینگ نیز از این قبیل است) و چه رفتار ایدهآل – شکل میگیرد و آن #تجربه_پدیداری و جهان سابجکتیو (بعنوان منشاء و مولد این رفتارها و خروجیها)، موضوعیت ندارد. مشکلی که البته در سایر حوزههای علوم شناختی نیز دیده میشود.
این در حالیست که بنظر میرسد با تمرکز بر خود تجربه پدیداری و منشاء تولید واکنشها، احتمال تولید آگاهی مصنوعی بنحوی واقعی وجود دارد.
@PhilMind
♻️ ممکن است کسی بگوید دستگاهی دارای #هوش_مصنوعی است که بتواند برای انجام کارهایی شبیه تقسیم 231 بر 42 استفاده شود؛ یعنی کارهایی که انجام آنها توسّط انسان، مستلزم هوش است. داشتن هوش به این معنا را «هوش کاری» (task intelligence) مینامیم. حتّی ماشین حسابها هم میتوانند دارای هوش کاری تلقی شوند. هوش کاری مصنوعی، مناقشه برانگیز نبوده و حتّی آکوئیناس و دکارت هم دلیلی برای ردّ آن ندارند.
♻️ اما باید توجّه داشته باشیم که ماشین حسابها "نمیدانند" جواب مسائل ریاضیاتی چیست و نمیدانند که در حال انجام عملیات ریاضیاند. لذا بوضوح شایسته نیست که از دارابودن «هوش کاری»، ادّعاهای بزرگتر: دارابودن «هوش اشیاء» را نتیجه بگیریم. پرسشهای مناقشهبرانگیز معاصر از امکان هوش مصنوعی اشیاء و رویکردهای مختلف برای طراحی آن، سؤال میپرسند. در واقع تمایز هوش کاری/اشیاء روشن میسازد که چالشهای فلسفی عموماً متوجه ادعاهایی هستند که میگویند یک دستگاه میتواند خودش اصالتاً هوشمند باشد و حالات شناختی خاص خودش را داشته باشد و این به هوش شیء مربوط میشود و نه هوش کاری.
♻️ در تعقیب همین تفکیک بین هوش کاری و هوش اشیاء، خوبست توجه نماییم که رفتار هوشمندانه، هدفمند است و بر گونهای از اهداف دلالت دارد. و دشوار است تصوّر کنیم عملی هدفمند باشد، مگر آنکه احساسات بدنی خوشایند و ناخوشایند، هیجانات، نشاط یا افسردگی، مشروط بر این عمل را داشته باشد. مسلّماً هیچکدام از اصطلاحات مذکور بوسیله موجوداتی که نمیتوانند در چنین حالاتی قرار بگیرند، فهمیده نمیشود. اینها حالات آگاهانهاند. بدین ترتیب میتوان گفت هوش مصنوعی، مستلزم #آگاهی_مصنوعی است. ولی از آنجا که اکثر رویکردها به هوش مصنوعی معطوف به تولید آگاهی نیست، میتوان در موفقیت رویکردهای معمول به هوش مصنوعی، تردید داشت.
♻️ اجازه دهید بین اهداف و اهداف* تمایز بگذاریم: اهداف* شبیه اهدافاند، جز آنکه مستلزم آگاهی و حالات درونی نیستند؛ یعنی اهداف*، صرفاً کارکرد حالاتی را دارند که رفتارها از طریق آنها سازماندهی میشوند. هدف* یک ماشین شطرنجباز، اینست که برنده بازی بشود و موفقیت با این استاندارد، احتمالاً موفقیتی برای هوش مصنوعیِ کاری (task AI) تلقّی خواهد شد؛ حتّی اگر هیچکس احساس سرافرازی در هنگام برد یا احساس سرشکستگی در هنگام باخت را برای ماشینها در نظر نداشته باشد.
برای مثال یک روبات که بتواند خرید از سوپر مارکت (شامل جداکردن میوههای رسیده از خام، انطباق با تغییرات برنامه حرکت اتوبوسها، تأخیرات مربوط به آب و هوا، و ...) را انجام بدهد، بنحوی مقبول دارای هوش مصنوعی بحساب خواهد آمد؛ بدون آنکه هیچگونه حالت آگاهانه یا احساسات پدیداری را در هنگام انجام موفق کارها برای او مفروض گرفته باشیم.
♻️ داشتن #حیث_التفاتی از داشتن حالات و رویدادهای درونی حکایت دارد که ابژههای جهان خارج را «بازنمایی میکنند»؛ حال آنکه حیث التفاتی* ممکن است بدون این حالات درونی و فهم سابجکتیو از معانی، تعریف و تولید بشود.
فهم سابجکتیو از معانی و نیز حالات هیجانی و عاطفی مترتب بر انجام کارها، مستلزم یک جهان درونی و جنبه پدیداری در روباتهاست که معمولا با خلط بین هوش کاری و هوش اشیاء، نادیده گرفته میشود.
@PhilMind
فعلا قابلیت پخش رسانه در مرورگر فراهم نیست
مشاهده در پیام رسان ایتا
🔥این👆بخشی از گفتگوی سبحاش کاک - رییس دپارتمان علوم کامپیوتر دانشگاه اوکلاهاما آمریکا - است که ۱۰ روز قبل منتشر شده و اینجا ترجمه کردهایم.
🔥کاک بعنوان متخصص #محاسبات_کوانتومی توضیح میدهد که چرا متد محاسباتی (هرچقدر هم حجیم و پیچیده بشود)، نمیتواند به تولید #آگاهی_ماشین بینجامد.
او البته #آگاهی_مصنوعی را در قالب ماشینهای بیولوژیک (که احتمالا در آینده جایگزین روش ساخت ماشینهای غیر بیولوژیک فعلی خواهد شد)، امکانپذیر میداند.
هرچند براساس دیدگاه #نوظهورگرایی_قوی اعتقاد دارد آگاهی ماشینهای بیولوژیک (از جمله #مغز) در سطحی غیرفیزیکی از سطح بیولوژیک جهش میکند و ظهور مییابد.
🔥توضیحاتی که کاک در مورد تعارض دستورالعملهای منطقی علوم کامپیوتر با جنبههای جمعالاضدادی آگاهی میدهد، بیانی دیگر از استدلال معروف حس عمومی/ مسئله چارچوب از هیوبرت #دریفوس است که میگفت تجربه آگاهانه جنبهای پیشامفهومی دارد که فراچنگ گزارهها و دستورالعملهای #هوش_مصنوعی نمیآید.
@PhilMind
🚩 شواهدی قوی وجود دارد که در یک سیستم بیولوژیک شبیه ما، #آگاهی بر یک پایهی متشکّل از کالبدشناسی (آناتومی)، شیمی و میدانهای الکتریکی گسترش مییابد.
اما سیستمهای کامپیوتری برای مشارکت و حمایت از فرآیندهای شناختی ما «برنامهنویسی» میشوند و دادههای ورودی براساس توانمندی ما در فهم معنای اطلاعات مختلف، سازماندهی میشوند.
ما این دادهها را با استفاده از لگاریتمها و فرمولهای منطقی و ریاضیاتی و علمی پردازش میکنیم؛ لگاریتمها و فرمولهایی که برای توصیف درک شناختی ما از جهان بیرون و درون، توسعه داده شدهاند.
🚩 عوامل مختلفی، توانایی خلق سیستمهایی با #آگاهی_مصنوعی – که قابل مقایسه و سازگار با آگاهی بیولوژیکی ما باشد – را محدود میسازد؛ مثلاً:
1⃣ سیستم ادراک حسّی ما، اطلاعات را با استفاده از مودالیتههای حسّی بیولوژیکی در انسان، یکپارچه میسازد. در نتیجه سیستمهای #هوش_مصنوعی را وا میداریم با ما در محدودیتهای این مودالیتههای حسّی شریک شوند.
2⃣ در حال حاضر تعامل با این سیستمها، مقیّد به ظرفیتهای حرکتی و ادراکی ماست.
3⃣ سیستمهای کامپیوتری از طریق سوئیچکردنهای الکترونیکی، قدرتهای الکتریکی، و بر پایه تراشهها کار میکنند؛ یعنی کاملاً متفاوت از شیوههای چارچوب سهگانه بیولوژی آناتومی و الکتروفیزیولوژیک و شیمی.
4⃣ سیستمهای کامپیوتری با استفاده از سطوح بسیار پیچیده و سنگین پردازش موازی اطلاعات کار میکنند.
5⃣ سیستمهای کامپیوتری با بکارگیری منطقهای ریاضیاتی، برنامهنویسی میشوند. ولی مشخّص نیست که سیستمهای پردازش بیولوژیک انسانی، بر هیچ شکلی از گونههای منطقی استوار باشد.
🚩 یکی از اعتراضات مهم که امثال جان سرل بر مدلهای محاسباتی و رایج در تولید سیستمهای هوش مصنوعی داشتند، این بود که نوروفیزیولوژی و بیوشیمی را نادیده میگیرند و صرفاً بر فرآیندهای پردازش اطلاعات تمرکز میکنند.
🚩 هرچند همانطور که پگل و کریستین (2017) توضیح دادهاند، سیستمهای هوش مصنوعی در توسعههای اخیر، جایگزینی معدنی از اجزای بیولوژیک آگاهی، شبکههای مصنوعی عصبی بجای نورونهای سلولی، قدرت الکتریکی بجای نوروشیمیایی، و منطق فازی منعطف بجای دستورالعملهای برنامهنویسی براساس پروتئین و DNA را بکار میگیرند.
آیا میتوان منتظر چشمانداز جدیدی از تولید #آگاهی_ماشین بود؟
@PhilMind
حجم رسانه بالاست
مشاهده در ایتا
♦️هیوبرت دریفوس - استاد فلسفه دانشگاه برکلی - درباره شکست پروژه #هوش_مصنوعی با استفاده از متدهای کنونی میگوید (2022)👆
🔺دریفوس پایهگذار اشکال حس عمومی علیه رویکردهای محاسباتی در هوش مصنوعی است که بازنمایی مفهومی از جهان را برای تولید حس عمومی، ناکام میداند. بنظر وی رفتار هوشمند انسانی منبعث از معرفت گزارهای نیست؛ بلکه از انباشت تجربیات آگاهانه درونی ناشی میشود که در هر موقعیت خاص، ممکن است واکنشی منحصربهفرد را اقتضا نماید.
🔻به اعتقاد او رویکرد کلاسیک مفهومی و بازنمایانه در تلقی دوهزارساله فیلسوفان از ساختار معرفت ریشه داشته که در قرن بیستم توسط #هایدگر و ویتگنشتاین به انتهای خط رسیده.
اما مهندسان هوش مصنوعی ابتدا بدون توجه به این شیفت پارادایمی در فلسفه، برنامه تحقیقاتی خود را بر پایه تلقی کلاسیک بنیان نهاده و وقتی در دهه هشتاد (زمستان هوش مصنوعی) با شکست مواجه شدند، با درکی سطحی از دیدگاه هایدگری، #رویکرد_محاسباتی را به سمت #بدن_مندی تغییر دادهاند. تغییری که به اعتقاد دریفوس، همچنان رفتارگرایانه و فارغ از نکته هایدگر است و حتی در ساخت #هوش_مصنوعی_ضعیف (رفتار هوشمندانه) هم ناکام بوده، تا چه رسد به ساخت #هوش_مصنوعی_قوی (#آگاهی_مصنوعی).
@PhilMind
♦️#ویتگنشتاین در استدلال #زبان_خصوصی این پرسش را مطرح میکرد که معنای واژگان متعارف ما درباره حالات ذهنیمان از کجا بدست میآید؟
مثلا وقتی کامران میگوید زانویش «درد» دارد، به یک شیء خصوصی ارجاع میدهد که از دسترس دیگران خارج است و تضمینی وجود ندارد که احساسی که او دارد، با احساس سهیلا و حمید و ... در هنگام استفاده آنها از واژه درد، یکسان باشد.
پس در اینجا یک مسئله معرفتشناختی وجود دارد: استفاده از واژگان یکسان برای #حالات_ذهنی ، تضمین نمیکند که حالات ذهنی هم یکسان باشند.
♦️وقتی نتوان بطور قطع مشخص کرد که کامران - یا هرکس دیگر - از واژگان ذهنی بدرستی استفاده میکند، هویات ذهنی هم بعنوان معنای این واژگان وجود ندارند. بلکه معنای واژه درد، چیزیست که معیار و تمایز میان کاربرد درست و غلط آن را مشخص سازد. ویتگنشتاین این معنا و معیار را «رفتار» شخص میداند. برخی مانند گلن استراوسون میگویند ادعای ویتگنشتاین نهایتا به #رفتارگرایی میانجامد؛ دیدگاهی که ماهیت حالات ذهنی را در همین رفتار (بالفعل و بالقوه) خلاصه میکند و هیچ چیز دیگری (امر سابجکتیو) غیر از آن باقی نمیگذارد.
♦️البته ممکن است فردی این معیار عمومی و مشاهدهپذیر که ویتگنشتاین میگوید را برآورده سازد، بدون آنکه واقعا درد داشته باشد (مثلا تمارض نماید). یا ممکن است کسی واقعا احساس درد داشته باشد، اما بدلایل مختلفی بروز ندهد (مثلا سربازان در میدان جنگ).
اگر ما این معیار عمومی (بروزهای رفتاری) را صرفا راهنمایی معرفتشناختی بر وجود حالات درونی بدانیم، حتما خطاپذیری آن معیار هم قابل توجیه است. ولی طبق استدلال ویتگنشتاین، سخن از رابطهای معرفتی در اینجا نیست؛ بلکه او نتایج متافیزیکی درباره وجود یا عدم اشیاء خصوصی میگیرد. در نتیجه گویی رابطه «سازنده و مقوم» (constitution) برقرار است. در این صورت مثالهایی مانند تمارض و سربازان در میدان جنگ هم این مقومبودن را زیر سؤال میبرند.
♦️اما فارغ از مقصود ویتگنشتاین از استدلال فوق، همان معیار صرفا معرفتی هم مسئله حاد #اذهان_دیگر را یادآور میشود. چیزی که به تعبیر ند بلاک، حتی از #مسئله_دشوار آگاهی (hard problem) هم وخیمتر است و باید آن را #مسئله_دشوارتر (harder problem) نامید.
این مسئله در حوزه #هوش_مصنوعی و #آگاهی_مصنوعی نیز پیامدها و کاربردهایی حیاتی بدنبال دارد.
@PhilMind
⏰ این پرسش مکرر مطرح میشود که در #فلسفه_اسلامی، بحثی متناظر با مفهوم آگاهی (#consciousness) وجود دارد و آیا از این مفهوم در استدلالهای مربوط به چیستی نفس، استفاده شده است؟
⏰ مفهوم #آگاهی (و به ویژه #آگاهی_پدیداری: Phenomenal Consciousness) در #فلسفه_ذهن معاصر، به تجربیات درونی ارجاع میدهد؛ یعنی به همان کیفیات سابجکتیو که بصورت مثلا غم و شادی و خشم و درد و لذت و ... تجربه میشوند. آگاهی بدین معنا چالش اصلی و مسئله دشوار #فیزیکالیسم معاصر قلمداد میشود و انواع تئوریها به منظور تبیین فیزیکی آن ارائه و مخدوش شده است.
⏰ در #علم_النفس فلسفه اسلامی اما عمده تمرکزها و استدلالها پیرامون #تجرد_نفس، بر محور مفهوم علم و بعضاً #ادراک_حسی میچرخد. ادراک حسی هم از جنبه اطلاع مفهومی از محتوا و نه از جنبه #کیفیت_پدیداری آن. مثلا ادراک بصری دریا (یا تصویر هر ابژه عظیم الابعاد) از این جهت مورد بحث قرار میگیرد که آیا دریافت آن صرفا توسط چشم و مغز امکانپذیر است یا نه. استدلالی که بر ابعاد محتوای ادراک حسی و مشخصههای اطلاعاتی آن تکیه دارد و نه بر کیفیت پدیداری (مثلا لذت یا ترس) حاصل از ادراک آن.
یا مثلاً استدلالهایی که بر تجرد علم تکیه میکنند، عمدتا بر امکان یا عدم امکان تحقق محتوای علم در مغز یا هر پایگاه فیزیکی دیگر تمرکز دارند.
⏰ این قبیل استدلالها در واقع محتوای التفاتی را برجسته میکنند. #حالات_التفاتی - که نزدیکترین آنها به مفهوم علم، حالاتی مانند تفکر و باور در فلسفه ذهن هستند - البته جزو مسائل دشوار فیزیکالیستی بحساب میآیند و برخی فیلسوفان معاصر، طبیعیسازی #حیث_التفاتی (#Intentionality) را در کنار طبیعیسازی #تجربه_پدیداری، دو مسئله اصلی فیزیکالیسم میدانند.
ولی به هرحال مسئله آگاهی پدیداری از مسئله حیث التفاتی جداست و آنچه در ادبیات معاصر #فلسفه_تحلیلی با توافقی گسترده به عنوان مسئله محوری تلقی شده و موضوع انواع استدلالها درباره ماهیت ذهن قرار گرفته، همین مسئله آگاهی و کیفیات پدیداریست. (بازنمودگرایان سعی میکنند آگاهی پدیداری را به حیث التفاتی تقلیل بدهند و از این طریق، راه حلی برای #مسئله_دشوار آگاهی ارائه دهند)
⏰ آنچه در نظر فیلسوفان مسلمان اما - از فارابی و #ابن_سینا گرفته تا #ملاصدرا - مهم مینمود، علم به معنای حیث التفاتی بود و اساسا آگاهی پدیداری در مباحث ایشان پیرامون نفس، جایگاه خاصی نداشته است. اینان حتی در شمارش #قوای_نفس نیز از مراتب مادون (قوای حاسه) گرفته تا قوه عاقله، جایگاهی برای قوای متناظر با تجربه #کیفیات_پدیداری در نظر نگرفتهاند.
اینکه استدلالهای سنتی فیلسوفان مسلمان در باب تجرد نفس تا چه اندازه میتواند صائب و نافذ باشد، بحثی مجزا و مفصل میطلبد. ولی در هر حال باید توجه داشت که موضوع بحث در این قبیل استدلالها عمدتا حیث التفاتیست و نه تجربه پدیداری.
⏰ سنت فلسفی اسکولاستیک در جهان غرب نیز به تبع رویکرد فوق، بر ماهیت علم و ادراک تکیه کرده و حتی #دکارت هم برای استدلال به نفع ذهن غیر فیزیکی، انواع تفکر را محور بحث و استدلال قرار داده است.
شیفت مباحث از محتوای التفاتی/بازنمودی به کیفیت پدیداری، تا حد زیادی متأثر از یافتههای جدید #علوم_شناختی در نیمه دوم قرن بیستم و تاکیدات مختلف بر هیجانات و احساسات و ... بود که مسئلهای متفاوت از تبیین محتوای اطلاعاتی را پیش میکشید.
⏰ هرچند این شیفت مهم توجهات هنوز در #هوش_مصنوعی اتفاق نیفتاده و عمده مهندسان AI به تبع تورینگ و چشماندازهای اواسط قرن بیستم، همچنان بدنبال تولید #ماشین_تفکرکننده یا روباتهای بدنمند هستند. بماند که در همین هدف نیز به #مدلهای_محاسباتی و تمایزناپذیری رفتاری و کارکردی اکتفا میکنند. رویکردهای نوین درباره ساخت #آگاهی_مصنوعی به تازگی از زیر آوار التفاتگرایی در هوش مصنوعی سر برآوردهاند؛ البته اگر همینها نیز از آفات مدلسازیهای بازنمودگرا در امان بمانند.
@PhilMind
👇
🧩 سالهاست که با غلبه رویکرد محاسباتی در #علوم_شناختی، فرآیندهای انتزاعی محاسبات بعنوان زمینه تولید هوش و آگاهی به رسمیت شناخته شده و نزد بسیاری از دانشمندان و محققان این حوزه، ماده سازنده سیستم پردازشگر از اهمیت و موضوعیت چندانی برخوردار نبوده است. استراتژی ساخت #هوش_مصنوعی با پیادهسازی #پردازش_اطلاعات بر روی سیستمهای دیجیتالی و تراشههای الکتریکی و ... از همین دیدگاه نشأت گرفته است.
🧩 اما با وجود موفقیتها و پیشرفتهای کاربردی، ناکامی سیستمهای محاسباتی در ارائه خروجیهای شبیه انسان و چالشهای نظری که در اینباره قوت گرفته است، اهمیت دیدگاههای بیولوژیکی را توسط برخی صاحبنظران روی میز گذاشته است. سیستمهای هوش مصنوعی در توسعههای اخیر بدنبال جایگزینی معدنی برای اجزای بیولوژیک آگاهی، شبکههای مصنوعی عصبی بجای نورونهای سلولی، و منطق فازی منعطف بجای دستورالعملهای مبتنی بر پروتئین و DNA هستند تا بر متریال سازنده سیستم نیز تمرکز کنند. (Pagel & Kirshtein, 2017, Machine Dreaming and Consciousness, p.30)
🧩 موضوعیت #زیست_شناسی در هوش مصنوعی البته میتواند به معانی مختلفی مورد بحث قرار گیرد. اگر منظور از پایه بیولوژیک آگاهی صرفا در حد جریان الکتروشیمیایی موجود در شبکههای نورونی باشد، شاهد استراتژی حداقلی برای تامین هوش مصنوعی شبه بیولوژیک خواهیم بود که فقط در پی جاسازی ماده شیمیایی حامل جریان الکتریکی در شبکههای مصنوعی است. اما چنانچه ساختار مولکولی و ژنتیک مغز نیز در تولید #آگاهی نقش داشته باشد، چالشهای عمیقتری پیش روی مهندسان #AI خواهد بود.
🧩 مقاله مهمی که سه ماه پیش توسط محققان دانشگاه هایدلبرگ آلمان در محله #نیچر به چاپ رسید، نشان داد که مخچه با ساختار مولکولی و ژنتیکی خود در برخی تواناییهای شناختی مرتبه بالاتر انسان دخالت دارد. در حالیکه غالب دانشمندان، مخچه را بدلیل عدم وقوع پردازش اطلاعات در آن، دارای نقش خاصی در تولید آگاهی نمیدانستند. یافتههایی از این دست ضمن نوعی شیفت پارادایمی در #نوروساینس و هوش مصنوعی، چالش مهمی را نیز روی میز میگذارد: #ژنتیک و #DNA سلولهای نورون طبیعی را چگونه میتوان بنحوی مصنوعی زمینهسازی کرد؟ آیا صرف منطق فازی میتواند محققکننده چنین هدفی باشد؟
🧩 به هرحال اما نکته قابل توجه اینست که رویکرد #پیوندگرایی (#Connectionism) با تاکید بر محاسبات توزیعشده و پردازش موازی اطلاعات، و همچنین رویکرد #بدنمندی (#Embodiment) با تمرکز بر بدن و مواجهه مکانمند سیستم حسی- حرکتی با محیط، بصیرتهای ناشی از پژوهشهای بیولوژیک آگاهی را جدی نمیگیرند و بنظر میرسد باوجود فواید بزرگ کارکردگرایانه، در ساخت و تولید #آگاهی_مصنوعی با ابهامات و تردیدهای جدی مواجه هستند.
@PhilMind