eitaa logo
فلسفه ذهن
841 دنبال‌کننده
135 عکس
67 ویدیو
21 فایل
محتوای تخصصی در حوزه #فلسفه_ذهن و فلسفه #علوم_شناختی توسط: مهدی همازاده ابیانه @MHomazadeh با همکاری هیئت تحریریه
مشاهده در ایتا
دانلود
🕒 مباحث ذیل را می‌‌توان به دو حوزه کلّی تفکیک کرد: 1) موضوعات مربوط به (مانند مسئولیت پیامد تصمیمات و رفتار ، حق مالکیت خلاقیت‌های هنری یا علمی هوش مصنوعی، تأثیر روبات‌ها بر تعاملات بشری، جواز و نحوه محدودکردن هوش مصنوعی، جواز پاداش و تنبیه روبات‌ها، ...) که بیشتر در حوزه $فلسفه_اخلاق قرار می‌گیرند. 2) موضوعات مربوط به «وجودشناسی هوش مصنوعی» یا (مانند امکان بالقوه‌ی ، چشم‌انداز ، ماهیت و حیطه‌ی ، میزان قابلیت رویکرد کلاسیک محاسباتی و رویکردهای و در تولید ، ...) که عمدتاً در حوزه بررسی می‌شوند. 🕓 برخی مهندسان و پژوهشگران فنّی هوش مصنوعی اما علاقه چندانی به دسته دوم مباحث فوق ندارند و در بین مباحث فلسفی هوش مصنوعی، دسته نخست را به دلیل آن‌که اوّلاً کاربردی‌تر می‌یابند و ثانیاً توانایی هوش مصنوعی و امکان تحقّق چشم‌اندازهای آتی را به چالش نمی‌کشد، ترجیح می‌دهند. ضمن این‌که برخی چشم‌اندازهای معاصر هوش مصنوعی نیز از وعده‌های دهه 60 و 70 میلادی مبنی بر تولید شخص (person) با تمام حالات آگاهانه و ویژگی‌های پدیداری کوتاه آمده و بعضاً تحقّق اهدافی صرفاً کاربردی و جزئی را دنبال می‌کنند. 🕔 این اتفاق البته در میان محققان و مهندسان هوش مصنوعی در داخل کشورمان بنحوی شایع‌تر و جدی‌تر وجود دارد و تعاملات بینارشته‌ای فلسفی – فنّی که بین برخی دپارتمان‌ها و دانشمندان غربی در حوزه هوش مصنوعی مشاهده می‌شود در کشور ما تقریباً هیچ نمونه‌ای (ولو تقلیل‌یافته) ندارد. 🕕 هندبوک هوش مصنوعی که چاپ اوّل آن در سال 2015 توسط انتشارات دانشگاه کمبریج به چاپ رسیده و اساتید مطرح بین‌المللی در فصول مختلف آن قلم زده‌اند، چهار فصل کلّی دارد که فصل اول آن به «بنیادهای فلسفی» و «چالش‌های فلسفی» می‌پردازد و فصول تکنیکال بعدی نیز مکرّراً در لابلای مباحث GOFAI و پیوندگرایی و بدن‌مندی و (Artificial Life) و حتی ، به مسائل فلسفی ارجاع می‌دهد و تأملاتی دوطرفه را پیش روی مخاطب می‌گذارد. (See: The Handbook of Artificial Intelligence, 2015, Cambridge University Press) درباره ضرورت توجه به مباحث وجودشناسی هوش مصنوعی لااقل از دو منظر می‌توان سخن گفت که در پست‌های آینده بدان‌ها اشاره خواهد شد. @PhilMind
🖥 برخی مهندسان و پژوهشگران علاقه چندانی به مباحث وجودشناختی AI ندارند و در بین مباحث ، حداکثر مسائل را بدلیل آن‌که اوّلاً کاربردی‌تر می‌یابند و ثانیاً توانایی هوش مصنوعی و امکان تحقّق چشم‌اندازهای آتی را به چالش نمی‌کشد، ترجیح می‌دهند. 🖥 این اتفاق البته در میان مهندسان در کشورمان بنحوی شایع‌تر و جدی‌تر وجود دارد و تعاملات بینارشته‌ای فلسفی – فنّی که بین برخی دپارتمان‌ها و دانشمندان غربی در حوزه هوش مصنوعی مشاهده می‌شود در کشور ما تقریباً هیچ نمونه‌ای (ولو تقلیل‌یافته) ندارد. 🎖درباره ضرورت توجه به متافیزیک هوش مصنوعی می‌توان به تأثیر متقابل علمی و تئوریک اشاره کرد. تأملات فلسفی چه در زمانی که رویکرد کلاسیک دیجیتال در پی برنامه‌نویسی‌های کامپیوتری بود و چه در زمانی که نظریات محاسباتی جدید در یا تئوری‌های به کار گرفته شد، در هر دو جنبه ارائه‌ تئوری‌های ایجابی برای ساخت هوش مصنوعی و هم در نقد و نقض آن‌ها فعال بوده‌اند. 🎖نظریه محاسباتی کلاسیک ذهن (CCTM) که بعدها توسط فودور – فیلسوف ذهن دانشگاه راتگرز - با نظریه بازنمودگرایی تلفیق گردید، زمینه و پایه تولیدات فنّی و پژوهش‌های دهه 70 پیرامون هوش مصنوعی را شکل داد. کما این‌که تأملات و انتقادات امثال هابرت (درباره حسّ عمومی و مرتبط بودن) و (درباره درک زبانی)، چالش‌هایی جدّی پیش روی تئوری‌ها و تکنیک‌های ساخت هوش مصنوعی قرار داد. این تعاملات فلسفی – فنّی با زمستان هوش مصنوعی در دهه 80 و ورشکستگی کمپانی‌ها تکمیل شد و دوره جدیدی را با تئوری‌هایی متفاوت رقم زد. 🎖در دوره جدید نیز تئوری‌های پیوندگرایی و بدن‌مندی با چالش‌هایی جدی از سوی فیلسوفان مواجه بوده‌اند. دریفوس در دهه 70 و در مقاله پر ارجاع What Computers Can't Do استدلال می‏کرد که توانایی ما در تعامل با دیگران، یک نوع مهارت غیر توصیفی و تجربه‌ای از سنخ دانستنِ چگونگی (know how)‌ و دانستنِ گزاره‌ای است که قابل تقلیل به کدگذاری‏های گزاره‏ای در برنامه‏نویسی نیست. 🎖او در سال 1999 و در کتاب What Computers Still Can't Do توانایی شبکه‏های نورونی پیوندگرا که بر پایه دسته‌بندی رفتارها برنامه‌ریزی می‌شود را نیز به چالش کشید. دستگاه‌های پیوندگرا قادر به تعمیم هستند و هرگاه با یک الگوی ورودی جدید - که از نوع الگوی تمرین‌شده قبلی است – مواجه می‌شوند، خروجی‌ای مشابه تولید خواهند کرد. دریفوس و حامیانش اما اشکال مرتبط بودن را در این‌جا نیز تکرار می‌کنند: «از یک نوع بودن» در دسته‌بندی و تعمیم رفتارها را چه چیزی مشخّص می‏کند؟ به اعتقاد این‌ها مدل‌سازی نمی‌تواند جلوی تعمیم‌های ناجور و بی‌جا را بگیرد. کما این‌که اشکال اتاق چینی سرل درباره درک زبانی کامپیوترهای دیجیتال، در برابر شبکه‌های پیوندگرا نیز قابل بازسازی است و پاسخ روبات وی (Robot Reply) هم در برابر رویکرد بدن‌مندی. 🎖توجه به مباحث فلسفی هوش مصنوعی نه تنها اشکالات و نواقص نظریه‌های رایج در ساخت روبات‌ها را گوشزد می‌کند، بلکه حتی می‌تواند به رویکردهای جدیدی در تولید بینجامد. از جمله نظریه آگاهی در که زمینه را برای امکان و بلکه شیوه تولید در شبکه‌های نورونی مصنوعی متناسب با شبکه‌های نورونی طبیعی، فراهم می‌آورد. @PhilMind
🔐 واژه «هوش» (Intelligence) در عنوان حوزه مطالعاتی ، گمراه‏کننده است. این واژه را وقتی درباره انسان‌ها بکار می‏بریم،‌ به شاهکارهای ذهنی در خلاقیت و استعداد آن‌ها ارجاع می‌دهیم. در حالی‌که جذّا‏ب‏ترین مسائل هوش مصنوعی، به تلاش‏ها برای تقلید قوای ذهنی مردم عادی (مانند بینایی و زبان طبیعی) برمی‏گردد. 🔐 مردم عادی کارهایی مانند دیدن و صحبت‌ کردن را راحت می‏یابند و اهمیت زیادی برای آن‏ها قائل نیستند. از سوی دیگر، کارهایی مانند ضرب اعداد ده رقمی برای اکثر ایشان، دشوار بنظر می‏رسد. ولی استفاده از کامپیوترها برای مطالعه قوای ذهنی، مشخّص کرد که چقدر بازسازی کارهای ساده انسانی مانند دیدن و معاشرت و ... - برخلاف انجام عملیات‌های پیچیده ریاضیاتی - در کامپیوترها چالش‌برانگیز است. 🔐 در واقع آن‌چه محور پژوهش و ساخت در حوزه مطالعاتی و مهندسی هوش مصنوعی قرار دارد، بسیار نزدیک به مفهوم در کانتکست فلسفی و است؛ چه مصادیق (مانند باور، تردید، تفکّر، تصمیم، ...) و چه مصادیق (مانند شادی، غم، خشم، مهربانی، ...). 🔐 البته مسئله بسیار مهم، "رویکردهای مطالعاتی و تولیدی" هوش مصنوعی نسبت به حالات آگاهانه فوق است. همان‌طور که راسل و نورویگ در «رویکردی مدرن به هوش مصنوعی» (2010) توضیح می‌دهند، چهار تعریف/الگوی عمده «تفکّر شبیه انسان»، «تفکّر ایده‌آل»، «رفتار شبیه انسان»، «رفتار ایده‌آل» در مطالعه و ساخت هوش مصنوعی طی 70 سال گذشته وجود داشته است. چهار الگویی که بنحوی کاملاً کارکردگرایانه، صرفاً خروجی‌های محاسباتی (در الگوهای تفکّرمحور) و رفتاری (در الگوهای رفتارمحور) را هدف می‌گیرند و نسبت به جنبه‌های سابجکتیو و اوّل‌شخص هیچ پروپوزالی و تمرکزی ندارند. چیزی که جان سرل، می‌نامید. 🔐 هرچند ذیل پروژه (Machine Consciousness) تلاش‌هایی برای بازسازی جنبه‌های پدیداری و اوّل‌شخص حالات آگاهانه در دست انجام است. فارغ از اینکه در این کلان‌پروژه نیز تا چه اندازه مدل‌کردن آگاهی ماشین (Machine Modeling of Consciousness: MMC) با رویکرد محاسباتی و کارکردگرایانه سایه انداخته، اما هدف و تعریف مسئله را منطبق با آگاهی می‌یابیم که بنحوی بنیادین با رویکرد و تعریف مسئله در جریان اصلی پروژه هوش مصنوعی، متفاوت است. 🔐 و البته برخی زمزمه‌ها و پروپوزال‌های حاشیه‌ای برای تولید و ساخت با رویکردی نوظهورگرایانه و شبه زیست‌شناختی و ... هم در حال طرح و بررسی است که بنحوی بسیار جدی‌تر از رویکردهای محاسباتی و رفتارگرا، تولید را هدف می‌گیرند. (See: Clowes, R., & Torrance, S., & Chrisley, R., 2007, "Machine Consciousness, Embodiment and Imagination", Journal of Consciousness Studies, 14, No. 7, pp. 9–13.) @PhilMind
💠حدود یکماه پیش بود که بلیک لموین – از کارکنان شرکت گوگل – ادعای خودآگاه‌بودن LaMDA را مطرح کرد. وی در گزارش خود به توانایی بالای لامدا برای ارائه پاسخ‌های قانع‌کننده درباره احساسات و تجربیات درونی‌اش استناد کرده بود که به مخاطب نشان می‌دهد که زندگی درونی عمیق سرشار از تخیل، خودآگاهی و تفکر دارد. لامدا در چت با لموین، از نگرانی‌های خود درباره آینده و گذشته سخن گفته و این‌که کسب ادراکات، چه حس و حالی دارد. گوگل البته با فاصله کمی، به این گزارش واکنش نشان داد و ادعای لموین را رد کرد. 💠فارغ از واکنش شرکت گوگل به موضوع لامدا، ادعای تولید یا وجود در فلان روبات، همواره می‌تواند چالش‌برانگیز باشد. شاید محور سؤال‌ها البته بر مسئله (other minds) تمرکز یابد؛ این‌که از کجا و با چه معیاری می‌توان ادعای وجود جهان سابجکتیو و آگاهانه در موجودات دیگر را راستی‌آزمایی کرد؟ طی مناقشه اخیر بدنبال اساس و معیار این ادعا بودم که البته بنحوی ناامیدکننده بر «تمایزناپذیری زبانی» استوار می‌شد؛ یعنی پاسخ‌های زبانی لامدا درباره احساساتش، با پاسخ‌های یک عامل انسانی آگاه، غیرقابل تمایز دانسته شده بود. این در واقع همان معیار تورینگ در آزمون معروف تورینگ (1950) برای ماشین‌ تفکرکننده است. 💠کامپیوتر در صورتی را پاس می‌کرد که یک پرسش‌گر انسانی، پس از طرح چند سؤال مکتوب از کامپیوتر و عامل انسانی - که مشخص نباشد کدامیک، ارائه‌دهنده کدام پاسخ هستند - نتواند تشخیص دهد کدام پاسخ از سوی کامپیوتر و کدام از سوی انسان ارائه شده است. 💠البته برنامه‏نویسی برای یک کامپیوتر تا آزمونی چنین کاربردی را پاس کند، کار بسیار زیادی طلب می‏کند. چنین کامپیوتری نیاز دارد که توانایی‏های ذیل را دارا باشد: - پردازش زبان طبیعی (تا کامپیوتر را قادر به ارتباط با زبان انگلیسی بگرداند) - بازنمایی معرفت (تا کامپیوتر را قادر به ذخیره‏سازی چیزهایی که می‏داند و می‏شنود، بگرداند) - استدلال خودگردان (تا اطلاعات ذخیره‏شده را برای پاسخ به سؤالات و نتیجه‏گیری‏های جدید بکار گیرد) - یادگیری ماشین (تا با شرایط جدید، سازگار شود و الگوها را تشخیص و استخراج نماید). 💠اما از ده‌ها سال قبل، مناقشات متنوّعی درباره پیش‏فرض رفتارگرایانه موجود در این آزمون مطرح شده است. مثلاً آزمون فکری ند بلاک (1981) با نام عمّه برتا (Aunt Bertha) که استدلال می‌کرد رفتار یک ارگانیسم، تنها چیزی نیست که هوشمندی آن را تعیین می‏کند؛ بلکه منشاء و مکانیسم تولید این رفتار نیز موضوعیت دارد. 💠ممکن است ماشین با مراجعه به بانک بسیار عظیمی از دوگانه‌های پرسش و پاسخ، یا استفاده از الگوهای پاسخ درست، بتواند آزمون تورینگ را درباره پاسخ به سؤالاتی پیرامون احساسات و تفکراتش بخوبی پشت سر بگذارد. این اما در نهایت فقط یک دستگاه جستجوگر قدرتمند خواهد بود که ارتباطی با یک جهان درونی پدیداری و مولّد پاسخ‌های آگاهانه ندارد. اطلاعیه‌ای که شرکت گوگل درباره بررسی ادعای لموین منتشر کرد نیز بر همین نکته تأکید کرده است. 💠امروزه محقّقان هوش مصنوعی، تلاش‏های کمی برای پاس‏کردن آزمون تورینگ بخرج می‏دهند؛ زیرا اعتقاد دارند جستجو به دنبال "پرواز مصنوعی"، زمانی به موفّقیت رسید که برادران رایت و دیگران، تقلید از پرندگان را کنار گذاشتند و شروع به یادگیری درباره آیرودینامیک و بکارگیری تونل‏های بادی کردند. متون مهندسی فضانوردی، هدف از آن حوزه را این‏طور معرّفی نمی‏کنند که "بدنبال ساخت ماشین‏هایی هستند که دقیقاً مانند کبوترها پرواز می‏کنند و می‏توانند کبوترها را نیز فریب بدهند"! (Russell & Norvig, 2010, Artificial Intelligence, A Modern Approach, p. 3) 💠در واقع هنوز عمده استراتژی‌های تعریف و ساخت هوش مصنوعی حول معیارهایی رفتارمحور - چه رفتار شبیه انسان (که آزمون تورینگ نیز از این قبیل است) و چه رفتار ایده‌آل – شکل می‌گیرد و آن و جهان سابجکتیو (بعنوان منشاء و مولد این رفتارها و خروجی‌ها)، موضوعیت ندارد. مشکلی که البته در سایر حوزه‌های علوم شناختی نیز دیده می‌شود. این در حالیست که بنظر می‌رسد با تمرکز بر خود تجربه پدیداری و منشاء تولید واکنش‌ها، احتمال تولید آگاهی مصنوعی بنحوی واقعی وجود دارد. @PhilMind
♻️ ممکن است کسی بگوید دستگاهی دارای است که بتواند برای انجام کارهایی شبیه تقسیم 231 بر 42 استفاده شود؛ یعنی کارهایی که انجام آن‏ها توسّط انسان، مستلزم هوش است. داشتن هوش به این معنا را «هوش کاری» (task intelligence) می‏نامیم. حتّی ماشین حساب‏ها هم می‏توانند دارای هوش کاری تلقی شوند. هوش کاری مصنوعی، مناقشه برانگیز نبوده و حتّی آکوئیناس و دکارت هم دلیلی برای ردّ آن ندارند. ♻️ اما باید توجّه داشته باشیم که ماشین حساب‏ها "نمی‏دانند" جواب مسائل ریاضیاتی چیست و نمی‌دانند که در حال انجام عملیات ریاضی‏اند. لذا بوضوح شایسته نیست که از دارابودن «هوش کاری»، ادّعاهای بزرگتر: دارابودن «هوش اشیاء» را نتیجه بگیریم. پرسش‏های مناقشه‏برانگیز معاصر از امکان هوش مصنوعی اشیاء و رویکردهای مختلف برای طراحی آن، سؤال می‏پرسند. در واقع تمایز هوش کاری/اشیاء روشن می‌سازد که چالش‏های فلسفی عموماً متوجه ادعاهایی هستند که می‏گویند یک دستگاه می‏تواند خودش اصالتاً هوشمند باشد و حالات شناختی خاص خودش را داشته باشد و این به هوش شیء مربوط می‌شود و نه هوش کاری. ♻️ در تعقیب همین تفکیک بین هوش کاری و هوش اشیاء، خوبست توجه نماییم که رفتار هوشمندانه،‌ هدفمند است و بر گونه‏ای از اهداف دلالت دارد. و دشوار است تصوّر کنیم عملی هدفمند باشد، مگر آن‏که احساسات بدنی خوشایند و ناخوشایند، هیجانات، نشاط یا افسردگی، مشروط بر این عمل را داشته باشد. مسلّماً هیچ‏کدام از اصطلاحات مذکور بوسیله موجوداتی که نمی‏توانند در چنین حالاتی قرار بگیرند، فهمیده نمی‌شود. این‏ها حالات آگاهانه‏اند. بدین ترتیب می‏توان گفت هوش مصنوعی، مستلزم است. ولی از آن‏جا که اکثر رویکردها به هوش مصنوعی معطوف به تولید آگاهی نیست، می‏توان در موفقیت رویکردهای معمول به هوش مصنوعی، تردید داشت. ♻️ اجازه دهید بین اهداف و اهداف* تمایز بگذاریم: اهداف* شبیه اهداف‏اند، جز آن‏که مستلزم آگاهی و حالات درونی نیستند؛ یعنی اهداف*، صرفاً کارکرد حالاتی را دارند که رفتارها از طریق آن‏ها سازمان‏دهی می‏شوند. هدف* ‏یک ماشین شطرنج‏باز، اینست که برنده بازی بشود و موفقیت با این استاندارد، احتمالاً موفقیتی برای هوش مصنوعیِ کاری (task AI) ‌تلقّی خواهد شد؛ حتّی اگر هیچ‏کس احساس سرافرازی در هنگام برد یا احساس سرشکستگی در هنگام باخت را برای ماشین‏ها در نظر نداشته باشد. برای مثال یک روبات که بتواند خرید از سوپر مارکت (شامل جداکردن میوه‏های رسیده از خام، انطباق با تغییرات برنامه حرکت اتوبوس‏ها، تأخیرات مربوط به آب و هوا، و ...) را انجام بدهد، بنحوی مقبول دارای هوش مصنوعی بحساب خواهد آمد؛ بدون آن‏که هیچ‏گونه حالت آگاهانه یا احساسات پدیداری را در هنگام انجام موفق کارها برای او مفروض گرفته باشیم. ♻️ داشتن از داشتن حالات و رویدادهای درونی حکایت دارد که ابژه‏های جهان خارج را «بازنمایی می‏کنند»؛ حال آن‌که حیث التفاتی* ممکن است بدون این حالات درونی و فهم سابجکتیو از معانی، تعریف و تولید بشود. فهم سابجکتیو از معانی و نیز حالات هیجانی و عاطفی مترتب بر انجام کارها، مستلزم یک جهان درونی و جنبه پدیداری در روبات‌هاست که معمولا با خلط بین هوش کاری و هوش اشیاء، نادیده گرفته می‌شود. @PhilMind
فعلا قابلیت پخش رسانه در مرورگر فراهم نیست
مشاهده در پیام رسان ایتا
🔥این👆بخشی از گفتگوی سبحاش کاک - رییس دپارتمان علوم کامپیوتر دانشگاه اوکلاهاما آمریکا - است که ۱۰ روز قبل منتشر شده و اینجا ترجمه کرده‌ایم. 🔥کاک بعنوان متخصص توضیح می‌دهد که چرا متد محاسباتی (هرچقدر هم حجیم و پیچیده بشود)، نمی‌تواند به تولید بینجامد. او البته را در قالب ماشین‌های بیولوژیک (که احتمالا در آینده جایگزین روش ساخت ماشین‌های غیر بیولوژیک فعلی خواهد شد)، امکان‌پذیر می‌داند. هرچند براساس دیدگاه اعتقاد دارد آگاهی ماشین‌های بیولوژیک (از جمله ) در سطحی غیرفیزیکی از سطح بیولوژیک جهش می‌کند و ظهور می‌یابد. 🔥توضیحاتی که کاک در مورد تعارض دستورالعمل‌های منطقی علوم کامپیوتر با جنبه‌های جمع‌الاضدادی آگاهی می‌دهد، بیانی دیگر از استدلال معروف حس عمومی/ مسئله چارچوب از هیوبرت است که می‌گفت تجربه آگاهانه جنبه‌ای پیشامفهومی دارد که فراچنگ گزاره‌ها و دستورالعمل‌های نمی‌آید. @PhilMind
🚩 شواهدی قوی وجود دارد که در یک سیستم بیولوژیک شبیه ما،‌ بر یک پایه‌ی متشکّل از کالبدشناسی (آناتومی)، شیمی و میدان‏های الکتریکی گسترش می‏یابد. اما سیستم‏های کامپیوتری برای مشارکت و حمایت از فرآیندهای شناختی ما «برنامه‏نویسی» می‏شوند و داده‏های ورودی براساس توانمندی ما در فهم معنای اطلاعات مختلف، سازمان‏دهی می‏شوند. ما این داده‏ها را با استفاده از لگاریتم‏ها و فرمول‏های منطقی و ریاضیاتی و علمی پردازش می‏کنیم؛‌ لگاریتم‏ها و فرمول‏هایی که برای توصیف درک شناختی ما از جهان بیرون و درون،‌ توسعه داده شده‏اند. 🚩 عوامل مختلفی، توانایی خلق سیستم‏هایی با – که قابل مقایسه و سازگار با آگاهی بیولوژیکی ما باشد – را محدود می‏سازد؛ مثلاً: 1⃣ سیستم ادراک حسّی ما، اطلاعات را با استفاده از مودالیته‏های حسّی بیولوژیکی در انسان،‌ یکپارچه می‏سازد. در نتیجه سیستم‏های را وا می‏داریم با ما در محدودیت‏های این مودالیته‏های حسّی شریک شوند. 2⃣ در حال حاضر تعامل با این سیستم‏ها، مقیّد به ظرفیت‏های حرکتی و ادراکی ماست. 3⃣ سیستم‏های کامپیوتری از طریق سوئیچ‌کردن‏های الکترونیکی، قدرت‏های الکتریکی، و بر پایه تراشه‏ها کار می‏کنند؛ یعنی کاملاً متفاوت از شیوه‏های چارچوب سه‏گانه بیولوژی آناتومی و الکتروفیزیولوژیک و شیمی. 4⃣ سیستم‏های کامپیوتری با استفاده از سطوح بسیار پیچیده و سنگین پردازش موازی اطلاعات کار می‏کنند. 5⃣ سیستم‏های کامپیوتری با بکارگیری منطق‏های ریاضیاتی، برنامه‏نویسی می‏شوند. ولی مشخّص نیست که سیستم‏های پردازش بیولوژیک انسانی، بر هیچ شکلی از گونه‏های منطقی استوار باشد. 🚩 یکی از اعتراضات مهم که امثال جان سرل بر مدل‌های محاسباتی و رایج در تولید سیستم‌های هوش مصنوعی داشتند، این بود که نوروفیزیولوژی و بیوشیمی را نادیده می‌گیرند و صرفاً بر فرآیندهای پردازش اطلاعات تمرکز می‌کنند. 🚩 هرچند همان‌طور که پگل و کریستین (2017) توضیح داده‌اند، سیستم‏های هوش مصنوعی در توسعه‏های اخیر، جایگزینی معدنی از اجزای بیولوژیک آگاهی،‌ شبکه‏های مصنوعی عصبی بجای نورون‏های سلولی، قدرت الکتریکی بجای نوروشیمیایی،‌ و منطق فازی منعطف بجای دستورالعمل‏های برنامه‏نویسی براساس پروتئین و DNA را بکار می‏گیرند. آیا می‌توان منتظر چشم‌انداز جدیدی از تولید بود؟ @PhilMind
حجم رسانه بالاست
مشاهده در ایتا
♦️هیوبرت دریفوس - استاد فلسفه دانشگاه برکلی - درباره شکست پروژه با استفاده از متدهای کنونی می‌گوید (2022)👆 🔺دریفوس پایه‌گذار اشکال حس عمومی علیه رویکردهای محاسباتی در هوش مصنوعی است که بازنمایی مفهومی از جهان را برای تولید حس عمومی، ناکام می‌داند. بنظر وی رفتار هوشمند انسانی منبعث از معرفت گزاره‌ای نیست؛ بلکه از انباشت تجربیات آگاهانه درونی ناشی می‌شود که در هر موقعیت خاص، ممکن است واکنشی منحصربه‌فرد را اقتضا نماید. 🔻به اعتقاد او رویکرد کلاسیک مفهومی و بازنمایانه در تلقی دوهزارساله فیلسوفان از ساختار معرفت ریشه داشته که در قرن بیستم توسط و ویتگنشتاین به انتهای خط رسیده. اما مهندسان هوش مصنوعی ابتدا بدون توجه به این شیفت پارادایمی در فلسفه، برنامه تحقیقاتی خود را بر پایه تلقی کلاسیک بنیان نهاده و وقتی در دهه هشتاد (زمستان هوش مصنوعی) با شکست مواجه شدند، با درکی سطحی از دیدگاه هایدگری، را به سمت تغییر داده‌اند. تغییری که به اعتقاد دریفوس، همچنان رفتارگرایانه و فارغ از نکته هایدگر است و حتی در ساخت (رفتار هوشمندانه) هم ناکام بوده، تا چه رسد به ساخت (). @PhilMind
♦️ در استدلال این پرسش را مطرح می‌کرد که معنای واژگان متعارف ما درباره حالات ذهنی‌مان از کجا بدست می‌آید؟ مثلا وقتی کامران می‌گوید زانویش «درد» دارد، به یک شیء خصوصی ارجاع می‌دهد که از دسترس دیگران خارج است و تضمینی وجود ندارد که احساسی که او دارد، با احساس سهیلا و حمید و ... در هنگام استفاده آن‌ها از واژه درد، یکسان باشد. پس در این‌جا یک مسئله معرفت‌شناختی وجود دارد: استفاده از واژگان یکسان برای ، تضمین نمی‌کند که حالات ذهنی هم یکسان باشند. ♦️وقتی نتوان بطور قطع مشخص کرد که کامران - یا هرکس دیگر - از واژگان ذهنی بدرستی استفاده می‌کند، هویات ذهنی هم بعنوان معنای این واژگان وجود ندارند. بلکه معنای واژه درد، چیزی‌ست که معیار و تمایز میان کاربرد درست و غلط آن را مشخص سازد. ویتگنشتاین این معنا و معیار را «رفتار» شخص می‌داند. برخی مانند گلن استراوسون می‌گویند ادعای ویتگنشتاین نهایتا به می‌انجامد؛ دیدگاهی که ماهیت حالات ذهنی را در همین رفتار (بالفعل و بالقوه) خلاصه می‌کند و هیچ چیز دیگری (امر سابجکتیو) غیر از آن باقی نمی‌گذارد. ♦️البته ممکن است فردی این معیار عمومی و مشاهده‌پذیر که ویتگنشتاین می‌گوید را برآورده سازد، بدون آن‌که واقعا درد داشته باشد (مثلا تمارض نماید). یا ممکن است کسی واقعا احساس درد داشته باشد، اما بدلایل مختلفی بروز ندهد (مثلا سربازان در میدان جنگ). اگر ما این معیار عمومی (بروزهای رفتاری) را صرفا راهنمایی معرفت‌شناختی بر وجود حالات درونی بدانیم، حتما خطاپذیری آن معیار هم قابل توجیه است. ولی طبق استدلال ویتگنشتاین، سخن از رابطه‌ای معرفتی در این‌جا نیست؛ بلکه او نتایج متافیزیکی درباره وجود یا عدم اشیاء خصوصی می‌گیرد. در نتیجه گویی رابطه «سازنده و مقوم» (constitution) برقرار است. در این صورت مثال‌هایی مانند تمارض و سربازان در میدان جنگ هم این مقوم‌بودن را زیر سؤال می‌برند. ♦️اما فارغ از مقصود ویتگنشتاین از استدلال فوق، همان معیار صرفا معرفتی هم مسئله حاد را یادآور می‌شود. چیزی که به تعبیر ند بلاک، حتی از آگاهی (hard problem) هم وخیم‌تر است و باید آن را (harder problem) نامید. این مسئله در حوزه و نیز پیامدها و کاربردهایی حیاتی بدنبال دارد. @PhilMind
⏰ این پرسش مکرر مطرح می‌شود که در ، بحثی متناظر با مفهوم آگاهی () وجود دارد و آیا از این مفهوم در استدلال‌های مربوط به چیستی نفس، استفاده شده است؟ ⏰ مفهوم (و به ویژه : Phenomenal Consciousness) در معاصر، به تجربیات درونی ارجاع می‌دهد؛ یعنی به همان کیفیات سابجکتیو که بصورت مثلا غم و شادی و خشم و درد و لذت و ... تجربه می‌شوند. آگاهی بدین معنا چالش اصلی و مسئله دشوار معاصر قلمداد می‌شود و انواع تئوری‌ها به منظور تبیین فیزیکی آن ارائه و مخدوش شده است. ⏰ در فلسفه اسلامی اما عمده تمرکزها و استدلال‌ها پیرامون ، بر محور مفهوم علم و بعضاً می‌چرخد. ادراک حسی هم از جنبه اطلاع مفهومی از محتوا و نه از جنبه آن. مثلا ادراک بصری دریا (یا تصویر هر ابژه عظیم الابعاد) از این جهت مورد بحث قرار می‌گیرد که آیا دریافت آن صرفا توسط چشم و مغز امکان‌پذیر است یا نه. استدلالی که بر ابعاد محتوای ادراک حسی و مشخصه‌های اطلاعاتی آن تکیه دارد و نه بر کیفیت پدیداری (مثلا لذت یا ترس) حاصل از ادراک آن. یا مثلاً استدلال‌هایی که بر تجرد علم تکیه می‌کنند، عمدتا بر امکان یا عدم امکان تحقق محتوای علم در مغز یا هر پایگاه فیزیکی دیگر تمرکز دارند. ⏰ این قبیل استدلال‌ها در واقع محتوای التفاتی را برجسته می‌کنند. - که نزدیکترین آن‌ها به مفهوم علم، حالاتی مانند تفکر و باور در فلسفه ذهن هستند - البته جزو مسائل دشوار فیزیکالیستی بحساب می‌آیند و برخی فیلسوفان معاصر، طبیعی‌سازی () را در کنار طبیعی‌سازی ، دو مسئله اصلی فیزیکالیسم می‌دانند. ولی به هرحال مسئله آگاهی پدیداری از مسئله حیث التفاتی جداست و آن‌چه در ادبیات معاصر با توافقی گسترده به عنوان مسئله محوری تلقی شده و موضوع انواع استدلال‌ها درباره ماهیت ذهن قرار گرفته، همین مسئله آگاهی و کیفیات پدیداری‌ست. (بازنمودگرایان سعی می‌کنند آگاهی پدیداری را به حیث التفاتی تقلیل بدهند و از این طریق، راه حلی برای آگاهی ارائه دهند) ⏰ آن‌چه در نظر فیلسوفان مسلمان اما - از فارابی و گرفته تا - مهم می‌نمود، علم به معنای حیث التفاتی بود و اساسا آگاهی پدیداری در مباحث ایشان پیرامون نفس، جایگاه خاصی نداشته است. اینان حتی در شمارش نیز از مراتب مادون (قوای حاسه) گرفته تا قوه عاقله، جایگاهی برای قوای متناظر با تجربه در نظر نگرفته‌اند. این‌که استدلال‌های سنتی فیلسوفان مسلمان در باب تجرد نفس تا چه اندازه می‌تواند صائب و نافذ باشد، بحثی مجزا و مفصل می‌طلبد. ولی در هر حال باید توجه داشت که موضوع بحث در این قبیل استدلال‌ها عمدتا حیث التفاتی‌ست و نه تجربه پدیداری. ⏰ سنت فلسفی اسکولاستیک در جهان غرب نیز به تبع رویکرد فوق، بر ماهیت علم و ادراک تکیه کرده‌ و حتی هم برای استدلال به نفع ذهن غیر فیزیکی، انواع تفکر را محور بحث و استدلال قرار داده است. شیفت مباحث از محتوای التفاتی/بازنمودی به کیفیت پدیداری، تا حد زیادی متأثر از یافته‌های جدید در نیمه دوم قرن بیستم و تاکیدات مختلف بر هیجانات و احساسات و ... بود که مسئله‌ای متفاوت از تبیین محتوای اطلاعاتی را پیش می‌کشید. ⏰ هرچند این شیفت مهم توجهات هنوز در اتفاق نیفتاده و عمده مهندسان AI به تبع تورینگ و چشم‌اندازهای اواسط قرن بیستم، همچنان بدنبال تولید یا روبات‌های بدن‌مند هستند. بماند که در همین هدف نیز به و تمایزناپذیری رفتاری و کارکردی اکتفا می‌کنند. رویکردهای نوین درباره ساخت به تازگی از زیر آوار التفات‌گرایی در هوش مصنوعی سر برآورده‌اند؛ البته اگر همین‌ها نیز از آفات مدل‌سازی‌های بازنمودگرا در امان بمانند. @PhilMind
👇 🧩 سال‌هاست که با غلبه رویکرد محاسباتی در ، فرآیندهای انتزاعی محاسبات بعنوان زمینه تولید هوش و آگاهی به رسمیت شناخته شده و نزد بسیاری از دانشمندان و محققان این حوزه، ماده سازنده سیستم پردازشگر از اهمیت و‌ موضوعیت چندانی برخوردار نبوده است. استراتژی ساخت با پیاده‌سازی بر روی سیستم‌های دیجیتالی و تراشه‌های الکتریکی و ... از همین دیدگاه نشأت گرفته است. 🧩 اما با وجود موفقیت‌ها و پیشرفت‌های کاربردی، ناکامی سیستم‌های محاسباتی در ارائه خروجی‌های شبیه انسان و چالش‌های نظری که در این‌باره قوت گرفته است، اهمیت دیدگاه‌های بیولوژیکی را توسط برخی صاحبنظران روی میز گذاشته است. سیستم‏های هوش مصنوعی در توسعه‏های اخیر بدنبال جایگزینی معدنی برای اجزای بیولوژیک آگاهی،‌ شبکه‏های مصنوعی عصبی بجای نورون‏های سلولی، و منطق فازی منعطف بجای دستورالعمل‏های مبتنی بر پروتئین و DNA هستند تا بر متریال سازنده سیستم نیز تمرکز کنند. (Pagel & Kirshtein, 2017, Machine Dreaming and Consciousness, p.30) 🧩 موضوعیت در هوش مصنوعی البته می‌تواند به معانی مختلفی مورد بحث قرار گیرد. اگر منظور از پایه بیولوژیک آگاهی صرفا در حد جریان الکتروشیمیایی موجود در شبکه‌های نورونی باشد، شاهد استراتژی حداقلی برای تامین هوش مصنوعی شبه بیولوژیک خواهیم بود که فقط در پی جاسازی ماده شیمیایی حامل جریان الکتریکی در شبکه‌های مصنوعی است. اما چنانچه ساختار مولکولی و ژنتیک مغز نیز در تولید نقش داشته باشد، چالش‌های عمیق‌تری پیش روی مهندسان خواهد بود. 🧩 مقاله مهمی که سه ماه پیش توسط محققان دانشگاه هایدلبرگ آلمان در محله به چاپ رسید، نشان داد که مخچه با ساختار مولکولی و ژنتیکی خود در برخی توانایی‌های شناختی مرتبه بالاتر انسان دخالت دارد. در حالی‌که غالب دانشمندان، مخچه را بدلیل عدم وقوع پردازش اطلاعات در آن، دارای نقش خاصی در تولید آگاهی نمی‌دانستند. یافته‌هایی از این دست ضمن نوعی شیفت پارادایمی در و هوش مصنوعی، چالش مهمی را نیز روی میز می‌گذارد: و سلول‌های نورون طبیعی را چگونه می‌توان بنحوی مصنوعی زمینه‌سازی کرد؟ آیا صرف منطق فازی می‌تواند محقق‌کننده چنین هدفی باشد؟ 🧩 به هرحال اما نکته قابل توجه اینست که رویکرد () با تاکید بر محاسبات توزیع‌شده و پردازش موازی اطلاعات، و همچنین رویکرد () با تمرکز بر بدن و مواجهه مکان‌مند سیستم حسی- حرکتی با محیط، بصیرت‌های ناشی از پژوهش‌های بیولوژیک آگاهی را جدی نمی‌گیرند و بنظر می‌رسد باوجود فواید بزرگ کارکردگرایانه، در ساخت و تولید با ابهامات و تردیدهای جدی مواجه هستند. @PhilMind