🕒 مباحث ذیل #فلسفه_هوش_مصنوعی را میتوان به دو حوزه کلّی تفکیک کرد:
1) موضوعات مربوط به #اخلاق_هوش_مصنوعی (مانند مسئولیت پیامد تصمیمات و رفتار #هوش_مصنوعی، حق مالکیت خلاقیتهای هنری یا علمی هوش مصنوعی، تأثیر روباتها بر تعاملات بشری، جواز و نحوه محدودکردن هوش مصنوعی، جواز پاداش و تنبیه روباتها، ...) که بیشتر در حوزه $فلسفه_اخلاق قرار میگیرند.
2) موضوعات مربوط به «وجودشناسی هوش مصنوعی» یا #متافیزیک_هوش_مصنوعی (مانند امکان بالقوهی #آگاهی_ماشین، چشمانداز #هوش_مصنوعی_قوی، ماهیت و حیطهی #آگاهی_مصنوعی، میزان قابلیت رویکرد کلاسیک محاسباتی و رویکردهای #پیوندگرایی و #بدن_مندی در تولید #آگاهی_پدیداری، ...) که عمدتاً در حوزه #فلسفه_ذهن بررسی میشوند.
🕓 برخی مهندسان و پژوهشگران فنّی هوش مصنوعی اما علاقه چندانی به دسته دوم مباحث فوق ندارند و در بین مباحث فلسفی هوش مصنوعی، دسته نخست را به دلیل آنکه اوّلاً کاربردیتر مییابند و ثانیاً توانایی هوش مصنوعی و امکان تحقّق چشماندازهای آتی را به چالش نمیکشد، ترجیح میدهند.
ضمن اینکه برخی چشماندازهای معاصر هوش مصنوعی نیز از وعدههای دهه 60 و 70 میلادی مبنی بر تولید شخص (person) با تمام حالات آگاهانه و ویژگیهای پدیداری کوتاه آمده و بعضاً تحقّق اهدافی صرفاً کاربردی و جزئی را دنبال میکنند.
🕔 این اتفاق البته در میان محققان و مهندسان هوش مصنوعی در داخل کشورمان بنحوی شایعتر و جدیتر وجود دارد و تعاملات بینارشتهای فلسفی – فنّی که بین برخی دپارتمانها و دانشمندان غربی در حوزه هوش مصنوعی مشاهده میشود در کشور ما تقریباً هیچ نمونهای (ولو تقلیلیافته) ندارد.
🕕 هندبوک هوش مصنوعی که چاپ اوّل آن در سال 2015 توسط انتشارات دانشگاه کمبریج به چاپ رسیده و اساتید مطرح بینالمللی در فصول مختلف آن قلم زدهاند، چهار فصل کلّی دارد که فصل اول آن به «بنیادهای فلسفی» و «چالشهای فلسفی» میپردازد و فصول تکنیکال بعدی نیز مکرّراً در لابلای مباحث GOFAI و پیوندگرایی و بدنمندی و #حیات_مصنوعی (Artificial Life) و حتی #یادگیری_ماشین، به مسائل فلسفی ارجاع میدهد و تأملاتی دوطرفه را پیش روی مخاطب میگذارد. (See: The Handbook of Artificial Intelligence, 2015, Cambridge University Press)
درباره ضرورت توجه به مباحث وجودشناسی هوش مصنوعی لااقل از دو منظر میتوان سخن گفت که در پستهای آینده بدانها اشاره خواهد شد.
@PhilMind
🎖شبکههای نورونی مصنوعی قادر به کارورزی (Training) برای رسیدن یا نزدیکشدن به یک "کارکرد" هستند. الگوریتمهای "یادگیری" با اهداف عمومی وجود دارند – مانند الگوریتم پردازش پشتیبان (Backpropagation) – که با بارهای تصادفی در شبکه آغاز میکند و مکرراً سیستم را بصورت تمرینی در معرض ورودیهای مختلف قرار داده و بارهای شبکه را تنظیم میکند تا اینکه بالاخره خروجی را هرچه نزدیکتر به مقدار صحیح برساند.
🎖این دستگاههای پیوندگرا البته قادر به تعمیم موقعیتها هستند؛ بدین معنا که هرگاه یک الگوی ورودی جدید را - که شبیه الگوهای تمرینشده قبلی است – دریافت میکنند، خروجیای تولید خواهند کرد که شبیه خروجی الگوی تمرینشده باشد.
بدین ترتیب آنها قادر به فراهمآوردن روابط شبه قانونی بین الگوهای ورودی و خروجی هستند بدون آنکه بازنماییهای درونی متناظر از قانونها را داشته باشند.
🎖این پیشرفتها که شباهت با ویژگیهای شناختی انسان را یادآور میشد، سبب انگیزش برخی علاقمندیها گردید و محققان را به این فکر انداخت که شاید رویکرد #پیوندگرایی (Connectionism) بتواند فرصتهایی برای #هوش_مصنوعی قوی فراهم آورد.
ولی هنوز پرسشهای مهم فلسفی پیشین، در برابر شبکههای پیوندگرا نیز پابرجا باقی مانده است.
🎖صرفنظر از اعاده مشکل حس عمومی (Common sense) یا نابجا بودن پاسخها در موقعیتهای جدید که حاصل تعمیم نابجای موقعیتها توسط ماشین بود، مسئله فقدان "یادگیری" بمعنای عمیق و واقعی آن رخنمایی میکرد.
شبکههای پیوندگرا نیز – مانند سیستمهای کلاسیک GOFAI – توانایی شناسایی موقعیتهایی که در آنها، آنچه آموختهاند نامربوط به حساب میآید را ندارند. این بستگی به کاربر انسانی دارد که شکستها و ناکارآمدیها را تشخیص بدهد و یا خروجی موقعیتهایی که قبلاً شبکه آموخته را بهبود ببخشد یا مواردی جدید فراهم آورد که به اصلاحات در رفتار ختم شود. از این منظر، شبکههای نورونی تقریباً همانقدر وابسته به هوش انسانی هستند که سیستمهای GOFAI.
🎖حتی رویکرد «تقویت یادگیری» (Reinforcement Learning) هم هرچند نیاز به معلّم دانای کلّ ندارد و فقط بازخوردهای محیط را در یک روند تدریجی بررسی میکند، اما همچنان فاقد آنچیزی است که در #یادگیری_ماشین بمعنای واقعی بدان نیاز داریم: آیا دستگاه میتواند مانند انسانهای کارشناس، #پدیدارشناسی را بعنوان ماهیت ذاتی یادگیری، بکار گیرد؟
یادگیری متوقف بر حس درونی و سابجکتیو از مسئله و راهحل است. این در واقع بیانی دیگر از قلب اشکال جان سرل در اتاق چینی هم هست که فیزیک کامپیوتر / روبات را یکسری جریانات بسیار پیچیده الکتریکی میدانست. اما چیزی که این پالسهای الکتریکی را معنادار میسازد، از همان دست واقعیتی است که نشانههای جوهر روی کاغذ کتاب را به جملات معنادار تبدیل میکند.
🎖"ما" این علائم را طراحی و برنامهریزی کردهایم؛ بنابراین میتوانیم نشانههای مذکور را تعریف و درک کنیم. یک تکّه کاغذ فقط در صورتی پول خواهد بود که مردم، فکر و قبول کنند آن کاغذ، پول است. این واقعیت که کاغذ مذکور از فیبرهای سلولوزی تشکیل یافته، یک واقعیت مستقل از مشاهدهکننده است و این واقعیت که معادل 20 دلار سرمایه است، وابسته به مشاهدهگر. محاسبات هم یک فرآیند انتزاعی است که فقط در نسبت با مشاهدهگر و تفسیرگر آگاه، معنا و وجود مییابد. مشاهدهکنندگان و مفسّرانی مانند ما معنای جملات یا رفتار خروجی ماشین را تفسیر میکنیم و آنها را بجا یا نابجا تشخیص میدهیم. اما این بدان معنا نیست که خود ماشین هم بنحوی اولشخص و پدیداری، معنای خروجیها را درک میکند یا "یاد گرفته" است.
@PhilMind
⛄️ مثال ماشین عمه برتا (Aunt Bertha) توسط ندبلاک در مقاله Psychologism and Behaviourism (1981) علیه تعریف تورینگی از هوش ارائه شده است. بلاک این ماشین را با حافظهای عظیم در نظر میگیرد که تمام پاسخهای عمه برتای واقعی برای پرسشهای مختلف در طول یک زمان مشخص (مثلا یکساعت) در آن برنامهنویسی شده باشد. لذا ندبلاک استدلال میکند که #آزمون_تورینگ شرط کافی برای هوش نیست.
⛄️ چنین ماشینی - بنا به فرض - خواهد توانست آزمون تورینگ را با پاسخهای کاملا شبیه انسان پاس کند. اما پاسکردن #تست_تورینگ توسط این ماشین نمیتواند شاهدی بر هوشمندی آن باشد. درستی پاسخهای این ماشین به سؤالات آزمون، از آنجا ناشی میشود که پاسخهای عمه برتای واقعی درست و بجا هستند و این ماشین صرفا برای ذخیره و تکرار آن پاسخها برنامهنویسی شده است.
⛄️ باید توجه داشت که ماشین عمه برتا یک ماشین فرضی (و نه واقعی و کاربردی) است که حتی اگر امکان تحقق عملی نداشته باشد، اما صرف امکان منطقی آن برای هدف بلاک کفایت میکند. در واقع این استدلال در سطح مفهومی طراحی شده و میخواهد تحلیل مفهومی تست تورینگ از هوش را به چالش بکشد.
⛄️ ممکن است استدلال بلاک را (که ابتدای دهه 80 نیز ارائه شده)، مربوط به استراتژی کلاسیک و قدیمی در #هوش_مصنوعی تلقی کنیم که براساس ذخیرهسازی و حافظه در #برنامه_نویسی پیش میرفت. حال آنکه #یادگیری_ماشین در دهههای اخیر اساسا برپایه ذخیرهسازی در حافظه نیست. بلکه ماشین در دوره کارورزی (training) یکسری موقعیتها را تمرین میکند و پاسخهای بهینه برای هر موقعیت را در مییابد. او آنگاه در موقعیتهای جدید براساس تمرینهایی که در دوره کارورزی گذرانده، پاسخ درست و بجا را بیرون میدهد.
⛄️ مسئله اما اینجاست که چنین ماشینی کماکان از وابستگی به هوش انسانی برنامهنویس و از معیار تشخیص نوع موقعیت جدید خلاصی نمییابد. او همچنان در نحوه مراجعه به ورودی و خروجیهای دوره کارورزی برای پاسخدهی به موقعیت جدید، از نوعی برنامهنویسی پیروی میکند که هوش انسانی برایش ریلگذاری کرده است.
و از آن مهمتر، تشخیص اینکه موقعیت جدید از نوع کدام موقعیتهای تمرینشدهی پیشین است، خود نیازمند معیاری بسیار پیچیده و گاه منحصر بفرد است.
⛄️ ممکن است ماشین قبلا موقعیت زیادی را تمرین کرده و پاسخهای درست و بجا برای هریک را دستهبندی کرده باشد. ولی اکنون با موقعیت جدیدی مواجه شده که به آسانی قابل تطبیق با موقعیتهای (ولو پرشمار) دوره کارورزی نباشد. او با چه معیاری باید موقعیت جدید را در دستهبندی خود بگنجاند و تشخیص دهد؟ این موقعیت جدید میتواند - همانطور که دریفوس توضیح داده - کاملا منحصر بفرد و وابسته به کانتکست باشد. تطبیق ماشینی چنین وضعیتی بر موقعیتهای تمرینشدهی قبلی، صرفا به خروجی نادرست و نابجا (irrelevant) خواهد انجامید.
علاوه بر این حتی در مواردی که به دستهبندی درست موقعیت جدید دست یابد، تازه به پاسخهای ذخیرهشده در دوران کارورزی مراجعه و آنها را بنحوی متناسب تکرار میکند که باز در برابر استدلالهایی نظیر ند بلاک (آزمون عمه برتا) و جان سرل (آزمون اتاق چینی) قرار میگیرد.
⛄️ بدینترتیب رویکردهای محاسباتی - چه رویکرد کلاسیک (#GOFAI) و چه رویکرد پیوندگرایی (#Connectionism) - در ساخت هوش مصنوعی با چالشهای جدی نظری روبهرو هستند. هرچند که در واقع بخش عظیمی از لابراتوارهای هوش مصنوعی را در تسخیر خود داشته و دارند.
@PhilMind
🚩 یادگیری تقویتی (Reinforcement Learning) رویکردی جدید در حوزه #یادگیری_ماشین بود تا وابستگی #هوش_مصنوعی به هوش انسانی و طراح سیستم را از بین ببرد و از طریق رهگیری مستمر آمارها و حدس و خطا، به پاسخ درست و پایدار برسد.
ولی بنظر میرسد دستکم دو تکمله نیاز داریم که هیچکدام از آنها بر اساس دانش فعلی، دستیافتنی نیستند؛
🚩 نخست آنکه نیاز است یادگیری تقویتی در مسائلی بکار گرفته شود که تعداد موقعیتهایی در آن مسائل که میتواند مورد مواجهه قرار گیرد، بسیار بیشتر از تعداد موقعیتهایی باشد که قبلاً در خلال کارورزی، مواجهه شده است. در نتیجه روشهایی بمنظور تعیین اعمال و ارزشهای درست برای موقعیتهای جدید، نیاز است.
🚩 دوم آنکه اگر یادگیری تقویتی بدنبال تولید چیزی شبیه هوش انسانی است، دستگاه یادگیری تقویتی باید حس عمومی را از طریق تعاملات همراه با مآلاندیشی و آیندهسنجی به نمایش بگذارد. حال آنکه رویههای جاری، تلاش میکنند مرتبط و متناسب بودن رفتارها را از طریق ردگیری مستمر آمارها در خلال حدس و خطا، بیاموزند.
🚩 در واقع به بیان فیلسوفانی مانند دریفوس، مشکلات رویکرد یادگیری تقویتی از این قرار است که: اوّلا ممکن است یک خصیصه به خودی خود مرتبط و متناسب با رفتار نباشد، اما وقتی با یک یا چند خصیصه دیگر ترکیب میشود، مرتبط گردد. برای تدبیر این مسئله، ناگزیر هستیم بررسیهای آماری مرتبط بودن را بر روی ترکیب ویژگیها انجام دهیم که به حجم سرسامآوری از بررسیهای مهم و محتمل میانجامد.
🚩 ثانیا چیزی که در این رویکرد ملاک و معیار قرار میگیرد، مربوط بودن خصیصه در تمام موقعیتهایی است که با آن مواجه میشود. حال آنکه ممکن است یک خصیصه در برخی موقعیتها مربوط باشد و در دیگر موقعیتها اینطور نباشد. بنابراین ما نیازمند جمعآوری دادههای مرتبط بودن بطور جداگانه برای هر موقعیت خاص هستیم که باز به رشدی سهمگین در کمیت بررسیها میانجامد.
حال آنکه به نظر میرسد بررسیهای آماری، شیوهای کاربردی و عملی برای تعیین مربوط بودن نیست.
🚩 مسئله سوم این است که هیچ محدودیتی درباره تعداد خصیصههایی که ممکن است بنحوی تصورپذیر در برخی موقعیتها مربوط باشند، وجود ندارد. مشخصاً ما نمیتوانیم با تمام خصیصههایی که ممکن است مربوط باشند، آغاز کنیم و بررسیهای آماری را درباره همه آنها جمعآوری نماییم.
🚩 ضمن آنکه رویههای یادگیری تقویتی، رفتار را بنحو محرک و پاسخ تولید میکنند؛ به این معنا که ورودی (یک توصیف موقعیت)، مستقیماً به سوی خروجی (یک عمل یا رفتار) هدایت میشود.
مغز اما مشخصاً حالاتی درونی دارد که در هنگام دریافت ورودیها، در قالب مودها و پیشبینیها و ... تجربه میکند. این تجربیات با ورودی جاری و همچنین با قوت اتصالات سیناپسی – که بر اساس تجربیات طولانی گذشته شکل گرفته – مشخص میشوند.
🚩 حتی برای همان تعیین و تولید رفتار، رویکرد یادگیری تقویتی نیازمند قانونی جهت تعیین پاسخ فوری ناشی از هر عمل ممکن در هر موقعیت ممکن است. ولی انسانها چنین قوانینی ندارند و نیاز هم ندارند. نیازها، تمایلات و هیجانات ما، حسی از مربوطبودن رفتارهایمان برایمان فراهم میآورد. حال اگر این نیازها و تمایلات و هیجانات نیز به نوبه خود وابسته به تواناییها و آسیبپذیریهای یک بدن بیولوژیکی باشند که درون یک فرهنگ خاص، اجتماعی شده است، آنگاه دستگاههای یادگیری تقویتی راه زیادی برای رسیدن به آن دارند.
@PhilMind
🔻#محاسبات_شناختی - بعنوان یکی از رویکردهای معاصر در #هوش_مصنوعی - شامل روباتیک شناختی، روباتیک توسعهیافته، سیستمهای محاسبه خودآگاه و ... است.
🔻#روباتیک در روزهای اول پیدایش، با مسئله «چگونگی انجام عملکردها» پیوند میخورد و غالباً زیرمجموعه رشته مهندسی مکانیک قرار داده میشد. در سالیان اخیر اما تأکید بر روی انتخاب عملکرد رفته است؛ یعنی «تصمیمگیری» درباره اینکه «چه عملی انجام گیرد».
🔻روباتیک توسعهیافته نیز - که بسیار به روباتیک شناختی مربوط است - #یادگیری_ماشین و روانشناسی توسعهیافته را با هم تلفیق میکند. ایده این تحقیقات، توانمندسازی روباتها برای «یادگیری» مستمر است. چنین یادگیریای باید روباتهای شناختی را برای عملکرد در محیطی بسیار پیچیده و بسیار دینامیک با احتمالاتی فراوان، توانمند سازد.
🔻رون برچمن (Ron Brachman) در توضیح مطلب میگوید: «یک سیستم شناختی واقعی باید بتواند تبیین کند که در حال انجام چه کاری بوده و چرا؟ این به قدر کافی خردمندانه خواهد بود اگر "بداند" چه زمانی در حال فروافتادن در یک بنبست است و چه زمانی نیاز به درخواست اطلاعاتی دارد که از طریق استدلال بیشتر، قابل دستیابی نیست. با بهکارگیری چنین ظرفیتهایی قدرت مقابلهای بلوغآمیز با شرایط پیشبینی نشده را داراست».
🔻چالش عمیق در این تعاریف و رویکردها اما پسوند «شناختی» است که همچون صفتی رایج و مدشده، برای طیف وسیع و بیمرزی از پدیدهها و خصوصیات بکار میرود.
آیا «تصمیمگیری» (در #روباتیک_شناختی)، «یادگیری» (در #روباتیک_توسعه_یافته)، و «دانستن» (در توضیح برچمن) دارای جنبهای سابجکتیو و پدیداری هم هست یا صرفاً در قالب یکسری رفتارها و خروجیهای قابل مشاهده از منظر سومشخص سنجیده و تعریف میشوند؟
آنچه عملا در حوزه فنی هوش مصنوعی جریان دارد و حتی محققان و مهندسان این حوزه بر آن اصرار دارند، در همین حد است.
🔻اگر ماشین بتواند از بین چند گزینه عملکرد در شرایط s1، گزینه درست را به معرض نمایش بگذارد، واجد «تصمیمگیری» دانسته میشود.
و اگر عملکرد درست در محیطهای بسیار پیچیده دینامیکی (با احتمالات فراوان) را به اجرا درآورد، متصف به «یادگیری مستمر» خواهد شد.
و خروجیهای محاسباتی و رفتاری در راستای دریافت اطلاعات بیشتر و پرهیز از گیرافتادن در بنبست، به معنای «دانستن» ماشین نسبت به شرایط مختلف مواجهه تلقی میشود.
🔻اما تمام این حالات شناختی (تصمیمگیری، دانستن، یادگیری، ...) علاوه بر جنبههای کارکردی و رفتاری، دارای یک جنبه درونی هم هستند که از منظر اولشخص فاعل شناسا تجربه میشود. روباتیک شناختی با تمام هیجان و کاربردهایی که دارد، اما عمیقاً مبتنی بر رویکرد تورینگی (تمایزناپذیری رفتاری و زبانی) است که ماشین "تفکرکننده" را در حد ماشین "عملکننده مشابه انسان خردمند" تقلیل میدهد. فارغ از اینکه چنین اعمالی آیا مبتنی بر جهان پدیداری تفکر و تجربه سابجکتیو آن هم هست یا نه؟ آیا مشابهت با عامل انسانی از منظر پدیداری و درونی هم برقرار است؟
🔻استدلالهای مختلف فلسفی (مانند استدلال اتاق چینی از جان سرل) نشان دادند که متد تمایزناپذیری رفتاری، علیالاصول و فینفسه نمیتواند دربردارنده چنین جنبهای باشد.
بدین ترتیب چه بسا استعمال پسوند «شناختی» برای این روباتها کمی سخاوتمندانه و بلکه اسرافآمیز به نظر میرسد (هرچند که این روزها در مورد بسیاری پدیدهها و پروژهها و رویکردها رواج دارد).
🔺کما اینکه خود «هوش» هم از این منظر دچار یک تقلیل بزرگ پدیدارشناختی بوده است. البته مادام که هوش مصنوعی را چیزی شبیه این تعریف کنیم، انتظار بیشتری هم نباید داشت: «یک حوزه تخصصی برای ساخت مصنوعاتی با توانایی نمایش رفتارهای تحت کنترل در محیطهای مختلف و دورههای زمانی پایدار» (برینگسجورد، 2014)
@PhilMind
فلسفه ذهن
فراز و فرود هوش مصنوعی ۱ 🚩 #هوش_مصنوعی از این ایده جذاب که در کنفرانس دارموث (۱۹۵۶) بیان گردید، آغا
فراز و فرود هوش مصنوعی ۲
🚩 در اواسط دهه 1980 حداقل چهار گروه مختلف، نوعی #الگوریتم_یادگیری را بازتولید کردند که اولینبار در 1969 پایهگذاری شده بود. این الگوریتم برای بسیاری مسائل #یادگیری_ماشین و انتشار گسترده نتایج در مجموعه پردازش توزیعشده موازی (Parallel Distributed Processing) بکار گرفته شد که موجب شور و هیجان فراوان گردید.
این مدلهای هوش که «پیوندگرا: Connectionist» خوانده میشوند، بعنوان رقیب مستقیم برای دو مدل نمادی (که توسط نوِل و سیمون ارتقاء یافت) و رویکرد منطقی (که بوسیله مککارتی و دیگران مطرح شد) تلقی میگردید.
🚩 شاید واضح بنظر برسد که انسانها نیز در برخی سطوح با دستکاری نمادها کار میکنند، اما طرفداران پیوندگرایی میپرسیدند آیا دستکاری نمادها هیچ نقش تبیینی واقعی در مدلهای جزئیشده شناخت دارد؟
این سؤال بدون پاسخ باقی مانده بود، هرچند دیدگاه اخیر این است که رویکردهای نمادین و پیوندگرا، مکمل همدیگر - و نه در رقیب با هم – هستند.
🚩 با جداسازی #هوش_مصنوعی از رویکرد دیجیتال، تحقیق در شبکههای نورونی مدرن به دو حوزه تقسیم شد که یکی با خلق ساختار مؤثر شبکه و الگوریتمها و ویژگیهای ریاضیاتی آنها سروکار داشت، و دیگری با مدلسازی دقیق ویژگیهای مجموعه نورونهای واقعی.
دیگر مشخص شده بود مسائلی که ما فکر میکردیم مشکل باشند، از حل قضایای ریاضیاتی و بازی آبرومندانه شطرنج گرفته تا استدلال در علوم مختلف، آسان بودند و کامپیوترهای دهه 60 و 70 با چندهزار فرمان در ثانیه، غالباً میتوانستند نتایج رضایتبخشی را در این زمینهها فراهم آورند. مسئله گریزپا اما مهارتهایی بود که هر بچه پنجساله هم داراست؛ مثل بیان تفاوت بین یک سگ و یک گربه، یا درک یک کارتون انیمیشینی.
🚩 اواسط دهه 90 شاهد نفوذ سیستمهایی در مؤسسات مالی بودیم که از تکنیکهای قدرتمند آماری و انطباقی استفاده میکردند. نه تنها فروشگاههای بزرگ توسط شبکههای کامپیوتری مدیریت میشدند، بلکه عمده تصمیمات خرید و فروش نیز بوسیله برنامههای نرمافزاری که بنحوی فزاینده شامل مدلهای پیچیده دادوستد بودند، گرفته میشد.
🚩 با نقش مهم و روزافزون ماشینهای هوشمند در تمامی جنبههای زندگی امروزه (نظامی، پزشکی، اقتصادی، مالی، سیاسی)، عجیب است کسی در اینباره تردید داشته باشد که: «چه اتفاقی با هوش مصنوعی رخ داده است»؟
اگر تعریف ما از AI شبیه تعاریف امثال اِلین ریچ (Elaine Rich) باشد که هوش مصنوعی را معادل ماشینهایی میداند که «اعمالی را به انجام میرسانند که فعلاً افراد انسانی در انجام آنها بهتر هستند»، باید اذعان کرد که حوزه AI به موفقیتهای بزرگی دست یافته و آینده روشنتری را هم نوید میدهد.
🚩 اما اگر علاوه بر جنبه کارکردی که بر یکسری خروجیهای از سنخ داده و رفتار و گفتار تکیه دارد، جنبه پدیداری و سابجکتیو هوش و آگاهی نیز مدنظر باشد، ماجرا کاملا فرق میکند.
رویکردهای معاصر #بدنمندی (#Embodiment) و #پیوندگرایی (#Connectionism) هرچقدر که در ارائه رفتارها و کارکردهای ایدهآل یا شبیه انسان، پیشرفت داشتهاند، اما اساسا برای تولید و توسعه عالَم درونی و #آگاهی_پدیداری در ماشینها تاسیس نشدهاند.
🚩 امروزه البته بسیاری از مهندسان علوم کامپیوتر اصلا کاری با ساخت جنبه اولشخص و #تجربه_پدیداری در ماشینها ندارند و صرفا بر توسعه #هوش_مصنوعی_ضعیف تمرکز دارند؛ هوشی که البته در تسهیل و تحول زندگی بشر میتواند نقشی بسیار اساسی ایفا نماید و کارکردهای مهمی را به منصه ظهور رساند.
اما بنظر میرسد چشمانداز #هوش_مصنوعی_قوی که توسط لیدرهای این حوزه از اواسط قرن بیستم نوید داده میشد و همچنان از سوی برخی مهندسان و نظریهپردازان دنبال میشود، قابلیت تحقق در قالب رویکردهای رایج را ندارد.
و این البته بمعنای عدم امکان علیالاصول تحقق چشمانداز مذکور از هیچ طریق دیگر نیست.
@PhilMind