eitaa logo
فلسفه ذهن
890 دنبال‌کننده
137 عکس
68 ویدیو
21 فایل
محتوای تخصصی در حوزه #فلسفه_ذهن و فلسفه #علوم_شناختی توسط: مهدی همازاده ابیانه @MHomazadeh با همکاری هیئت تحریریه
مشاهده در ایتا
دانلود
🕒 مباحث ذیل را می‌‌توان به دو حوزه کلّی تفکیک کرد: 1) موضوعات مربوط به (مانند مسئولیت پیامد تصمیمات و رفتار ، حق مالکیت خلاقیت‌های هنری یا علمی هوش مصنوعی، تأثیر روبات‌ها بر تعاملات بشری، جواز و نحوه محدودکردن هوش مصنوعی، جواز پاداش و تنبیه روبات‌ها، ...) که بیشتر در حوزه $فلسفه_اخلاق قرار می‌گیرند. 2) موضوعات مربوط به «وجودشناسی هوش مصنوعی» یا (مانند امکان بالقوه‌ی ، چشم‌انداز ، ماهیت و حیطه‌ی ، میزان قابلیت رویکرد کلاسیک محاسباتی و رویکردهای و در تولید ، ...) که عمدتاً در حوزه بررسی می‌شوند. 🕓 برخی مهندسان و پژوهشگران فنّی هوش مصنوعی اما علاقه چندانی به دسته دوم مباحث فوق ندارند و در بین مباحث فلسفی هوش مصنوعی، دسته نخست را به دلیل آن‌که اوّلاً کاربردی‌تر می‌یابند و ثانیاً توانایی هوش مصنوعی و امکان تحقّق چشم‌اندازهای آتی را به چالش نمی‌کشد، ترجیح می‌دهند. ضمن این‌که برخی چشم‌اندازهای معاصر هوش مصنوعی نیز از وعده‌های دهه 60 و 70 میلادی مبنی بر تولید شخص (person) با تمام حالات آگاهانه و ویژگی‌های پدیداری کوتاه آمده و بعضاً تحقّق اهدافی صرفاً کاربردی و جزئی را دنبال می‌کنند. 🕔 این اتفاق البته در میان محققان و مهندسان هوش مصنوعی در داخل کشورمان بنحوی شایع‌تر و جدی‌تر وجود دارد و تعاملات بینارشته‌ای فلسفی – فنّی که بین برخی دپارتمان‌ها و دانشمندان غربی در حوزه هوش مصنوعی مشاهده می‌شود در کشور ما تقریباً هیچ نمونه‌ای (ولو تقلیل‌یافته) ندارد. 🕕 هندبوک هوش مصنوعی که چاپ اوّل آن در سال 2015 توسط انتشارات دانشگاه کمبریج به چاپ رسیده و اساتید مطرح بین‌المللی در فصول مختلف آن قلم زده‌اند، چهار فصل کلّی دارد که فصل اول آن به «بنیادهای فلسفی» و «چالش‌های فلسفی» می‌پردازد و فصول تکنیکال بعدی نیز مکرّراً در لابلای مباحث GOFAI و پیوندگرایی و بدن‌مندی و (Artificial Life) و حتی ، به مسائل فلسفی ارجاع می‌دهد و تأملاتی دوطرفه را پیش روی مخاطب می‌گذارد. (See: The Handbook of Artificial Intelligence, 2015, Cambridge University Press) درباره ضرورت توجه به مباحث وجودشناسی هوش مصنوعی لااقل از دو منظر می‌توان سخن گفت که در پست‌های آینده بدان‌ها اشاره خواهد شد. @PhilMind
🎖شبکه‏های نورونی مصنوعی قادر به کارورزی (Training) برای رسیدن یا نزدیک‌شدن به یک "کارکرد" هستند. الگوریتم‏های "یادگیری" با اهداف عمومی وجود دارند – مانند الگوریتم پردازش پشتیبان (Backpropagation) – که با بارهای تصادفی در شبکه آغاز می‏کند و مکرراً سیستم را بصورت تمرینی در معرض ورودی‏های مختلف قرار داده و بار‏های شبکه را تنظیم می‏کند تا این‏که بالاخره خروجی را هرچه نزدیک‏تر به مقدار صحیح برساند. 🎖این دستگاه‌های پیوندگرا البته قادر به تعمیم موقعیت‌ها هستند؛ بدین معنا که هرگاه یک الگوی ورودی جدید را - که شبیه الگوهای تمرین‌شده قبلی است – دریافت می‌کنند، خروجی‌ای تولید خواهند کرد که شبیه خروجی الگوی تمرین‌شده باشد. بدین ترتیب آن‌ها قادر به فراهم‌آوردن روابط شبه قانونی بین الگوهای ورودی و خروجی هستند بدون آن‌که بازنمایی‌های درونی متناظر از قانون‌ها را داشته باشند. 🎖این پیشرفت‌ها که شباهت با ویژگی‌های شناختی انسان را یادآور می‌شد، سبب انگیزش برخی علاقمندی‌ها گردید و محققان را به این فکر انداخت که شاید رویکرد (Connectionism) بتواند فرصت‌هایی برای قوی فراهم آورد. ولی هنوز پرسش‌های مهم فلسفی پیشین، در برابر شبکه‌های پیوندگرا نیز پابرجا باقی مانده است. 🎖صرفنظر از اعاده مشکل حس عمومی (Common sense) یا نابجا بودن پاسخ‌ها در موقعیت‌های جدید که حاصل تعمیم‌ نابجای موقعیت‌ها توسط ماشین بود، مسئله فقدان "یادگیری" بمعنای عمیق و واقعی آن رخ‌نمایی می‌کرد. شبکه‏های پیوندگرا نیز – مانند سیستم‏های کلاسیک GOFAI – توانایی شناسایی موقعیت‏هایی که در آن‏ها، آن‏چه آموخته‏اند نامربوط به حساب می‌آید را ندارند. این بستگی به کاربر انسانی دارد که شکست‏ها و ناکارآمدی‏ها را تشخیص بدهد و یا خروجی موقعیت‏هایی که قبلاً شبکه آموخته را بهبود ببخشد یا مواردی جدید فراهم آورد که به اصلاحات در رفتار ختم شود. از این منظر، شبکه‏های نورونی تقریباً همان‏قدر وابسته به هوش انسانی هستند که سیستم‏های GOFAI. 🎖حتی رویکرد «تقویت یادگیری» (Reinforcement Learning) هم هرچند نیاز به معلّم دانای کلّ ندارد و فقط بازخوردهای محیط را در یک روند تدریجی بررسی می‏کند، اما همچنان فاقد آن‌چیزی است که در بمعنای واقعی بدان نیاز داریم: آیا دستگاه می‌تواند مانند انسان‏های کارشناس، را بعنوان ماهیت ذاتی یادگیری، بکار گیرد؟ یادگیری متوقف بر حس درونی و سابجکتیو از مسئله و راه‌حل است. این در واقع بیانی دیگر از قلب اشکال جان سرل در اتاق چینی هم هست که فیزیک کامپیوتر / روبات را ‌یک‏سری جریانات بسیار پیچیده الکتریکی می‌دانست. اما چیزی که این پالس‏های الکتریکی را معنادار می‏سازد، از همان دست واقعیتی است که نشانه‏های جوهر روی کاغذ کتاب را به جملات معنادار تبدیل می‏کند. 🎖"ما" این علائم را طراحی و برنامه‏ریزی کرده‏ایم؛ بنابراین می‏توانیم نشانه‏های مذکور را تعریف و درک کنیم. یک تکّه کاغذ فقط در صورتی پول خواهد بود که مردم، فکر و قبول کنند آن کاغذ، پول است. این واقعیت که کاغذ مذکور از فیبرهای سلولوزی تشکیل یافته، یک واقعیت مستقل از مشاهده‏کننده است و این واقعیت که معادل 20 دلار سرمایه است، وابسته به مشاهده‏گر. محاسبات هم یک فرآیند انتزاعی است که فقط در نسبت با مشاهده‏گر و تفسیرگر آگاه، معنا و وجود می‌یابد. مشاهده‏کنندگان و مفسّرانی مانند ما معنای جملات یا رفتار خروجی ماشین را تفسیر می‌کنیم و آن‌ها را بجا یا نابجا تشخیص می‌دهیم. اما این بدان معنا نیست که خود ماشین هم بنحوی اول‌شخص و پدیداری، معنای خروجی‌ها را درک می‌کند یا "یاد گرفته" است. @PhilMind
⛄️ مثال ماشین عمه برتا (Aunt Bertha) توسط ندبلاک در مقاله Psychologism and Behaviourism (1981) علیه تعریف تورینگی از هوش ارائه شده است. بلاک این ماشین را با حافظه‌ای عظیم در نظر می‌گیرد که تمام پاسخ‌های عمه برتای واقعی برای پرسش‌های مختلف در طول یک زمان مشخص (مثلا یکساعت) در آن برنامه‌نویسی شده باشد. لذا ندبلاک استدلال می‌کند که شرط کافی برای هوش نیست. ⛄️ چنین ماشینی - بنا به فرض - خواهد توانست آزمون تورینگ را با پاسخ‌های کاملا شبیه انسان پاس کند. اما پاس‌کردن توسط این ماشین نمی‌تواند شاهدی بر هوشمندی آن باشد. درستی پاسخ‌های این ماشین به سؤالات آزمون، از آن‌جا ناشی می‌شود که پاسخ‌های عمه برتای واقعی درست و بجا هستند و این ماشین صرفا برای ذخیره و تکرار آن پاسخ‌ها برنامه‌نویسی شده است. ⛄️ باید توجه داشت که ماشین عمه برتا یک ماشین فرضی (و نه واقعی و کاربردی) است که حتی اگر امکان تحقق عملی نداشته باشد، اما صرف امکان منطقی آن برای هدف بلاک کفایت می‌کند. در واقع این استدلال در سطح مفهومی طراحی شده و می‌خواهد تحلیل مفهومی تست تورینگ از هوش را به چالش بکشد. ⛄️ ممکن است استدلال بلاک را (که ابتدای دهه 80 نیز ارائه شده)، مربوط به استراتژی کلاسیک و قدیمی در تلقی کنیم که براساس ذخیره‌سازی و حافظه در پیش می‌رفت. حال آن‌که در دهه‌های اخیر اساسا برپایه ذخیره‌سازی در حافظه نیست. بلکه ماشین در دوره کارورزی (training) یکسری موقعیت‌ها را تمرین می‌کند و پاسخ‌های بهینه برای هر موقعیت را در می‌یابد. او آن‌گاه در موقعیت‌های جدید براساس تمرین‌هایی که در دوره کارورزی گذرانده، پاسخ درست و بجا را بیرون می‌دهد. ⛄️ مسئله اما این‌جاست که چنین ماشینی کماکان از وابستگی به هوش انسانی برنامه‌نویس و از معیار تشخیص نوع موقعیت جدید خلاصی نمی‌یابد. او همچنان در نحوه مراجعه به ورودی و خروجی‌های دوره کارورزی برای پاسخ‌دهی به موقعیت جدید، از نوعی برنامه‌نویسی پیروی می‌کند که هوش انسانی برایش ریل‌گذاری کرده است. و از آن مهم‌تر، تشخیص این‌که موقعیت جدید از نوع کدام موقعیت‌های تمرین‌شده‌ی پیشین است، خود نیازمند معیاری بسیار پیچیده و گاه منحصر بفرد است. ⛄️ ممکن است ماشین قبلا موقعیت زیادی را تمرین کرده و پاسخ‌های درست و بجا برای هریک را دسته‌بندی کرده باشد. ولی اکنون با موقعیت جدیدی مواجه شده که به آسانی قابل تطبیق با موقعیت‌های (ولو پرشمار) دوره کارورزی نباشد. او با چه معیاری باید موقعیت جدید را در دسته‌بندی خود بگنجاند و تشخیص دهد؟ این موقعیت جدید می‌تواند - همانطور که دریفوس توضیح داده - کاملا منحصر بفرد و وابسته به کانتکست باشد. تطبیق ماشینی چنین وضعیتی بر موقعیت‌های تمرین‌شده‌ی قبلی، صرفا به خروجی نادرست و نابجا (irrelevant) خواهد انجامید. علاوه بر این حتی در مواردی که به دسته‌بندی درست موقعیت جدید دست یابد، تازه به پاسخ‌های ذخیره‌شده در دوران کارورزی مراجعه و آن‌ها را بنحوی متناسب تکرار می‌کند که باز در برابر استدلال‌هایی نظیر ند بلاک (آزمون عمه برتا) و جان سرل (آزمون اتاق چینی) قرار می‌گیرد. ⛄️ بدین‌ترتیب رویکردهای محاسباتی - چه رویکرد کلاسیک () و چه رویکرد پیوندگرایی () - در ساخت هوش مصنوعی با چالش‌های جدی نظری روبه‌رو هستند. هرچند که در واقع بخش عظیمی از لابراتوارهای هوش مصنوعی را در تسخیر خود داشته و دارند. @PhilMind
🚩 یادگیری تقویتی (Reinforcement Learning) رویکردی جدید در حوزه بود تا وابستگی به هوش انسانی و طراح سیستم را از بین ببرد و از طریق رهگیری مستمر آمارها و حدس و خطا، به پاسخ درست و پایدار برسد. ولی بنظر می‌رسد دست‏کم دو تکمله نیاز داریم که هیچ‏کدام از آن‏ها بر اساس دانش فعلی، دست‏یافتنی نیستند؛ 🚩 نخست آن‏که نیاز است یادگیری تقویتی در مسائلی بکار گرفته شود که تعداد موقعیت‏هایی در آن مسائل که می‏تواند مورد مواجهه قرار گیرد، بسیار بیشتر از تعداد موقعیت‏هایی باشد که قبلاً در خلال کارورزی، مواجهه شده است. در نتیجه روش‏هایی بمنظور تعیین اعمال و ارزش‏های درست برای موقعیت‏های جدید، نیاز است. 🚩 دوم آن‏که اگر یادگیری تقویتی بدنبال تولید چیزی شبیه هوش انسانی است،‌ دستگاه یادگیری تقویتی باید حس عمومی را از طریق تعاملات همراه با مآل‏اندیشی و آینده‌سنجی به نمایش بگذارد. حال آن‌که رویه‏های جاری، تلاش می‏کنند مرتبط و متناسب بودن رفتارها را از طریق ردگیری مستمر آمارها در خلال حدس و خطا، بیاموزند. 🚩 در واقع به بیان فیلسوفانی مانند دریفوس، مشکلات رویکرد یادگیری تقویتی از این قرار است که: اوّلا ممکن است یک خصیصه به خودی خود مرتبط و متناسب با رفتار نباشد، اما وقتی با یک یا چند خصیصه دیگر ترکیب می‏شود، مرتبط گردد. برای تدبیر این مسئله، ناگزیر هستیم بررسی‏های آماری مرتبط بودن را بر روی ترکیب ویژگی‌ها انجام دهیم که به حجم سرسام‏آوری از بررسی‌های مهم و محتمل می‎‏‌انجامد. 🚩 ثانیا چیزی که در این رویکرد ملاک و معیار قرار می‏گیرد، مربوط بودن خصیصه در تمام موقعیت‏هایی است که با آن مواجه می‏شود. حال آن‏که ممکن است یک خصیصه در برخی موقعیت‏ها مربوط باشد و در دیگر موقعیت‏ها این‏طور نباشد. بنابراین ما نیازمند جمع‏آوری داده‏های مرتبط بودن بطور جداگانه برای هر موقعیت خاص هستیم که باز به رشدی سهمگین در کمیت بررسی‏ها می‏انجامد. حال آن‌که به نظر می‏رسد بررسی‏های آماری، شیوه‏ای کاربردی و عملی برای تعیین مربوط بودن نیست. 🚩 مسئله سوم این است که هیچ محدودیتی درباره تعداد خصیصه‏هایی که ممکن است بنحوی تصورپذیر در برخی موقعیت‏ها مربوط باشند، وجود ندارد. مشخصاً ما نمی‏توانیم با تمام خصیصه‏هایی که ممکن است مربوط باشند، آغاز کنیم و بررسی‏های آماری را درباره همه آن‏ها جمع‏آوری نماییم. 🚩 ضمن آن‌که رویه‏های یادگیری تقویتی، رفتار را بنحو محرک و پاسخ تولید می‏کنند؛ به این معنا که ورودی (یک توصیف موقعیت)، مستقیماً به سوی خروجی (یک عمل یا رفتار) هدایت می‏شود. مغز اما مشخصاً حالاتی درونی دارد که در هنگام دریافت ورودی‏ها، در قالب مودها و پیش‏بینی‎‏ها و ... تجربه می‏کند. این‏ تجربیات با ورودی جاری و همچنین با قوت اتصالات سیناپسی – که بر اساس تجربیات طولانی گذشته شکل گرفته – مشخص می‏شوند. 🚩 حتی برای همان تعیین و تولید رفتار، رویکرد یادگیری تقویتی نیازمند قانونی جهت تعیین پاسخ فوری ناشی از هر عمل ممکن در هر موقعیت ممکن است. ولی انسان‌ها چنین قوانینی ندارند و نیاز هم ندارند. نیازها، تمایلات و هیجانات ما، حسی از مربوط‌بودن رفتارهایمان برایمان فراهم می‌آورد. حال اگر این نیازها و تمایلات و هیجانات نیز به نوبه خود وابسته به توانایی‌ها و آسیب‌پذیری‌های یک بدن بیولوژیکی باشند که درون یک فرهنگ خاص، اجتماعی شده است، آن‌گاه دستگاه‌های یادگیری تقویتی راه زیادی برای رسیدن به آن دارند. @PhilMind
🔻 - بعنوان یکی از رویکردهای معاصر در - شامل روباتیک شناختی، روباتیک توسعه‏یافته، سیستم‏های محاسبه خودآگاه و ... است. 🔻 در روزهای اول پیدایش، با مسئله «چگونگی انجام عملکردها» پیوند می‏خورد و غالباً ‌زیرمجموعه رشته مهندسی مکانیک قرار داده می‏شد. در سالیان اخیر اما تأکید بر روی انتخاب عملکرد رفته است؛ یعنی «تصمیم‏گیری» درباره اینکه «چه عملی انجام گیرد». 🔻روباتیک توسعه‏یافته نیز - که بسیار به روباتیک شناختی مربوط است - و روان‏شناسی توسعه‏یافته را با هم تلفیق می‏کند. ایده این تحقیقات، توانمندسازی روبات‏ها برای «یادگیری» مستمر است. چنین یادگیری‏ای باید روبات‏های شناختی را برای عملکرد در محیطی بسیار پیچیده و بسیار دینامیک با احتمالاتی فراوان، توانمند سازد. 🔻رون برچمن (Ron Brachman) در توضیح مطلب می‏گوید: «یک سیستم شناختی واقعی باید بتواند تبیین کند که در حال انجام چه کاری بوده و چرا؟ این به قدر کافی خردمندانه خواهد بود اگر "بداند" چه زمانی در حال فروافتادن در یک بن‏بست است و چه زمانی نیاز به درخواست اطلاعاتی دارد که از طریق استدلال بیشتر، قابل دستیابی نیست. با به‏کارگیری چنین ظرفیت‏هایی قدرت مقابله‏ای بلوغ‏آمیز با شرایط پیش‏بینی نشده را داراست». 🔻چالش عمیق در این تعاریف و رویکردها اما پسوند «شناختی» است که همچون صفتی رایج و مدشده، برای طیف وسیع و بی‌مرزی از پدیده‌ها و خصوصیات بکار می‌رود. آیا «تصمیم‌گیری» (در )، «یادگیری» (در )، و «دانستن» (در توضیح برچمن) دارای جنبه‌ای سابجکتیو و پدیداری هم هست یا صرفاً در قالب یکسری رفتارها و خروجی‌های قابل مشاهده از منظر سوم‌شخص سنجیده و تعریف می‌شوند؟ آنچه عملا در حوزه فنی هوش مصنوعی جریان دارد و حتی محققان و مهندسان این حوزه بر آن اصرار دارند، در همین حد است. 🔻اگر ماشین بتواند از بین چند گزینه عملکرد در شرایط s1، گزینه درست را به معرض نمایش بگذارد، واجد «تصمیم‌گیری» دانسته می‌شود. و اگر عملکرد درست در محیط‌های بسیار پیچیده دینامیکی (با احتمالات فراوان) را به اجرا درآورد، متصف به «یادگیری مستمر» خواهد شد. و خروجی‌های محاسباتی و رفتاری در راستای دریافت اطلاعات بیشتر و پرهیز از گیرافتادن در بن‌بست، به معنای «دانستن» ماشین نسبت به شرایط مختلف مواجهه تلقی می‌شود. 🔻اما تمام این حالات شناختی (تصمیم‌گیری، دانستن، یادگیری، ...) علاوه بر جنبه‌های کارکردی و رفتاری، دارای یک جنبه درونی هم هستند که از منظر اول‌شخص فاعل شناسا تجربه می‌شود. روباتیک شناختی با تمام هیجان و کاربردهایی که دارد، اما عمیقاً مبتنی بر رویکرد تورینگی (تمایزناپذیری رفتاری و زبانی) است که ماشین "تفکرکننده" را در حد ماشین "عمل‌کننده مشابه انسان خردمند" تقلیل می‌دهد. فارغ از اینکه چنین اعمالی آیا مبتنی بر جهان پدیداری تفکر و تجربه سابجکتیو آن هم هست یا نه؟ آیا مشابهت با عامل انسانی از منظر پدیداری و درونی هم برقرار است؟ 🔻استدلال‌های مختلف فلسفی (مانند استدلال اتاق چینی از جان سرل) نشان دادند که متد تمایزناپذیری رفتاری، علی‌الاصول و فی‌نفسه نمی‌تواند دربردارنده چنین جنبه‌ای باشد. بدین ترتیب چه بسا استعمال پسوند «شناختی» برای این روبات‌ها کمی سخاوتمندانه و بلکه اسراف‌آمیز به نظر می‌رسد (هرچند که این روزها در مورد بسیاری پدیده‌ها و پروژه‌ها و رویکردها رواج دارد). 🔺کما این‌که خود «هوش» هم از این منظر دچار یک تقلیل بزرگ پدیدارشناختی بوده است. البته مادام که هوش مصنوعی را چیزی شبیه این تعریف کنیم، انتظار بیشتری هم نباید داشت: «یک حوزه تخصصی برای ساخت مصنوعاتی با توانایی نمایش رفتارهای تحت کنترل در محیط‏های مختلف و دوره‏های زمانی پایدار» (برینگسجورد، 2014) @PhilMind
فلسفه ذهن
فراز و فرود هوش مصنوعی ۱ 🚩 #هوش_مصنوعی از این ایده جذاب که در کنفرانس دارموث (۱۹۵۶) بیان گردید، آغا
فراز و فرود هوش مصنوعی ۲ 🚩 در اواسط دهه 1980 حداقل چهار گروه مختلف، نوعی را بازتولید کردند که اولین‏بار در 1969 پایه‏گذاری شده بود. این الگوریتم برای بسیاری مسائل و انتشار گسترده نتایج در مجموعه پردازش توزیع‏شده موازی (Parallel Distributed Processing) بکار گرفته شد که موجب شور و هیجان فراوان گردید. این مدل‏های هوش که «پیوندگرا: Connectionist» خوانده می‏شوند، بعنوان رقیب مستقیم برای دو مدل نمادی (که توسط نوِل و سیمون ارتقاء یافت) و رویکرد منطقی (که بوسیله مک‏کارتی و دیگران مطرح شد) تلقی می‏گردید. 🚩 شاید واضح بنظر برسد که انسان‏ها نیز در برخی سطوح با دستکاری نمادها کار می‏کنند، اما طرفداران پیوندگرایی می‏پرسیدند آیا دستکاری نمادها هیچ نقش تبیینی واقعی در مدل‏های جزئی‏شده شناخت دارد؟ این سؤال بدون پاسخ باقی مانده بود، هرچند دیدگاه اخیر این است که رویکردهای نمادین و پیوندگرا، مکمل همدیگر - و نه در رقیب با هم – هستند. 🚩 با جداسازی از رویکرد دیجیتال، تحقیق در شبکه‏های نورونی مدرن به دو حوزه تقسیم شد که یکی با خلق ساختار مؤثر شبکه و الگوریتم‏ها و ویژگی‏های ریاضیاتی آن‏ها سروکار داشت، و دیگری با مدل‏سازی دقیق ویژگی‏های مجموعه نورون‏های واقعی.  دیگر مشخص شده بود مسائلی که ما فکر می‏کردیم مشکل باشند، از حل قضایای ریاضیاتی و بازی آبرومندانه شطرنج گرفته تا استدلال در علوم مختلف،‌ آسان بودند و کامپیوترهای دهه 60 و 70 با چندهزار فرمان در ثانیه، غالباً می‏توانستند نتایج رضایت‏بخشی را در این زمینه‏ها فراهم آورند. مسئله گریزپا اما مهارت‏هایی بود که هر بچه پنج‏ساله هم داراست؛ مثل بیان تفاوت بین یک سگ و یک گربه، یا درک یک کارتون انیمیشینی. 🚩 اواسط دهه 90 شاهد نفوذ سیستم‏هایی در مؤسسات مالی بودیم که از تکنیک‏های قدرتمند آماری و انطباقی استفاده می‏کردند. نه تنها فروشگاه‏های بزرگ توسط شبکه‏های کامپیوتری مدیریت می‏شدند، بلکه عمده تصمیمات خرید و فروش نیز بوسیله برنامه‏های نرم‏افزاری که بنحوی فزاینده شامل مدل‏های پیچیده دادوستد بودند،‌ گرفته می‏شد. 🚩 با نقش مهم و روزافزون ماشین‏های هوشمند در تمامی جنبه‏های زندگی امروزه (نظامی، پزشکی،‌ اقتصادی، مالی، سیاسی)، عجیب است کسی در این‌باره تردید داشته باشد که: «چه اتفاقی با هوش مصنوعی رخ داده است»؟ اگر تعریف ما از AI شبیه تعاریف امثال اِلین ریچ (Elaine Rich) باشد که هوش مصنوعی را معادل ماشین‌هایی می‌داند که «اعمالی را به انجام می‏رسانند که فعلاً افراد انسانی در انجام آن‏ها بهتر هستند»، باید اذعان کرد که حوزه AI به موفقیت‌های بزرگی دست یافته و آینده روشن‌تری را هم نوید می‌دهد. 🚩 اما اگر علاوه بر جنبه کارکردی که بر یکسری خروجی‌های از سنخ داده و رفتار و گفتار تکیه دارد، جنبه پدیداری و سابجکتیو هوش و آگاهی نیز مدنظر باشد، ماجرا کاملا فرق می‌کند. رویکردهای معاصر () و () هرچقدر که در ارائه رفتارها و کارکردهای ایده‌آل یا شبیه انسان، پیشرفت داشته‌اند، اما اساسا برای تولید و توسعه عالَم درونی و در ماشین‌ها تاسیس نشده‌اند. 🚩 امروزه البته بسیاری از مهندسان علوم کامپیوتر اصلا کاری با ساخت جنبه اول‌شخص و در ماشین‌ها ندارند و صرفا بر توسعه تمرکز دارند؛ هوشی که البته در تسهیل و تحول زندگی بشر می‌تواند نقشی بسیار اساسی ایفا نماید و کارکردهای مهمی را به منصه ظهور رساند. اما بنظر می‌رسد چشم‌انداز که توسط لیدرهای این حوزه از اواسط قرن بیستم نوید داده می‌شد و همچنان از سوی برخی مهندسان و نظریه‌پردازان دنبال می‌شود، قابلیت تحقق در قالب رویکردهای رایج را ندارد. و این البته بمعنای عدم امکان علی‌الاصول تحقق چشم‌انداز مذکور از هیچ طریق دیگر نیست. @PhilMind