دربارهی هوش مصنوعی
وقتی موضوعی نگرانی جدی آینده باشد، دربارهاش باید بیشتر اندیشید. تحولات دورانساز تاریخی کم نبودند، اما موضوع بمب اتم و انرژی هستهای یک اتفاق فوقالعاده بود. انفجار بمبهای هستهای بر فراز شهرهای هیروشیما و ناکازاکی کافی است، تا به خطرات ویرانگر آن برای انسان و زمین پی ببریم. پس از آن بود که بلوک شرق و غرب تأسیس شد. لذا(با فاصله چند ده ساله) قدرتهای بلامنازع سیاسی به فکر کنترل انرژی اتمی افتادند. «سیاست مهار» موجب راهاندازی آژانس بینالمللی انرژی اتمی (IAEA) شد، پیشنهاد تأسیس این سازمان را دولت آیزنهاور رئیسجمهور آمریکا در سخنرانی خود در مجمع عمومی سازمان ملل متحد (که به سخنرانی اتم برای صلح معروف شد) در سال ۱۹۵۳ مطرح کرد. دولتها نمیبایست بدون چارچوبهای این سازمان به سراغ انرژی هستهای بروند. هزینههای فراوان کشور ما در این مقوله ناظر به همین سیاست تعریف میشود.
امروز اما با موضوع جدیدی مواجهیم با قدرت تخریبگریای بسیار ویرانتر!
هوش مصنوعی بهرغم فواید فراوان در حوزهی سلامت و پزشکی، کشاورزی، صنعت و سایر قلمروهای علمی، سروکار قابل توجهی با ذهن دارد و دقیقا مشکل عمده در اینجاست. بزرگواری میگفت: «نگرانی هوش مصنوعی بهخاطر این است که ممکن است عضلات ذهن انسان را ضعیف کند». اما بهنظرم این تنها مشکل اساسی نیست. مشکل جدیتر بهجهت مبانیای است که براساس آن انسان مسائل خویش را حل میکند.
نگرانی محتمل دیگر این است که:
هوش مصنوعی ممکن است بتواند انرژی هستهای را نیز به خدمت بگیرد. از اینرو موضوع نهتنها با دهشتی عمیقتر مواجه است، امکان راهاندازی سازمانی نظارتی برای انحصار آن در کشورهای سلطه را جدیتر میکند: اگر هوش مصنوعی قدرت است و اگر قدرت سلطنت میآورد، و اگر استکبار خود را قدرت بلامنازع میداند، پس خود را محق میداند تا بهفکر چاره باشد، و امکان دستیابی به این فناوری قدرتمند را از دیگر کشورها ربوده و تحت چارچوبهایی ضابطهمند نماید.
نگرانی اینجا است؛ اینکه ما با یک اثر نوین نرمافزاری بر انسان مواجه شویم.
براین اساس معتقدم اگرچه در مقوله انرژی هستهای دیر جنبیدیم، اما درباره هوش مصنوعی باید قدرتمند وارد شده و نقش راهبری در عرصه جهانی ایفا نماییم.
پایان
پ.ن:
۱.قبل از انتشار این یادداشت، آن را با برخی از دوستان به اشتراک گذاشته و بررسیهایم را بیشتر کردم. نتیجه جالب توجه است:
«جفری همینتون پدر هوش مصنوعی گوگل که اخیرا با هدف نقد و تبیین خطرات هوش مصنوعی از گوگل کنارهگیری کرده، از ضرورت کنترل و مهار هوش مصنوعی میگوید».
«او در مصاحبه با نیویورک تایمز به افرادی تحت عنوان «bad actors» یا خرابکارها اشاره کرد که قصد دارند از هوش مصنوعی سوء استفاده کنند. به باور همینتون، این بدترین شکل استفاده از هوش مصنوعی و به نوعی یک سناریوی کابوسوار است. به عنوان مثال، همینتون به رییس جمهور یکی از کشورهای قدرتمند اروپا اشاره کرد که میتواند تصمیم بگیرد این توانایی را به رباتها بدهد که بتوانند برای خودشان اهداف جانبی تعیین کنند. این روند در نهایت میتواند به شکلدهی برخی اهداف جانبی خطرناک – مثل من به قدرت بیشتری نیاز دارم – منتهی شود».
۲.اصل کنترل هوش مصنوعی برای مقابله با خرابکارها خوب است، اما سیاست کنترل نباید توسط کشورهای سلطه طراحی شود.
به هرحال ما در دههی پرهیجان و مهمی قرار داریم. نتیجه بیش از ۵۰ سال فعالیت بهتصاعد هندسی در حال بهبار نشستن است. نگرانی بسیار جدی است.
#هوش_مصنوعی
✍
محمد صدرا مازنی
@Pavaragi