درباره‌ی هوش مصنوعی وقتی موضوعی نگرانی جدی آینده باشد، درباره‌اش باید بیشتر اندیشید. تحولات دوران‌ساز تاریخی کم نبودند، اما موضوع بمب اتم و انرژی هسته‌ای یک اتفاق فوق‌العاده‌ بود. انفجار بمب‌های هسته‌ای بر فراز شهرهای هیروشیما و ناکازاکی کافی است، تا به خطرات ویرانگر آن برای انسان و زمین پی‌ ببریم. پس از آن بود که بلوک شرق و غرب تأسیس شد. لذا(با فاصله چند ده ساله) قدرت‌های بلامنازع سیاسی به فکر کنترل انرژی اتمی افتادند. «سیاست مهار» موجب راه‌اندازی آژانس بین‌المللی انرژی اتمی (IAEA) شد، پیشنهاد تأسیس این سازمان را دولت آیزنهاور رئیس‌جمهور آمریکا در سخنرانی خود در مجمع عمومی سازمان ملل متحد (که به سخنرانی اتم برای صلح معروف شد) در سال ۱۹۵۳ مطرح کرد. دولت‌ها نمی‌بایست بدون چارچوب‌های این سازمان به سراغ انرژی هسته‌ای بروند. هزینه‌های فراوان کشور ما در این مقوله ناظر به همین سیاست تعریف می‌شود. امروز اما با موضوع جدیدی مواجهیم با قدرت تخریب‌گری‌ای بسیار ویران‌تر! هوش مصنوعی به‌رغم فواید فراوان در حوزه‌ی سلامت و پزشکی، کشاورزی، صنعت و سایر قلمروهای علمی، سروکار قابل توجهی با ذهن دارد و دقیقا مشکل عمده در اینجاست. بزرگواری می‌گفت: «نگرانی هوش مصنوعی به‌خاطر این است که ممکن است عضلات ذهن انسان را ضعیف کند». اما به‌نظرم این تنها مشکل اساسی نیست. مشکل جدی‌تر به‌جهت مبانی‌ای است که براساس آن انسان مسائل خویش را حل می‌کند. نگرانی‌ محتمل دیگر این است که: هوش مصنوعی ممکن است بتواند انرژی هسته‌ای را نیز به خدمت بگیرد. از این‌رو موضوع نه‌تنها با دهشتی عمیق‌تر مواجه است، امکان راه‌اندازی سازمانی نظارتی برای انحصار آن در کشورهای سلطه را جدی‌تر می‌کند: اگر هوش مصنوعی قدرت است و اگر قدرت سلطنت می‌آورد، و اگر استکبار خود را قدرت بلامنازع می‌داند، پس خود را محق می‌داند تا به‌فکر چاره باشد، و امکان دست‌یابی به این فناوری قدرتمند را از دیگر کشورها ربوده و تحت چارچوب‌هایی ضابطه‌مند نماید. نگرانی اینجا است؛ اینکه ما با یک اثر نوین نرم‌افزاری بر انسان مواجه شویم. براین اساس معتقدم اگرچه در مقوله انرژی هسته‌ای دیر جنبیدیم، اما درباره هوش مصنوعی باید قدرتمند وارد شده و نقش راهبری در عرصه جهانی ایفا نماییم. پایان پ.ن: ۱.قبل از انتشار این یادداشت، آن را با برخی از دوستان به اشتراک گذاشته و بررسی‌هایم را بیشتر کردم. نتیجه جالب توجه است: «جفری همینتون پدر هوش مصنوعی گوگل که اخیرا با هدف نقد و تبیین خطرات هوش مصنوعی از گوگل کناره‌گیری کرده، از ضرورت کنترل و مهار هوش مصنوعی می‌گوید». «او در مصاحبه با نیویورک تایمز به افرادی تحت عنوان «bad actors» یا خرابکارها اشاره کرد که قصد دارند از هوش مصنوعی سوء استفاده کنند. به باور همینتون، این بدترین شکل استفاده از هوش مصنوعی و به نوعی یک سناریوی کابوس‌وار است. به عنوان مثال، همینتون به رییس جمهور یکی از کشورهای قدرتمند اروپا اشاره کرد که می‌تواند تصمیم بگیرد این توانایی را به ربات‌ها بدهد که بتوانند برای خودشان اهداف جانبی تعیین کنند. این روند در نهایت می‌تواند به شکل‌دهی برخی اهداف جانبی خطرناک – مثل من به قدرت بیشتری نیاز دارم – منتهی شود». ۲.اصل کنترل هوش مصنوعی برای مقابله با خرابکارها خوب است، اما سیاست کنترل نباید توسط کشورهای سلطه طراحی شود‌. به هرحال ما در دهه‌ی پرهیجان و مهمی قرار داریم. نتیجه بیش از ۵۰ سال فعالیت به‌تصاعد هندسی در حال به‌بار نشستن است. نگرانی‌ بسیار جدی است‌. محمد صدرا مازنی @Pavaragi