دربارهی هوش مصنوعی
وقتی موضوعی نگرانی جدی آینده باشد، دربارهاش باید بیشتر اندیشید. تحولات دورانساز تاریخی کم نبودند، اما موضوع بمب اتم و انرژی هستهای یک اتفاق فوقالعاده بود. انفجار بمبهای هستهای بر فراز شهرهای هیروشیما و ناکازاکی کافی است، تا به خطرات ویرانگر آن برای انسان و زمین پی ببریم. پس از آن بود که بلوک شرق و غرب تأسیس شد. لذا(با فاصله چند ده ساله) قدرتهای بلامنازع سیاسی به فکر کنترل انرژی اتمی افتادند. «سیاست مهار» موجب راهاندازی آژانس بینالمللی انرژی اتمی (IAEA) شد، پیشنهاد تأسیس این سازمان را دولت آیزنهاور رئیسجمهور آمریکا در سخنرانی خود در مجمع عمومی سازمان ملل متحد (که به سخنرانی اتم برای صلح معروف شد) در سال ۱۹۵۳ مطرح کرد. دولتها نمیبایست بدون چارچوبهای این سازمان به سراغ انرژی هستهای بروند. هزینههای فراوان کشور ما در این مقوله ناظر به همین سیاست تعریف میشود.
امروز اما با موضوع جدیدی مواجهیم با قدرت تخریبگریای بسیار ویرانتر!
هوش مصنوعی بهرغم فواید فراوان در حوزهی سلامت و پزشکی، کشاورزی، صنعت و سایر قلمروهای علمی، سروکار قابل توجهی با ذهن دارد و دقیقا مشکل عمده در اینجاست. بزرگواری میگفت: «نگرانی هوش مصنوعی بهخاطر این است که ممکن است عضلات ذهن انسان را ضعیف کند». اما بهنظرم این تنها مشکل اساسی نیست. مشکل جدیتر بهجهت مبانیای است که براساس آن انسان مسائل خویش را حل میکند.
نگرانی محتمل دیگر این است که:
هوش مصنوعی ممکن است بتواند انرژی هستهای را نیز به خدمت بگیرد. از اینرو موضوع نهتنها با دهشتی عمیقتر مواجه است، امکان راهاندازی سازمانی نظارتی برای انحصار آن در کشورهای سلطه را جدیتر میکند: اگر هوش مصنوعی قدرت است و اگر قدرت سلطنت میآورد، و اگر استکبار خود را قدرت بلامنازع میداند، پس خود را محق میداند تا بهفکر چاره باشد، و امکان دستیابی به این فناوری قدرتمند را از دیگر کشورها ربوده و تحت چارچوبهایی ضابطهمند نماید.
نگرانی اینجا است؛ اینکه ما با یک اثر نوین نرمافزاری بر انسان مواجه شویم.
براین اساس معتقدم اگرچه در مقوله انرژی هستهای دیر جنبیدیم، اما درباره هوش مصنوعی باید قدرتمند وارد شده و نقش راهبری در عرصه جهانی ایفا نماییم.
پایان
پ.ن:
۱.قبل از انتشار این یادداشت، آن را با برخی از دوستان به اشتراک گذاشته و بررسیهایم را بیشتر کردم. نتیجه جالب توجه است:
«جفری همینتون پدر هوش مصنوعی گوگل که اخیرا با هدف نقد و تبیین خطرات هوش مصنوعی از گوگل کنارهگیری کرده، از ضرورت کنترل و مهار هوش مصنوعی میگوید».
«او در مصاحبه با نیویورک تایمز به افرادی تحت عنوان «bad actors» یا خرابکارها اشاره کرد که قصد دارند از هوش مصنوعی سوء استفاده کنند. به باور همینتون، این بدترین شکل استفاده از هوش مصنوعی و به نوعی یک سناریوی کابوسوار است. به عنوان مثال، همینتون به رییس جمهور یکی از کشورهای قدرتمند اروپا اشاره کرد که میتواند تصمیم بگیرد این توانایی را به رباتها بدهد که بتوانند برای خودشان اهداف جانبی تعیین کنند. این روند در نهایت میتواند به شکلدهی برخی اهداف جانبی خطرناک – مثل من به قدرت بیشتری نیاز دارم – منتهی شود».
۲.اصل کنترل هوش مصنوعی برای مقابله با خرابکارها خوب است، اما سیاست کنترل نباید توسط کشورهای سلطه طراحی شود.
به هرحال ما در دههی پرهیجان و مهمی قرار داریم. نتیجه بیش از ۵۰ سال فعالیت بهتصاعد هندسی در حال بهبار نشستن است. نگرانی بسیار جدی است.
#هوش_مصنوعی
✍ محمد صدرا مازنی
@Pavaragi
🔸 سومین جلسه از کارگاه دانشافزایی هوش مصنوعی
🔰 هسته حکمرانی و هوش مصنوعی مرکز رشد و خانه خلاق و نوآوری پژوهشگاه و مرکز تعاملات بین المللی علم و فناوری معاونت علمی، فناوری و اقتصاد دانش بنیان ریاست جمهوری برگزار میکنند:
🔖 با موضوع "فهمپذیری هوش مصنوعی؛ شرط تحقق فضائل اخلاقی"
🎙مدرس کارگاه:
دکتر مهدی خلیلی
پژوهشگر پسادکتری دانشگاه گراتس اتریش
📆 چهارشنبه ۱۸ مرداد ماه ۱۴۰۲، ساعت ۱۳
🗞 هزینه ثبت نام: ۲۰۰ هزار تومان
📦 تخفیف ۲۵ درصدی ویژه دانشجویان کارشناسی ارشد و دکتری
🔍 مشروح خبر و جزئیات کامل کارگاه👇
🌐 iict.ac.ir/kargahroshd-10
📡 ثبت نام و کسب اطلاعات بیشتر:
🌐 iict.ac.ir/events
#کارگاه
#هوش_مصنوعی
#مرکزرشدونوآوری
🆔 @iictchannel
@pavaragi
باسمهتعالی
سندروم سلفی
مدتهاست مردم با گرفتن عکسهای سلفی و انتشار آن در فضای مجازی با هم رقابت میکنند! غافل از آنکه فضایی که اطلاعات هویتی خود و فرزندانشان را در آن نشر میدهند امن نیست و حتی با استفاده از مطالبه حقوق بین المللی مخاطب؛ بازهم دستشان به جایی نمیرسد ! در عکسهای سلفی؛ علاوه بر ایجاد چالشهای امنیتی که با استفاده از ابزارهای جدید تکنولوژی(هوش مصنوعی ) ایجاد می شود؛ افراد را از جهت روانی دچار اعتیاد میکند که باید در جهت کوری رقبا و جمع کردن دنبال کننده به یک احساس اقناع روانی دست یابد و در صورت تکرار میتواند به آسیبهای فردی و اجتماعی مبدل گردد.
«خواهی نشوی رسوا همرنگ جماعت شو ...»
همچنین انسان را ترغیب میکند که هیجانات نقش تصمیمگیر زندگی و مسیر آینده شخص را بچینند و از معقولات و قوۀ درک و فهم خبری نباشد ...
لذا امپراطوری رسانه برای رسیدن به این هدف دائما با برنامههای جدید بر طبل تحریک هیجانات شخص میکوبد تا بتواند با به اشتراک گذاشتن آنها توسط افراد؛ علاوه بر افزایش فالوور در پلتفرمهای ساختگیشان؛ انباشت اطلاعاتی و امنیتی این امپراطوری را کاملتر کند و از این راه میلیاردها دلار به جیب بزند! در این تفریح رسانهای به ظاهر ساده؛ نیل به اهداف متعددی برای سازندگان آن فراهم میگردد که یکی از آنها رصد فرهنگی تبلیغات شرکتهای تبلیغاتی آنان؛ در زندگی روز مره مردم کشورهای دیگر است .
از طرفی سندرم سلفی؛ مرض خانمان براندازی است که با یک تحقیق جزئی در پروندههای قضایی جرائمی چون؛ خیانت، دزدی، هتک آبرو و ... جزء عادیترین جرائم پلیس فتا در دنیای مجازی است!
این سندرم توسط جریان سلبریتی در جوامع رواج یافته و برای گرفتن تایید بیشتر از دیگران ( لایک ) حاضرند انواع راست و دروغها را به هم ببافند و مردم را تا خصوصیترین حریم شخصی راه دهند؛ تا شاید مقبول مخاطب قرار گیرند!
نقش بازی کردن و پشت پردۀ دنیای مجازی خود را متفاوت تعریف کردن؛ افراد را از حالت طبیعی روانی خارج میکند و این مدل به تمام جریانات زندگی تعمیم مییابد؛ لذا در بخش مدیریت هوش هیجانی؛ خودآگاهی از شناخت وضعیت حال افراد را به شدت پایین می آورد و فرد برای انتخاب رفتار متناسب با هیجان نمیداند و نمیتواند خوب و صحیح رفتار نماید، از این رو دچار اختلالات روانی و هیجانی و برچسب خوردن از سوی جامعه میشود که در دراز مدت و کاهش بازدید کنندهها دچار خلأهای شدید روانی و افسردگیهای مزمن خواهد شد.
آموزش سواد رسانه و شناخت عواقب برخی رفتارهای رسانهای در ظاهر بیخطر از سوی متولیان تعلیم و تربیت انتظار می رود.
#اختصاصی_پاورقی
#سندرم_سلفی
#خودآگاهی
#مدیریت_هیجان
#هوش_مصنوعی
#سواد_رسانه
✍ محبوبه ونکی فراهانی( آزاد_اندیش)
@pavaragi
15.56M حجم رسانه بالاست
مشاهده در ایتا
نگاهی به ترورهای مدرن و دنیایی که هر روز خطرناک تر می شود.
♨️وقتی میگن #هوش_مصنوعی وحشتناک تر از بمب هسته ای است، دقیقا منظورشون چیه؟
🔰با دیدن این کلیپ کاملا متوجه می شید...
@pavaragi
هدایت شده از پژوهشگاه فرهنگ و اندیشه اسلامی
◽️معنای زندگی؛ مهمترین مسئله الهیات هوش مصنوعی
🔸 حجت الاسلام دکتر #علیرضا_قائمی_نیا در نشست تخصصی «هوش مصنوعی، تبلیغ دینی و ضرورتهای تولید محتوا»:
🔻#هوش_مصنوعی یکی از فناوریهای مهم و یا مهمترین فناوری است که در قرن بیستم ظهور یافته و ریشه تاریخی دارد، اما تفاوت اساسی با فناوریهای دیگر دارد و اندیشه ایجاد آن در میان فلاسفه جدید از زمان دکارت مطرح بوده که معتقد بودند، یک ماشین جهانی متشکل از مغزهای همه انسانهاست و ماشینی است که فکر میکند و آن را ماشین فکر یا ذهن مینامند و یا یک ماشین معرفت است، اما در قرن بیستم، تورینگ اولین هوش مصنوعی ساده را طراحی کرد.
🔻این فناوری حاکم بر فناوریهای دیگر است و اگر آن را با صنعت قطار مقایسه کنید، تفاوت بنیادی دارد. هر دو در جامعه بشری تغییر ایجاد کرد، اما تغییر هوش مصنوعی تغییر بنیادین است و همه فناوریها از نتایج هوش مصنوعی بهره میبرند. تفاوت دیگر در این است که علم بشر را مدیریت میکند و علوم مختلفی همچون علوم انسانی دیجیتال را شکل داده است.
🔍 ادامه را اینجا بخوانید👇
🌐 iict.ac.ir/mzndgi
#سخنرانی
🆔 @iictchannel
دربارهی هوش مصنوعی
وقتی موضوعی نگرانی جدی آینده باشد، دربارهاش باید بیشتر اندیشید. تحولات دورانساز تاریخی کم نبودند، اما موضوع بمب اتم و انرژی هستهای یک اتفاق فوقالعاده بود. انفجار بمبهای هستهای بر فراز شهرهای هیروشیما و ناکازاکی کافی است، تا به خطرات ویرانگر آن برای انسان و زمین پی ببریم. پس از آن بود که بلوک شرق و غرب تأسیس شد. لذا(با فاصله چند ده ساله) قدرتهای بلامنازع سیاسی به فکر کنترل انرژی اتمی افتادند. «سیاست مهار» موجب راهاندازی آژانس بینالمللی انرژی اتمی (IAEA) شد، پیشنهاد تأسیس این سازمان را دولت آیزنهاور رئیسجمهور آمریکا در سخنرانی خود در مجمع عمومی سازمان ملل متحد (که به سخنرانی اتم برای صلح معروف شد) در سال ۱۹۵۳ مطرح کرد. دولتها نمیبایست بدون چارچوبهای این سازمان به سراغ انرژی هستهای بروند. هزینههای فراوان کشور ما در این مقوله ناظر به همین سیاست تعریف میشود.
امروز اما با موضوع جدیدی مواجهیم با قدرت تخریبگریای بسیار ویرانتر!
هوش مصنوعی بهرغم فواید فراوان در حوزهی سلامت و پزشکی، کشاورزی، صنعت و سایر قلمروهای علمی، سروکار قابل توجهی با ذهن دارد و دقیقا مشکل عمده در اینجاست. بزرگواری میگفت: «نگرانی هوش مصنوعی بهخاطر این است که ممکن است عضلات ذهن انسان را ضعیف کند». اما بهنظرم این تنها مشکل اساسی نیست. مشکل جدیتر بهجهت مبانیای است که براساس آن انسان مسائل خویش را حل میکند.
نگرانی محتمل دیگر این است که:
هوش مصنوعی ممکن است بتواند انرژی هستهای را نیز به خدمت بگیرد. از اینرو موضوع نهتنها با دهشتی عمیقتر مواجه است، امکان راهاندازی سازمانی نظارتی برای انحصار آن در کشورهای سلطه را جدیتر میکند: اگر هوش مصنوعی قدرت است و اگر قدرت سلطنت میآورد، و اگر استکبار خود را قدرت بلامنازع میداند، پس خود را محق میداند تا بهفکر چاره باشد، و امکان دستیابی به این فناوری قدرتمند را از دیگر کشورها ربوده و تحت چارچوبهایی ضابطهمند نماید.
نگرانی اینجا است؛ اینکه ما با یک اثر نوین نرمافزاری بر انسان مواجه شویم.
براین اساس معتقدم اگرچه در مقوله انرژی هستهای دیر جنبیدیم، اما درباره هوش مصنوعی باید قدرتمند وارد شده و نقش راهبری در عرصه جهانی ایفا نماییم.
پایان
پ.ن:
۱.قبل از انتشار این یادداشت، آن را با برخی از دوستان به اشتراک گذاشته و بررسیهایم را بیشتر کردم. نتیجه جالب توجه است:
«جفری همینتون پدر هوش مصنوعی گوگل که اخیرا با هدف نقد و تبیین خطرات هوش مصنوعی از گوگل کنارهگیری کرده، از ضرورت کنترل و مهار هوش مصنوعی میگوید».
«او در مصاحبه با نیویورک تایمز به افرادی تحت عنوان «bad actors» یا خرابکارها اشاره کرد که قصد دارند از هوش مصنوعی سوء استفاده کنند. به باور همینتون، این بدترین شکل استفاده از هوش مصنوعی و به نوعی یک سناریوی کابوسوار است. به عنوان مثال، همینتون به رییس جمهور یکی از کشورهای قدرتمند اروپا اشاره کرد که میتواند تصمیم بگیرد این توانایی را به رباتها بدهد که بتوانند برای خودشان اهداف جانبی تعیین کنند. این روند در نهایت میتواند به شکلدهی برخی اهداف جانبی خطرناک – مثل من به قدرت بیشتری نیاز دارم – منتهی شود».
۲.اصل کنترل هوش مصنوعی برای مقابله با خرابکارها خوب است، اما سیاست کنترل نباید توسط کشورهای سلطه طراحی شود.
به هرحال ما در دههی پرهیجان و مهمی قرار داریم. نتیجه بیش از ۵۰ سال فعالیت بهتصاعد هندسی در حال بهبار نشستن است. نگرانی بسیار جدی است.
#هوش_مصنوعی
✍ محمد صدرا مازنی
@Pavaragi
📚 کتاب هوش مصنوعی؛ راهنمای انسانهای متفکر
✏️ اثر ملانی میچل
🔸این کتاب، اثر برجسته استاد علوم کامپیوتر در دانشگاه دولتی پورتلند، در زمینه هوش مصنوعی، بویژه در تقاطع آن با علوم انسانی است که به بررسی جامع فناوریهای موجود هوش مصنوعی و تأثیرات آنها نه تنها از نظر فنی، بلکه از جنبههای اخلاقی و اجتماعی میپردازد. نویسنده، قابلیتها و محدودیتهای AI را از یک دیدگاه انسانشناختی بررسی میکند و در مورد توسعههای آتی بالقوه و تأثیرات آنها بر جامعه بحث میکند.
🔹این کتاب برای خوانندگان، بدون پیشزمینه فنی، قابل مطالعه است و مفاهیم پیچیده را برای مخاطبان قابل فهم میسازد.
#هوش_مصنوعی #معرفی_کتاب
❌ نقل مطلب تنها با ذکر لینک و عنوان کانال
📍پژوهش با هوش مصنوعی👇
https://eitaa.com/joinchat/3051225685C4834c48c8f
@pavaragi
30.67M حجم رسانه بالاست
مشاهده در ایتا
👌حتما این خبر را از #صداوسیما دیده اید.
💢اما حتما دوباره ببینید و نام این استاد ایرانی را به ذهن بسپارید...
#دکترهمت
#هوش_مصنوعی
○┈••••✾•🍀💐☘️•✾•••┈○
کانال دکتر همت در ایتا و تلگرام
🆔 @dr_hemmatt
@pavaragi
🔴 ایلان ماسک از قابلیتی جنجالی برای Grok رونمایی کرد: همراه عاطفی کاربران
🔸«ایلان ماسک»، مالک شرکت xAI، از قابلیت جدید «همراهان هوش مصنوعی» رونمایی کرد. این ویژگی که برای مشترکین پولی Grok در دسترس قرار گرفته، شامل یک شخصیت انیمهای با حالت «نامناسب برای محیط کار» (NSFW) است و نگرانیها را درباره ایمنی و جهتگیری این پلتفرم بیش از پیش افزایش داده است.
🔸به نظر میرسد شرکت هوش مصنوعی xAI پس از یک هفته پرآشوب، استراتژی «بهترین دفاع حمله است» را در پیش گرفته است. ایلان ماسک روز دوشنبه در ایکس اعلام کرد که قابلیت جدید «همراهان» (Companions) برای مشترکین Super Grok (با هزینه ۳۰ دلار در ماه) فعال شده است.
🔸ویژگی جدید Grok به کاربران امکان میدهد تا با آواتارهای #هوش_مصنوعی تعامل داشته باشند. درحالحاضر ۲ شخصیت معرفی شدهاند؛ «آنی» (Ani) یک شخصیت انیمهای با لباس کوتاه مشکی است؛ این شخصیت یک حالت NSFW نیز دارد. شخصیت دوم نیز «رودی» (Bad Rudy) نام دارد، موجودی کارتونی شبیه به پاندای قرمز یا روباه است. شخصیت دیگری به نام «چَد» (Chad) نیز بهزودی به این لیست اضافه خواهد شد.
❌ ❌ ❌ ❌ ❌ ❌
@anti_x
#رصد
http://eitaa.com/joinchat/2852847618Cab782f920f
@pavaragi