eitaa logo
پاورقی
495 دنبال‌کننده
290 عکس
80 ویدیو
40 فایل
پاورقی حاوی یادداشت‌‌ها و نکات مهم آموزشی و پژوهشی در عرصه‌ی سیاستگذاری پژوهشی، مهارت‌های پژوهشی، مباحث اخلاقی فرهنگی و اجتماعی، اولویت‌های پژوهشی، معرفی کتب فاخر دینی، فلسفی و اخلاقی ▫️برای ارتباط با مدیر به شناسه زیر مراجعه کنید: ✅ @sadramah
مشاهده در ایتا
دانلود
درباره‌ی هوش مصنوعی وقتی موضوعی نگرانی جدی آینده باشد، درباره‌اش باید بیشتر اندیشید. تحولات دوران‌ساز تاریخی کم نبودند، اما موضوع بمب اتم و انرژی هسته‌ای یک اتفاق فوق‌العاده‌ بود. انفجار بمب‌های هسته‌ای بر فراز شهرهای هیروشیما و ناکازاکی کافی است، تا به خطرات ویرانگر آن برای انسان و زمین پی‌ ببریم. پس از آن بود که بلوک شرق و غرب تأسیس شد. لذا(با فاصله چند ده ساله) قدرت‌های بلامنازع سیاسی به فکر کنترل انرژی اتمی افتادند. «سیاست مهار» موجب راه‌اندازی آژانس بین‌المللی انرژی اتمی (IAEA) شد، پیشنهاد تأسیس این سازمان را دولت آیزنهاور رئیس‌جمهور آمریکا در سخنرانی خود در مجمع عمومی سازمان ملل متحد (که به سخنرانی اتم برای صلح معروف شد) در سال ۱۹۵۳ مطرح کرد. دولت‌ها نمی‌بایست بدون چارچوب‌های این سازمان به سراغ انرژی هسته‌ای بروند. هزینه‌های فراوان کشور ما در این مقوله ناظر به همین سیاست تعریف می‌شود. امروز اما با موضوع جدیدی مواجهیم با قدرت تخریب‌گری‌ای بسیار ویران‌تر! هوش مصنوعی به‌رغم فواید فراوان در حوزه‌ی سلامت و پزشکی، کشاورزی، صنعت و سایر قلمروهای علمی، سروکار قابل توجهی با ذهن دارد و دقیقا مشکل عمده در اینجاست. بزرگواری می‌گفت: «نگرانی هوش مصنوعی به‌خاطر این است که ممکن است عضلات ذهن انسان را ضعیف کند». اما به‌نظرم این تنها مشکل اساسی نیست. مشکل جدی‌تر به‌جهت مبانی‌ای است که براساس آن انسان مسائل خویش را حل می‌کند. نگرانی‌ محتمل دیگر این است که: هوش مصنوعی ممکن است بتواند انرژی هسته‌ای را نیز به خدمت بگیرد. از این‌رو موضوع نه‌تنها با دهشتی عمیق‌تر مواجه است، امکان راه‌اندازی سازمانی نظارتی برای انحصار آن در کشورهای سلطه را جدی‌تر می‌کند: اگر هوش مصنوعی قدرت است و اگر قدرت سلطنت می‌آورد، و اگر استکبار خود را قدرت بلامنازع می‌داند، پس خود را محق می‌داند تا به‌فکر چاره باشد، و امکان دست‌یابی به این فناوری قدرتمند را از دیگر کشورها ربوده و تحت چارچوب‌هایی ضابطه‌مند نماید. نگرانی اینجا است؛ اینکه ما با یک اثر نوین نرم‌افزاری بر انسان مواجه شویم. براین اساس معتقدم اگرچه در مقوله انرژی هسته‌ای دیر جنبیدیم، اما درباره هوش مصنوعی باید قدرتمند وارد شده و نقش راهبری در عرصه جهانی ایفا نماییم. پایان پ.ن: ۱.قبل از انتشار این یادداشت، آن را با برخی از دوستان به اشتراک گذاشته و بررسی‌هایم را بیشتر کردم. نتیجه جالب توجه است: «جفری همینتون پدر هوش مصنوعی گوگل که اخیرا با هدف نقد و تبیین خطرات هوش مصنوعی از گوگل کناره‌گیری کرده، از ضرورت کنترل و مهار هوش مصنوعی می‌گوید». «او در مصاحبه با نیویورک تایمز به افرادی تحت عنوان «bad actors» یا خرابکارها اشاره کرد که قصد دارند از هوش مصنوعی سوء استفاده کنند. به باور همینتون، این بدترین شکل استفاده از هوش مصنوعی و به نوعی یک سناریوی کابوس‌وار است. به عنوان مثال، همینتون به رییس جمهور یکی از کشورهای قدرتمند اروپا اشاره کرد که می‌تواند تصمیم بگیرد این توانایی را به ربات‌ها بدهد که بتوانند برای خودشان اهداف جانبی تعیین کنند. این روند در نهایت می‌تواند به شکل‌دهی برخی اهداف جانبی خطرناک – مثل من به قدرت بیشتری نیاز دارم – منتهی شود». ۲.اصل کنترل هوش مصنوعی برای مقابله با خرابکارها خوب است، اما سیاست کنترل نباید توسط کشورهای سلطه طراحی شود‌. به هرحال ما در دهه‌ی پرهیجان و مهمی قرار داریم. نتیجه بیش از ۵۰ سال فعالیت به‌تصاعد هندسی در حال به‌بار نشستن است. نگرانی‌ بسیار جدی است‌. محمد صدرا مازنی @Pavaragi
🔸 سومین جلسه از کارگاه دانش‌افزایی هوش مصنوعی 🔰 هسته حکمرانی و هوش مصنوعی مرکز رشد و خانه خلاق و نوآوری پژوهشگاه و مرکز تعاملات بین المللی علم و فناوری معاونت علمی، فناوری و اقتصاد دانش بنیان ریاست جمهوری برگزار می‌کنند: 🔖 با موضوع "فهم‌پذیری هوش مصنوعی؛ شرط تحقق فضائل اخلاقی" 🎙مدرس کارگاه: دکتر مهدی خلیلی پژوهشگر پسادکتری دانشگاه گراتس اتریش 📆 چهارشنبه ۱۸ مرداد ماه ۱۴۰۲، ساعت ۱۳ 🗞 هزینه ثبت نام: ۲۰۰ هزار تومان 📦 تخفیف ۲۵ درصدی ویژه دانشجویان کارشناسی ارشد و دکتری 🔍 مشروح خبر و جزئیات کامل کارگاه👇 🌐 iict.ac.ir/kargahroshd-10 📡 ثبت نام و کسب اطلاعات بیشتر: 🌐 iict.ac.ir/events 🆔 @iictchannel @pavaragi
باسمه‌تعالی سندروم سلفی مدت‌هاست مردم با گرفتن عکس‌های سلفی و انتشار آن در فضای مجازی با هم رقابت می‌کنند! غافل از آنکه فضایی که اطلاعات هویتی خود و فرزندانشان را در آن نشر می‌دهند امن نیست و حتی با استفاده از مطالبه حقوق بین المللی مخاطب؛ بازهم دستشان به جایی نمی‌رسد ! در عکس‌های سلفی؛ علاوه بر ایجاد چالش‌های امنیتی که با استفاده از ابزارهای جدید تکنولوژی(هوش مصنوعی ) ایجاد می شود؛ افراد را از جهت روانی دچار اعتیاد می‌کند که باید در جهت کوری رقبا و جمع کردن دنبال کننده به یک احساس اقناع روانی دست یابد و در صورت تکرار می‌تواند به آسیب‌های فردی و اجتماعی مبدل گردد. «خواهی نشوی رسوا همرنگ جماعت شو ...» هم‌چنین انسان را ترغیب می‌کند که هیجانات نقش تصمیم‌گیر زندگی و مسیر آینده شخص را بچینند و از معقولات و قوۀ درک و فهم خبری نباشد ... لذا امپراطوری رسانه برای رسیدن به این هدف دائما با برنامه‌های جدید بر طبل تحریک هیجانات شخص می‌کوبد تا بتواند با به اشتراک گذاشتن آنها توسط افراد؛ علاوه بر افزایش فالوور در پلتفرم‌های ساختگی‌شان؛ انباشت اطلاعاتی و امنیتی این امپراطوری را کامل‌تر کند و از این راه میلیاردها دلار به جیب بزند! در این تفریح رسانه‌ای به ظاهر ساده؛ نیل به اهداف متعددی برای سازندگان آن فراهم می‌گردد که یکی از آنها رصد فرهنگی تبلیغات شرکت‌های تبلیغاتی آنان؛ در زندگی روز مره مردم کشورهای دیگر است . از طرفی سندرم سلفی؛ مرض خانمان براندازی است که با یک تحقیق جزئی در پرونده‌های قضایی جرائمی چون؛ خیانت، دزدی، هتک آبرو و ... جزء عادی‌ترین جرائم پلیس فتا در دنیای مجازی است! این سندرم توسط جریان سلبریتی در جوامع رواج یافته و برای گرفتن تایید بیشتر از دیگران ( لایک ) حاضرند انواع راست و دروغ‌ها را به هم ببافند و مردم را تا خصوصی‌ترین حریم شخصی راه دهند؛ تا شاید مقبول مخاطب قرار گیرند! نقش بازی کردن و پشت پردۀ دنیای مجازی خود را متفاوت تعریف کردن؛ افراد را از حالت طبیعی روانی خارج می‌کند و این مدل به تمام جریانات زندگی تعمیم می‌یابد؛ لذا در بخش مدیریت هوش هیجانی؛ خودآگاهی از شناخت وضعیت حال افراد را به شدت پایین می آورد و فرد برای انتخاب رفتار متناسب با هیجان نمی‌داند و نمی‌تواند خوب و صحیح رفتار نماید، از این رو دچار اختلالات روانی و هیجانی و برچسب خوردن از سوی جامعه می‌شود که در دراز مدت و کاهش بازدید کننده‌ها دچار خلأهای شدید روانی و افسردگی‌های مزمن خواهد شد. آموزش سواد رسانه و شناخت عواقب برخی رفتارهای رسانه‌ای در ظاهر بی‌خطر از سوی متولیان تعلیم و تربیت انتظار می رود. محبوبه ونکی فراهانی( آزاد_اندیش) @pavaragi
15.56M حجم رسانه بالاست
مشاهده در ایتا
نگاهی به ترورهای مدرن و دنیایی که هر روز خطرناک تر می شود. ♨️وقتی میگن وحشتناک تر از بمب هسته ای است، دقیقا منظورشون چیه؟ 🔰با دیدن این کلیپ کاملا متوجه می شید... @pavaragi
◽️معنای زندگی؛ مهم‌ترین مسئله الهیات هوش مصنوعی 🔸 حجت الاسلام دکتر در نشست تخصصی «هوش مصنوعی، تبلیغ دینی و ضرورت‌های تولید محتوا»: 🔻 یکی از فناوری‌های مهم و یا مهمترین فناوری است که در قرن بیستم ظهور یافته و ریشه تاریخی دارد، اما تفاوت اساسی با فناوری‌های دیگر دارد و اندیشه ایجاد آن در میان فلاسفه جدید از زمان دکارت مطرح بوده که معتقد بودند، یک ماشین جهانی متشکل از مغز‌های همه انسان‌هاست و ماشینی است که فکر می‌کند و آن را ماشین فکر یا ذهن می‌نامند و یا یک ماشین معرفت است، اما در قرن بیستم، تورینگ اولین هوش مصنوعی ساده را طراحی کرد. 🔻این فناوری حاکم بر فناوری‌های دیگر است و اگر آن را با صنعت قطار مقایسه کنید، تفاوت بنیادی دارد. هر دو در جامعه بشری تغییر ایجاد کرد، اما تغییر هوش مصنوعی تغییر بنیادین است و همه فناوری‌ها از نتایج هوش مصنوعی بهره می‌برند. تفاوت دیگر در این است که علم بشر را مدیریت می‌کند و علوم مختلفی همچون علوم انسانی دیجیتال را شکل داده است. 🔍 ادامه را اینجا بخوانید👇 🌐 iict.ac.ir/mzndgi 🆔 @iictchannel
درباره‌ی هوش مصنوعی وقتی موضوعی نگرانی جدی آینده باشد، درباره‌اش باید بیشتر اندیشید. تحولات دوران‌ساز تاریخی کم نبودند، اما موضوع بمب اتم و انرژی هسته‌ای یک اتفاق فوق‌العاده‌ بود. انفجار بمب‌های هسته‌ای بر فراز شهرهای هیروشیما و ناکازاکی کافی است، تا به خطرات ویرانگر آن برای انسان و زمین پی‌ ببریم. پس از آن بود که بلوک شرق و غرب تأسیس شد. لذا(با فاصله چند ده ساله) قدرت‌های بلامنازع سیاسی به فکر کنترل انرژی اتمی افتادند. «سیاست مهار» موجب راه‌اندازی آژانس بین‌المللی انرژی اتمی (IAEA) شد، پیشنهاد تأسیس این سازمان را دولت آیزنهاور رئیس‌جمهور آمریکا در سخنرانی خود در مجمع عمومی سازمان ملل متحد (که به سخنرانی اتم برای صلح معروف شد) در سال ۱۹۵۳ مطرح کرد. دولت‌ها نمی‌بایست بدون چارچوب‌های این سازمان به سراغ انرژی هسته‌ای بروند. هزینه‌های فراوان کشور ما در این مقوله ناظر به همین سیاست تعریف می‌شود. امروز اما با موضوع جدیدی مواجهیم با قدرت تخریب‌گری‌ای بسیار ویران‌تر! هوش مصنوعی به‌رغم فواید فراوان در حوزه‌ی سلامت و پزشکی، کشاورزی، صنعت و سایر قلمروهای علمی، سروکار قابل توجهی با ذهن دارد و دقیقا مشکل عمده در اینجاست. بزرگواری می‌گفت: «نگرانی هوش مصنوعی به‌خاطر این است که ممکن است عضلات ذهن انسان را ضعیف کند». اما به‌نظرم این تنها مشکل اساسی نیست. مشکل جدی‌تر به‌جهت مبانی‌ای است که براساس آن انسان مسائل خویش را حل می‌کند. نگرانی‌ محتمل دیگر این است که: هوش مصنوعی ممکن است بتواند انرژی هسته‌ای را نیز به خدمت بگیرد. از این‌رو موضوع نه‌تنها با دهشتی عمیق‌تر مواجه است، امکان راه‌اندازی سازمانی نظارتی برای انحصار آن در کشورهای سلطه را جدی‌تر می‌کند: اگر هوش مصنوعی قدرت است و اگر قدرت سلطنت می‌آورد، و اگر استکبار خود را قدرت بلامنازع می‌داند، پس خود را محق می‌داند تا به‌فکر چاره باشد، و امکان دست‌یابی به این فناوری قدرتمند را از دیگر کشورها ربوده و تحت چارچوب‌هایی ضابطه‌مند نماید. نگرانی اینجا است؛ اینکه ما با یک اثر نوین نرم‌افزاری بر انسان مواجه شویم. براین اساس معتقدم اگرچه در مقوله انرژی هسته‌ای دیر جنبیدیم، اما درباره هوش مصنوعی باید قدرتمند وارد شده و نقش راهبری در عرصه جهانی ایفا نماییم. پایان پ.ن: ۱.قبل از انتشار این یادداشت، آن را با برخی از دوستان به اشتراک گذاشته و بررسی‌هایم را بیشتر کردم. نتیجه جالب توجه است: «جفری همینتون پدر هوش مصنوعی گوگل که اخیرا با هدف نقد و تبیین خطرات هوش مصنوعی از گوگل کناره‌گیری کرده، از ضرورت کنترل و مهار هوش مصنوعی می‌گوید». «او در مصاحبه با نیویورک تایمز به افرادی تحت عنوان «bad actors» یا خرابکارها اشاره کرد که قصد دارند از هوش مصنوعی سوء استفاده کنند. به باور همینتون، این بدترین شکل استفاده از هوش مصنوعی و به نوعی یک سناریوی کابوس‌وار است. به عنوان مثال، همینتون به رییس جمهور یکی از کشورهای قدرتمند اروپا اشاره کرد که می‌تواند تصمیم بگیرد این توانایی را به ربات‌ها بدهد که بتوانند برای خودشان اهداف جانبی تعیین کنند. این روند در نهایت می‌تواند به شکل‌دهی برخی اهداف جانبی خطرناک – مثل من به قدرت بیشتری نیاز دارم – منتهی شود». ۲.اصل کنترل هوش مصنوعی برای مقابله با خرابکارها خوب است، اما سیاست کنترل نباید توسط کشورهای سلطه طراحی شود‌. به هرحال ما در دهه‌ی پرهیجان و مهمی قرار داریم. نتیجه بیش از ۵۰ سال فعالیت به‌تصاعد هندسی در حال به‌بار نشستن است. نگرانی‌ بسیار جدی است‌. محمد صدرا مازنی @Pavaragi
📚 کتاب هوش مصنوعی؛ راهنمای انسان‌های متفکر ✏️ اثر ملانی میچل 🔸این کتاب، اثر برجسته استاد علوم کامپیوتر در دانشگاه دولتی پورتلند، در زمینه هوش مصنوعی، بویژه در تقاطع آن با علوم انسانی است که به بررسی جامع فناوری‌های موجود هوش مصنوعی و تأثیرات آن‌ها نه تنها از نظر فنی، بلکه از جنبه‌های اخلاقی و اجتماعی می‌پردازد. نویسنده، قابلیت‌ها و محدودیت‌های AI را از یک دیدگاه انسان‌شناختی بررسی می‌کند و در مورد توسعه‌های آتی بالقوه و تأثیرات آن‌ها بر جامعه بحث می‌کند. 🔹این کتاب برای خوانندگان، بدون پیش‌زمینه فنی، قابل مطالعه است و مفاهیم پیچیده را برای مخاطبان قابل فهم می‌سازد. ❌ نقل مطلب تنها با ذکر لینک و عنوان کانال 📍پژوهش با هوش مصنوعی👇 https://eitaa.com/joinchat/3051225685C4834c48c8f @pavaragi
👆ابزارهای مجانی و پولی @pavaragi
30.67M حجم رسانه بالاست
مشاهده در ایتا
👌حتما این خبر را از دیده اید. 💢اما حتما دوباره ببینید و نام این استاد ایرانی را به ذهن بسپارید... ○┈••••✾•🍀💐☘️•✾•••┈○ کانال دکتر همت در ایتا و تلگرام 🆔 @dr_hemmatt @pavaragi
🔴 ایلان ماسک از قابلیتی جنجالی برای Grok رونمایی کرد: همراه عاطفی کاربران 🔸«ایلان ماسک»، مالک شرکت xAI، از قابلیت جدید «همراهان هوش مصنوعی» رونمایی کرد. این ویژگی که برای مشترکین پولی Grok در دسترس قرار گرفته، شامل یک شخصیت انیمه‌ای با حالت «نامناسب برای محیط کار» (NSFW) است و نگرانی‌ها را درباره ایمنی و جهت‌‌گیری این پلتفرم بیش از پیش افزایش داده است. 🔸به نظر می‌رسد شرکت هوش مصنوعی xAI پس از یک هفته پرآشوب، استراتژی «بهترین دفاع حمله است» را در پیش گرفته است. ایلان ماسک روز دوشنبه در ایکس اعلام کرد که قابلیت جدید «همراهان» (Companions) برای مشترکین Super Grok (با هزینه ۳۰ دلار در ماه) فعال شده است. 🔸ویژگی جدید Grok به کاربران امکان می‌دهد تا با آواتارهای تعامل داشته باشند. درحال‌حاضر ۲ شخصیت معرفی شده‌اند؛ «آنی» (Ani) یک شخصیت انیمه‌ای با لباس کوتاه مشکی است؛ این شخصیت یک حالت NSFW نیز دارد. شخصیت دوم نیز «رودی» (Bad Rudy) نام دارد، موجودی کارتونی شبیه به پاندای قرمز یا روباه است. شخصیت دیگری به نام «چَد» (Chad) نیز به‌زودی به این لیست اضافه خواهد شد. ❌ ❌ ❌ ❌ ❌ ❌ @anti_x http://eitaa.com/joinchat/2852847618Cab782f920f @pavaragi