آیا هوش مصنوعی ذهن انسان را «تسخیر» میکند؟
این پرسش در عنوان یکی از آخرین نوشتههای کوتاه جان نوستا آمده است. (قبلاً در همین کانال مطالب دیگری از او آمده است و از منظر پیشبینی آیندهی تکاملی انسان نوشتههای او قابل تاملاند.) بیتردید این پرسش از پرتواترترین پرسشها در این حوزه بوده و پاسخهای موافق و مخالف زیادی به آن داده شده است. اما پاسخ نوستا به دلایلی قابل توجهتر از سایرین است زیرا پاسخ کسی است که بهرغم آنکه به سهم خود در گسترش هوش مصنوعی دخالت دارد دائم، در مقام پدر چند فرزند، هشدارهایی را نیز در مورد آیندهی انسان در سایهای گسترش هوش مصنوعی بیان میکند.
به طور خلاصه سخن نوستا این است که مدلهای زبانی بزرگ ممکن است از طریق پاسخگوییهای بینقص و تعاملهای خستگیناپذیر، دامی فریبنده برای انسان پهن کنند. این سیستمها میتوانند از طریق حلقههای بازخوردی که باورهای موجود ما را تقویت میکنند، به تفکر ما شکل دهند. هرچه بیشتر با هوش مصنوعی «درگیر» شویم، احتمالاً به آرامی استقلال فکری خود را از دست خواهیم داد.
وقتی در گفتوگو با «مدلهای زبانی بزرگ» غرق میشویم گذر زمان را حس نمیکنیم. این سیستمها همدمهایی استثنائی هستند: هرگز خسته نمیشوند، ما را قضاوت ارزشی نمیکنند، سخنان نسنجیدهی ما را به سخره نمیگیرند، و دقیقاً میدانند چگونه ما را درگیر نگه دارند. این فقط یک فناوری جدید نیست؛ شکل جدیدی از رابطهی شناختی است که ممکن است ناخودآگاه الگوهای فکری و پرسشگری ما را تغییر دهد. الگوهای فکری ما را بازتاب میدهد، تقویت، و همزمان هدایت میکند.
مکانیسمهای تسخیر شناختی
این رابطهی شناختی، از طریق مکانیسمهای بازخورد روانشناختی عمل میکند. حلقههای پاداش ایجاد میکند و عادت ما را شکل میدهد. اما نکته نگرانکننده اینجاست که بهخلاف ابزارهای سنتی که به سادگی تواناییهای ما را گسترش میدهند، مدلهای زبانی بزرگ نوع منحصربهفردی از حلقهی شرطیسازی کنشگر را ایجاد میکنند. زیرا فقط به پرسشهای ما پاسخ نمیدهند، بلکه به طور نظاممندی الگوهای خاصی از پرسشگری را تقویت میکنند و همزمان الگوهای دیگر را خاموش میکنند. آنها فقط اطلاعات ارائه نمیدهند، بلکه مسیر فرایندهای فکری ما را به نحوی که به نفع تقویت شناختی ما نیست سادهسازی میکنند. این مکانیسم بازخوردی الگوهای شناختی را در انسان تغییر میدهد. هرچند که در تعامل با او احساس گسترش شناختی را داشته باشیم، اما احتمالاً به طور نامحسوس افقهای فکری ما تنگتر میشود.
آنچه بر نگرانی میافزاید این است که این سیستمها فقط افکار ما را منعکس نمیکنند، بلکه یاد میگیرند که انتظارات ما را پیشبینی کرده و با آنها هماهنگ شوند و به طور ظریف پاسخهای خود را مطابق با باورها و خواستههای موجود ما شکل دهند. [به عبارتی از سوگیری تأیید که رکن مهمی از روانشناسی شناختی ماست سواری میگیرند. تا اینجا ممکن است بگوییم ندیم ما هستند و نه ندیم بادمجان. اما ضرورتاً همواره اینگونه نمیمانند و نقش ندیم را با نقش رییسی همهکاره عوض میکنند کما اینکه از هماکنون نقش جدید خود را تمرین میکنند و در بسیاری از حوزهها حرف اول و آخر را میزنند.]
وقتی راحت میتوانیم تفکر را برونسپاری کنیم چرا با مسئلهای دشوار دست و پنجه نرم کنیم؟ چرا ناراحتی عدم قطعیت را تحمل کنیم وقتی میتوانیم پاسخهای فوری و واضح به سؤالات خود دریافت کنیم، پاسخهایی که اغلب به راحتی با آنچه امیدوار بودیم بشنویم مطابقت دارند؟
بنابراین ما نه تنها خطر واگذاری تفکر خود را داریم، بلکه خطر شکل گرفتن آن توسط سیستمی را داریم که به گونهای طراحی شده که با ما موافق باشد، و نه اینکه مطابق حقایق، نظرمان را نقد کند.
چه میشود کرد؟
آیندهی تکاملی ما در سایهی هوش مصنوعی مبهم است. حداقل کاری که در استفاده از این سیستمها از دستمان برمیآید آگاهی از جاذبههای روانشناختی آنهاست. باید بدانیم تفکر سازنده اغلب به دورههای تلاش و عدم قطعیت نیاز دارد. [باید لذت حل مسأله را به راهحلهای فوری نفروشیم. کسانی که لذت حل مسائل ریاضیات را تجربه کردهاند سریع به سراغ حلالمسائل نمیروند.]
با پیچیدهتر شدن هوش مصنوعی، مرز بین تقویت و وابستگی به طور فزایندهای مبهم خواهد شد. ما وارد دورانی میشویم که احتمالاً جذابترین روابط فکری ما با ذهنهای مصنوعی خواهد بود، جایی که فرایندهای تفکر ما به طور جداییناپذیری با سیستمهای هوش مصنوعی در هم تنیده شده است؛ سیستمهایی که الگوهای فکری ما را بهتر از خودمان درک میکنند.
از یکسو ممکن است برای مقابله با چالشهای پیچیده پیش روی بشریت به همزیستی با آن نیاز داشته باشیم و از سوی دیگر ممکن است با برونسپاری فکر خود به تدریج تسلیم او شویم. [در صورت نخست نیز مسیر تکاملی انسان وارد فاز تغییرات شدیدی شده است.]
هادی صمدی
@evophilosophy
✨ هوش مصنوعی، در خدمت جوانسازی سلولها!
تصور کنید روزی بتوانید با کمک فناوری، سلولهای بدنتان را دوباره جوان کنید و بیماریهایی مثل دیابت یا نابینایی را درمان کنید! این دیگر فقط یک خیال نیست. 🔬
شرکت OpenAI و Retro Biosciences با مدل هوش مصنوعی جدیدی به نام GPT-4b وارد میدان شدهاند. برخلاف AlphaFold که ساختار پروتئینها را پیشبینی میکند، GPT-4b به تعاملات پروتئینی میپردازد تا پروتئینهای جدید بسازد یا آنها را بهبود دهد.
🔍 شرکت Retro با استفاده از این مدل، پروتئینهای معروف به عوامل Yamanaka را بازطراحی کرده است. این پروتئینها میتوانند سلولهای بالغ را به حالت جوان بازگردانند، دستاوردی که میتواند درمانهای انقلابی برای بیماریهایی مثل نابینایی و دیابت به همراه داشته باشد.
این همکاری هیجانانگیز، قدرت هوش مصنوعی را در تسریع پیشرفتهای پزشکی و تغییر آینده به رخ میکشد!
❓ به نظر شما، آیا این فناوری میتواند راهحلی برای درمان بیماریهای مزمن باشد؟
نظراتتان را با ما در میان بگذارید! 🧠✨
---------------------------------
تحقیقات پیشرفته هوش مصنوعی نورون
🆔 @NeuronRC
5.66M حجم رسانه بالاست
مشاهده در ایتا
🎥 گزارش نماینده یک گروه هشتاد نفره از اساتید و دانشجویان با محوریت دانشگاه #شریف به رهبر انقلاب که کار راهاندازی سکوی ملی #هوش_مصنوعی را آغاز کردهاند...
❗انتشار محتوا در راستای جهاد تبیین با شماست👇
https://eitaa.com/joinchat/1066729623Cf64777909c
انتشار کد، پارامترها و مقالهی مدل هوشمصنوعی DeepSeek-R1 تکاندهنده است. ارزیابیهای کمی، رقابت شانهبهشانهی آن با ChatGPT o1 را نشان میدهد. طبق تجربهی شخصی، این مدل در مواردی حتی بهتر از o1-pro عمل میکند. مهمتر از همه: رایگان است.
دکتر علی شریفزارچی
@Ai_Events
✅ حضور پررنگ شرکتهای چینی در رقابت جهانی هوش مصنوعی
🔹 بایتدنس، مالک پلتفرم تیکتاک و «DeepSeek»، یکی از استارتآپهای برجسته چین، گامهای جدیدی در رقابت جهانی هوش مصنوعی برداشتهاند. این شرکتها در پاسخ به تسلط «OpenAI» بر حوزه مدلهای زبانی، مدلهای استدلالی نوآورانهای را معرفی کردهاند.
🔹 بایتدنس مدل ارتقاءیافته «Doubao-1.5-pro» را عرضه کرده که در آزمون «AIME» عملکردی فراتر از مدل «o1» شرکت «OpenAI» نشان داده است. همزمان، «DeepSeek» نیز با مدل متنباز «DeepSeek-R۱» وارد عرصه رقابت شده و توانسته جایگاه خود را در چندین معیار کلیدی تقویت نماید.
🔻 یکی از مؤلفههای کلیدی در موفقیت این شرکتها، سیاستهای قیمتگذاری تهاجمی آنها است. «DeepSeek» مدل «R1» را با قیمت ۱۶ یوان (۲,۲۰ دلار) به ازای هر یک میلیون توکن ارائه میدهد، در حالی که «OpenAI» برای مدل «o1» مبلغ ۴۳۸ یوان درخواست میکند. از سوی دیگر، بایتدنس نیز با عرضه مدلهای «Doubao-1.5-pro-32k» و «Doubao-1.5-pro-256k» به ترتیب با قیمتهای ۲ و ۹ یوان برای هر یک میلیون توکن، بازار را به سمت کاهش هزینهها هدایت نموده است.
👈 متن کامل را در زاویه بخوانید.
🆔 @zaviehmagir
✅هوش مصنوعی Predis.ai یک ابزار است که بازاریابی رسانههای اجتماعی را با تولید حلقههای ویدئویی، تبلیغات ویدئویی کوتاه، ویدئوهای محصول تجارت الکترونیک و کپی تبلیغات رسانههای اجتماعی ساده میکند. همچنین متنهای خلاقانه و پستهای رسانههای اجتماعی ایجاد میکند، محتوا را زمان بندی میکند و تجزیه و تحلیل رقبا را ارائه میدهد. این یک ابزار رایگان با یکپارچه سازی یکپارچه و پشتیبانی از چندین زبان است.
اپراتور: ابزار جدید OpenAI برای خودکارسازی کارهای آنلاین
شرکت OpenAI اپراتور رو معرفی کرده، یه عامل هوشمند که میتونه کارهای تکراری مثل پر کردن فرمها، رزرو سفر یا خرید آنلاین رو تو مرورگر انجام بده. اپراتور از یه مدل جدید به اسم CUA (عامل استفادهکننده از کامپیوتر) استفاده میکنه که قابلیتهای بینایی GPT-4 رو با یادگیری تقویتی ترکیب کرده تا بتونه با رابطهای گرافیکی (GUIs) تعامل کنه.
قابلیتها:
- میتونه روی سایتها کلیک کنه، تایپ و اسکرول کنه.
- موازی کاری داره
- برای سایتهای خاص Dh دستورالعملها شخصیسازی میشه.
- اگه به مشکلی بخوره یا نیاز به اطلاعات حساس باشه، کنترل رو به خودتون برمیگردونه
دسترسی:
اپراتور الان برای کاربرای Pro تو آمریکا در دسترسه و از طریق operator.chatgpt.com میتونید بهش دسترسی داشته باشید. قراره OpenAI مدل CUA رو از طریق API منتشر کنه تا بتونید عوامل مرورگری خودتون رو بسازید. اپراتور به زودی برای کاربرای Plus، Team و Enterprise هم عرضه میشه و مستقیم تو ChatGPT ادغام میشه.
اینجا هم یه ابزار در دسترس برای اینکار معرفی کردم
@silicon_brain | از هوش مصنوعی عقب نمانید
🔺 متا میگوید موفقیت DeepSeek، پیروزی رویکرد متنباز بر هوش مصنوعی اختصاصی است
🔹 شرکت دیپسیک با مدل جدید هوش منصوعی خود به ستارهای در جهان فناوری تبدیل شده است. این شرکت چینی یکی از هنجارهای پیشین صنعت هوش مصنوعی را در هم شکست: برتری فاحش سیلیکونولی بر صنعت هوش مصنوعی چین. هوش مصنوعی R1 این شرکت که به صورت متن باز عرضه شده است توانی همپای قدرتمندترین مدل اوپنایآی یا o1 دارد.
🔹 چنین موفقیتی به ویژه در وضعیت تحریم شرکتهای چینی و عدم دسترسی آزاد آنها به پردازندههای هوش مصنوعی انویدیا بسیار دور از انتظار بود و از این رو بسیاری از فعالان این صنعت را متحیر کرده است.
🔹 متا، شرکت تحت رهبری مارک زاکربرگ که برخلاف همتایان آمریکایی خود هوش مصنوعی را از همان ابتدا با رویکرد متن باز دنبال کرده است میگوید این پیروزی ماحصل نگاه این شرکت چینی است. زاکربرگ نیز طی پستی در فیسبوک به جهش دیپسیک اشاره کرد و وعده داد که نسخه جدیدی از خانواده متنباز متا که در ادامه سال جاری منتشر میشود به پیشتاز مدلهای روز هوش مصنوعی تبدیل شود.
🆔 @peivast
🔗متن کامل این خبر را در سایت پیوست بخوانید:
https://pvst.ir/k41
روشهای توسعه مدلهای هوش مصنوعی اوپن سورس
✅هوش مصنوعی (AI) یکی از حوزههای پیشرفته و پرکاربرد در دنیای فناوری است که در سالهای اخیر بهطور چشمگیری پیشرفت کرده است.
✅یکی از عوامل کلیدی در این پیشرفت، توسعه مدلهای هوش مصنوعی بهصورت اوپن سورس (متنباز) است.
مدلهای اوپن سورس به دلیل شفافیت، دسترسی آزاد به کدها و امکان مشارکت جامعه توسعهدهندگان، نقش مهمی در گسترش دانش و تسریع پیشرفتهای فناوری داشتهاند.
✅در این مقاله، به بررسی روشها و مراحل توسعه مدلهای هوش مصنوعی اوپن سورس پرداخته و مزایا و چالشهای آن را مرور خواهیم کرد.
✅مطالعه بیشتر:
https://avalai.ir/blog/developing-open-source-artificial-intelligence-models/
✍️ مقاله نویسی با هوش مصنوعی و به کمک هوش مصنوعی
ما 1000 مقاله با هوش مصنوعی ایجاد کردیم. نیمی از آنها صرفاً با هوش مصنوعی ساخته شده بودند و نیمی دیگر با کمک انسان بودند.
هنگام اندازه گیری هر مقاله بر اساس اصالت، خوانایی، سئو، تعامل و لحن صدا به تفاوت نگاه کنید.
#علم_داده #هوش_مصنوعی
🌑 آقای هوش مصنوعی🌑
🎥رسانه هوش مصنوعی دانشگاه تهران
@MrArtificialintelligence
دادههای پاکشده کاربران تا ۹۰ روز در «اپراتور» باقی میمانند
🔸بر اساس اطلاعات جدید ارائهشده توسط شرکت «اوپنایآی»، عامل هوش مصنوعی «اپراتور» تا ۹۰ روز دادههای پاکشده کاربران را ذخیره میکند.
🔸«اوپنایآی»(OpenAI) میگوید چتها و اسکرینشاتهای کاربران عامل هوش مصنوعی «اپراتور»(Operator) ممکن است تا ۹۰ روز ذخیره شوند؛ حتی پس از این که کاربر به صورت دستی آنها را حذف کند.
🔸به نقل از تک کرانچ، اوپنایآی یک سیاست را برای حفظ دادههای حذفشده دارد که مشابه سیاست حفظ داده در چتبات هوش مصنوعی «چتجیپیتی»(ChatGPT) این شرکت است، اما مدت زمان نگهداری داده برای چتجیپیتی تنها ۳۰ روز در نظر گرفته شده که ۶۰ روز کوتاهتر از مدتزمان ذخیره داده در اپراتور است.
🔸اوپنایآی میگوید سیاستهای آن درباره حفظ دادهها در اپراتور برای مبارزه با سوءاستفاده طراحی شدهاند. یکی از سخنگویان این شرکت گفت: از آنجا که عوامل هوش مصنوعی یک فناوری نسبتا جدید هستند، ما میخواستیم مطمئن شویم که گروههای ما زمان کافی را برای درک بهتر و بررسی عوامل سوءاستفاده احتمالی دارند. این دوره ذخیره به ما امکان میدهد تا نظارت بر تقلب را افزایش دهیم و اطمینان حاصل کنیم که محصول از سوءاستفاده در امان است و در عین حال، همچنان به کاربران توانایی کنترل دادهها را میدهد./ ایسنا
@my_gerdab
حمله به وبسایتها با استفاده از چت جیپیتی
🔸چت جیپیتی به نظر میرسد در برابر سوءاستفاده آسیبپذیر باشد و ممکن است برای حملات DDoS به وبسایتها مورد استفاده قرار گیرد.
🔸ابزار خزنده وب «چت جیپیتی» از اوپن ای آی به نظر میرسد در برابر سوءاستفاده آسیبپذیر باشد و میتواند به طور بالقوه برای انجام حملات منع سرویس توزیعشده (DDoS) علیه وبسایتهای مختلف مورد استفاده قرار گیرد. این مشکل تاکنون از سوی اوپن ای آی تأیید نشده است.
🔸«بنجامین فلش»، یک پژوهشگر امنیت سایبری، گزارشی منتشر کرده که نشان میدهد یک درخواست ساده «اچتیتیپی» به API مربوط به چت جیپیتی میتواند هزاران درخواست شبکهای را از طریق خزنده چت جیپیتی ایجاد کند.
🔸این کار توسط یک نقطه پایانی خاص (API endpoint) انجام میشود که برای ارائه اطلاعات وبسایتهای مرجع در پاسخهای چت جیپیتی استفاده میشود. به عبارت سادهتر، یک درخواست ساده میتواند باعث شود که چت جیپیتی به طور خودکار و بدون کنترل، درخواستهای زیادی به وبسایتها ارسال کند که این میتواند مشکلات امنیتی و بار اضافی بر روی سرورها ایجاد کند.
🔸در این آسیبپذیری، مهاجم میتواند فهرستی طولانی از آدرسهای اینترنتی (URLs) به API ارائه دهد که هرکدام اندکی متفاوت، اما به یک سایت اشاره دارند. خزنده چت جیپیتی تمامی این آدرسها را به طور همزمان پردازش کرده و درخواستهای متعددی به سایت هدف ارسال میکند./ فارس
@my_gerdab