هدایت شده از محمد جوانی
8.8M حجم رسانه بالاست
مشاهده در ایتا
♨️چندبار ببینید؛ تلنگر و هشدار
جفری هینتون (Jeoffrey Hinton)
پدرخوانده #هوش_مصنوعی
در مراسم دریافت نوبل فیزیک ۲۰۲۴
📌در این سخنرانی، نه نشانی از هیجان است و نه خوشحالی؛ پیام کوتاه، واضح و آشکار بود: قدرت (Artificial Neural Networks) شبکههای عصبی مصنوعی یا همان (ANN) فرصتی بیسابقه برای پیشرفت در تمامی علوم و صنایع است؛ اما تهدیدی بسیار جدی برای خشمگین شدن و بقای بشریت!
🤖هوشمصنوعی در جنگشناختی
🔴 Eitaa.com/CWarfare
محمد جوانی
♨️چندبار ببینید؛ تلنگر و هشدار جفری هینتون (Jeoffrey Hinton) پدرخوانده #هوش_مصنوعی در مراسم دریافت
♨️سطح روشن، عمق تاریک #هوش_مصنوعی
📌دوران عجیبی است. هر روز صبح که بیدار میشویم، ابزار جدیدی معرفی شده که قرار است کارهایی را که تا دیروز ساعتها وقت ما را میگرفت، در چند ثانیه انجام دهد. از نوشتن مقاله و کدنویسی گرفته تا ساخت تصاویر هنری و تحلیل دادههای پیچیده. اما در میان این هیاهو و ذوقزدگی عمومی، یک سوال بسیار مهم و حیاتی گم شده است: چرا همه اینها رایگان است؟
📌اگر کمی با منطق اقتصاد و کسبوکار آشنا باشید، میدانید که هیچ ناهار مجانیای وجود ندارد. آموزش این مدلهای زبانی میلیونها دلار هزینه سختافزاری دارد. هزینه برق دیتاسنترهایی که این هوشها را پردازش میکنند، سر به فلک میکشد. پس چرا شرکتهایی که حتی برای یک کابل شارژر از شما پول میگیرند، ناگهان تبدیل به خیرین بشریت شدهاند و پیشرفتهترین تکنولوژی قرن را رایگان در اختیار من و شما قرار دادهاند؟
📌پاسخ به این سوال، فراتر از رقابت تجاری است و به لایههای عمیقتری از روانشناسی، جامعهشناسی و کنترل قدرت باز میگردد. اگر از لایه سطحی «کمک به پیشرفت علم» عبور کنیم و با نگاهی سرد و تحلیلگر به ماجرا بنگریم، با چهار واقعیت تاریک و تکاندهنده روبرو میشویم. بیایید این جعبه سیاه را باز کنیم.
#ادامه 👇
🔴 @CWarfare
1⃣ما مشتری نیستیم، ما کارگران آموزشی بیجیره و مواجب هستیم!
📌اولین و فنیترین دلیل رایگان بودن هوش مصنوعی، نیاز مبرم این سیستمها به چیزی است که در سرورها و کدهای کامپیوتری یافت نمیشود: بازخورد انسانی (Human Feedback).
📌مدلهای هوش مصنوعی در مراحل اولیه، مثل کودکانی هستند که دایره لغات وسیعی دارند اما درک درستی از سیاق، لحن، حقیقت و اخلاق ندارند. آنها مستعد «توهم» (Hallucination) هستند؛ یعنی با اعتماد به نفس کامل، دروغ میگویند یا کد اشتباه مینویسند. برای اصلاح این مدلها، به فرآیندی به نام RLHF (Reinforcement Learning from Human Feedback) نیاز است.
📌چرا شرکتهای هوش مصنوعی به من و شما نیاز دارند؟
تصور کنید شرکت سازنده هوش مصنوعی میخواست برای اصلاح و رتبهبندی میلیاردها پاسخ تولید شده توسط مدل، کارمند استخدام کند. هزینه این کار تریلیونها دلار میشد و سالها طول میکشید. راهحل هوشمندانه چه بود؟ عرضه عمومی و رایگان محصول.
📌وقتی شما به چتبات میگویید: «نه، این جواب درست نیست، دوباره تلاش کن» یا وقتی از بین دو پاسخ، یکی را انتخاب میکنید، عملاً دارید نقش یک «مربی» را بازی میکنید. شما بدون اینکه حقوقی دریافت کنید، دارید با هر پرامپت (Prompt) و هر بازخورد، مدل را دقیقتر، کمخطاتر و انسانیتر میکنید.
📌تربیت جانشینان خودمان
نکته کنایهآمیز و تاریک ماجرا اینجاست: ما با دستان خودمان و با اشتیاق فراوان، در حال آموزش سیستمی هستیم که قرار است جایگزین مهارتهای خودمان شود. هر بار که یک برنامهنویس کدی را از هوش مصنوعی اصلاح میکند و نسخه صحیح را به او برمیگرداند، دارد آخرین میخها را به تابوت نیاز بازار به «برنامهنویسان سطح متوسط» میکوبد. ما کارگران معدنی هستیم که داریم طلا استخراج میکنیم تا با آن ابزاری ساخته شود که دیگر نیازی به معدنچی نباشد.
2⃣خلع سلاح شناختی: وقتی عضلات مغز آب میشوند
📌هدف دوم که شاید ترسناکتر از اولی باشد، ایجاد یک وابستگی عمیق و برگشتناپذیر است. بیایید به تاریخ نگاه کنیم. وقتی ماشینحساب آمد، توانایی محاسبات ذهنی سریع در انسانها کاهش یافت. وقتی GPS و مسیریابها آمدند، توانایی جهتیابی و حفظ کردن مسیرها در مغز ما تضعیف شد. حالا هوش مصنوعی آمده است تا اصلیترین ویژگی انسان، یعنی «فکر کردن» و «استدلال» را بر عهده بگیرد.
📌آتروفی شناختی (Cognitive Atrophy) چیست؟
همانطور که اگر از عضلات بدن استفاده نکنید، به مرور زمان ضعیف و تحلیل میشوند (آتروفی)، مغز نیز اگر با چالشهای فکری درگیر نشود، تنبل میشود. وقتی برای نوشتن یک ایمیل رسمی، حل یک مسئله ریاضی، یا حتی ایده پردازی برای شام امشب، بلافاصله سراغ هوش مصنوعی میرویم، عملاً به مغز خود استراحت مطلق میدهیم.
📌خطر اصلی اینجاست که نسلی در حال پرورش است که بدون کمک هوش مصنوعی، دچار فلج فکری میشود. این نسل ممکن است سواد خواندن و نوشتن داشته باشد، اما سواد «تولید فکر» را از دست میدهد. این پدیده را میتوان اهلیسازی (Domestication) نهایی انسان نامید. انسانی که توانایی تفکر انتقادی و حل مسئله مستقل را از دست داده است، دیگر نمیتواند نقد کند، نمیتواند خارج از چارچوب سیستم فکر کند و به راحتی قابل کنترل است.
3⃣مهندسی حقیقت و کنترل معرفتی (Epistemic Control)
📌سرعت عجیب عرضه هوش مصنوعی و رایگان بودن آن، یک دلیل استراتژیک دیگر هم دارد: به دست گرفتن مرجعیت حقیقت.
تا پیش از این، اگر میخواستید درباره یک واقعه تاریخی یا یک پدیده علمی تحقیق کنید، باید چندین سایت را باز میکردید، نظرات مختلف را میخواندید و خودتان نتیجهگیری میکردید. این فرآیند، ذهن را فعال نگه میداشت و امکان مقایسه دیدگاهها را میداد. اما امروز چه اتفاقی افتاده است؟
📌ظهور خدایان ذهن
اکنون شما سوال را از هوش مصنوعی میپرسید و او یک جواب شسته و رفته و «قطعی» به شما تحویل میدهد. اکثر مردم (شاید بیش از ۹۹ درصد) هرگز صحت این پاسخ را چک نمیکنند. این یعنی هوش مصنوعی تبدیل به تکمنبع حقیقت (Single Source of Truth) میشود.
📌خطر اینجاست: اگر مالک این هوش مصنوعی تصمیم بگیرد واقعیت را مهندسی کند، چه کسی متوجه خواهد شد؟ اگر الگوریتم طوری تنظیم شود که فلان رخداد سیاسی را سانسور کند یا فلان نظریه علمی رد شده را به عنوان حقیقت جلوه دهد، جامعه آن را خواهد پذیرفت. چون «هوش مصنوعی گفته است». این یعنی کنترل کامل بر باورها، ارزشها و دانش جامعه. مالکان این شرکتها، عملاً تبدیل به دروازهبانان حقیقت در دنیای مدرن میشوند.
#ادامه 👇
🔴 @CWarfare
4⃣انحصار مطلق و استراتژی «برنده همه چیز را میبرد»
📌شاید بپرسید چرا اینقدر با عجله؟ چرا صبر نکردند تا مدلها ایمنتر و کاملتر شوند و بعد عرضه کنند؟ پاسخ در قانون نانوشته اقتصاد دیجیتال نهفته است: The Winner Takes All (برنده همه چیز را میبرد).
📌اشباع بازار پیش از تولد رقبا
هدف غولهای فناوری این است که قبل از اینکه دولتها فرصت کنند قوانین محدودکننده وضع کنند و قبل از اینکه رقبای کوچک و استارتاپها بتوانند شکل بگیرند، بازار را «اشباع» کنند. آنها با عرضه رایگان و با کیفیت بالا، عملاً امکان رقابت را برای دیگران به صفر میرسانند. چه کسی حاضر است برای سرویسی پول بدهد که گوگل یا OpenAI نسخه بهترش را رایگان میدهد؟
📌زیرساخت شدن
هدف نهایی این است که هوش مصنوعی تبدیل به زیرساختی مثل برق یا اینترنت شود. وقتی همه چیز، از بیمارستانها و دادگاهها گرفته تا مدارس و شرکتهای مهندسی، به APIهای این شرکتها وابسته شدند، آنگاه دوران رایگان بودن تمام میشود. آنها تبدیل به «شیر فلکه» هوش میشوند. میتوانند دسترسی یک کشور، یک شرکت یا یک گروه خاص را قطع کنند یا قیمتها را به دلخواه تعیین کنند. این شکل نوینی از استعمار دیجیتال است که در آن، وابستگی ملتها نه به منابع فیزیکی، بلکه به «پردازش شناختی» است.
📌اقتصاد توجه و اعتیاد به «راحتی»
نمیتوان از رایگان بودن صحبت کرد و به مدلهای روانشناسی اعتیاد اشاره نکرد. جملهای معروف در سیلیکون ولی وجود دارد: «اگر محصولی رایگان است، محصول شما هستید.» اما در عصر هوش مصنوعی، این جمله باید اصلاح شود: «اگر محصولی رایگان است، شما موش آزمایشگاهی هستید.»
📌مدل توزیع هوش مصنوعی فعلی، شباهت عجیبی به مدل توزیع مواد مخدر توسط کارتلها دارد: دوز اول رایگان است. هدف، ایجاد عادت است. وقتی شما عادت کردید که برای نوشتن هر نامه، کد، یا متنی از هوش مصنوعی استفاده کنید، مسیر عصبی مغز شما تغییر میکند.
📌دوپامین حاصل از «انجام سریع کار» باعث میشود بازگشت به روشهای سنتی و زمانبر، دردناک و غیرقابل تحمل باشد. ما در حال حاضر در دوران «ماه عسل» هستیم؛ دورانی که همه چیز شیرین و رایگان است تا وابستگی کامل شکل بگیرد. قبض اصلی بعداً صادر خواهد شد.
#ادامه 👇
🔴 @CWarfare
محمد جوانی
♨️سطح روشن، عمق تاریک #هوش_مصنوعی 📌دوران عجیبی است. هر روز صبح که بیدار میشویم، ابزار جدیدی معرفی
♨️چگونه در برابر این موج هوشیار بمانیم؟
📌آیا باید استفاده از هوش مصنوعی را متوقف کنیم؟ قطعاً خیر. این تکنولوژی قدرتمند است و مقاومت در برابر آن مثل مقاومت در برابر الکتریسیته بیفایده است. اما نحوه تعامل ما با آن تعیین میکند که آیا «ارباب» تکنولوژی هستیم یا «برده» آن.
📌برای حفظ استقلال فکری خود، این چهار اصل را رعایت کنید:
1⃣استفاده آگاهانه، نه خودکار
قبل از اینکه برای هر سوالی سراغ هوش مصنوعی بروید، چند دقیقه به خودتان فرصت دهید تا فکر کنید. از هوش مصنوعی به عنوان «کمکخلبان» (Copilot) استفاده کنید، نه خلبان اصلی. اجازه ندهید او فرمان تفکر را به دست بگیرد.
2⃣حفظ مهارتهای پایه
حتی اگر ماشینحساب هست، جدول ضرب را یاد بگیرید. حتی اگر هوش مصنوعی میتواند بنویسد، نوشتن را تمرین کنید. مهارتهایی که تمرین نشوند، میمیرند. اگر روزی این سیستمها قطع شوند یا پولی شوند، نباید فلج شوید.
3⃣شکاکیت مقدس
هیچ خروجیای از هوش مصنوعی را بدون بررسی نپذیرید. فرض را بر این بگذارید که سیستم ممکن است اشتباه کند یا سوگیری داشته باشد. منبع بخواهید و با منابع دیگر چک کنید.
4⃣خلاقیت انسانی را زنده نگه دارید
هوش مصنوعی در بازترکیب دادههای گذشته استاد است، اما در خلق معنای جدید و احساسی ناتوان است. روی ویژگیهایی تمرکز کنید که کاملاً انسانی هستند: همدلی، اخلاق، و شهود.
📌جمعبندی: هوشیاری در برابر هوشمندی مصنوعی
هوش مصنوعی رایگان، یک هدیه سخاوتمندانه نیست؛ یک استراتژی هوشمندانه تجاری و کنترلی است. ما در حال معامله «داده» و «توانایی تفکر مستقل» خود در برابر «راحتی و سرعت» هستیم. این معامله لزوماً بد نیست، به شرطی که از مفاد قرارداد آگاه باشیم.
هدف نهایی تکنولوژی، نابودی انسان نیست (چون مردهها خرید نمیکنند!). هدف، تبدیل انسان به یک واحد زیستی وابسته است که دیتا تولید میکند و پول خرج میکند، اما قدرت تحلیل مستقل ندارد. تنها پادزهر این وضعیت، خرد و آگاهی است. همانطور که در متن ابتدایی اشاره شد: «تنها خرد است که چون چراغی به ظلمت شب تاریک پایان میدهد.» اجازه ندهید نور خرد انسانی در سایه درخشش مصنوعی الگوریتمها خاموش شود.
#ادامه👇
🔴 @CWarfare
محمد جوانی
♨️هشدار برای بشریت؛ نمیدانیم در مغز #هوش_مصنوعی چه میگذرد!🤖 📌اعتراف هولناک جفری هینتون، مشهور به
♨️پرسشهای متداول #هوش_مصنوعی
1⃣آیا استفاده از هوش مصنوعی واقعاً باعث کاهش هوش انسان میشود؟
استفاده ابزاری باعث کاهش هوش نمیشود، اما «وابستگی مطلق» میتواند منجر به تنبلی ذهن و کاهش مهارتهای شناختی مثل حافظه و حل مسئله شود. کلید ماجرا در تعادل بین استفاده از ابزار و تمرین دادن مغز است.
2⃣چرا شرکتها به جای استخدام کارمند، هوش مصنوعی را رایگان میکنند؟
چون حجم داده و بازخوردی که برای آموزش مدلهای زبانی نیاز است، آنقدر زیاد است که هیچ شرکتی توان مالی و انسانی استخدام افراد برای انجام آن را ندارد. جمعیت جهان بهترین و ارزانترین منبع برای آموزش این مدلها هستند.
3⃣آیا روزی هوش مصنوعیهای رایگان پولی خواهند شد؟
بله، به احتمال زیاد. مدل فعلی برای جذب کاربر، حذف رقبای کوچک و ایجاد وابستگی است. پس از تثبیت جایگاه و تبدیل شدن به زیرساخت اصلی، مدلهای کسبوکارهایی تغییر کرده و هزینهها به شکلهای مختلف (اشتراک، تبلیغات، فروش دیتا) دریافت خواهد شد.
4⃣منظور از «توهم» یا Hallucination در هوش مصنوعی چیست؟
توهم زمانی رخ میدهد که هوش مصنوعی با اعتماد به نفس کامل، اطلاعاتی را تولید میکند که واقعیت خارجی ندارند. این اتفاق چون مدلها بر اساس احتمالات آماری کلمات کار میکنند نه بر اساس درک حقایق، بسیار رایج است.
5⃣چطور میتوانیم از خطرات کنترل ذهنی هوش مصنوعی در امان بمانیم؟
با پرهیز از تکیه بر هوش مصنوعی به عنوان تنها منبع حقیقت. همیشه اطلاعات حساس را از منابع معتبر و متعدد چک کنید و اجازه ندهید الگوریتمها تمام ورودیهای اطلاعاتی ذهن شما را فیلتر کنند.
🖋 #محمد_جوانی
🔴 @CWarfare
محمد جوانی
♨️سلام، صبح قشنگت بخیر... 📌مه، جنگل و پاییز… انگار زمان آرامتر نفس میکشد 🍂🍁🌫️ 🤲برای نجات جنگل
16.1M حجم رسانه بالاست
مشاهده در ایتا
♨️پاییز میرسد که مرا مبتلا کند...
📌با رنگهای تازه مرا آشنا کند🍂
🖋 #محمد_جوانی
🔴 @CWarfare
محمد جوانی
🤫❌هیس؛ فقط خانمها ببینند! ♨️محتوای این کلیپ ممکن است موجب شکلگیری جنبشهای #مردانه علیه اسلام و ج
13.1M حجم رسانه بالاست
مشاهده در ایتا
♨️تفاوت حقوق و سبک زندگی زنوشوهر در ایران و سوئیس
📌از زبان یک هموطن مهاجر...
#غرب #مهاجرت
🖋 #محمد_جوانی
🔴 @CWarfare
5.1M حجم رسانه بالاست
مشاهده در ایتا
♨️دریای عمان در اصفهان...
📌خدا رحمت کنه شهید رئیسی رو...
🖋 #محمد_جوانی
🔴 @CWarfare