eitaa logo
واحد هوش مصنوعی مؤسسه مصاف | Masaf AI
11.2هزار دنبال‌کننده
113 عکس
33 ویدیو
0 فایل
💠فناوری‌های نوظهور برای ظهور
مشاهده در ایتا
دانلود
📰 پایتخت AI جهان؛ اما با اقتصادی عقب‌مانده؟ به گزارش The Economist، شهر سان‌فرانسیسکو با وجود تبدیل شدن به مرکز اصلی توسعه هوش مصنوعی در جهان، از نظر شاخص‌های اقتصادی عملکردی ضعیف‌تر از انتظار دارد 📉🤖. در حالی که سرمایه‌گذاری‌های عظیم در حوزه AI در این شهر متمرکز شده، بسیاری از کسب‌وکارهای سنتی همچنان با رکود، تعطیلی و کاهش فعالیت مواجه هستند 🏙️. این تضاد نشان می‌دهد رونق فناوری لزوماً به بهبود گسترده وضعیت اقتصادی برای همه بخش‌ها منجر نشده است ⚠️. کارشناسان معتقدند تمرکز بیش‌ازحد بر یک صنعت می‌تواند نابرابری اقتصادی و شکاف اجتماعی را افزایش دهد 🌐. 🔎 جزئیات کامل این گزارش را در ادامه بخوانید 👇 ✅واحد هوش مصنوعی مؤسسه مصاف 🆔 @Masaf_Ai
📰 شکاف میان رونق AI و واقعیت اقتصادی سان‌فرانسیسکو گزارش The Economist نشان می‌دهد با وجود آنکه سان‌فرانسیسکو به‌عنوان مرکز اصلی نوآوری در حوزه هوش مصنوعی شناخته می‌شود، اما اقتصاد محلی این شهر با چالش‌های جدی روبه‌رو است 📊. 📌 در سال‌های اخیر، موج سرمایه‌گذاری در استارتاپ‌ها و شرکت‌های AI باعث جذب میلیاردها دلار سرمایه به این منطقه شده، اما این رشد بیشتر در یک بخش محدود متمرکز بوده است. 🏙️ هم‌زمان، بسیاری از کسب‌وکارهای کوچک، فروشگاه‌ها و بخش‌های خدماتی با کاهش تقاضا، افزایش هزینه‌ها و تغییر الگوهای کاری (مانند دورکاری) مواجه شده‌اند. 🤖 تمرکز فعالیت‌ها در حوزه فناوری باعث شده بخش بزرگی از نیروی کار و سرمایه به سمت AI حرکت کند و سایر بخش‌های اقتصادی کمتر مورد توجه قرار گیرند. 📉 این وضعیت به افزایش شکاف درآمدی و نابرابری اجتماعی در شهر دامن زده و برخی مناطق شهری با افت اقتصادی مواجه شده‌اند. 🌐 تحلیلگران معتقدند این مدل رشد، اگرچه نوآوری را تقویت می‌کند، اما در صورت عدم توزیع متوازن منافع، می‌تواند پایداری اقتصادی را در بلندمدت تهدید کند. ⚠️ همچنین وابستگی بیش‌ازحد به یک صنعت، ریسک آسیب‌پذیری در برابر نوسانات بازار فناوری را افزایش می‌دهد. ✅واحد هوش مصنوعی مؤسسه مصاف 🆔 @Masaf_Ai
5.3M حجم رسانه بالاست
مشاهده در ایتا
ایران …🥀🖤 ✅واحد هوش مصنوعی مؤسسه مصاف 🆔@Masaf_Ai
📰 « رقابت برای ساخت مهم‌ترین ماشین عصر هوش مصنوعی؛ گلوگاه پنهانی که پشت همه چیپ‌های پیشرفته ایستاده ⚙️🤖» 🤖 به گزارش WSJ، در قلب موج عظیم هوش مصنوعی، یک ماشین قرار دارد که کمتر از خودِ مدل‌ها دیده می‌شود: دستگاه‌های EUV شرکت ASML؛ همان ابزارهایی که برای ساخت پیشرفته‌ترین چیپ‌های موردنیاز هوش مصنوعی حیاتی‌اند و فعلاً فقط همین شرکت هلندی آن‌ها را در مقیاس تجاری می‌سازد. در حالی که غول‌های فناوری صدها میلیارد دلار برای زیرساخت هوش مصنوعی خرج می‌کنند، فشار اصلی حالا روی شرکتی افتاده که باید این «ماشینِ ماشین‌ساز» را سریع‌تر و در مقیاس بزرگ‌تر تحویل دهد. ⚡️ نکته مهم اینجاست: این دستگاه‌ها فقط گران نیستند؛ فوق‌العاده پیچیده‌اند، ساختشان ماه‌ها زمان می‌برد و به یک زنجیره تأمین جهانی وابسته‌اند. ASML برای پاسخ به تقاضای انفجاری هوش مصنوعی می‌خواهد تولید ماشین‌های EUV را در ۲۰۲۶ به دست‌کم ۶۰ دستگاه برساند و در ۲۰۲۷ به ۸۰ دستگاه نزدیک شود؛ یعنی رقابت امروز هوش مصنوعی فقط بر سر مدل و چیپ نیست، بر سر توان ساخت همین ماشین‌های کمیاب هم هست. ✅واحد هوش مصنوعی مؤسسه مصاف 🆔@Masaf_Ai
🚨 پژوهش Google DeepMind: مدل‌های زبانی بزرگ (LLM) هرگز به آگاهی نخواهند رسید!!! در مقاله‌ای تازه، الکساندر لِرشنر دانشمند ارشد Google DeepMind اعلام کرده که هیچ هوش مصنوعی هرگز نمی‌تواند به آگاهی واقعی برسد؛ ادعایی که مستقیماً روایت‌های بلندپروازانه مدیرانی مانند دمیس هاسابیس و ایلان ماسک درباره‌ی «ظهور AGI» را به چالش می‌کشد. او می‌گوید AI بدون انسان حتی معنای داده‌ها را هم نمی‌فهمد و آگاهی به «بدن، نیازهای بقا و تجربهٔ واقعی» گره خورده است. این موضع که از درون خود گوگل منتشر شده، موجی از واکنش‌ها را میان متخصصان و منتقدان ایجاد کرده و پرسش‌های جدی دربارهٔ آیندهٔ AGI و محدودیت‌های واقعی هوش مصنوعی مطرح کرده است. 🔎 جزئیات کامل این گزارش را در ادامه بخوانید 👇 ✅واحد هوش مصنوعی مؤسسه مصاف 🆔@Masaf_Ai
🚨 پژوهش Google DeepMind: مدل‌های زبانی بزرگ (LLM) هرگز به آگاهی نخواهند رسید!!! در یک مقاله‌ٔ تازه و بحث‌برانگیز، الکساندر لِرشنر، دانشمند ارشد آزمایشگاه هوش مصنوعی Google DeepMind، اعلام کرده است که هیچ سامانهٔ هوش مصنوعی یا محاسباتی هرگز به آگاهی نخواهد رسید. 🤖 این ادعا با روایت رایج مدیران شرکت‌های بزرگ تکنولوژی — از جمله دمیس هاسابیس مدیرعامل DeepMind که اخیراً گفته بود AGI «ده برابر تاثیر انقلاب صنعتی را خواهد داشت و ده برابر سریع‌تر رخ می‌دهد» — در تضاد جدی قرار می‌گیرد. 🧠🔥 لِرشنر در مقاله‌اش با عنوان «The Abstraction Fallacy: Why AI Can Simulate But Not Instantiate Consciousness» توضیح می‌دهد که هر سیستم AI اساساً «وابسته به نقشه‌ساز» است؛ یعنی بدون یک انسان که جهان را برای آن به داده‌های معنادار تبدیل کند، نمی‌تواند هیچ فهم یا تجربه‌ای از خود داشته باشد. به گفته او، این باور که اگر AI رفتار آگاهانه را تقلید کند، می‌تواند خودِ آگاهی را داشته باشد، یک «سفسطهٔ انتزاعی» است. 💬 لرشنر تأکید می‌کند که آگاهی بدون بدن، نیازهای بقا و درگیری مداوم با محیط شکل نمی‌گیرد. یوهانس یَگِر، زیست‌شناس سامانه‌های تکاملی، نیز این نکته را پررنگ‌تر می‌کند: «یک مدل زبانی فقط مجموعه‌ای از الگوها روی یک هارد است؛ نه غذا می‌خواهد، نه نفس می‌کشد، نه برای زنده ماندن تلاش می‌کند. هیچ انگیزهٔ درونی ندارد و معنی‌اش را انسان از بیرون تعریف می‌کند.» 🧩 با وجود این، بسیاری از متخصصان حوزهٔ آگاهی می‌گویند استدلال‌های لرشنر گرچه قوی‌اند، اما چیز جدیدی نیستند و دهه‌ها پیش توسط فیلسوفان و پژوهشگران دیگر مطرح شده‌اند. 🧓 مارک بیشاپ، استاد محاسبات شناختی در دانشگاه لندن، می‌گوید: «من با ۹۹٪ حرف‌هایش موافقم، اما این‌ها همه سال‌ها پیش گفته شده بودند.» با این حال، اینکه چنین مدعایی از درون خود گوگل منتشر شده، برای بسیاری قابل‌توجه و حتی عجیب است. برخی کارشناسان معتقدند که این نتیجه‌گیری ممکن است برای شرکت‌هایی مانند گوگل از نظر مالی و قانون‌گذاری نیز مطلوب باشد؛ چرا که اگر AI آگاه تلقی شود، احتمالاً موضوع اعطای «حقوق قانونی» برای ماشین‌ها مطرح می‌شود. ⚙️ لِرشنر در عین حال می‌گوید AGI بدون آگاهی کاملاً ممکن است و چنین سیستمی نه یک «موجود اخلاقی جدید»، بلکه فقط یک «ابزار بسیار پیچیده و فاقد احساس» خواهد بود. این دیدگاه با ادعاهای پرهیاهوی مدیرانی مانند هاسابیس یا ایلان ماسک درباره ضرورت AGI برای دستیابی به خودران سطح ۵ در تضاد قرار می‌گیرد. 🚗💡 📝 منتقدانی مانند امیلی بندر، استاد زبان‌شناسی دانشگاه واشنگتن، می‌گویند مقالهٔ لرشنر بسیاری از منابع مهم را ذکر نکرده و مسیر داوری علمی را طی نکرده است. او تأکید می‌کند: «علوم کامپیوتر باید خودش را یکی از رشته‌های علمی بداند، نه قلهٔ دانش بشری. اگر چنین باشد، شرایط پژوهش بهتر خواهد بود.» 🌐 در مجموع، مقالهٔ لرشنر شکافی عمیق میان روایت‌های تبلیغاتی شرکت‌های AI و تحلیل‌های آکادمیک دربارهٔ ماهیت آگاهی و محدودیت‌های هوش مصنوعی را آشکار می‌کند؛ شکافی که به‌نظر می‌رسد پیامدهای مهمی برای آیندهٔ AGI، قوانین مربوط به فناوری و انتظارات عمومی از AI خواهد داشت. ✨ ✅واحد هوش مصنوعی مؤسسه مصاف 🆔@Masaf_Ai
مرد پشت AlphaGo معتقد است هوش مصنوعی در مسیر اشتباه قدم گذاشته است 🚦🤖 دِیوید سیلور، مغز متفکر پشت AlphaGo و یکی از تاثیرگذارترین پژوهشگران هوش مصنوعی، معتقد است مسیر امروز صنعت AI اشتباه است. 🚦 سیلور که در سال ۲۰۱۶ با ساخت AlphaGo نخستین جرقه‌های «فراهوش» را به جهان نشان داد، اکنون با تأسیس شرکت جدیدش Ineffable Intelligence رویکردی متفاوت را دنبال می‌کند: ساخت AI از مسیر یادگیری تقویتی، نه متکی بر مدل‌های زبانی بزرگ. به گفته او، LLMها فقط از هوش انسانی تغذیه می‌شوند، در حالی که سیستم‌های یادگیرندهٔ مستقل می‌توانند «بی‌نهایت یاد بگیرند» و به نوعی سوخت تجدیدپذیر هوش تبدیل شوند. 🔁 سیلور می‌گوید هدفش ساخت «سوپر یادگیرنده‌هایی» است که بتوانند به تنهایی علم، فناوری یا حتی سیستم‌های اقتصادی جدید کشف کنند. او این مسیر را «اولین تماس با فراهوش» می‌نامد و معتقد است پروژه‌هایی که صرفاً بر LLMها تکیه می‌کنند، هرگز به چنین نقطه‌ای نمی‌رسند. نمونه‌ای که می‌زند ساده است: اگر یک LLM را در دنیایی با باور «زمین تخت» رها کنیم، بدون تعامل با واقعیت، همان باور غلط را تا ابد حفظ می‌کند. 🌍 شرکت جدید او تاکنون ۱.۱ میلیارد دلار سرمایه اولیه با ارزش‌گذاری ۵.۱ میلیارد دلاری جذب کرده و پژوهشگران مطرحی از DeepMind و شرکت‌های دیگر به او پیوسته‌اند. سیلور همچنین اعلام کرده تمام درآمد احتمالی خود از سهام شرکت را به خیریه اهدا خواهد کرد: «ساخت فراهوش مسئولیت بزرگی است و هر پولی که به دست بیاورم باید صرف نجات جان انسان‌ها شود.» ❤️‍🩹 مسیر او بر ایجاد عامل‌های هوشمند درون شبیه‌سازی‌های پیچیده است؛ جایی که بتوان رفتار عامل‌ها، همکاری، رقابت و سازگاری آن‌ها را مشاهده و ارزیابی کرد. برخی سرمایه‌گذاران، از جمله Ravi Mhatre، معتقدند این رویکرد مزیت مهمی برای ایمنی دارد، چون به جای تقلید رفتار انسان، از صفر یاد می‌گیرد و ممکن است سازگاری بیشتری با ارزش‌های انسانی داشته باشد. سیلور ریشه دیدگاهش را در سنت قدیمی یادگیری از تجربه می‌بیند—همان مسیری که آلن تورینگ و سپس ریچ ساتن و اندرو بارتو بنیان گذاشتند و برایش جایزه تورینگ ۲۰۲۵ اهدا شد. او اعتقاد دارد یادگیری تقویتی همان کلید واقعی ساخت فراهوش است، نه مدل‌هایی که تنها انبوهی از متن انسان‌ها را می‌بلعند. در حالی که تب ساخت فراهوش به اوج رسیده و شرکت‌ها میلیاردها دلار برای آن هزینه می‌کنند، بسیاری باور دارند که سیلور—به‌دلیل سابقه‌ٔ علمی بی‌نقص و شخصیت فروتنش—می‌تواند بهترین استعدادهای جهان را گرد هم بیاورد. «او بسیار باهوش، خلاق و در عین حال واقعاً آدم خوبی است. این برای پژوهشگران اهمیت زیادی دارد.» 🌟 برای سیلور اما انگیزه اصلی چیز دیگری است: «از نظر علمی، این مهم‌ترین مأموریتی است که ممکن است بشر در آن قدم بگذارد.» ✅واحد هوش مصنوعی مؤسسه مصاف 🆔@Masaf_Ai
مرد پشت AlphaGo معتقد است هوش مصنوعی در مسیر اشتباه قدم گذاشته است 🚦🤖 دیوید سیلور، خالق AlphaGo، معتقد است صنعت هوش مصنوعی در مسیر اشتباهی حرکت می‌کند؛ او برخلاف موج غالب مدل‌های زبانی بزرگ، باور دارد فراهوش واقعی نه از دل داده‌های انسانی، بلکه از طریق یادگیری تقویتی و تجربه مستقیم در شبیه‌سازی‌ها به‌دست می‌آید—سیستم‌هایی که بتوانند خودشان کشف کنند، آزمایش کنند و بی‌وقفه یاد بگیرند. شرکت تازه‌تأسیس او، Ineffable Intelligence، با جذب بیش از یک میلیارد دلار سرمایه، قصد دارد «اولین تماس با فراهوش» را رقم بزند؛ مأموریتی که به گفته سیلور می‌تواند آینده علم و فناوری را بازتعریف کند. اما چرا او معتقد است LLMها هرگز به این نقطه نمی‌رسند؟ و این رویکرد چه پیامدهایی برای ایمنی و آینده AI دارد؟ 🔎 جزئیات کامل این گزارش را در ادامه بخوانید 👇 ✅واحد هوش مصنوعی مؤسسه مصاف 🆔@Masaf_Ai
📰 « دیتاسنترهای هوش مصنوعی؛ وقتی هوش مصنوعی به مسئله قبض برق و انتخابات تبدیل می‌شود ⚡️🤖🗳» 🤖 به گزارش Politico، رشد سریع دیتاسنترهای هوش مصنوعی در ایالت‌هایی مثل جورجیا دیگر فقط یک موضوع فناورانه نیست؛ به یک مسئله جدی سیاسی و اقتصادی تبدیل شده است. این مراکز برای اجرای مدل‌های هوش مصنوعی به برق عظیم و دائمی نیاز دارند و حالا رأی‌دهندگان می‌پرسند: آیا هزینه توسعه این زیرساخت‌ها در نهایت روی قبض برق خانواده‌ها می‌نشیند؟ 💸⚠️ 📌 همین نگرانی باعث شده: موضوع دیتاسنترها وارد فضای انتخابات میان‌دوره‌ای ۲۰۲۶ شود؛ جایی که بحث اصلی فقط «پیشرفت هوش مصنوعی» نیست، بلکه این است که چه کسی هزینه انرژی این پیشرفت را پرداخت می‌کند؟ جزئیات بیشتر درباره فشار روی شبکه برق و سیاست انرژی را در پست بعدی بخوانید 👇 ✅واحد هوش مصنوعی مؤسسه مصاف 🆔@Masaf_Ai
📰 « دیتاسنترهای هوش مصنوعی؛ وقتی هوش مصنوعی به مسئله قبض برق و انتخابات تبدیل می‌شود ⚡️🤖🗳» ⚡️ حالا که مسئله روشن شد، بخش مهم‌تر ماجرا این است: هوش مصنوعی بدون انرژی ارزان و پایدار رشد نمی‌کند. دیتاسنترهای جدید فقط چند ساختمان پر از سرور نیستند؛ آن‌ها مصرف‌کننده‌های عظیم برق‌اند که می‌توانند برنامه‌ریزی انرژی یک ایالت را تغییر دهند. در جورجیا، نهاد تنظیم‌گر برق طرحی برای حدود ۱۰ گیگاوات ظرفیت برق جدید تأیید کرده؛ ظرفیتی که گزارش‌ها آن را معادل برق موردنیاز حدود ۸.۳ میلیون خانه دانسته‌اند و بخش زیادی از آن قرار است از سوخت‌های فسیلی تأمین شود. 💸 همین‌جا نگرانی مردم شروع می‌شود: اگر شرکت‌های بزرگ فناوری برای دیتاسنترهای هوش مصنوعی برق بیشتری بخواهند، آیا هزینه نیروگاه، خطوط انتقال و توسعه شبکه را خودشان می‌دهند یا این هزینه بین همه مشترکان پخش می‌شود؟ منتقدان می‌گویند در جورجیا، ساخت نیروگاه‌های جدید می‌تواند به نفع شرکت برق باشد، چون سرمایه‌گذاری بیشتر برای شرکت خدمات عمومی به معنی سود بیشتر است؛ اما برای مردم، نتیجه ممکن است قبض برق بالاتر باشد. 🔥 این موضوع برای دموکرات‌ها به یک فرصت انتخاباتی تبدیل شده است: آن‌ها می‌خواهند دیتاسنترهای هوش مصنوعی را به مسئله‌ای ملموس برای رأی‌دهنده تبدیل کنند: نه بحث پیچیده فناوری، بلکه سؤال ساده‌ای مثل این: چرا خانواده‌ها باید هزینه برقِ پروژه‌های غول‌های فناوری را بدهند؟ در همین فضا، AP هم گزارش داده که نارضایتی از دیتاسنترها و نرخ برق می‌تواند به دموکرات‌های جورجیا کمک کند، چون مسئله از سطح «توسعه فناوری» به سطح هزینه زندگی آمده است. دیتاسنترهای هوش مصنوعی قرار است ستون فقرات اقتصاد آینده باشند؛ اما اگر انرژی آن‌ها گران، آلاینده یا ناعادلانه تأمین شود، می‌توانند به یک بحران سیاسی تبدیل شوند. 💥 یعنی جنگ بعدی بر سر هوش مصنوعی فقط در آزمایشگاه‌ها و شرکت‌های فناوری نیست؛ بخشی از آن روی شبکه برق، قبض خانه‌ها و صندوق رأی اتفاق می‌افتد. ✅واحد هوش مصنوعی مؤسسه مصاف 🆔@Masaf_Ai
📰 «شرکت Anthropic علت افت کیفیت Claude Code را توضیح داد؛ سه تغییر کوچک، یک اختلال بزرگ ⚠️🤖» 🤖 به گزارش Anthropic، افت کیفیتی که برخی کاربران در Claude Code گزارش کرده بودند، به سه تغییر جداگانه برمی‌گشت: • کاهش سطح پیش‌فرض Reasoning Effort برای کم کردن تأخیر • یک باگ در مدیریت حافظه جلسات قدیمی • یک تغییر در System Prompt برای کوتاه‌تر کردن پاسخ‌ها نکته مهم این است که به گفته آنتروپیک، API و لایه اصلی Inference تحت‌تأثیر قرار نگرفته بودند. ⚡️ نتیجه این تغییرات: باعث شده بود Claude در بعضی سناریوها کم‌هوش‌تر، فراموش‌کارتر یا تکراری‌تر به نظر برسد؛ مخصوصاً در کارهای کدنویسی و جلسات طولانی. Anthropic می‌گوید همه این مشکلات تا ۲۰ آوریل در نسخه v2.1.116 برطرف شده و برای جبران، محدودیت مصرف همه مشترکان را هم ریست کرده است. ✅واحد هوش مصنوعی مؤسسه مصاف 🆔 @MasafAi
الجزیره: ویدیوهای لگویی ایرانی در رقابت روایت‌ها درباره ترامپ توجه گسترده جلب کردند وب‌سایت شبکه الجزیره در یادداشتی با عنوان «انتقام برای همه» گزارش داده است: 🔹 ویدیوهای ایرانی ساخته‌شده با هوش مصنوعی و در سبک لگو، با ترکیب طنز، عناصر فرهنگ عامه و روایت‌های ساده، به‌سرعت در شبکه‌های اجتماعی منتشر شده و مخاطبان زیادی را به خود جذب کرده‌اند. این ویدیوها تصویری انتقادی از ترامپ و سیاست‌های ایالات متحده ارائه می‌کنند. 🔹 این محتواها که معمولاً همزمان با رویدادهای مرتبط با جنگ و با سرعت بالا تولید می‌شوند، «میلیون‌ها بازدید» داشته‌اند و با پیوند دادن جنبه‌های سرگرمی و پیام‌محور، به یکی از ابزارهای اثرگذار در شکل‌دهی افکار عمومی و رقابت روایت‌ها در فضای رسانه‌ای جهانی تبدیل شده‌اند. ✅واحد هوش مصنوعی مؤسسه مصاف 🆔 @Masaf_Ai