مرد پشت AlphaGo معتقد است هوش مصنوعی در مسیر اشتباه قدم گذاشته است 🚦🤖
دِیوید سیلور، مغز متفکر پشت AlphaGo و یکی از تاثیرگذارترین پژوهشگران هوش مصنوعی، معتقد است مسیر امروز صنعت AI اشتباه است. 🚦 سیلور که در سال ۲۰۱۶ با ساخت AlphaGo نخستین جرقههای «فراهوش» را به جهان نشان داد، اکنون با تأسیس شرکت جدیدش Ineffable Intelligence رویکردی متفاوت را دنبال میکند: ساخت AI از مسیر یادگیری تقویتی، نه متکی بر مدلهای زبانی بزرگ. به گفته او، LLMها فقط از هوش انسانی تغذیه میشوند، در حالی که سیستمهای یادگیرندهٔ مستقل میتوانند «بینهایت یاد بگیرند» و به نوعی سوخت تجدیدپذیر هوش تبدیل شوند. 🔁
سیلور میگوید هدفش ساخت «سوپر یادگیرندههایی» است که بتوانند به تنهایی علم، فناوری یا حتی سیستمهای اقتصادی جدید کشف کنند. او این مسیر را «اولین تماس با فراهوش» مینامد و معتقد است پروژههایی که صرفاً بر LLMها تکیه میکنند، هرگز به چنین نقطهای نمیرسند. نمونهای که میزند ساده است: اگر یک LLM را در دنیایی با باور «زمین تخت» رها کنیم، بدون تعامل با واقعیت، همان باور غلط را تا ابد حفظ میکند. 🌍
شرکت جدید او تاکنون ۱.۱ میلیارد دلار سرمایه اولیه با ارزشگذاری ۵.۱ میلیارد دلاری جذب کرده و پژوهشگران مطرحی از DeepMind و شرکتهای دیگر به او پیوستهاند. سیلور همچنین اعلام کرده تمام درآمد احتمالی خود از سهام شرکت را به خیریه اهدا خواهد کرد: «ساخت فراهوش مسئولیت بزرگی است و هر پولی که به دست بیاورم باید صرف نجات جان انسانها شود.» ❤️🩹
مسیر او بر ایجاد عاملهای هوشمند درون شبیهسازیهای پیچیده است؛ جایی که بتوان رفتار عاملها، همکاری، رقابت و سازگاری آنها را مشاهده و ارزیابی کرد. برخی سرمایهگذاران، از جمله Ravi Mhatre، معتقدند این رویکرد مزیت مهمی برای ایمنی دارد، چون به جای تقلید رفتار انسان، از صفر یاد میگیرد و ممکن است سازگاری بیشتری با ارزشهای انسانی داشته باشد.
سیلور ریشه دیدگاهش را در سنت قدیمی یادگیری از تجربه میبیند—همان مسیری که آلن تورینگ و سپس ریچ ساتن و اندرو بارتو بنیان گذاشتند و برایش جایزه تورینگ ۲۰۲۵ اهدا شد. او اعتقاد دارد یادگیری تقویتی همان کلید واقعی ساخت فراهوش است، نه مدلهایی که تنها انبوهی از متن انسانها را میبلعند.
در حالی که تب ساخت فراهوش به اوج رسیده و شرکتها میلیاردها دلار برای آن هزینه میکنند، بسیاری باور دارند که سیلور—بهدلیل سابقهٔ علمی بینقص و شخصیت فروتنش—میتواند بهترین استعدادهای جهان را گرد هم بیاورد. «او بسیار باهوش، خلاق و در عین حال واقعاً آدم خوبی است. این برای پژوهشگران اهمیت زیادی دارد.» 🌟
برای سیلور اما انگیزه اصلی چیز دیگری است:
«از نظر علمی، این مهمترین مأموریتی است که ممکن است بشر در آن قدم بگذارد.»
✅واحد هوش مصنوعی مؤسسه مصاف
🆔@Masaf_Ai
مرد پشت AlphaGo معتقد است هوش مصنوعی در مسیر اشتباه قدم گذاشته است 🚦🤖
دیوید سیلور، خالق AlphaGo، معتقد است صنعت هوش مصنوعی در مسیر اشتباهی حرکت میکند؛ او برخلاف موج غالب مدلهای زبانی بزرگ، باور دارد فراهوش واقعی نه از دل دادههای انسانی، بلکه از طریق یادگیری تقویتی و تجربه مستقیم در شبیهسازیها بهدست میآید—سیستمهایی که بتوانند خودشان کشف کنند، آزمایش کنند و بیوقفه یاد بگیرند. شرکت تازهتأسیس او، Ineffable Intelligence، با جذب بیش از یک میلیارد دلار سرمایه، قصد دارد «اولین تماس با فراهوش» را رقم بزند؛ مأموریتی که به گفته سیلور میتواند آینده علم و فناوری را بازتعریف کند. اما چرا او معتقد است LLMها هرگز به این نقطه نمیرسند؟ و این رویکرد چه پیامدهایی برای ایمنی و آینده AI دارد؟
🔎 جزئیات کامل این گزارش را در ادامه بخوانید 👇
✅واحد هوش مصنوعی مؤسسه مصاف
🆔@Masaf_Ai
📰 « دیتاسنترهای هوش مصنوعی؛ وقتی هوش مصنوعی به مسئله قبض برق و انتخابات تبدیل میشود ⚡️🤖🗳»
🤖 به گزارش Politico، رشد سریع دیتاسنترهای هوش مصنوعی در ایالتهایی مثل جورجیا دیگر فقط یک موضوع فناورانه نیست؛ به یک مسئله جدی سیاسی و اقتصادی تبدیل شده است.
این مراکز برای اجرای مدلهای هوش مصنوعی به برق عظیم و دائمی نیاز دارند و حالا رأیدهندگان میپرسند:
آیا هزینه توسعه این زیرساختها در نهایت روی قبض برق خانوادهها مینشیند؟ 💸⚠️
📌 همین نگرانی باعث شده:
موضوع دیتاسنترها وارد فضای انتخابات میاندورهای ۲۰۲۶ شود؛ جایی که بحث اصلی فقط «پیشرفت هوش مصنوعی» نیست، بلکه این است که چه کسی هزینه انرژی این پیشرفت را پرداخت میکند؟
جزئیات بیشتر درباره فشار روی شبکه برق و سیاست انرژی را در پست بعدی بخوانید 👇
✅واحد هوش مصنوعی مؤسسه مصاف
🆔@Masaf_Ai
📰 « دیتاسنترهای هوش مصنوعی؛ وقتی هوش مصنوعی به مسئله قبض برق و انتخابات تبدیل میشود ⚡️🤖🗳»
⚡️ حالا که مسئله روشن شد، بخش مهمتر ماجرا این است:
هوش مصنوعی بدون انرژی ارزان و پایدار رشد نمیکند.
دیتاسنترهای جدید فقط چند ساختمان پر از سرور نیستند؛ آنها مصرفکنندههای عظیم برقاند که میتوانند برنامهریزی انرژی یک ایالت را تغییر دهند. در جورجیا، نهاد تنظیمگر برق طرحی برای حدود ۱۰ گیگاوات ظرفیت برق جدید تأیید کرده؛ ظرفیتی که گزارشها آن را معادل برق موردنیاز حدود ۸.۳ میلیون خانه دانستهاند و بخش زیادی از آن قرار است از سوختهای فسیلی تأمین شود.
💸 همینجا نگرانی مردم شروع میشود:
اگر شرکتهای بزرگ فناوری برای دیتاسنترهای هوش مصنوعی برق بیشتری بخواهند، آیا هزینه نیروگاه، خطوط انتقال و توسعه شبکه را خودشان میدهند یا این هزینه بین همه مشترکان پخش میشود؟ منتقدان میگویند در جورجیا، ساخت نیروگاههای جدید میتواند به نفع شرکت برق باشد، چون سرمایهگذاری بیشتر برای شرکت خدمات عمومی به معنی سود بیشتر است؛ اما برای مردم، نتیجه ممکن است قبض برق بالاتر باشد.
🔥 این موضوع برای دموکراتها به یک فرصت انتخاباتی تبدیل شده است:
آنها میخواهند دیتاسنترهای هوش مصنوعی را به مسئلهای ملموس برای رأیدهنده تبدیل کنند:
نه بحث پیچیده فناوری، بلکه سؤال سادهای مثل این:
چرا خانوادهها باید هزینه برقِ پروژههای غولهای فناوری را بدهند؟
در همین فضا، AP هم گزارش داده که نارضایتی از دیتاسنترها و نرخ برق میتواند به دموکراتهای جورجیا کمک کند، چون مسئله از سطح «توسعه فناوری» به سطح هزینه زندگی آمده است.
دیتاسنترهای هوش مصنوعی قرار است ستون فقرات اقتصاد آینده باشند؛
اما اگر انرژی آنها گران، آلاینده یا ناعادلانه تأمین شود، میتوانند به یک بحران سیاسی تبدیل شوند.
💥 یعنی جنگ بعدی بر سر هوش مصنوعی فقط در آزمایشگاهها و شرکتهای فناوری نیست؛
بخشی از آن روی شبکه برق، قبض خانهها و صندوق رأی اتفاق میافتد.
✅واحد هوش مصنوعی مؤسسه مصاف
🆔@Masaf_Ai
📰 «شرکت Anthropic علت افت کیفیت Claude Code را توضیح داد؛ سه تغییر کوچک، یک اختلال بزرگ ⚠️🤖»
🤖 به گزارش Anthropic، افت کیفیتی که برخی کاربران در Claude Code گزارش کرده بودند، به سه تغییر جداگانه برمیگشت:
• کاهش سطح پیشفرض Reasoning Effort برای کم کردن تأخیر
• یک باگ در مدیریت حافظه جلسات قدیمی
• یک تغییر در System Prompt برای کوتاهتر کردن پاسخها
نکته مهم این است که به گفته آنتروپیک، API و لایه اصلی Inference تحتتأثیر قرار نگرفته بودند.
⚡️ نتیجه این تغییرات:
باعث شده بود Claude در بعضی سناریوها کمهوشتر، فراموشکارتر یا تکراریتر به نظر برسد؛ مخصوصاً در کارهای کدنویسی و جلسات طولانی. Anthropic میگوید همه این مشکلات تا ۲۰ آوریل در نسخه v2.1.116 برطرف شده و برای جبران، محدودیت مصرف همه مشترکان را هم ریست کرده است.
✅واحد هوش مصنوعی مؤسسه مصاف
🆔 @MasafAi
الجزیره: ویدیوهای لگویی ایرانی در رقابت روایتها درباره ترامپ توجه گسترده جلب کردند
وبسایت شبکه الجزیره در یادداشتی با عنوان «انتقام برای همه» گزارش داده است:
🔹 ویدیوهای ایرانی ساختهشده با هوش مصنوعی و در سبک لگو، با ترکیب طنز، عناصر فرهنگ عامه و روایتهای ساده، بهسرعت در شبکههای اجتماعی منتشر شده و مخاطبان زیادی را به خود جذب کردهاند. این ویدیوها تصویری انتقادی از ترامپ و سیاستهای ایالات متحده ارائه میکنند.
🔹 این محتواها که معمولاً همزمان با رویدادهای مرتبط با جنگ و با سرعت بالا تولید میشوند، «میلیونها بازدید» داشتهاند و با پیوند دادن جنبههای سرگرمی و پیاممحور، به یکی از ابزارهای اثرگذار در شکلدهی افکار عمومی و رقابت روایتها در فضای رسانهای جهانی تبدیل شدهاند.
✅واحد هوش مصنوعی مؤسسه مصاف
🆔 @Masaf_Ai
چشم در جلوی چشم
پالایشگاه هایی که باید دوباره ساخته شود 🥷🪖
پالایشگاه باپکو در بحرین
ظرفیت ۲۶۷ هزار بشکه در روز
ارزش ۶ ملیارد دلار
یکی از مدرن ترین پالایشگاه ها در منطقه
--------------
على مرأى ومسمع من الجميع... مصافٍ تحتاج إلى إعادة البناء 🥷🪖
مصفاة "بابكو" في البحرين
· طاقة إنتاجية: 267 ألف برميل يومياً
· قيمتها: 6 مليارات دولار
· واحدة من أحدث المصافي في المنطقة
✅واحد هوش مصنوعی مؤسسه مصاف
🆔 @Masaf_Ai
49M حجم رسانه بالاست
مشاهده در ایتا
🔸 Heroic Battle animation
▫️انیمیشن کوتاه «نبرد قهرمانانه»
🇮🇷از دل افسانه، مردی برخاست که تیرش مرزهای هراس را درنوردید.
قرنها گذشته است، اما مسیر همان مسیر است.
قدرت جوانان این سرزمین نه تنها در بازوان، بلکه در اراده، غیرت و ایستادگی آنان جلوهگر است.
💢سرنوشت این نبرد را ما رقم خواهیم زد…
✅واحد هوش مصنوعی مؤسسه مصاف
🆔 @Masaf_Ai
📰 روایت چین از رقابت جهانی هوش مصنوعی
به گزارش Global Times، رقابت در حوزه هوش مصنوعی به یکی از مهمترین محورهای رقابت قدرتهای جهانی تبدیل شده و چین تأکید دارد که توسعه AI باید بهصورت «همکاریمحور» و نه تقابلی پیش برود 🌐🤖.
مقامات چینی اعلام کردهاند که این کشور بهدنبال گسترش همکاریهای بینالمللی در حوزه فناوری است و نباید AI به ابزاری برای فشار سیاسی یا محدودسازی تبدیل شود ⚖️.
این موضعگیری در شرایطی مطرح میشود که محدودیتهای آمریکا علیه شرکتهای فناوری چینی افزایش یافته و رقابت تکنولوژیک دو کشور وارد مرحله جدیدی شده است ⚡.
تحلیلگران معتقدند این اختلاف دیدگاه میتواند آینده نظم جهانی در حوزه فناوری را شکل دهد 📊.
🔎 جزئیات کامل این گزارش را در ادامه بخوانید 👇
✅واحد هوش مصنوعی مؤسسه مصاف
🆔 @Masaf_Ai
📰 هوش مصنوعی در قلب رقابت ژئوپولیتیک؛ اختلاف رویکرد چین و غرب
گزارش Global Times نشان میدهد چین در تلاش است روایتی متفاوت از رقابت در حوزه هوش مصنوعی ارائه دهد؛ روایتی که بر همکاری بینالمللی و توسعه مشترک فناوری تأکید دارد 🌐.
📌 مقامات این کشور معتقدند استفاده از AI بهعنوان ابزار فشار سیاسی یا محدودسازی دسترسی، میتواند به تضعیف نوآوری جهانی و افزایش شکاف فناوری منجر شود.
🤖 این در حالی است که ایالات متحده در سالهای اخیر با اعمال محدودیتهای گسترده، از جمله در حوزه چیپها و صادرات فناوری، تلاش کرده رشد شرکتهای چینی را کنترل کند.
⚠️ در پاسخ، چین بهدنبال توسعه زنجیره تأمین مستقل و کاهش وابستگی به فناوریهای غربی است؛ اقدامی که میتواند به شکلگیری دو اکوسیستم مجزا در حوزه AI منجر شود.
📊 تحلیلگران معتقدند این روند، رقابت در حوزه AI را از سطح تجاری به سطح استراتژیک و امنیتی منتقل کرده است.
🌍 در صورت ادامه این مسیر، جهان ممکن است با یک «دو قطبی فناوری» مواجه شود که در آن استانداردها، پلتفرمها و حتی جریان دادهها از هم جدا خواهند شد.
⚠️ این شکاف میتواند همکاریهای بینالمللی را کاهش داده و سرعت پیشرفت فناوری را در برخی حوزهها محدود کند.
✅واحد هوش مصنوعی مؤسسه مصاف
🆔 @Masaf_Ai
📰 متا پس از اخراجها، دادههای کارمندانش را وارد آموزش AI کرد
به گزارش New York Magazine، شرکت Meta پس از موج تعدیل نیرو، از دادهها و فعالیتهای داخلی کارمندان خود برای آموزش سیستمهای هوش مصنوعی استفاده کرده است 🤖⚡.
این اقدام در حالی انجام شده که شرکتها بهدنبال منابع داده باکیفیت برای بهبود مدلهای خود هستند و دادههای داخلی یکی از ارزشمندترین منابع محسوب میشود 💻📊.
با این حال، این موضوع نگرانیهایی درباره حریم خصوصی و نحوه استفاده از اطلاعات کارکنان ایجاد کرده است ⚠️.
کارشناسان معتقدند مرز بین دادههای سازمانی و حقوق فردی کارکنان در حال مبهمتر شدن است 🧠.
🔎 جزئیات کامل این گزارش را در ادامه بخوانید 👇
✅واحد هوش مصنوعی مؤسسه مصاف
🆔 @Masaf_Ai
📰 استفاده از دادههای داخلی برای آموزش AI؛ مرز جدید چالشهای اخلاقی
گزارش New York Magazine نشان میدهد Meta در مسیر توسعه سیستمهای هوش مصنوعی خود، به استفاده گسترده از دادههای داخلی روی آورده است؛ دادههایی که شامل تعاملات، اسناد و فعالیتهای کاری کارکنان میشود 📊.
📌 این رویکرد پس از موج تعدیل نیرو در این شرکت شدت گرفته و هدف آن، بهبود عملکرد مدلهای AI از طریق دسترسی به دادههای واقعی و ساختاریافته عنوان شده است.
🤖 دادههای سازمانی معمولاً از کیفیت بالاتری نسبت به دادههای عمومی برخوردارند و میتوانند به مدلها کمک کنند تا درک دقیقتری از رفتارها و فرآیندهای انسانی داشته باشند.
⚠️ با این حال، این اقدام نگرانیهای جدی درباره حریم خصوصی، رضایت کارکنان و نحوه استفاده از اطلاعات شخصی ایجاد کرده است؛ بهویژه در شرایطی که مرز بین دادههای کاری و شخصی همیشه شفاف نیست.
🏢 برخی تحلیلگران معتقدند این روند میتواند به یک الگوی جدید در صنعت تبدیل شود، جایی که شرکتها از منابع داده داخلی خود بهعنوان مزیت رقابتی استفاده میکنند.
🌐 در سطح کلان، این موضوع بحثهای گستردهتری درباره حقوق دیجیتال کارکنان و نیاز به چارچوبهای قانونی جدید برای استفاده از دادهها را مطرح کرده است.
📉 همچنین چنین اقداماتی میتواند بر اعتماد نیروی انسانی به شرکتها تأثیر گذاشته و روابط کاری را تحت فشار قرار دهد.
✅واحد هوش مصنوعی مؤسسه مصاف
🆔 @Masaf_Ai