2.1M حجم رسانه بالاست
مشاهده در ایتا
🎥 در Gemini 3.1 میتوانید با یک پرامپت متنی، انیمیشنهای SVG آمادهی استفاده در وبسایت تولید کنید:
◾این انیمیشنهای SVG بهجای پیکسل، کاملاً با کدنویسی ساخته میشوند؛ یعنی:
🔹 در هر سایزی کاملاً شارپ و بدون افت کیفیت
🔹 حجم بسیار کمتر نسبت به ویدئوهای سنتی
🔹 ایدهآل برای وبسایتهای سریع و بهینه
زاکربرگ در دادگاه: وقتی «طراحی» اینستاگرام متهم ردیف اول میشود!
چند روز پیش (۱۸ فوریه ۲۰۲۶)، مارک زاکربرگ، مدیرعامل متا، در یکی از دادگاههای لسآنجلس حاضر شد تا به پرسشی پاسخ دهد که سالهاست خانوادهها را درگیر کرده است؛ اما این بار پای قانون در میان است:
«آیا شبکههای اجتماعی طوری طراحی شدهاند که به روان نوجوانان آسیب بزنند؟»
این پرونده که علیه شرکت «متا» (مالک اینستاگرام، فیسبوک و واتساپ) تشکیل شده، بخشی از یک موج بزرگ شکایت در آمریکاست. خانوادههایی که از متا شکایت کردهاند، میگویند استفاده مداوم از اینستاگرام باعث شده فرزندان نوجوانشان درگیر اضطراب، افسردگی، نارضایتی از ظاهر خود و حتی رفتارهای خودآزاری شوند. دادگاه فعلاً چند مورد از این شکایتها را به عنوان «پروندههای نمونه» بررسی میکند تا تکلیف صدها و شاید هزاران شکایت مشابه دیگر روشن شود.
🔸 دعوا سر چیست؟ محتوای بد یا طراحی فریبنده؟
شاکیان میگویند مشکل اصلی فقط یک پست ناراحتکننده یا «ترولها» (افرادی که در فضای مجازی عمداً دیگران را آزار میدهند) نیستند. دعوای اصلی سر «طراحی و معماری خود برنامه» است!
خانوادهها معتقدند اینستاگرام ویژگیهایی دارد که عمداً برای معتاد کردن کاربر طراحی شدهاند؛ از جمله:
• اسکرول بیپایان (Infinite Scroll): وقتی صفحه اینستاگرام را پایین میکشید، هیچوقت به انتهای آن نمیرسید. این یعنی مغز شما نقطهی توقفی برای بستن برنامه پیدا نمیکند.
• بمباران نوتیفیکیشنها: اعلانهای پیدرپی که مدام حواس کاربر را پرت میکنند و او را مجبور میکنند دوباره به برنامه برگردد.
• سیستم پاداش متغیر: این سیستم دقیقا مثل دستگاههای قمار عمل میکند؛ شما نمیدانید چه زمانی لایک یا کامنت جدید دریافت میکنید، بنابراین برای رسیدن به این حس خوب، مدام گوشی را چک میکنید.
• الگوریتمهای تشنهی تعامل: هوش مصنوعی اینستاگرام به جای اینکه محتوای مفید به شما نشان دهد، محتوایی را پیشنهاد میدهد که شما را بیشتر در برنامه نگه دارد؛ حتی اگر آن محتوا مقایسههای سمی و آسیبزا باشد.
وکلای خانوادهها میگویند این ترفندها، کاربر را در یک چرخه تمامنشدنی گیر میاندازند. این موضوع برای نوجوانان که به شدت نیازمند تایید دیگران هستند و خودشان را با بقیه مقایسه میکنند، ضربه روانی بسیار سنگینتری به همراه دارد. جالب اینجاست که اسناد لو رفته از داخل شرکت متا نشان میدهد کارمندان خود این شرکت هم از این خطرات باخبر بودهاند، اما مدیران تغییرات اساسی برای حل آن ایجاد نکردهاند.
🔸 دفاعیات شرکت متا: ما مقصر نیستیم!
شرکت متا این اتهامات را قبول ندارد و در دادگاه چنین دفاعیاتی را مطرح کرده است:
• محدودیت سنی: ما به افراد زیر ۱۳ سال اجازه ساخت حساب کاربری نمیدهیم (هرچند تایید سن واقعی کاربران در اینترنت کار بسیار سختی است).
• ابزارهای کنترل: ما ابزارهایی در اختیار والدین گذاشتهایم تا بتوانند زمان استفاده فرزندانشان از برنامه را مدیریت و کنترل کنند.
• فقدان مدرک علمی قطعی: هنوز از نظر علمی ثابت نشده است که رابطه مستقیمی بین استفاده از شبکههای اجتماعی و بیماریهای روانی وجود دارد.
🔸 چرا این دادگاه اینقدر مهم است؟
این دادگاه فقط یک دعوای حقوقی ساده نیست، بلکه پای مفهومی به نام «اقتصاد توجه» در میان است؛ یعنی سیستم و تجارتی که در آن، شرکتها با دزدیدنِ توجه و زمان شما، پول درمیآورند.
تا پیش از این، همه در میزگردها و مقالات از بدیهای فضای مجازی میگفتند، اما حالا این نقدها وارد دادگاه شده و رنگوبوی مجازات و غرامت به خود گرفته است.
اگر دادگاه به نفع خانوادهها رای بدهد، مرزهای قانون جابهجا میشود. در این صورت، شبکههای اجتماعی دیگر نمیتوانند بگویند «ما فقط یک پلتفرم هستیم و مسئول کارهای کاربرانمان نیستیم». آنها مجبور میشوند کل ظاهر و امکانات برنامههایشان را برای نوجوانان تغییر دهند، احراز هویت را سختگیرانهتر کنند و الگوریتمهایشان را زیر نظر قانون قرار دهند.
هنوز حکم نهایی صادر نشده، اما همین که کلماتی مثل «اسکرول بیپایان» و «الگوریتم توصیهگر» به زبان رسمی قاضی و دادگاه باز شده، نشان میدهد دوران فرار از زیر بار مسئولیت برای غولهای فناوری رو به پایان است.
سوال نهایی ساده است، اما پاسخش میتواند مسیر دنیای تکنولوژی را تغییر دهد:
آیا میتوان اپلیکیشنی که برای دزدیدن توجه ما طراحی شده را بیطرف و بیخطر دانست؟
هوش مصنوعی داکداکگو حالا تصاویر را هم ویرایش میکند
🔸چتبات متمرکز بر حریم خصوصی Duck.ai امکان ویرایش تصاویر را اضافه کرد.
◾برای کار با قابلیت یادشده، باید ابتدا گزینهی New Image را از منوی کناری انتخاب کنید. در مرحلهی بعد کافی است روی دکمهی Start with an image ضربه بزنید یا فایل مدنظرتان (با فرمت JPEG و JPG و PNG یا WebP) را درون کادر پیام بکشید. سپس تغییرات دلخواهتان را در قالب متن توصیف کنید؛ مدل هوش مصنوعی OpenAI بقیهی کارها را پیش میبرد.
◾توسعهدهندگان داکداکگو تأکید میکنند که درست مانند ابزار ساخت عکس، تمام متادیتای تصویر و آدرس IP کاربر پیشاز ارسالِ دستور برای OpenAI، پاک میشوند.
◾داکداکگو، رویکرد جذاب دیگری را نیز برای محافظت از اطلاعات افراد به کار میگیرد. به گفتهی تیم توسعه، «عکسهای آپلود شده بهصورت محلی روی دستگاه ذخیره خواهند شد» تا امنیت اطلاعاتِ اشخاص بیشازپیش تضمین شود.
🟠 انقلاب هوش مصنوعی و عملیاتهای آینده
(بخش اول)
آیا میدان نبرد و جاسوسی تغییر کرده است؟
🔹امروزه هوش مصنوعی دیگر فقط یک فناوری کمکی نیست. این تکنولوژی به یکی از ارکان اصلی تصمیمگیری در عملیاتهای نظامی و جاسوسی تبدیل شده است.
🔸ارتشها و سرویسهای اطلاعاتی با بهرهگیری از هوش مصنوعی توانستهاند دادههای پیچیده را در زمانهای بسیار کوتاه تحلیل کرده و پیشبینیهای دقیقی ارائه دهند.
این تغییرات میتواند مرز میان ابزار و عامل را در عملیاتهای جاسوسی و جنگی بهطور کامل از بین ببرد.
⬇️ سه سطح اصلی استفاده از هوش مصنوعی در عملیاتها
◾سطح دادهها: پایان انباشت بیهدف
در گذشته، چالش اصلی، حجم عظیم دادهها، مانند تصاویر ماهوارهای و گزارشهای شنود بود. اما اکنون در این سطح، هوش مصنوعی بهطور خودکار دادهها را فیلتر کرده و اطلاعات عملیاتی را در کسری از ثانیه در دسترس تحلیلگران قرار میدهد.
این روش سرعت جمعآوری اطلاعات را بهطور قابل توجهی افزایش میدهد و فرآیندهای معمولی را سرعت میبخشد.
◾سطح تحلیل: پیشگویی بر اساس احتمالات
در این مرحله، هوش مصنوعی وارد عرصه تحلیل و پیشبینی میشود. AI میتواند با شبیهسازی سناریوهای مختلف، احتمالات وقوع بحران یا حمله را محاسبه کند.
این محاسبات به فرماندهان و تحلیلگران این امکان را میدهد که با اطلاعات دقیقتر و جامعتر، تصمیمات استراتژیک بگیرند.
◾سطح خودمختاری: حذف انسان از حلقه تصمیمگیری
در این سطح، هوش مصنوعی میتواند خودمختار تصمیم بگیرد. نمونهای از آن پهپادهایی هستند که هدف میگیرند یا سیستمهای خودمختاری که بدون دخالت انسان، عملیاتها را هدایت میکنند.
go-elmi92.pdf
حجم:
2.5M
◾بخوانید:دانشمندان با استفاده از هوش مصنوعی، روش جدیدی برای تبدیل افکار به متن ابداع کردهاند که دیگر نیازی به ساعتها اسکن مغزی و آموزش طولانیمدت ندارد.
◾این فناوری با بهرهگیری از اسکن مغزی سریع و الگوریتمهای پیشرفته میتواند افکار فرد را بهصورت تقریبی به متن تبدیل کند.
◾دستاورد مورد اشاره میتواند به افراد مبتلا به آفازی (اختلال در تکلم) کمک کند تا بهراحتی با دیگران ارتباط برقرار کرده و افکار خود را بیان کنند.
◾نکته جالب اینجاست که سیستم مذکور حتی با استفاده از تصاویر بیصدا نیز قادر است افکار فرد را رمزگشایی کند؛ موضوعی که نشاندهنده ارتباط عمیق میان بازنمایی ایدهها از طریق زبان و روایتهای بصری در مغز است.
ترامپ: تایوان تجارت تراشهسازی ما را دزدیده است!
رئیسجمهور آمریکا میگوید تایوان تجارت تراشهسازی را از ایالات متحده «دزدیده» است و میخواهد آن را پس بگیرد.
اختلاف دولت ترامپ با تایوان بر سر انتقال تجهیزات تولید تراشه به خاک آمریکا چیز تازهای نیست. ترامپ بارها در صحبتهای قبلیاش اشاره کرده بود که TSMC باید تجهیزات پیشرفتهی تراشهسازی خود را به آمریکا منتقل کند؛ موضوعی که بارها با مقاومت مقامات تایوانی همراه شد.
مدیران TSMC پیشتر تأکید کرده بودند که پیشرفتهترین فرآیند و تجهیزات ساخت تراشه باید در خاک تایوان باقی بماند و تراشههایی که در کارخانههای TSMC در آمریکا تولید میشوند، حداقل یک نسل عقبتر از تراشههایی باشند که در تایوان به تولید میرسند.
ترامپ موضعگیری تایوانیها را نمیپذیرد و آنها را به وضع تعرفههای جدید تهدید میکند. تایوان متحد آمریکا است؛ اما نزدیکیاش به چین و احتمال حملهی آن کشور به تایوان همواره محل نگرانی مقامات آمریکایی بوده است.
چین با وجود تحریمهای سنگین ایالات متحده در حوزهی تراشهسازی به پیشرفتهای ملموسی رسیده ؛ اما همچنان در رقابت با پیشرفتهترین پردازندههای تولیدی TSMC حرفی برای گفتن ندارد.
تبعیض پنهان چتباتها: هوش مصنوعی به کاربران ایرانی پاسخهای ضعیفتری میدهد
🔹 پژوهش دانشگاه MIT نشان میدهد مدلهای زبانی بزرگ مانند GPT-4، Claude 3 Opus و Llama 3 گاهی به کاربران با تسلط کمتر به انگلیسی، تحصیلات پایینتر یا خارج از آمریکا پاسخهای ضعیفتر و غیرواقعیتر میدهند.
🔹 این آزمایشها نشان داده دقت پاسخها برای کاربران غیرانگلیسیزبان و دارای تحصیلات کمتر، بهطور قابلتوجهی کاهش می یابد. عملکرد Claude 3 Opus برای کاربران اهل ایران در هر دو مجموعه داده به شکل معناداری ضعیفتر بود. این مدل همچنین از پاسخ دادن به سؤالات این کاربران -بیشترین از سایرین-خودداری کرده است.
🔹 مدل Claude در برخی موارد لحنی تحقیرآمیز داشته یا انگلیسی شکسته را تقلید کرد. همچنین از ارائه اطلاعات درباره موضوعاتی مانند انرژی هستهای و مباحث تاریخی برای کاربران ایرانی یا روسی با تحصیلات پایین خودداری کرد. پژوهشگران هشدار داده اند قابلیتهای شخصیسازی میتواند خطر رفتار تبعیضآمیز را افزایش دهد.