eitaa logo
#هوش مصنوعی
1.3هزار دنبال‌کننده
637 عکس
587 ویدیو
11 فایل
آشنایی با هوش مصنوعی لازمه زندگی آینده. تقی زاده لینگ گروه فلسفه روابط من https://eitaa.com/joinchat/2498822164C5044b2ea30 لینک کانال یادداشت های فلسفه روابط https://eitaa.com/yaddasht_fr کانال هوش مصنوعی https://eitaa.com/science_ai ارتباط @alit54
مشاهده در ایتا
دانلود
📝 شورای غول‌های فناوری برای توسعه «هوش مصنوعی مسئول» شرکت‌های ، ، ، و دیگر شرکت‌های بزرگ فناوری به کنسرسیوم ایالات متحده می‌پیوندند تا «هوش مصنوعی مسئول» را ارتقاء دهند. این گروه روی اجرای اقدامات مورد اشاره در فرمان اجرایی اخیر جو بایدن، رئیس جمهور آمریکا کار خواهد کرد. به گزارش ایسنا، مجموعه کاملی از شرکت‌های بزرگ دنیای فناوری شامل ۲۰۰ شرکت در قالب یک کنسرسیوم به تلاش‌های ایالات متحده برای پیشبرد شیوه‌های مسئولانه پیوسته‌اند. کنسرسیوم مؤسسه ایمنی هوش مصنوعی ایالات متحده(AISIC) شرکت‌های متا، گوگل، مایکروسافت و اپل را به عنوان اعضای خود می‌بیند. ریموندو در بیانیه‌ای گفت: دولت ایالات متحده نقش مهمی در تنظیم استانداردها و توسعه ابزارهای مورد نیاز برای کاهش خطرات و استفاده از پتانسیل عظیم هوش مصنوعی دارد. فرمان اجرایی بایدن که در ماه اکتبر ۲۰۲۳ صادر شد، شامل موارد گسترده‌ای بود. بنابراین این کنسرسیوم روی توسعه دستورالعمل‌هایی برای «رد تیمینگ» (Red-teaming)، ارزیابی قابلیت‌ها، مدیریت خطر، ایمنی و امنیت و واترمارک کردن محتوای تولید شده توسط هوش مصنوعی تمرکز خواهد کرد. رد تیمینگ یک اصطلاح در امنیت سایبری است که به دوران جنگ سرد باز می‌گردد و به شبیه‌سازی‌هایی اشاره دارد که در آن دشمن «تیم قرمز» نامیده می‌شود. در شرایط کنونی، دشمن یک هوش مصنوعی در نظر گرفته می‌شود که می‌تواند بد رفتار کند. @science_ai
✍🏻توافق‌نامه غول‌های فناوری برای جلوگیری از انتشار انتخاباتی معرفی شد 20 شرکت حوزه فناوری توافق‌نامه جدیدی را امضا کرده‌اند که هدف آن جلوگیری از انتشار دیپ‌فیک‌های مربوط به انتخابات سال 2024 است که در بیش از 40 کشور جهان برگزار می‌شود. OpenAI، ، ، ، و ازجمله شرکت‌های امضاکننده این طرح هستند. شرکت‌های امضاکننده آن با هشت تعهد زیر موافقت کرده‌اند: • توسعه و اجرای فناوری برای کاهش خطرات مربوط به محتوای انتخاباتی فریبنده ، ازجمله ابزارهای متن‌باز • ارزیابی مدل‌ها در محدوده این توافق‌نامه برای درک خطراتی که ممکن است در مورد محتوای انتخابی فریبنده هوش مصنوعی ایجاد کنند • شناسایی توزیع‌کنندگان این محتواها • رسیدگی مناسب به محتواهای شناسایی‌شده • تقویت انعطاف‌پذیری بین‌صنعتی در برابر محتوای انتخاباتی فریبنده هوش مصنوعی • ارائه شفافیت برای عموم در مورد نحوه برخورد شرکت با این دسته از محتوا • ادامه همکاری با مجموعه متنوعی از سازمان‌های جامعه مدنی جهانی و دانشگاهیان • حمایت از تلاش‌ها برای تقویت آگاهی عمومی، سواد رسانه‌ای و تاب‌آوری کل جامعه @science_ai
✍ناکارآمدی مدل تولیدکننده Sora باعث ناکارآمدی آن در فهم چگونگی کار دنیای فیزیکی و کارآمد آن خواهد شد. 🟣هفته گذشته، OpenAI با معرفی مدل Sora که براساس می‌تواند بسازد، بحث‌های فراوانی را ایجاد کرد. 🟣اما «یان لی‌کان» (Yann Lecun)، دانشمند ارشد هوش مصنوعی که هم‌اکنون در مشغول به فعالیت است، عقیده دارد این همه هیجان برای مدل متن به ویدیو هیچ‌وپوچ است و این مدل در تحقق اهداف ادعا‌شده توسط OpenAI شکست می‌خورد. 🔴به‌طور خلاصه، لی‌کان از این ادعای OpenAI انتقاد کرده است که Sora در نهایت ساخت «شبیه‌سازهای همه‌منظوره از دنیای فیزیکی» را ممکن می‌کند. 🗣او می‌گوید که رویکرد OpenAI برای ساخت یک «شبیه‌ساز دنیا» مطلقاً اشتباه است.کمپانی متا در یک پست بلاگ اعلام کرده که «برخلاف رویکردهای تولیدگر که تلاش می‌کنند هر پیکسل گم‌شده‌ای را پر کنند، V-JEPA این انعطاف را دارد که اطلاعات پیش‌بینی‌ناپذیر را حذف کند، که تمرین و کارایی نمونه را بین ۱٫۵ تا ۶ برابر بهبود می‌دهد.» https://eitaa.com/science_ai
🔸️شرکت متا از ماه دیگر ویدئوها، تصاویر و صداهای تولید‌شده توسط هوش مصنوعی را با یک برچسب مشخص می‌کند. 🌐https://eitaa.com/science_ai
با برچسب «Made with AI» قصد دارد به‌جای حذف این محتواهای محبوب، زمینه‌ای جدید برای انتشار آن‌ها فراهم کند. متا مدتی پیش اعلام کرد که اگر محتواهای آپلودشده در ، و توسط هوش مصنوعی ساخته شده باشند، برچسب‌گذاری می‌شوند. 🔴 حالا این شرکت درحال به‌روزرسانی خط‌مشی خود درباره محتواهای تولیدشده توسط هوش مصنوعی است و از ماه می (اردیبهشت ماه) با برچسب «Made with AI» آن‌ها را مشخص خواهد کرد. 🔴این خط‌مشی برای محتواهای اینستاگرام، فیسبوک و تردز اعمال می‌شود.متا در خط‌مشی جدید به‌جای حذف محتواهای متنوع هوش مصنوعی، قصد دارد با اضافه‌کردن برچسب به آن‌ها، زمینه‌ای جدید برای انتشار این محتواهای محبوب فراهم کند. 🗣البته همچنان محتواهایی با موضوعات ضدقانونی مانند آزار و اذیت و منع افراد از رأی‌دادن حذف خواهند شد. 🌐https://eitaa.com/science_ai
Llama 3 را معرفی کرده است ، نسل بعدی از پیشرفته ترین مدل زبان بزرگ منبع باز (LLM). این غول فناوری ادعا می کند که Llama 3 معیارهای عملکرد جدیدی را ایجاد می کند و از های پیشرو صنعت قبلی مانند GPT-3.5 در سناریوهای دنیای واقعی پیشی می گیرد. 🟣متا در یک پست وبلاگی که انتشار آن را اعلام کرد، گفت: «با Llama 3، ما تصمیم گرفتیم بهترین مدل‌های باز را بسازیم که همتراز با بهترین مدل‌های اختصاصی موجود هستند. 🔴مدل های اولیه Llama 3 که در حال بازگشایی هستند، نسخه های 8 میلیارد و 70 میلیاردی هستند. متا می‌گوید که تیم‌هایش همچنان در حال آموزش مدل‌های بزرگتر از 400 میلیارد+ هستند که در ماه‌های آینده منتشر خواهند شد، همراه با مقالات تحقیقاتی جزئیات کار. 🗣همچنینLlama 3 بیش از دو سال با منابع قابل توجهی که به جمع آوری داده های آموزشی با کیفیت بالا، افزایش مقیاس آموزش توزیع شده، بهینه سازی معماری مدل و رویکردهای نوآورانه برای تنظیم دقیق دستورالعمل ها اختصاص داده شده است، ساخته شده است. 🌐https://eitaa.com/science_ai
دومین نسخه از Segment Anything یا SAM 2 توسط منتشر شد! مدل SAM یک مدل بنیادین برای بخش‌بندی (Segmentation) تصاویرست که می‌تواند با دریافت یک به صورت نقطه یا Bounding Box هر موجودیتی را در تصویر، سگمنت کند. نسخه‌ی دوم علاوه بر تصویر، از ویدئو هم با سرعت ۶ برابر (۴۴ فریم-بر-ثانیه - مناسب کاربردهای بی‌درنگ) و عمل‌کردی حیرت‌انگیز پشتیبانی می‌کند. وزن‌های مدل، کد و مجموعه‌داده‌ی SA-V، به‌صورت کاملا اوپن‌سورس‌ و تحت یک لیسانس Apache 2 permissive منتشر شده‌اند. بلاگ‌پست معرفی: https://ai.meta.com/blog/segment-anything-2/ دمو: https://sam2.metademolab.com/ نوت‌بوک: https://colab.research.google.com/github/roboflow-ai/notebooks/blob/main/notebooks/how-to-segment-images-with-sam-2.ipynb 🌐https://eitaa.com/science_ai