eitaa logo
سوادرسانه بدر
2.2هزار دنبال‌کننده
3.2هزار عکس
1.4هزار ویدیو
156 فایل
مجموعه رسانه ای بدر(بصیرت در رسانه) «هرکس رسانه قوی‌تر داشته باشددر اهدافی که دارد موفق‌تر خواهدبود.»امام خامنه ای-۱۴۰۳/۱/۶ گروه https://eitaa.com/joinchat/1082589243C010f2f6f64 آرشیو کنفرانسها @savad_k ارتباط با ما @ghasemi_5663 @Rasanehbadr
مشاهده در ایتا
دانلود
⭕️رونمایی چین از اولین مجری زن مصنوعی جهان با 🔹نوامبر گذشته چین اولین مرد مجری مصنوعی به نام Qiu Hao را در کنفرانس جهانی اینترنت در ووژن رونمایی کرد و امروز مدل جدید زن خبرخوان خود به نام «شین شیائوهائو» را نیز رونمایی کرد که قادر به خواندن خبر به صورت ۲۴ ساعته هستند. 💢رسانه ها به شدت در حال ترکیب شدن با انسانها هستند./پویش سواد رسانه‌ای •┈┈••••✾•🌿🌺🌿•✾•••┈┈• سواد رسانه ای نیاز هر ایرانی دوستان خود را دعوت نمایید👇 http://eitaa.com/joinchat/2011496448C2b00395a53
فعلا قابلیت پخش رسانه در مرورگر فراهم نیست
مشاهده در پیام رسان ایتا
🚦‏تصورکنید در حالیکه در هرکجای زمین هستید و به زبان فارسی صحبت می‌کنید، یک نسخه از شما همزمان در ژاپن و به زبان ژاپنی سخنرانی کنه. در این ویدیو، مایکروسافت از Azure صحبت می‌کنه که با وجود ‎هولولنز یک ‎هولوگرام در ابعاد واقعی از فرد می‌سازه! 📍عدم توجه به آینده رسانه های نوین باعث میشه آینده برای بشر ترسناک باشه! 🚩سوادزندگی جدید|سواد فضای مجازی •┈┈••••✾•🌿🌺🌿•✾•••┈┈• سواد رسانه ای نیاز هر ایرانی دوستان خود را دعوت نمایید👇 https://eitaa.com/savad_r
🔆 چرا ترکیب اخبار جعلی و هوش مصنوعی خطرناک است؟ 🔺ما در زمانی زندگی می‌کنیم که متأسفانه به طور فزاینده همه چیز آن چیزی نیست که به نظر می رسد یا آنچه که باید باشد. از زمان شکل‌گیری مفهوم اخبار جعلی، فناوری به سرعت پیشرفت کرده است. در نتیجه، ما اکنون با نمونه‌هایی از اخبار جعلی روبرو هستیم که چند ماه پیش اصلا قابل تصور نبودند. ویدئوهای دیپ فیک یکی از معضلات ترکیب هوش مصنوعی با اخبار جعلی است. 🔺 یا جعل عمیق، یک تکنیک برای ترکیب تصویر انسان مبتنی بر هوش مصنوعی است. جعل عمیق تصاویر و فیلم‌های موجود را بر روی تصاویر یا فیلم‌های منبع قرار می‌دهد. دیپ فیک فرد یا افرادی را درحال انجام یک کار در موقعیتی نشان می‌دهد که هرگز در واقعیت اتفاق نیفتاده است. هر شخصی با استفاده از هوش مصنوعی می‌تواند یک دیپ فیک بسازد و برای این کار نیازی نیست که اصلاً شخص مورد نظر جمله‌ای را ادا یا در مکان خاصی حضور پیدا کند. 🔺مورد خطرناک دیگر ربات‌های‌ دارای هستند که می توانند حقیقت را مخدوش و محتوای دروغین را جای آن، جا بزنند. وقتی این ربات‌ها هوشمندتر شوند، می‌توانند با استفاده از داده‌های موجود در دسترس عموم، صدا و دست‌خط هرکسی را تقلید کنند. 🔺 عادی، به خودی خود خطرناک است؛ حال ترکیب آن با هوش مصنوعی، آن را به مراتب خطرناک‌تر خواهد کرد. تشخیص تفاوت بین جعل و واقعیت نیز به همان مراتب دشوارتر می‌شود. ⭕️دلایل زیادی برای خطرناک بودن اخبار جعلی مجهز به هوش مصنوعی وجود دارد؛ اما برجسته‌ترین آن‌ها از نظر عضو هیئت‌علمی مؤسسه تحقیقات بلاکچین کانادا به شرح زیر است: 🔻اطلاعات و اخبار معتبر برای اداره جامعه بسیار مهم است. انسان‌ها باید در مورد عملکرد خودشان مسئول باشند؛ اما اگر از وقوع این اقدامات توسط افراد اطمینان نداشته باشیم و نتوانیم تشخیص دهیم جعل کدام است و واقعیت کدام؛ انجام این امر بسیار مشکل خواهد بود. 🔻اخبار جعلی مجهز به هوش مصنوعی نه تنها تهدیدی برای دموکراسی است‎‌‌، بلکه بازارهای مالی را نیز تهدید می‌کند. چراکه به راحتی با انتشار اخبار جعلی درباره شرکت‌ها و همچنین روند قیمت‌ها، بر بازار سهام و قیمت‌ها تاثیر می‌گذارد. 🔻مهم‌ترین عامل «بی‌حسی نسبت به واقعیت» است که بر این اساس، مردم دیگر خسته‌ شده و به اخبار هیچ‌توجهی نمی‌کنند؛ چراکه می‌دانند به هرحال بیشتر این اخبار، جعلی است و زمانی که چنین اتفاقی رخ دهد، سطح اساسی آگاهی مورد نیاز برای تحقق دموکراسی، بسیار ناپایدار خواهد بود. •┈┈••••✾•🌿🌺🌿•✾•••┈┈• مجموعه فرهنگی رسانه ای بدر(بصیرت در رسانه)👇 🔹گروه https://eitaa.com/joinchat/1082589243C010f2f6f64 🔹بایگانی نشست‌ها @savad_k 🔹کانال(ایتا و شاد) @savad_r
💢🔰 💢 در علوم انسانی-اسلامی: فرصتها و تهدیدها سخنرانان: 🔸دکتر محمدحسین بهرامی؛ 🔸دکتر مجید کافی؛ 🔸مهندس احمد ربیعی زاده، 🔸دکتر محمدرضا قاسمی؛ دبیر نشست: دکتر مهدی نصیری؛ 🗓چهارشنبه 10 خرداد 1402 از ساعت 10 الی 12 📍قم، پردیسان، پژوهشگاه حوزه و دانشگاه؛ ◀️ورود به جلسه مجازی: https://vc.rihu.ac.ir/ch/meeting2 --------------- 🔻پژوهشگاه حوزه و دانشگاه در ایتا: https://eitaa.com/rihu_ac_ir
📲افزایش سواد رسانه‌ای مخاطبان در مقابل پیشرفت پرسرعت هوش مصنوعی ، آدرس غلط دادن است!!! 🔴امروزه تکنولوژی هوش مصنوعی دارای چنان پیشرفت سرسام آوری شده است که میتوان به کمک آن حتی فرد فوت کرده‌ای را به طور تصویری زنده کرد و با تصویر او فیلمی ساخت و در آن هر حرفی زد و هر کاری کرد! سوال اساسی اینجاست که افزایش سواد رسانه‌ای کاربران فضای مجازی و تقویت تفکر انتقادی در برخورد با تولیدات رسانه‌ای ، چه مقدار میتواند آنها را از فریب‌های حرفه‌ای هوش مصنوعی در امان نگه دارد؟ ❌پاسخ چیزی نزدیک به صفر است! ⚠️چرا که هوش مصنوعی قادر به ساخت آثاری بشدت واقعی‌ست که هر چه قدر هم تفکر انتقادی و نگاه ریزبینانه‌ی مخاطبین بالا باشد ، برای تشخیص فریب آن بی‌فایده‌ است! ⭕️حداقل ۲ راهِ مقابله با هجمه‌ها و فریب‌های احتمالی هوش مصنوعی وجود دارد ؛ 1⃣ورود جدی متخصصین و نخبگان علمی کشور به این تکنولوژی و گرفتن قدرت از انحصارگران این صنعت در دنیا و ارائه‌ی الگوهایی برای شناخت فریب‌های هوش مصنوعی 2⃣احداث کامل شبکه‌ی ملی اطلاعات ✅در این راستا احداث شبکه‌ ملی اطلاعات بسیار مهم است چرا که با احداث این شبکه ، مرزهای مجازی ساماندهی خواهد شد و سو‌استفاده‌ها و فریب‌های مجازی قابلیت رصد بیشتری خواهند داشت و طبیعتا با نظارت بیشتر ، از میزان خرابکاری‌ها کاسته خواهد شد! ✍میلاد خورسندی •┈•••✾•🌾🌼🌾•✾••┈• 📲گروه https://eitaa.com/joinchat/1082589243C010f2f6f64 📲کانال http://eitaa.com/joinchat/2011496448C2b00395a53
✡️ نویسنده صهیونیست: « ادیان را اصلاح خواهد کرد» 1️⃣ ، عضو مجمع جهانی اقتصاد و استاد تاریخ دانشگاه عبری اورشلیم، گفت که در چند سال آینده می‌تواند با «بازنویسی کتاب مقدس»، ادیان را اصلاح کند! 2️⃣ وی اضافه کرد: 👈 هوش مصنوعی حتی می‌تواند یک بنویسد. در طول تاریخ، ادیان آرزوی داشتن کتابی را داشتند که توسط یک هوش فوق‌بشری، توسط غیرانسان نوشته شده باشد... هر دینی ادعا می‌کند همهٔ کتاب‌های دیگر ادیان را انسان‌ها نوشته‌اند، اما کتاب ما، نه، نه، نه، از هوش مافوق بشری آمده است. 3️⃣ او سپس یک وعدهٔ شوم داد: 👈 در چند سال آینده، ممکن است ادیانی وجود داشته باشند که واقعاً درست باشند. فقط به دینی فکر کنید که آن توسط یک هوش مصنوعی نوشته شده است. این می‌تواند چند سال دیگر به واقعیت تبدیل شود… 4️⃣ هراری مدت‌هاست رویای چنین دنیایی را در سر می‌پروراند که با سلطهٔ کامل اداره می‌شود. هراری هم‌چنین ادعا می‌کند که در طیّ یک یا دو دهه، الگوریتم‌هایی می‌توانند برای تعیین نوجوانانی که دربارهٔ خود سردرگم هستند، عمل کند!! 5️⃣ به‌عبارت دیگر؛ هراری، «روشنفکر» تیپیکالِ این روزها است که از طریق که او و امثال او را تبلیغ و ترویج می‌کنند، ایده‌های تاریک و دیستوپیایی (پادآرمانشهری) اربابان بالادستی خود، از جمله (مؤسس و ایده‌پرداز اصلی مجمع جهانی اقتصاد) و و بیل گیتس را به افکار عمومی القاء می‌کند •┈•••✾•🌾🌼🌾•✾••┈• 📲@Rasanebadr
🔻تحریم شورای عالی انقلاب فرهنگی بخاطر تاکید بر اهمیت مساله و ! 🔹حجت الاسلام خسروپناه دبیر شورای عالی انقلاب فرهنگی با اشاره به تحریم شورای عالی انقلاب فرهنگی و دبیر این شورا از سوی اتحادیه اروپا گفت: به نظر می‌رسد که این تحریم به‌دلیل مصوبات و جدیت شورا و شخص بنده نسبت به موضوعاتی نظیر امنیت غذایی، هوش مصنوعی و کوانتوم بوده است چراکه با اجرای سیاست‌ها در این زمینه‌ها کشور بیمه خواهد شد و غربی‌ها از این رویکرد واهمه دارند. •••✾•🌾🌼🌾•✾••┈• 📲گروه https://eitaa.com/joinchat/1082589243C010f2f6f64 📲کانال http://eitaa.com/joinchat/2011496448C2b00395a53
🔷 اخلاق اسلامی و تربیت کاربر مسئولیت پذیر نسبت به هوش مصنوعی در مورد نگاه دینی و به طور خاص نگاه مبتنی بر تفکر و مکتب اهل بیت(ع) می‌تواند کاربر مسئولیت‌پذیر تربیت کند. بحث مسئولیت اخلاقی که در حوزه اخلاق و فلسفه اخلاق مهم است خوشبختانه در تفکر اسلامی بسیار مورد توجه قرار گرفته است. در نگاه غیردینی ممکن است دامنه مسئولیت انسان محدود باشد، اما در تفکر دینی مسئولیت انسان دایره خیلی وسیعی دارد. انسان نسبت به خود، نسبت به انسان‌های دیگر، نسبت به محیط زیست و نسبت به خداوند مسئول است. حسینعلی رحمتی •••✾•🌾🌼🌾•✾••┈• 📲گروه https://eitaa.com/joinchat/1082589243C010f2f6f64 📲کانال http://eitaa.com/joinchat/2011496448C2b00395a53