eitaa logo
سوادرسانه بدر
2.2هزار دنبال‌کننده
3.5هزار عکس
1.5هزار ویدیو
176 فایل
مجموعه رسانه ای بدر(بصیرت در رسانه) «هرکس رسانه قوی‌تر داشته باشددر اهدافی که دارد موفق‌تر خواهدبود.»امام خامنه ای-۱۴۰۳/۱/۶ گروه https://eitaa.com/joinchat/1082589243C010f2f6f64 آرشیو نشست و دوره ها @savad_k ارتباط با ما @ghasemi_5663 @Rasanehbadr
مشاهده در ایتا
دانلود
فعلا قابلیت پخش رسانه در مرورگر فراهم نیست
مشاهده در پیام رسان ایتا
🔴تکنولوژی عجیب  (جعل عمیق): یک تکنیک برای ترکیب تصویر انسان مبتنی بر هوش مصنوعی است. جعل عمیق تصاویر و فیلم‌های موجود را بر روی تصاویر یا فیلم‌های منبع قرار می‌دهد  بااین تکنولوژی میتوان ویدیوی های جعلی را با ترکیب فیلم‌های مختلف درست کرد و فیلمهایی خلق کرد که هرگز در واقعیت اتفاق نیفتاده است👆👆 🔸نگرانی این است دیپ‌فیک‌ها به‌ناروا آبروی افراد را نشانه بروند در انتخابات برای تخریب رقیب ، دست به بی اخلاقی سیاسی بزنند همچنین ممکن است افراد قربانی انتقام‌جویی از طریق فیلم‌های مستهجن شوند… ✔️ در فضای مجازی بی دروپیکر ، هرچیزی را به راحتی •┈┈••••✾•🌿🌺🌿•✾•••┈┈• سواد رسانه ای نیاز هر ایرانی دوستان خود را دعوت نمایید👇 eitaa.com/joinchat/2011496448C2b00395a53
فعلا قابلیت پخش رسانه در مرورگر فراهم نیست
مشاهده در پیام رسان ایتا
🔴تکنولوژی عجیب  (جعل عمیق): یک تکنیک برای ترکیب تصویر انسان مبتنی بر هوش مصنوعی است. جعل عمیق تصاویر و فیلم‌های موجود را بر روی تصاویر یا فیلم‌های منبع قرار می‌دهد  بااین تکنولوژی میتوان ویدیوی های جعلی را با ترکیب فیلم‌های مختلف درست کرد و فیلمهایی خلق کرد که هرگز در واقعیت اتفاق نیفتاده است👆👆 🔸نگرانی این است دیپ‌فیک‌ها به‌ناروا آبروی افراد را نشانه بروند در انتخابات برای تخریب رقیب ، دست به بی اخلاقی سیاسی بزنند همچنین ممکن است افراد قربانی انتقام‌جویی از طریق فیلم‌های مستهجن شوند… ✔️ در فضای مجازی بی دروپیکر ، هرچیزی را به راحتی •┈┈••••✾•🌿🌺🌿•✾•••┈┈• سواد رسانه ای نیاز هر ایرانی دوستان خود را دعوت نمایید👇 eitaa.com/joinchat/2011496448C2b00395a53
🔆 چرا ترکیب اخبار جعلی و هوش مصنوعی خطرناک است؟ 🔺ما در زمانی زندگی می‌کنیم که متأسفانه به طور فزاینده همه چیز آن چیزی نیست که به نظر می رسد یا آنچه که باید باشد. از زمان شکل‌گیری مفهوم اخبار جعلی، فناوری به سرعت پیشرفت کرده است. در نتیجه، ما اکنون با نمونه‌هایی از اخبار جعلی روبرو هستیم که چند ماه پیش اصلا قابل تصور نبودند. ویدئوهای دیپ فیک یکی از معضلات ترکیب هوش مصنوعی با اخبار جعلی است. 🔺 یا جعل عمیق، یک تکنیک برای ترکیب تصویر انسان مبتنی بر هوش مصنوعی است. جعل عمیق تصاویر و فیلم‌های موجود را بر روی تصاویر یا فیلم‌های منبع قرار می‌دهد. دیپ فیک فرد یا افرادی را درحال انجام یک کار در موقعیتی نشان می‌دهد که هرگز در واقعیت اتفاق نیفتاده است. هر شخصی با استفاده از هوش مصنوعی می‌تواند یک دیپ فیک بسازد و برای این کار نیازی نیست که اصلاً شخص مورد نظر جمله‌ای را ادا یا در مکان خاصی حضور پیدا کند. 🔺مورد خطرناک دیگر ربات‌های‌ دارای هستند که می توانند حقیقت را مخدوش و محتوای دروغین را جای آن، جا بزنند. وقتی این ربات‌ها هوشمندتر شوند، می‌توانند با استفاده از داده‌های موجود در دسترس عموم، صدا و دست‌خط هرکسی را تقلید کنند. 🔺 عادی، به خودی خود خطرناک است؛ حال ترکیب آن با هوش مصنوعی، آن را به مراتب خطرناک‌تر خواهد کرد. تشخیص تفاوت بین جعل و واقعیت نیز به همان مراتب دشوارتر می‌شود. ⭕️دلایل زیادی برای خطرناک بودن اخبار جعلی مجهز به هوش مصنوعی وجود دارد؛ اما برجسته‌ترین آن‌ها از نظر عضو هیئت‌علمی مؤسسه تحقیقات بلاکچین کانادا به شرح زیر است: 🔻اطلاعات و اخبار معتبر برای اداره جامعه بسیار مهم است. انسان‌ها باید در مورد عملکرد خودشان مسئول باشند؛ اما اگر از وقوع این اقدامات توسط افراد اطمینان نداشته باشیم و نتوانیم تشخیص دهیم جعل کدام است و واقعیت کدام؛ انجام این امر بسیار مشکل خواهد بود. 🔻اخبار جعلی مجهز به هوش مصنوعی نه تنها تهدیدی برای دموکراسی است‎‌‌، بلکه بازارهای مالی را نیز تهدید می‌کند. چراکه به راحتی با انتشار اخبار جعلی درباره شرکت‌ها و همچنین روند قیمت‌ها، بر بازار سهام و قیمت‌ها تاثیر می‌گذارد. 🔻مهم‌ترین عامل «بی‌حسی نسبت به واقعیت» است که بر این اساس، مردم دیگر خسته‌ شده و به اخبار هیچ‌توجهی نمی‌کنند؛ چراکه می‌دانند به هرحال بیشتر این اخبار، جعلی است و زمانی که چنین اتفاقی رخ دهد، سطح اساسی آگاهی مورد نیاز برای تحقق دموکراسی، بسیار ناپایدار خواهد بود. •┈┈••••✾•🌿🌺🌿•✾•••┈┈• مجموعه فرهنگی رسانه ای بدر(بصیرت در رسانه)👇 🔹گروه https://eitaa.com/joinchat/1082589243C010f2f6f64 🔹بایگانی نشست‌ها @savad_k 🔹کانال(ایتا و شاد) @savad_r
فعلا قابلیت پخش رسانه در مرورگر فراهم نیست
مشاهده در پیام رسان ایتا
«دنیا فهمید اینا نفهمیدن، Khuzestan has no water» ( آب ندارد) ❌ویدیویی که مشاهده می کنید با فناوری (DeepFake) یا همان جعل عمیق تهیه شده است و واقعی نیست. ♦️دیپ فیک فناوری جدیدی بر مبنای هوش مصنوعی است که به واسطه آن تصاویر و ویدیو های دروغین اما واقع گرایانه درست می‌شود و می‌تواند هر بیننده‌ای را تحت تاثیر خود قرار دهد. ♦️امروزه ویدیو های دیپ فیک بسیاری از هنرمندان و افراد مشهور ساخته می‌شود و بیننده بدون آنکه متوجه عدم صحت و واقعیت آنها شود، محتوای آن ها را باور کرده و به انتشار آن‌ها در فضای مجازی دست می‌زند. ♦️بعنوان مثال در تهیه این کلیپ از تصاویر دیوید بکهام در سال ۲۰۱۷ و تصاویر کریستیانو رونالدو در سال ۲۰۱۶ که مربوط به تبلیغ اهدای خون است، استفاده گردیده است. •┈┈••••✾•🌿🌺🌿•✾•••┈┈ مجموعه فرهنگی رسانه ای بدر(بصیرت در رسانه)👇 http://eitaa.com/joinchat/2011496448C2b00395a53
33.91M حجم رسانه بالاست
مشاهده در ایتا
🔸 تا به حال اسم به گوش‌تون خورده؟/ این فناوری با اینکه فایده‌های زیادی داره ولی میتونه خطرناک هم باشه. •••✾•🌾🌼🌾•✾••┈• 📲گروه https://eitaa.com/joinchat/1082589243C010f2f6f64 📲کانال http://eitaa.com/joinchat/2011496448C2b00395a53