فعلا قابلیت پخش رسانه در مرورگر فراهم نیست
مشاهده در پیام رسان ایتا
🔴تکنولوژی عجیب #دیپ_فیک (جعل عمیق): یک تکنیک برای ترکیب تصویر انسان مبتنی بر هوش مصنوعی است. جعل عمیق تصاویر و فیلمهای موجود را بر روی تصاویر یا فیلمهای منبع قرار میدهد
بااین تکنولوژی میتوان ویدیوی های جعلی را با ترکیب فیلمهای مختلف درست کرد و فیلمهایی خلق کرد که هرگز در واقعیت اتفاق نیفتاده است👆👆
🔸نگرانی این است دیپفیکها بهناروا آبروی افراد را نشانه بروند
در انتخابات برای تخریب رقیب ، دست به بی اخلاقی سیاسی بزنند
همچنین ممکن است افراد قربانی انتقامجویی از طریق فیلمهای مستهجن شوند…
✔️ در فضای مجازی بی دروپیکر ، هرچیزی را به راحتی #باور_نکنیم
•┈┈••••✾•🌿🌺🌿•✾•••┈┈•
سواد رسانه ای نیاز هر ایرانی
دوستان خود را دعوت نمایید👇
eitaa.com/joinchat/2011496448C2b00395a53
فعلا قابلیت پخش رسانه در مرورگر فراهم نیست
مشاهده در پیام رسان ایتا
🔴تکنولوژی عجیب #دیپ_فیک (جعل عمیق): یک تکنیک برای ترکیب تصویر انسان مبتنی بر هوش مصنوعی است. جعل عمیق تصاویر و فیلمهای موجود را بر روی تصاویر یا فیلمهای منبع قرار میدهد
بااین تکنولوژی میتوان ویدیوی های جعلی را با ترکیب فیلمهای مختلف درست کرد و فیلمهایی خلق کرد که هرگز در واقعیت اتفاق نیفتاده است👆👆
🔸نگرانی این است دیپفیکها بهناروا آبروی افراد را نشانه بروند
در انتخابات برای تخریب رقیب ، دست به بی اخلاقی سیاسی بزنند
همچنین ممکن است افراد قربانی انتقامجویی از طریق فیلمهای مستهجن شوند…
✔️ در فضای مجازی بی دروپیکر ، هرچیزی را به راحتی #باور_نکنیم
•┈┈••••✾•🌿🌺🌿•✾•••┈┈•
سواد رسانه ای نیاز هر ایرانی
دوستان خود را دعوت نمایید👇
eitaa.com/joinchat/2011496448C2b00395a53
🔆 چرا ترکیب اخبار جعلی و هوش مصنوعی خطرناک است؟
🔺ما در زمانی زندگی میکنیم که متأسفانه به طور فزاینده همه چیز آن چیزی نیست که به نظر می رسد یا آنچه که باید باشد.
از زمان شکلگیری مفهوم اخبار جعلی، فناوری به سرعت پیشرفت کرده است. در نتیجه، ما اکنون با نمونههایی از اخبار جعلی روبرو هستیم که چند ماه پیش اصلا قابل تصور نبودند. ویدئوهای دیپ فیک یکی از معضلات ترکیب هوش مصنوعی با اخبار جعلی است.
🔺#دیپ_فیک یا جعل عمیق، یک تکنیک برای ترکیب تصویر انسان مبتنی بر هوش مصنوعی است. جعل عمیق تصاویر و فیلمهای موجود را بر روی تصاویر یا فیلمهای منبع قرار میدهد. دیپ فیک فرد یا افرادی را درحال انجام یک کار در موقعیتی نشان میدهد که هرگز در واقعیت اتفاق نیفتاده است.
هر شخصی با استفاده از هوش مصنوعی میتواند یک دیپ فیک بسازد و برای این کار نیازی نیست که اصلاً شخص مورد نظر جملهای را ادا یا در مکان خاصی حضور پیدا کند.
🔺مورد خطرناک دیگر رباتهای دارای #هوش_مصنوعی هستند که می توانند حقیقت را مخدوش و محتوای دروغین را جای آن، جا بزنند. وقتی این رباتها هوشمندتر شوند، میتوانند با استفاده از دادههای موجود در دسترس عموم، صدا و دستخط هرکسی را تقلید کنند.
🔺#اخبار_جعلی عادی، به خودی خود خطرناک است؛ حال ترکیب آن با هوش مصنوعی، آن را به مراتب خطرناکتر خواهد کرد. تشخیص تفاوت بین جعل و واقعیت نیز به همان مراتب دشوارتر میشود.
⭕️دلایل زیادی برای خطرناک بودن اخبار جعلی مجهز به هوش مصنوعی وجود دارد؛ اما برجستهترین آنها از نظر عضو هیئتعلمی مؤسسه تحقیقات بلاکچین کانادا به شرح زیر است:
🔻اطلاعات و اخبار معتبر برای اداره جامعه بسیار مهم است. انسانها باید در مورد عملکرد خودشان مسئول باشند؛ اما اگر از وقوع این اقدامات توسط افراد اطمینان نداشته باشیم و نتوانیم تشخیص دهیم جعل کدام است و واقعیت کدام؛ انجام این امر بسیار مشکل خواهد بود.
🔻اخبار جعلی مجهز به هوش مصنوعی نه تنها تهدیدی برای دموکراسی است، بلکه بازارهای مالی را نیز تهدید میکند. چراکه به راحتی با انتشار اخبار جعلی درباره شرکتها و همچنین روند قیمتها، بر بازار سهام و قیمتها تاثیر میگذارد.
🔻مهمترین عامل «بیحسی نسبت به واقعیت» است که بر این اساس، مردم دیگر خسته شده و به اخبار هیچتوجهی نمیکنند؛ چراکه میدانند به هرحال بیشتر این اخبار، جعلی است و زمانی که چنین اتفاقی رخ دهد، سطح اساسی آگاهی مورد نیاز برای تحقق دموکراسی، بسیار ناپایدار خواهد بود.
•┈┈••••✾•🌿🌺🌿•✾•••┈┈•
مجموعه فرهنگی رسانه ای
بدر(بصیرت در رسانه)👇
🔹گروه
https://eitaa.com/joinchat/1082589243C010f2f6f64
🔹بایگانی نشستها
@savad_k
🔹کانال(ایتا و شاد)
@savad_r
فعلا قابلیت پخش رسانه در مرورگر فراهم نیست
مشاهده در پیام رسان ایتا
«دنیا فهمید اینا نفهمیدن، Khuzestan has no water»
(#خوزستان آب ندارد)
❌ویدیویی که مشاهده می کنید با فناوری #دیپ_فیک (DeepFake) یا همان جعل عمیق تهیه شده است و واقعی نیست.
♦️دیپ فیک فناوری جدیدی بر مبنای هوش مصنوعی است که به واسطه آن تصاویر و ویدیو های دروغین اما واقع گرایانه درست میشود و میتواند هر بینندهای را تحت تاثیر خود قرار دهد.
♦️امروزه ویدیو های دیپ فیک بسیاری از هنرمندان و افراد مشهور ساخته میشود و بیننده بدون آنکه متوجه عدم صحت و واقعیت آنها شود، محتوای آن ها را باور کرده و به انتشار آنها در فضای مجازی دست میزند.
♦️بعنوان مثال در تهیه این کلیپ از تصاویر دیوید بکهام در سال ۲۰۱۷ و تصاویر کریستیانو رونالدو در سال ۲۰۱۶ که مربوط به تبلیغ اهدای خون است، استفاده گردیده است.
•┈┈••••✾•🌿🌺🌿•✾•••┈┈
مجموعه فرهنگی رسانه ای
بدر(بصیرت در رسانه)👇
http://eitaa.com/joinchat/2011496448C2b00395a53
33.91M حجم رسانه بالاست
مشاهده در ایتا
#فناوری #نوپدید
🔸 تا به حال اسم #دیپ_فیک به گوشتون خورده؟/ این فناوری با اینکه فایدههای زیادی داره ولی میتونه خطرناک هم باشه.
•••✾•🌾🌼🌾•✾••┈•
📲گروه
https://eitaa.com/joinchat/1082589243C010f2f6f64
📲کانال
http://eitaa.com/joinchat/2011496448C2b00395a53