🎭
#ادبی_هنری
🔹 با این شبکههای مجازی به چشم و گوشتان هم اعتماد نکنید!
🔸 این توصیه جدی رادیو صدای آلمان (دویچه وله) به مخاطبانش است که طی گزارشی مفصل دلائل آن را با تبیین و تشریح پدیدهای اینترنتی به نام «Deep Fake» یا «جعل عمیق» و تازهترین اخبار درباره آن، مورد بررسی قرار داده است.
این گزارش پس از نمایش فیلمی از باراک اوباما، رئیسجمهوری سابق آمریکا که در آن با لحنی کاملا لومپنی به ترامپ فحش میدهد، با این جملات ادامه میدهد: «...خود اوباماست، نگاهمان میکند و میگوید ترامپ احمق است. اما این اوباما نیست یک «دیپ فیک» است؛ یک ویدیوی دستکاری شده. برخی نگران گسترش چنین ویدیوهایی هستند. خطر «دیپ فیک» چیست و قربانیان آنچه کسانی هستند؟... به عصر «دیپ فیک»ها خوش آمدید. روزگاری که در آن نه باید به گوش اعتماد کرد و نه به چشم، یا دستکم به گوش و چشم آموخت که اصل را از جعل تشخیص دهند. ویدیوی باراک اوباما که در مثال آمد، تنها نمونهای از محتوایی است که به آن «دیپفیک» (یا جعل عمیق) میگویند.» «دیپ فیک»ها یکی از دستاوردهای هوش مصنوعی هستند که میتوانند برای نمونه، حرکات و چهره یک نفر را دستکاری کنند و حرفهای ناگفته توی دهانش بگذارند. این ویدیوهای جعلی که با بهرهگیری از Deep Learning (یادگیری عمیق) و حجم عظیمی از دادهها و شبکه عصبی مصنوعی ساخته میشوند، نتیجه محاسبات پیچیدهای هستند که برای نمونه میتوانند از دو ویدیو (دو منبع تصویری)، یک ویدیوی جعلی تازه خلق کنند. البته همانگونه کهاشاره شد، این دستکاری تنها به ویدیو خلاصه نمیشود؛ با این تکنولوژی میتوان صداها را هم دستکاری کرد به گونهای که شخصی جملهای را بر زبان بیاورد که هیچگاه نگفته است.
http://kayhan.ir/fa/news/174958
🔻نشانی ما در پیامرسانهای سروش، آیگپ، ایتا، گپ و بله
@kayhannewspaper