🎭 🔹 با این شبکه‌های مجازی به چشم و گوشتان هم اعتماد نکنید! 🔸 این توصیه جدی رادیو صدای آلمان (دویچه وله) به مخاطبانش است که طی گزارشی مفصل دلائل آن را با تبیین و تشریح پدیده‌ای اینترنتی به نام «Deep Fake» یا «جعل عمیق» و تازه‌ترین اخبار درباره آن، مورد بررسی قرار داده است. این گزارش پس از نمایش فیلمی از باراک اوباما، رئیس‌جمهوری سابق آمریکا که در آن با لحنی کاملا لومپنی به ترامپ فحش می‌دهد، با این جملات ادامه می‌دهد: «...خود اوباماست، نگاهمان می‌کند و می‌گوید ترامپ احمق است. اما این اوباما نیست یک «دیپ فیک» است؛ یک ویدیوی دستکاری شده. برخی نگران گسترش چنین ویدیوهایی هستند. خطر «دیپ فیک» چیست و قربانیان آن‌چه کسانی هستند؟... به عصر «دیپ فیک‌»ها خوش آمدید. روزگاری که در آن نه باید به گوش اعتماد کرد و نه به چشم، یا دست‌کم به گوش و چشم آموخت که اصل را از جعل تشخیص دهند. ویدیوی باراک اوباما که در مثال آمد، تنها نمونه‌ای از محتوایی است که به آن «دیپ‌فیک» (یا جعل عمیق) می‌گویند.» «دیپ فیک»ها یکی از دستاوردهای هوش مصنوعی هستند که می‌توانند برای نمونه، حرکات و چهره یک نفر را دست‌کاری کنند و حرف‌های ناگفته توی دهانش بگذارند. این ویدیوهای جعلی که با بهره‌گیری از Deep Learning (یادگیری عمیق) و حجم عظیمی از داده‌ها و شبکه عصبی مصنوعی ساخته می‌شوند، نتیجه محاسبات پیچیده‌ای هستند که برای نمونه می‌توانند از دو ویدیو (دو منبع تصویری)، یک ویدیوی جعلی تازه خلق کنند. البته همان‌گونه که‌اشاره شد، این دستکاری تنها به ویدیو خلاصه نمی‌شود؛ با این تکنولوژی می‌توان صداها را هم دستکاری کرد به گونه‌ای که شخصی جمله‌ای را بر زبان بیاورد که هیچگاه نگفته است. http://kayhan.ir/fa/news/174958 🔻نشانی ما در پیام‌رسان‌های سروش، آی‌گپ، ایتا، گپ و بله @kayhannewspaper