🔷البته همانگونه کهاشاره شد، این دستکاری تنها به ویدیو خلاصه نمیشود؛ با این تکنولوژی میتوان #صداها را هم دستکاری کرد به گونهای که شخصی جملهای را بر زبان بیاورد که هیچگاه نگفته است.
🔷گزارش دویچه وله میگوید: «در بسیاری از حوزهها میشود از #دیپ_فیک بهره جست. صنعت فیلمسازی و بازیهای کامپیوتری و حتی صنعت مد، حوزههایی بودند که بیش از پیش به این نوآوری علاقه نشان دادند. اما این تنها زمینه سوءاستفاده از «دیپفیک»ها نیست. آنچه این روزها به بحثها و نگرانیهای زیادی در مورد «دیپفیک»ها دامن زده است، پتانسیل سوءاستفاده از آن برای مثال در حوزههای سیاسی و امنیتی است.»
🔷با این وجود هستند متخصصان و کارشناسانی که میگویند، شاید «دیپ فیک» پدیدهای نو باشد، اما «جعل» پدیده امروز نیست؛ دستکاری کردن سطحی تا پیچیده عکس با نرمافزار تا نشاندن متنی که با عکس مرتبط نبوده، در پای تصویر و... مثالها زیاد است، از آنچه کارشناسان آن را #چیپ_فیک (دستکاری سطحی) مینامند و معتقدند، تا بوده همین بوده. اینکه امروز تصاویری از تجمع مثلا مردم برای فلان مسابقه ورزشی، به تظاهرات برای بهمان مقصد سیاسی نسبت داده میشود و یا کشته شدن فردی در حادثهای را با جعل کردن، به یک اغتشاش سیاسی نسبت میدهند و یا چرا راه دور برویم... تصاویر جعلی از اجساد امثال بن لادن و ابوبکر بغدادی، نمونههایی از جعل در فضای مجازی است که بسیار گستردهتر و فراگیرتر از «دیپ فیک»ها به نظر میآیند.
∆منبع: مشرق به نقل از کیهان
@tabyinchannel
#کانال_تبیین
#انتشار_همراه_با_لینک_کانال