🔴 به چشمهایتان هم اعتماد نکنید!
🔺تا دیروز اگر میخواستیم از صحت چیزی مطمئن شویم، میگفتیم: به اندازه چشمانم به آن اطمینان دارم! اما حالا این جمله هم بیمعنا شده! چون چشمان ما به راحتی فریب میخورند!
▪️هوش مصنوعی، با پدیدهای به نام دیپ فیک (Deepfake)، از مرزهای واقعیت عبور کرده و حقیقت را به چالشی خطرناک کشانده است. این فناوری، تصاویر و ویدئوهای واقعی را با دقتی باورنکردنی تغییر میدهد و افراد را در موقعیتهایی نشان میدهد که هرگز در آن حضور نداشتهاند. از ساختن سخنرانیهای جعلی گرفته تا ویدیوهایی که در آن، یک سیاستمدار، سلبریتی یا حتی یک شهروند عادی کاری را انجام میدهد که هرگز واقعاً آنرا انجام نداده است!
🔺این تکنیک با استفاده از هوش مصنوعی، چهره یا صدای افراد را از ویدئوها استخراج کرده و روی فیلمهای دیگری جایگذاری میکند و ویدئویی جدید میسازد که کاملاً واقعی به نظر میرسد، اما کاملاً دروغ است!
📌 چرا این فناوری خطرناک است؟
✅ #جعل_حقیقت، ممکن است به زودی نتوانید بفهمید که یک ویدئو واقعی است یا جعلی.
✅ #سوءاستفاده_سیاسی، میتوان از آن برای تخریب شخصیتهای سیاسی و اجتماعی استفاده کرد.
✅ #اخاذی_باجگیری و یا حذف رقبا، میتوان تصاویر افراد را در موقعیتهای غیرواقعی و رسواکننده مونتاژ کرد.
✅ گسترش #اخبار_جعلی، رسانهها و شبکههای اجتماعی ممکن است پر از محتوای جعلی شوند.
🚫عصر جدیدی آغاز شده، عصری که در آن دیگر نمیتوان به چشمانمان هم اعتماد کنیم چون حقیقت در محاصره دیپ فیکهاست. بنابراین:
🔹 به هر ویدیویی اعتماد نکنید!
🔹 منابع معتبر را بررسی کنید!
🔹 از ابزارهای تشخیص دیپ فیک استفاده کنید!
🔹 سواد رسانهای خود را افزایش دهید!
✍ #حسن_باویر
#ژئوپلیتیک_رسانه