🔷 شورای امنیت سایبری امارات نسبت به خطر کلاهبرداری «جعل عمیق» یا «دیپ فیک» با جعل صدای افراد با استفاده از هوش مصنوعی و استفاده از آن برای درخواست پول از بستگان و آشنایان هشدار داد. 🔷 این شورا اعلام کرد با توجه به توسعه سریع فناوری هوش مصنوعی، کلاهبرداری با استفاده از فناوری جعل عمیق در حال افزایش است. 🔷 این شورا تاکید کرد همه مردم باید با این شیوه‌های تقلبی آشنا باشند و از خود در برابر آسیب‌های احتمالی محافظت کنند. 🔷 هکرها الگویی از صدای افراد را از یکی از حساب‌های شبکه‌های اجتماعی آن‌ها استخراج می‌کنند و پس از تجزیه و تحلیل قطعه‌های صوتی، با استفاده از هوش مصنوعی پیام‌های صوتی جعلی تولید می‌کنند. 🔰 کانال تخصصی یمن و کشورهای خلیج همیشه فارس https://eitaa.com/Akhbare_Yaman