✳️ تو مرحله سوم باید یه صدا ( هر صدایی از هر کسی ) داشته باشیم که اون صدا با عکس ما ترکیب بشن و خروجی ما آماده بشه
❎ پس یه صدا داشته باشید و بریم برای ترکیب صدا با تصویر
📍هوش مصنوعــی | آکادمی آرمــــــان
برای عضویت در کانال اینجا کلیک کنید
✔️ ترکیب صدا و متن و متحرک کردن تصویر رو با هوش مصنوعی heygen قراره انجام بدیم
بریم برای آموزش هوش مصنوعی heygen✌️
📍هوش مصنوعــی | آکادمی آرمــــــان
برای عضویت در کانال اینجا کلیک کنید
برای ورود به سایت اینجا کلیک کنید
1️⃣ با استفاده از حساب جیمیل وارد بشید یا ثبت نام کنید
2️⃣ روی دکمه create video نگه دارید و قالب ویدیو خودتون رو انتخاب کنید(افقی یا عمودی)
3️⃣ از قسمت my avatar در سمت چپ صفحه، وارد بخش photo avatar بشید و روی علامت آپلود بزنید و تصویر خودتون رو وارد کنید
4️⃣ اینجا باید متنی که میخواید روی ویدیو قرار بگیره وارد کنید(البته اگه میخواید یه متن با صدای هوش مصنوعی روی ویدیو شما قرار بگیره)
5️⃣ بعد روی گزینه play scrips کلیک کنید تا زبان متن شما شناسایی بشه
6️⃣ میتونید بجای اینکه یک متن بنویسید و با صدای هوش مصنوعی تولید بشه، از این بخش صدای مدنظر خودتون رو آپلود کنید
7️⃣ یا از این بخش صدای خودتون رو ضبط کنید تا روی ویدیو قرار بگیره
8️⃣ برای خروجی گرفتن روی گزینه submit در بالای صفحه کلیک کنید
9️⃣ روی گزینه submit کلیک کنید و صبر کنید تا به صفحه جدید منتقل بشید. بعد از چند دقیقه فیلم شما آماده هست و میتونید دانلود کنید
❌ توجه داشته باشید که امکان استفاده از این هوش مصنوعی روی گوشی وجود نداره ❌
📍هوش مصنوعــی | آکادمی آرمــــــان
برای عضویت در کانال اینجا کلیک کنید
:: اگه توی مسیر ساخت با مشکلی برخوردید به پشتیبان پیام بدید✌️
••
📍راه ارتباطی: @pasokh_goo1
📍هوش مصنوعــی | آکادمی آرمــــــان
برای عضویت در کانال اینجا کلیک کنید
سلام آرمانی ها❤️🌻✨
امشب قراره سه تا کلیپ جذاب رو با هم ببینیم😍
1⃣ تقلید صدا با هوش مصنوعی
2⃣ گسترش تصویر با هوش مصنوعی
3⃣ ربات های انسان نمای هوش مصنوعی
📍هوش مصنوعــی | آکادمی آرمــــــان
برای عضویت در کانال اینجا کلیک کنید
فعلا قابلیت پخش رسانه در مرورگر فراهم نیست
مشاهده در پیام رسان ایتا
رباتهارفتنسرکار...🤯👀
🔺 ربات های انساننما سر کار رفته اند و شاغل شده اند!
🔺 رباتی که توسط شرکت 1X ساخته شده کارهای مختلفی مثل پرستاری و نگهبانی و انجام میده. به گزارش دیلیمیل، شرکت 1X حتی زودتر از تسلا، اولین ربات انساننمای واقعی را وارد بازار کرده.
📍هوش مصنوعــی | آکادمی آرمــــــان
برای عضویت در کانال اینجا کلیک کنید
فعلا قابلیت پخش رسانه در مرورگر فراهم نیست
مشاهده در پیام رسان ایتا
💯 گسترش تصویر اینه بقیه اداشو در میارن😉
🔺یه بابایی برداشته تا ۵۷ مرحله یک عکس رو توسعه داده و مقایسهشون هم کرده
🔺 دستورات متنیشون رو هم میتونید ببینید و بگرخید
📍هوش مصنوعــی | آکادمی آرمــــــان
برای عضویت در کانال اینجا کلیک کنید
فعلا قابلیت پخش رسانه در مرورگر فراهم نیست
مشاهده در پیام رسان ایتا
‼️صدای شیرفرهاد رو آهنگ لانا دلری😁
🔺با هوش مصنوعی صدای مهران مدیری تو نقش شیرفرهاد در سریال شبهای برره گذاشتن رو آهنگ Summer time sadness لانا دلری!
🔺حالا نکته عجیب ماجرا اینه که از خود آهنگ اصلی قشنگتر دراومده😅
📍هوش مصنوعــی | آکادمی آرمــــــان
برای عضویت در کانال اینجا کلیک کنید
#ســـــــــــــــــــــــــلام!
❌ امروز قراره درباره خطرات هوش مصنوعی در زمینه حریم خصوصی صحبت کنیم ❌
حتما مطالب امروز رو ببینید!!
📍هوش مصنوعــی | آکادمی آرمــــــان
برای عضویت در کانال اینجا کلیک کنید
✔️ دیپ فیک!
یکی از(فقط یکی از) ابزار هایی که امروز در دسترس عموم مردم قرار داره و حالا با استفاده از هوش مصنوعی هرکسی میتونه فیلم های جعلی از شما بسازه...
❎ قبلاً نمونه هایی از تغییر صدا با هوش مصنوعی رو دیده بودید مثل این صدای حاج قاسم که با هوش مصنوعی ساخته شده یا این صدای شیرفرهاد ولی...
همه اینا در جهت درست استفاده شده ولی چه تضمینی وجود داره که در جهت اشتباه استفاده نشه؟؟
:: علاوه بر جعل صدا، میشه تصویر شمارو جعل کرد!
❌ حتما فیلم های زیر رو ببینید ❌
📍هوش مصنوعــی | آکادمی آرمــــــان
برای عضویت در کانال اینجا کلیک کنید
فعلا قابلیت پخش رسانه در مرورگر فراهم نیست
مشاهده در پیام رسان ایتا
تو چند ثانیه با هوش مصنوعی میشه چهرت رو به چهره هر کسی تغییر بدی!!
📍هوش مصنوعــی | آکادمی آرمــــــان
برای عضویت در کانال اینجا کلیک کنید
فعلا قابلیت پخش رسانه در مرورگر فراهم نیست
مشاهده در پیام رسان ایتا
❌ اینم یه نمونه دیگه...
📍هوش مصنوعــی | آکادمی آرمــــــان
برای عضویت در کانال اینجا کلیک کنید
فکر کنید صبح شده و تمام دوستان و آشنایانتون بهتون مدام زنگ می زنند؛ تعجب می کنید و با خودتون می گین مگه چی شده؟! در همین حین، باز گوشیتون زنگ می خوره! گوشی رو بر می دارید و هنوز سلام نکرده بهتون از پشت خط کلی بد و بیاره میگن و بعد قطع می کنن! چند لحظه ای حسابی تو کُپ می رین و به خودتون می گین مگه امکان داره؟ من که دیشب کلا خواب بودم!
در کمال ناباوری می رید تو اکسپلورر اینستاگرامتون و می بینید یه کلیپ از شما ترند شده! کلی حرف های عجیب و غریب توش زدین؛ کلا هَنگ می کنید! نمی دونید چطوری اثبات کنید اون فیلم شما نیستید!!
📍هوش مصنوعــی | آکادمی آرمــــــان
برای عضویت در کانال اینجا کلیک کنید
💢 جلوی خیلی از این فیلم ها و صداهارو نمیشه گرفت ولی 💢
✅ شنبه قراره چندنکته کاربردی به شما بگیم که احتمال گرفتار شدن شما خیلی خیلی کمتر بشه!
☑️ شنبه منتظر ما باشید.
📍هوش مصنوعــی | آکادمی آرمــــــان
برای عضویت در کانال اینجا کلیک کنید
سلام🌱
ولادت امام باقر «ع» مبارک🌹
✅ بریم همونطور که گفتیم درباره دیپ فیک و راه های جلوگیری از اون صحبت کنیم
📍هوش مصنوعــی | آکادمی آرمــــــان
برای عضویت در کانال اینجا کلیک کنید
تو پیام های قبلی گفتیم که دیپ فیک چیه و چه کارهایی میتونه انجام بده
❌ حالا میخوام بهتون بگم که چه آسیب هایی داره ❌
1️⃣ سوء استفاده در حریم خصوصی: با استفاده از دیپ فیک، ممکن است افراد بدون اجازه در موقعیتها یا فعالیتهایی نشان داده شوند که واقعی نیست و به حریم خصوصی آنها آسیب میرساند.
2️⃣ تاثیر منفی بر اعتماد عمومی: وقتی مردم نمیتوانند به صحت تصاویر و ویدئوهایی که میبینند اطمینان داشته باشند، اعتماد عمومی به رسانهها و اطلاعات کاهش مییابد.
3️⃣ استفاده در جرائم سایبری: دیپ فیک میتواند برای اهداف جنایی مانند اخاذی، کلاهبرداری یا تهدید استفاده شود. تصور کنید، تلفن حسابدار شرکت زنگ میخوره و مدیر اون شرکت میگه که 2 میلیارد تومان به فلان شماره کارت بفرست. بعد از واریز پول مشخص میشه اونی که پشت تلفن بوده اصلا مدیرعامل نبوده و با استفاده از هوش مصنوعی صدای مدیرعامل رو تقلید کرده.
4️⃣ گمراهکننده و تحریف اطلاعات: دیپ فیک میتواند برای ایجاد اطلاعات نادرست یا گمراهکننده استفاده شود. این مسئله میتواند در زمینههای سیاسی، رسانهای و اجتماعی تاثیرات منفی داشته باشد.
5️⃣ سیاست: در برخی موارد، دیپ فیکها برای تحریف صحبتها یا اعمال سیاستمداران استفاده شدهاند. برای مثال، ویدئوهایی که در آنها سیاستمداران چیزهایی را میگویند یا انجام میدهند که واقعاً هرگز اتفاق نیفتاده، میتواند برای تأثیرگذاری منفی بر رأی دهندگان یا تخریب شخصیت افراد استفاده شود.
6️⃣ تبلیغات و بازاریابی: در مواردی، تکنیکهای دیپ فیک برای ساخت تبلیغات استفاده میشود که شخصیتهای مشهور را در موقعیتهایی نشان میدهند که واقعاً در آن قرار نگرفتهاند. این ممکن است بدون رضایت افراد مورد نظر انجام شود و به شهرت و اعتبار آنها آسیب بزند.
📍هوش مصنوعــی | آکادمی آرمــــــان
برای عضویت در کانال اینجا کلیک کنید
⭕️ نمیشه خطر دیپ فیک و ویدیو های جعلی رو 100% کاهش داد یا کاری کرد که از ما دیپ فیک نسازن ولی
✅ یسری کارها میشه کرد که احتمال این خطرات کمتر بشه
📍هوش مصنوعــی | آکادمی آرمــــــان
برای عضویت در کانال اینجا کلیک کنید
✳️ برای جلوگیری از فریب خوردن توسط دیپ فیک و تشخیص ویدئوهای جعلی، میتوانید اقدامات زیر را انجام دهید:
1️⃣ آگاهی و دانش: اولین گام، آشنایی با مفهوم دیپ فیک و نحوه کارکرد آن است. هرچه بیشتر در مورد این تکنولوژی بدانید، بهتر میتوانید آن را تشخیص دهید.
2️⃣ تجزیه و تحلیل دقیق ویدئو: توجه به جزئیات ویدئو میتواند کمک کند. مواردی مانند همراستایی نامناسب لبها با صدا، ابراز چهرههای غیرطبیعی یا ناهماهنگ، و ویژگیهای غیرمعمول پوست میتواند نشانههایی از دیپ فیک باشد.
3️⃣ بررسی منبع ویدئو: همیشه منبع ویدئو را بررسی کنید. اگر ویدئو از یک منبع ناشناخته یا غیرقابل اعتماد منتشر شده باشد، باید به آن شک کنید.
4️⃣ استفاده از ابزار تشخیص دیپ فیک: ابزارهای آنلاین و نرمافزارهایی وجود دارند که میتوانند در تشخیص دیپ فیکها کمک کنند. این ابزارها معمولاً از یادگیری ماشین برای تحلیل و شناسایی عناصر جعلی در ویدئوها استفاده میکنند.
5️⃣ مقایسه با سایر منابع: اگر ویدئویی مشکوک به نظر میرسد، سعی کنید آن را با اطلاعات دیگر منابع مقایسه کنید. بررسی کنید که آیا سایر رسانههای معتبر همان خبر یا محتوا را منتشر کردهاند یا خیر.
6️⃣ آگاهی از زمینه و محتوا: درک زمینهای که ویدئو در آن قرار دارد میتواند مهم باشد. اگر محتوای ویدئو با واقعیتهای شناخته شده یا با موقعیتهای منطقی ناهماهنگ باشد، احتمال دارد که جعلی باشد.
7️⃣ استفاده از تفکر انتقادی: همیشه به طور انتقادی به اطلاعات نگاه کنید. سوال کنید، شک کنید و به دنبال دلایل و مدارک باشید.
📍هوش مصنوعــی | آکادمی آرمــــــان
برای عضویت در کانال اینجا کلیک کنید
✳️ برای جلوگیری از ساخت دیپ فیک از خودتان، میتوانید اقدامات زیر را انجام دهید:
1️⃣ محافظت از تصاویر و ویدیوهای شخصی: از به اشتراک گذاشتن بیش از حد تصاویر و ویدیوهای خود در شبکههای اجتماعی یا سرویس های غیرمطمئن و دیگر پلتفرمهای آنلاین خودداری کنید. تصاویر و صدای خودتون رو برای هرکسی ارسال نکنید. هرچه تصاویر و ویدیوهای کمتری از شما در دسترس عموم قرار داشته باشد، ساخت دیپ فیک از شما دشوارتر خواهد بود.
2️⃣ مراقبت از اطلاعات حساس: از به اشتراک گذاشتن اطلاعات حساس یا شخصی در محیطهای آنلاین که ممکن است به سادگی دستکاری شوند، اجتناب کنید.
3️⃣ آگاهی در مورد فیشینگ و امنیت سایبری: مراقب حملات فیشینگ و سرقت اطلاعات باشید. از اشتراکگذاری اطلاعات شخصی یا حساس در پاسخ به درخواستهای مشکوک خودداری کنید.
4️⃣ آموزش و آگاهسازی دیگران: به دوستان، خانواده و همکاران خود در مورد خطرات دیپ فیک و اهمیت حفظ حریم خصوصی آموزش دهید.
💢 با این اقدامات، میتوانید خطر ساخته شدن دیپ فیک از خودتان را کاهش دهید. البته، توجه داشته باشید که هیچ راهکاری 100% تضمینی نیست، اما این اقدامات میتوانند به کاهش قابل توجه خطر کمک کنند.
📍هوش مصنوعــی | آکادمی آرمــــــان
برای عضویت در کانال اینجا کلیک کنید
💢 کلام آخر: از دیپ فیک ساده گذر نکنید 💢
☑️ درسالی که گذشت 143.000 محتوای جعلی با دیپ فیک از افراد ساخته شده( تصاویر نامناسب افراد و نوجوانان، کلاه برداری با صدای افراد از خانواده و آشنایان اون و...)
✅ نکاتی که گفته شد رو جدی بگیرید تا این خطرات رو کاهش بدید.
📍هوش مصنوعــی | آکادمی آرمــــــان
برای عضویت در کانال اینجا کلیک کنید