eitaa logo
آکادمی سواد رسانه‌ای گرالیت
753 دنبال‌کننده
1.1هزار عکس
105 ویدیو
41 فایل
آموزش تخصصی سوادرسانه‌ ای 🔖برگزارکننده کارگاه‌ های عمومی و تخصصی سواد رسانه‌ ای 🕹سرگرم آموزی 💡یک سواد بی‌مزه 📎#سوادرسانه_ای
مشاهده در ایتا
دانلود
🔸چهار روش استفاده مجدد از محتوا ▫️۵۸۰ کلمه ▫️زمان تقریبی مطالعه: ۴ دقیقه ▫️برگرفته از: burrelles شاید این روزها سرتان بیش از حد شلوغ باشد و یا شاید چند وقتی است که در تولید محتوا به بن‌بست خورده‌اید. در هر حال شما نیازمند محتوا هستید، اما زمان و انرژی کافی برای خلق آن را از صفر ندارید. یک خبر خوب: احتمالاً تا همین لحظه محتواهای بسیاری دارید که می‌توانید با کمی اصلاحات خلاقانه، دوباره از آن‌ها استفاده کنید. ما در این مقاله خواهیم گفت که چگونه می‌توانید این منابع محتوایی را تشخیص دهید و با یک نوآفرینی، آن‌ها را به محتوایی تازه و دوست‌داشتنی برای مخاطبانتان تبدیل کنید. ▫️برای خواندن ادامه مطلب، اینجا را کلیک کنید. @geraliit
فعلا قابلیت پخش رسانه در مرورگر فراهم نیست
مشاهده در پیام رسان ایتا
🎥 نخستین مجری هوش مصنوعی در تلویزیون ایران! ♨️ یک مجری هوش مصنوعی به نام شهریار در بخش آذری شبکه سحر تازه‌های فناوری ایران را به ترک زبان‌های خارج از کشور معرفی می‌کند. @geraliit
⁉️پرنسس های دیزنی در انیمیشن ها مشغول چه کاری هستند؟ 💢به وظایف این کاراکتر ها دقت کنید ببینید ذهن کودک شما چگونه برنامه ریزی می‌شود ... ⚠️مراقب کودکان خود باشید آنها آسیب پذیرند. @geraliit
⭕️هوش مصنوعی چگونه ممکن است آینده فعالیت در شبکه‌های اجتماعی را تغییر دهد؟ ✍🏻محمد رهبری|منتشر شده در روزنامه هم‌میهن 🔹ظهور هوش مصنوعی مولد (Generative AI) و تجاری‌شدن آن، این روزها بسیاری را هیجان‌زده کرده است. امکانات جدیدی که هوش مصنوعی فراهم می‌کند، آینده را کاملا متفاوت از امروز خواهد کرد. اما راجع به این آینده ابهامات زیادی وجود دارد. در کنار امکانات فراوانی که فناوری مبتنی بر هوش مصنوعی برای انسان فراهم می‌کند، احتمالا مخاطرات و آسیب‌هایی هم با خود به‌دنبال خواهد داشت. به‌همین دلیل نیز بسیاری از دانشگاه‌های دنیا پروژه‌های پژوهشی را تعریف کردند تا اثرات مثبت و منفی این تحول بزرگ در عرصه فناوری را بر سایر حوزه مطالعه کنند. 🔸در این میان، Chat GPT و سایر ChatBotهای مبتنی بر هوش مصنوعی، توجه بسیاری از پژوهشگران و علاقه‌مندان به فناوری را به‌خود جلب کرده‌اند. روزی نیست که مطلب جدیدی راجع به امکانات Chat GPT و فرصت‌های آن بحث نشود. یکی از امکانات جذاب Chat GPT تولید متن و محتواست. این ChatBot بر اساس درخواستی که از آن داریم، اقدام به تولید محتوا و متن می‌کند. 🔹امکان تولید متن و محتوا با بکارگیری Chat GPT اگرچه فرصت‌هایی را در اختیار افراد و شرکت‌های تجاری قرار می‌دهد، اما تهدیداتی را هم با خود به‌دنبال دارد. یکی از این تهدیدها، گسترش اخبار جعلی و حتی اکانت‌های جعلی است. امروزه مبارزه با اخبار جعلی یکی از دغدغه‌های مهم خبرنگاران، پژوهشگران و نهادهای مدنی و دولتی است و توسعه الگوریتم‌های مناسب برای تشخیص اخبار جعلی و اکانت‌های فیک در دستور کار آن‌ها قرار دارد. اما با ظهور هوش مصنوعی مولد، ماجرا پیچیده‌تر می‌شود. 🔸یک کاربر توییتری را تصور کنید که به‌طور مرتب از دیگران انتقاد می‌کند. هر توییتی را که نگاه می‌کنید، انتقاد آن کاربر را پایین آن توییت می‌بینید و از خود سؤال می‌پرسید که این کاربر چطور فرصت می‌کند در تمام ساعات شبانه‌روز از دیگران انتقاد کند! این کار می‌تواند با کمک Chat GPT و به‌طور اتوماتیک انجام شود. تنها کافی است که آن اکانت به Chat GPT متصل باشد و به‌طور اتوماتیک هر توییتی می‌بیند برای Chat GPT بفرستد و از آن بخواهد تا یک متن انتقادی راجع به آن توییت بنویسد. سپس نتیجه را در توییتر به‌طور اتوماتیک منتشر کند. 🔹شاید به‌نظر بیاید این کار شدنی نیست و Chat GPT هنوز به آن مرحله نرسیده است که چنین خروجی داشته باشد. من برای امتحان و بررسی این روش، یک توییت از کاربری به نام «مونا گنجیان» را به Chat GPT دادم و از آن خواستم تا نقدی بر این توییت بنویسید. متن توییت و پاسخ Chat GPT را در تصویر زیر می‌توانید ببینید. 🔸در کمال شگفتی، Chat GPT نسبتا پاسخ انتقادی خوبی به توییت اولیه داده است. امری که نشان می‌دهد این ChatBot حتی در تشخیص زبان روزمره فارسی و ارائه پاسخ به آن نسبتا خوب عمل می‌کند. حال تصور کنید آن اکانت توییتری مرتبا توییت‌های مربوط به یک موضوع خاص را به‌طور اتوماتیک به Chat GPT بدهد و پاسخ آن را نیز در پایین هر توییت کامنت بگذارد. این‌گونه یک اکانت بدون این که توسط شخص خاصی اداره شود، مرتبا فعال است و علیه دیگران کامنت می‌گذارد بدون آن که دیگران متوجه شوند هیچ‌کسی پشت آن اکانت نیست. 🔹همین قابلیت می‌تواند در خدمت ساخت اکانت‌ها و اخبار جعلی قرار بگیرد. با توجه به این امکانات، شاید در آینده نزدیک اکانت‌هایی در شبکه‌های اجتماعی فعال شوند که عملا توسط هوش مصنوعی و به‌طور اتوماتیک اداره می‌شوند اما امکان تشخیص آن از یک کاربر واقعی دشوار باشد. در نتیجه این کاربر به‌مرور با فعالیت مستمر در آن شبکه اجتماعی می‌تواند جذب فالوئر کند در حالی که هیچکسی پشت آن نیست. این کاربر همچنین می‌تواند با ادبیاتی شبیه به دیگران محتوایی تولید کند که باورپذیر بوده اما از اساس غلط و دروغ باشد. تا امروز عامل انسانی در کنار هوش مصنوعی نقش مهمی در شناسایی اخبار جعلی داشته است؛ اما افزایش پیچیدگی اخبار جعلی، احتمال شناسایی این قبیل خبرها دشوارتر شود. 🔸با این حساب، به‌نظر می‌رسد توسعه هوش مصنوعی مولد حتی نوع کنشگری در شبکه‌های اجتماعی را نیز دستخوش تغییر کند. در یک جمع‌بندی کلی باید گفت که هوش مصنوعی مولد، مانند انواع دیگر فناوری، توأمان فرصت‌ها و تهدیداتی را ایجاد می‌کند که باید آگاهانه با آن‌ها روبرو شد. فناوری همراه با خود فرصت‌ها و تهدیدهایی را با هم می‌آورد و از همین تکنولوژی نیز باید برای کنترل تهدیدها و شناسایی آن‌ها بهره گرفت و چه‌بسا امکان طراحی الگوریتمی برای شناسایی همین اکانت‌های جعلی نیز ممکن شود. آنچه مسلم است آن است که آینده بسیار متفاوت از امروز خواهد بود. @geraliit
هفت وب‌سایت برتر در زمینه آموزش (زبان انگلیسی) ویژگی‌های این وب‌سایت‌ها را روزهای آتی توضیح می‌دهیم. udemy.com coursera.org masterclass.com skillshare.com poynter.org niemanlab.org spj.org 🆔 @geraliit
هفته‌نامه آمریکایی نیوزویک با این طرح جلد خود، درباره خطرات هوش‌مصنوعی‌ هشدار داد 🔹 «او اینجاست» تیتری است که نیوزویک برای نمایش دهشت این فناوری انتخاب کرده و معتقد است AI خطرناک‌ترین جانوری است که تا به حال ایجاد شده. 🔹به نوشته این نشریه‌ی 90 ساله آمریکایی، شیدایی فعلی درباره پیشرفت‌های اخیر هوش‌مصنوعی‌ در نهایت به سرخوردگی، پشیمانی و هیولاهای جدید ختم خواهد شد. ✍️فاطمه لطفی @geraliit
اگر به دنبال ابزارهای جدید هوش مصنوعی هستید کافیه سری به این سایت بزنید https://theresanaiforthat.com
🔴 علوم اعصاب، هوش مصنوعی و ترس‌های ما 📝 معرفی مقاله (2023) 🔸 همانطور که هوش مصنوعی تکامل می‌یابد، تلاقی آن با علوم اعصاب هم ترس و دلهره را برمی‌انگیزد. این ترس‌ها شامل از دست دادن کنترل، حریم خصوصی و ارزش‌های انسانی به دلیل پیشرفت‌هایی است که در AI در حال رخ دادن است. در این مقاله به بررسی این موضوع پرداخته شده است و نحوه مقابله با آن بررسی می‌شود. همچنین مروری بر این صورت می‌گیرد که چگونه علوم اعصاب می‌تواند به ما در درک بهتر این ترس‌ها کمک کند و راهکارهایی برای مقابله با این ترس‌ها ارائه می‌شود. به‌عنوان مثال از برطرف کردن ابهامات در مورد ابعاد انسانی هوش مصنوعی، تأسیس چارچوب اخلاقی برای حفظ حریم خصوصی داده‌ها، و ترویج ایده هوش مصنوعی به عنوان یک همکار نه به عنوان رقیب، مطرح می‌شود. 📌 این مقاله را میتوانید از لینک زیر مطالعه کنید: https://neurosciencenews.com/artificial-intelligence-fear-neuroscience-23519/ -------------- @geraliit
🔸هوش‌مصنوعی Artificial intelligence Khalid Cherradi
بیشترآدم‌ها از کسانی که صاحب قدرت، شهرت، یا جایگاه اند حساب می‌برند یا احترام ویژه‌ای قائل اند. بر همین اساس بسیاری از افراد پروپاگاندیست از این ویژگی استفاده می کنند و تلاش می کنند با نزدیک شدن به این افراد برای خود و یا استدلال خود تاییدی بیابند. به این تکنیک، توسل به آتوریته گفته می شود. که در این پست به معرفی این تکنیک پرداخته‌ایم.
🔸رسوایی ستاره بی‌بی‌سی # مسائل اخلاقی مدت‌هاست که دامن بی‌بی‌سی را گرفته است. صفحه اول روزنامه‌های صبح امروز بریتانیا به مجری اختصاص یافته است که به دلیل ادعاهای مطروحه علیه‌اش فعلا از کار بر‌کنار شده و به دلیل سلامت روانی پس از یک رشته اتهامات در بیمارستان بستری است. از هاو ادواردز به عنوان مجری مطرحی یاد می‌شود که متهم به پرداخت ۳۵۰۰۰ پوند به یک نوجوان در ازای عکس‌های غیراخلاقی است. ▫️پیشینه در بی‌بی‌سی: ۱۸ ماه حبس برای ویلیس