eitaa logo
باسواد باش ᅠᅠࣩࣩࣩࣩࣩࣩࣩࣩࣩࣩࣩࣩࣩࣩࣩࣩࣩࣩࣩࣩࣧࣧࣧࣧࣧࣧࣧࣧࣧࣧࣧࣧࣧࣧ
571 دنبال‌کننده
1.6هزار عکس
1.1هزار ویدیو
9 فایل
#کانال #آموزش #سواد_رسانه ✅ تطبیق مصادیق ومفاهیم ✅ ترفندهای رسانه ها ✅ #تکنولوژی ذهن ✅ واکاوی اصول #روانشناسی دررسانه ✅ باسوادباش #باسوادباش ✅ سواد رسانه و #سواد_دیجیتال ✅ سینمای #هالیوود ✅ #انیمیشن و #انیمه ✅ #گیم و #گیمرها ✅ پیام های پنهان ✅مهدویت
مشاهده در ایتا
دانلود
دولت عراق پلتفرم بازی ویدئویی آمریکایی «رابلُکس» را به دلیل نگرانی‌های مربوط به ایمنی کودکان ممنوع کرد 🔹شرکت «رابلُکس کورپ» در پاسخ اعلام کرد که ایمنی کاربران برایش در اولویت قرار دارد و تمایل دارد با دولت عراق همکاری کند تا دسترسی دوباره به این پلتفرم برقرار شود. @basavadbash @basavadbash
مهندسی ادراک از طریق دستکاری الگوریتمیک؛ بلایی که هر روز در اینستا بر سر ما می آورند ✍ به قلم آقای تحلیلگر در نظام رسانه‌ای امروز، واقعیت نه آن چیزی است که در جهان بیرونی رخ می‌دهد، بلکه آن چیزی است که الگوریتم‌ها تصمیم می‌گیرند به ما نشان دهند. و الگوریتم عملاً "سردبیر نامرئی" هر شبکه‌ی اجتماعی است؛ سردبیری که بر اساس شاخص‌هایی چون تعامل، توقف نگاه کاربر، یا نرخ اشتراک‌گذاری، تعیین می‌کند چه محتوایی برجسته شود و چه محتوایی به حاشیه برود. اما این سردبیر دیجیتال، همان بخش اصلی جنگ رسانه‌ای جدید است. دستکاری الگوریتمیک به معنای استفاده‌ی هدفمند و حساب‌شده از منطق عملکرد الگوریتم‌های شبکه‌های اجتماعی برای تغییر مصنوعی در دیده‌شدن محتواست؛ یعنی، بازیگر رسانه‌ای نه با تولید خبر یا تبلیغ مستقیم، بلکه با تغییر مسیر طبیعی پخش اطلاعات در بستر پلتفرم‌ها، واقعیت ادراکی مخاطب را می‌سازد. در این مدل، دشمن یا بازیگر عملیات شناختی، می‌داند الگوریتم چگونه تصمیم می‌گیرد چه چیزی را در معرض دید کاربر بگذارد و دقیقاً همان‌جا وارد عمل می‌شود. 🔻 سازوکار عملیات های الگوریتمی دشمن در اینستا: الف) مهندسی تعامل الگوریتم‌ها محتواهای "پر تعامل" را به‌صورت خودکار گسترش می‌دهند. بنابراین، برای فریب سیستم، بازیگر رسانه‌ای با استفاده از: لشکر اکانت‌های هماهنگ گروه‌های انسانی مزدبگیر یا حتی شبکه‌های واقعی اما تحریک‌شده‌ی احساسی اقدام به تولید مصنوعی واکنش‌ها می‌کند. سیستم تصور می‌کند این محتوا محبوب و خودجوش است؛ درحالی‌که محبوبیت، مهندسی شده است. ب) طراحی احساسی محتوا تحقیقات نشان داده‌اند الگوریتم‌ها به محتواهای دارای بار عاطفی شدید (خشم، ترس، شگفتی یا لذت) ضریب دیده‌شدن بیشتری می‌دهند. به همین دلیل، تیم‌های عملیات رسانه‌ای، متن‌ها و ویدیوها را با هدف تحریک واکنش احساسی می‌نویسند، نه انتقال اطلاعات. محتوایی که مخاطب را خشمگین یا هیجان‌زده کند، از نگاه سیستم، "موفق" است؛ اما در واقع، نظام احساسات جمعی را مسموم می‌کند. ج) زمان‌بندی و هم‌افزایی دیجیتال با تحلیل دقیق ساعت‌های اوج حضور کاربران و هماهنگی میان چند پلتفرم (مثل انتشار همزمان در تلگرام، اینستاگرام و ایکس)، محتوا به‌گونه‌ای پخش می‌شود که در بازه‌ای کوتاه، نرخ تعامل به‌صورت جهشی افزایش یابد. در نتیجه، الگوریتم آن را وارد فاز توصیه‌ی خودکار می‌کند و موج مصنوعی، واقعی به‌نظر می‌رسد. 🔻 در بحران‌های سیاسی و جنگ‌های اطلاعاتی، این مدل به ابزار اصلی عملیات شناختی تبدیل شده است. به‌عنوان مثال: 🔸 در انتخابات‌ها، برای ساختن چهره‌ی مثبت یا منفی از یک نامزد و اثرگذاری بر اصل انتخابات. 🔸 در جنگ‌ها، برای شکل‌دهی به تصویر قربانی و متجاوز. 🔸 و حتی در اقتصاد، برای تحریک احساس کمبود یا ناامنی نسبت به یک کالا یا ارز. در همه‌ی این موارد، هدف واحد است: مهندسی ادراک جمعی از طریق فریب الگوریتم. مدل دستکاری الگوریتمیک، تهدیدی پنهان اما عمیق برای امنیت شناختی جوامع است. زیرا در ظاهر، همه‌چیز طبیعی و مطابق قواعد پلتفرم پیش می‌رود، اما در واقع، واقعیت در حال بازنویسی است. 🔻 نتیجه‌ی نهایی چنین فرایندی، تحریف ادراک عمومی است: کاربر نه بر اساس واقعیت، بلکه بر اساس تکرار و دیده‌شدن، تصمیم می‌گیرد و قضاوت می‌کند. در این نقطه، جنگ شناختی بی‌صدا پیروز شده است. مدل دستکاری الگوریتمیک، نسل جدیدی از عملیات رسانه‌ای است که از لایه‌ی «محتوا» عبور کرده و به لایه‌ی «زیرساخت پلتفرم» رسیده است. شناخت آن برای فعالان رسانه‌ای، سیاست‌گذاران و حتی کاربران عادی حیاتی است، زیرا امروز میدان نبرد ادراک، نه در استودیوها، بلکه در کدهای پنهان پلتفرم‌ها جریان دارد. به بیان ساده‌تر: در عصر شبکه، قدرت نه با کسی است که بیشتر فریاد می‌زند، بلکه با کسی است که بلد است فریادش را به گوش الگوریتم برساند. پس صدایی که لزوما پر توان به گوش میرسد صدای صحیح نیست. گاه همه چیز دستکاری شده میتواند باشد... @basavadbash @basavadbash
⭕️ موافقت مجلس با تشکیل سازمان ملی هوش مصنوعی 🔹نمایندگان مجلس با تشکیل سازمان ملی هوش مصنوعی باهدف ساماندهی و توسعه زیست‌بوم هوش مصنوعی موافقت کردند. @basavadbash @basavadbash
چطور ما را فریب می‌دهند و چطور باید مقابله کنیم / 10 راهکار که از طریقش بفهمیم کدام اکانت ها سایبری های دشمن هستند..... ✍ به قلم آقای تحلیلگر در فضای پرسرعت شبکه‌های اجتماعی، جنگِ اطلاعاتی بر عهده اکانت‌های جعلی، ربات‌ها و عملیاتِ "هماهنگِ غیرواقعی" . در این گزارش سعی کردم به طور خلاصه توضیح دهم چه کسانی، چگونه سعی دارند تا روایت‌ها را دستکاری کند و خودمان چطور از دام اجماع مصنوعی و فریب میتوانیم نجات پیدا کنیم. پلتفرم‌هایی مثل توییتر مکرراً شاهد موج‌هایی از اکانت‌های هماهنگ‌اند که با هدفِ القای "اجماع" یا جهت‌دهیِ افکار عمومی به‌طور هم‌زمان یک پیام را تکرار، تقویت یا هشتگ‌سازی می‌کنند. این عملیات‌ها می‌توانند هم منافع دولتی را دنبال کنند و هم بازیگران غیردولتی؛ گاهی گزارش‌ها نشان می‌دهند درصد قابل‌توجهی از اکانت‌هایی که درباره یک خبر مهم حرف می‌زنند، جعلی یا هماهنگ هستند. 🔻 هدفِ «لشکرِ فیک» چیست؟ چرا وقت و منابع صرف می‌کنند؟ ساختن یا تغییرِ روایتِ خبری، دوقطبی‌سازی اجتماعی، تضعیف اعتماد به رسانه‌ها و نهادها، هدایت توجه رسانه‌ای، یا آماده‌سازی بستر برای عملیات سیاسی/انتخاباتی. این تاکتیک‌ها روی تصمیم‌گیریِ جمعی (مثلاً نظر رای‌دهندگان یا واکنش عمومی به یک بحران) اثر ملموسی می‌گذارند. 🔻 چگونه کار می‌کنند؟ اکانت‌های انبوه با عکس‌های ساختگی و هویت‌های ساختگی تولید و به‌کار گرفته می‌شوند. 🔸 ربات‌ها: بعضی اکانت‌ها کاملاً خودکارند، بعضی ظاهراً انسانی‌اند اما برای جاانداختن یک روایت ساخته شده‌اند. 🔸 آستروترفینگ: ساخت پوششی از "جنبش مردمی" مصنوعی با هشتگ‌ها و پیام‌های هماهنگ. 🔸 استفاده از هوش مصنوعی: تولید متن و تصویر در مقیاس که فرایندِ تولیدِ محتوای جعلی را ارزان و سریع می‌کند. یک نمونه‌ٔ قابل فهم مطالعات و گزارش‌های بین‌المللی نشان داده‌اند که در برخی بحران‌ها و انتخابات، بخش چشمگیری از موج‌های خبری توسط اکانت‌های جعلی یا هماهنگ ایجاد شده‌اند. مثلاً تحلیل‌هایی که افزایش چشمگیر اکانت‌های دروغین در موضوعات انتخاباتی را نشان دادند. پلتفرم‌ها نیز در گزارش‌های شفافیت خود "تعداد حذف‌ها" و شبکه‌های کشف‌شده را اعلام می‌کنند. 🔻چطور خودمان تشخیص بدهیم؟ چک‌لیست عملی ۱۰ بندی 🔸 آیا اکانت تاریخچهٔ معنادار دارد؟ (پست‌های پراکنده و جدید = شک) 🔸 آیا عکس پروفایل یا نام شبیه سایر حساب‌هاست یا تصویری تولیدشده به نظر می‌رسد؟ (جستجوی عکس معکوس) 🔸 آیا مجموعه‌ای از حساب‌ها هم‌زمان و با متن‌های تقریباً مشابه پست می‌کنند؟ (هم‌زمانی یعنی هماهنگی) 🔸 آیا لینک‌ها همه به چند دامنهٔ تکراری هدایت می‌شوند؟ (شبکهٔ بازنشر) 🔸 آیا پاسخ‌گویی و تعامل انسانی وجود دارد؟ (پرسش و جواب واقعی کم = مشکوک) 🔸 آیا حساب تازه‌ساخته با فالوئر زیاد یا رفتار تبلیغاتی دارد؟ 🔸 آیا ژئوتگ/زبان و زمان‌بندی پست‌ها با محل ادعاشده جور درمی‌آید؟ 🔸 آیا اکانت‌ها دائماً همدیگر را ریتوییت می‌کنند؟ (تعامل حلقه‌ای) 🔸 آیا پیام‌ها احساس عاطفی بیش از حد، تند یا تحقیرآمیز دارند؟ (پوشش دادن روایت با هیجان) 🔸 قبل از بازنشر، آیا منبع دیگری مستقل هم آن را تأیید کرده؟ (همیشه چند منبع) 🔻 اگر مشکوک شدیم، چه کار کنیم؟ (اقدامات فوری برای شهروندان و رسانه‌ها) 🔸 شخصی: بازنشر نکنید 🔸 رسانه‌ای/تحقیقی: از ابزارهای شبکه‌نگاری (گراف ری‌توئیت/منشن) استفاده کنید، خوشه‌بندی زمانی انجام دهید و دنبال «نقطهٔ آغاز» موج بگردید. 🔸 اجتماعی/آموزشی: آموزش سواد رسانه‌ای را ساده و همه‌گیر کنیم: چک‌لیستِ فوق را در قالب تصاویر کوتاه در شبکه‌ها منتشر کنید. جنگ سایبری از جهاتی میتواند به اندازه ی فتح سرزمینی مهم باشد. این مسئله را جدی بگیرید و برایش خودتان را با سواد رسانه تجهیز کنید... @basavadbash @basavadbash
📆 ۲۹ اکتبر ، اینترنت 🔹در ۲۹ اکتبر ۱۹۶۹ میلادی، چارلز کلاین دانشجوی دانشگاه UCLA سعی کرد از طریق نخستین لینک در ARPANET واژه «ورود» (Login) را به رایانه ای در مرکز تحقیقاتی استنفورد ارسال کند. ARPANET در حقیقت نخستین شبکه سوئیچینگ بسته های اطلاعات در دنیا بود و پس از مدتی تبدیل به اینترنت جهانی شد. 🔸پس از آنکه حروف L و O ارسال شدند، سیستم از کار افتاد. به این ترتیب نخستین پیام ارسالی در اینترنت LO بود. 🔹حدود یک ساعت بعد، پس از بازیابی سیستم، کلمه Login به طور کامل و موفقیت آمیز ارسال شد. 🔸اکنون با گذشت پنج دهه از آن، بیش از ۴ میلیارد نفر در جهان به دسترسی دارند. @basavadbash @basavadbash
هشدار: اتصال حساب تلگرام به سرویس‌های هوش مصنوعی از طریق سرورهای واسط، میتواند باعث تهدید امنیت و حریم خصوصی کاربران شود یکی از مجریان سابق صدا و سیما اخیرا یک ربات تلگرامی را برای دسترسی به ChatGPT و فروش سرویس‌های پولی تبلیغ کرده است. اما پشت این تبلیغ، خطرات جدی امنیتی و سوءاستفاده از اطلاعات کاربران نهفته است. در واقع، این چت‌بات هیچ قابلیت واقعی یا اضافه‌ای نسبت به سرویس اصلی ChatGPT ندارد. کاربران با پرداخت هزینه اضافی به یک واسطه غیررسمی، با استفاده از API به چت‌جی‌پی‌تی متصل می‌شوند، بدون اینکه از امکانات بیشتر یا سرویس ویژه‌ای برخوردار شوند. ✓✓ نکات مهم درباره استفاده از این نوع چت‌بات‌ها: »» پیوند چت‌ها با هویت تلگرامی تمام مکالمات شما در این ربات‌ها، مستقیما به حساب تلگرام‌تان متصل می‌شود، شامل نام، نام‌کاربری(Username)، شناسه عددی کاربر (User ID) و حتی اطلاعات پرداخت. این یعنی مکالمات، دیگر خصوصی نیست. »» نبود شفافیت فنی هیچ سند رسمی درباره نحوه رمزنگاری، محل ذخیره‌سازی داده‌ها یا سیاست حفظ حریم خصوصی این ربات منتشر نشده است. در نتیجه، اطلاع دقیقی وجود ندارد که داده‌های کاربران ذخیره یا تحلیل میشوند یا نه؟ »» این نوع بات‌ها هیچ چیزی جز یک میان‌بر ناامن و پرریسک نیستند بهتر است مستقیما از وب‌سایت OpenAI استفاده کنید، نه از واسطه‌هایی که اطلاعات کاربران را به نام "هوش مصنوعی" جمع‌آوری می‌کنند. @basavadbash @basavadbash
🌺حکایتی بسیار زیبا و خواندنی🌺 🥢عالمی مشغول نوشتن با مداد بود ،، کودکی پرسید : چه می‌نویسی ؟؟ عالم لبخندی زد و گفت :مهم‌تر از نوشته‌هایم ،، مدادی است که با آن می‌نویسم ،، می‌خواهم وقتی بزرگ شدی مثل این مداد بشوی !! 🥢پسرک تعجّب کرد !! چون چیز خاصّی در مداد ندید ،، عالم گفت پنج خصلت در این مداد هست ،، سعی کن آن‌ها را به دست آوری .. 🥢اوّل : می‌توانی کارهای بزرگی کنی امّا فراموش نکن دستی وجود دارد که حرکت تو را هدایت می‌کند و آن دست خداست !! 🥢دوّم : گاهی باید از مدادتراش استفاده کنی ،، این باعث رنجش می‌شود ولی نوک آن‌را تیز می‌کند !! پس بدان رنجی که می‌برى از تو انسان بهتری می‌سازد !! 🥢سوّم : مداد همیشه اجازه می‌دهد برای پاک کردن اشتباه از پاک‌کن استفاده کنی ،، پس بدان تصحیح یک کار خطا ،، اشتباه نیست .. 🥢چهارم : چوب مداد در نوشتن مهم نیست ،، مهم مغز مداد است که درون چوب است ،، پس همیشه مراقب درونت باش که چه از آن بیرون می‌آید !! 🥢پنجم : مداد همیشه از خود اثری باقی می‌گذارد ،، پس بدان هر کاری در زندگی‌ات مى‌كنى ،، ردی از آن به‌جا مى‌ماند ،، پس در انتخاب اعمالت دقت کن ! @basavadbash @basavadbash
1.74M حجم رسانه بالاست
مشاهده در ایتا
🔻فیلم‌های ساختگی از دین و روحانیت در عصر هوش مصنوعی! 🔹مواظب این فیلم‌های تولیدی هوش مصنوعی باشید! 🔹به هیچ وجه به صرف فیلم و عکس اونم در فضای مجازی ، اعتماد و قضاوت نکنید @basavadbash @basavadbash
4.79M حجم رسانه بالاست
مشاهده در ایتا
نماینده لشکر فاطمیون در ایران از مشهد تا نیشابور را باید به افغانیا بدهید 👆👆👆👆👆 دوستان دقت کنید یه دروغ آشکار داره تو فضای مجازی منتشر میشه که این شخص نماینده لشکر فاطمیون در ایران معرفی میکنه این در حالی است که نماینده لشکر فاطمیون در ایران سید الیاس هستن ولی عده ای بخاطر اینکه نام لشکر فاطمیون رو بد جلوه بدن اومدن و این شخصی رو که داره این حرفها رو میزنه بنام نماینده لشکر فاطمیون در ایران جا میزنن مواظب باشید که تفرقه افکن ها نام تیپ فاطمیون رو خراب نکنن لشکر فاطمیون از نیروهای محب و جان فدای مقام معظم رهبری و ایران اسلامی و اسلام و انقلاب هستن بعضی ها میخوان آگاهانه یا ناآگاهانه اطلاعات غلط به جامعه بدن و تیپ فاطمیون رو در دید مردم بد جلوه بدن حواستون به تفرقه افکن ها و کسانی که میخوان به محور مقاومت و اسلام و انقلاب ضربه بزنن باشه @basavadbash @basavadbash
3.2M حجم رسانه بالاست
مشاهده در ایتا
☣️☢️ جذب سیگنال گوشی توسط مغز بچه ها!! ⚠️مراقب بچه‌هاتون باشید و نذارید اینقدر با گوشی کار کنن؛ یکم سبک زندگی تون رو مدیریت کنید.. @basavadbash @basavadbash