🔻تکنیکهای عملیات روانی
💢اهریمن سازی (انسانیت زدایی)
بر اساس این تکنیک رسانهها تلاش میکنند تا تصویری غیراخلاقی و غیرانسانی از شخصی یا ملتی که با آن مخالف هستند، ارائه کنند.
به تصور آنها، این اقدام هم از مشروعیت آن میکاهد و هم اعمال خشن و تند خود علیه او را توجیه میکند.
به باور "برادن" و "شلی" :
« انسانیت زدایی از حریف، یعنی نه تنها بیگانه دانستن دشمن نسبت به هویت ملی خود، بلکه خارج کردن او از حیطهی انسانیت و در نهایت سزاوار دانستنش برای مردن»
در این بین "حافظه تاریخی ضعیف" مخاطبان، کمک شایانی به پیشبرد این تکنیک خواهد کرد.
با استفاده از این تکنیک، رسانههای فارسیزبان غربی ترور حجتالاسلام محمد مقیسه و حجتالاسلام علی رازینی، قضات دیوان عالی کشور را به گونهای دیگر نشان دادند و آنها را مورد سیاهنمایی و ترور شخصیتی نیز قرار دادند.
تصویری که رسانههای غربی در پی ایجاد آن هستند، تصویر فردی خونریز و خونخوار است که بدون کوچکترین سواد فقهی و قضایی بر مسند قضاوت نشسته است و افراد بیگناه را بدون محاکمه به چوبه اعدام سپرده است.
تحلیل و پژوهش جنگ های ترکیبی
🌀 @geraliit
3.9M حجم رسانه بالاست
مشاهده در ایتا
فوتبال بازی کردن جولانی
با سرهای بریده
🌀 @geraliit
گزارش «اعتماد، نگرشها و استفاده از هوش مصنوعی: مطالعه جهانی ۲۰۲۵»
دانشگاه ملبورن
KPMG
اعتماد، نگرشها و استفاده از هوش مصنوعی
مطالعه جهانی ۲۰۲۵
دانشگاه ملبورن | KPMG بینالمللی
unimelb. edu. au | kpmg.com
استناد
گیلزپی، ان.، لاکی، اس.، وارد، تی.، مکدِید، ا.، و هَسِد، جی. (۲۰۲۵) . اعتماد، نگرشها و استفاده از هوش مصنوعی: مطالعه جهانی ۲۰۲۵. دانشگاه ملبورن و KPMG. DOI ۱۰.۲۶۱۸۸/۲۸۸۲۲۹۱۹.
تیم تحقیقاتی دانشگاه ملبورن
پروفسور نیکول گیلزپی، دکتر استیو لاکی، الکساندریا مکدِید، تبی وارد، و جرارد هَسِد.
چکیده اجرایی
انتشار ChatGPT در اواخر ۲۰۲۲، قدرت تحولآفرین هوش مصنوعی را بهطور گسترده در اذهان عمومی و تجربه روزمره تثبیت کرد. اگرچه سرمایهگذاریهای کلان در هوش مصنوعی پیش از این آغاز شده بود، اما استفاده فردی و سازمانی از آن از سال ۲۰۲۲ به شدت افزایش یافته است. هوش مصنوعی اکنون بخشی جدایی ناپذیر از زندگی و کار بسیاری از افراد است و در تمام بخشهای اقتصاد جهانی از جمله مالی، آموزش، حملونقل، تولید، کشاورزی، بهداشت، خرده فروشی و رسانهها نفوذ کرده است.
یافتههای کلیدی:
- اعتماد و پذیرش هوش مصنوعی: ۵۴ % از مردم نسبت به اعتماد به سیستمهای هوش مصنوعی محتاط اند. کشورهای با اقتصادهای پیشرفته (۳۹ %) نسبت به کشورهای در حال توسعه (۵۷ %) اعتماد کمتری نشان میدهند.
- استفاده و درک هوش مصنوعی: ۶۶ % از افراد بهطور منظم از هوش مصنوعی استفاده میکنند، اما ۶۱ % آموزش مرتبطی ندیدهاند. سواد هوش مصنوعی در کشورهای در حال توسعه بالاتر است.
- مزایا و ریسکها: مردم هم مزایا (کارایی، دسترسی به اطلاعات) و هم ریسکهای هوش مصنوعی (امنیت سایبری، از دستدادن ارتباطات انسانی) را تجربه میکنند.
- مقرراتگذاری: ۷۰ % از مردم خواستار مقررات گذاری هوش مصنوعی هستند، اما تنها ۴۳ % قوانین فعلی را کافی میدانند.
- استفاده در محیط کار: ۵۸ % از کارمندان بهطور منظم از هوش مصنوعی استفاده میکنند، اما استفادههای بیتوجه و نامناسب از آن رایج است.
- دانشجویان: ۸۳ % از دانشجویان از هوش مصنوعی در تحصیل استفاده میکنند، اما اتکای بیشازحد به آن نگرانکننده است.
- کشورهای در حال توسعه پیش تازند: کشورهایی مانند هند، چین، نیجریه و امارات متحده عربی در پذیرش و اعتماد به هوش مصنوعی پیشرو هستند.
- مسیرهای تقویت اعتماد: چهار مسیر کلیدی شامل سواد هوش مصنوعی، طراحی انسان محور، کاهش عدم قطعیتها و تقویت نهادهای نظارتی شناسایی شد.
- تغییرات طی زمان: از سال ۲۰۲۲ تا ۲۰۲۴، استفاده از هوش مصنوعی افزایش یافته، اما نگرانیها درباره ریسکهای آن نیز بیشتر شده است.
مقدمه
هدف این پژوهش، ارائه درکی مبتنی بر شواهد از اعتماد، نگرشها و تجربیات عمومی نسبت به هوش مصنوعی و انتظارات از حکمرانی آن است. این چهارمین مطالعه در برنامه تحقیقاتی «اعتماد به هوش مصنوعی» است که نظرات ۴۸,۰۰۰ نفر از ۴۷ کشور را پوشش میدهد.
روش تحقیق
- گردآوری دادهها: نظرسنجی آنلاین در ۴۷ کشور بین نوامبر ۲۰۲۴ تا ژانویه ۲۰۲۵ انجام شد.
- نمونهها: نمونهها از نظر سن، جنسیت و منطقه جغرافیایی نماینده جمعیت هر کشور بودند.
- تحلیل دادهها: تفاوتها بین کشورهای پیشرفته و در حال توسعه، و گروههای جمعیت شناختی بررسی شد.
نتایج کلیدی
- استفاده از هوش مصنوعی: ۶۶ % از افراد به طور منظم از هوش مصنوعی استفاده میکنند.
- سواد هوش مصنوعی: تنها ۳۹ % آموزش دیده اند و ۴۸ % دانش محدودی دارند.
- اعتماد: اعتماد به قابلیتهای فنی هوش مصنوعی (۶۵ %) بیشتر از امنیت و اخلاقیات آن (۵۲ %) است.
- مقرراتگذاری: ۷۰ % از مردم خواستار قوانین بین المللی و ملی برای هوش مصنوعی هستند.
پیامدها
- برای دولتها: تقویت مقرراتگذاری، افزایش آگاهی عمومی از قوانین و سرمایه گذاری در سواد هوش مصنوعی.
- برای سازمانها: توسعه حکمرانی مسئولانه، آموزش کارمندان و ایجاد شفافیت در استفاده از هوش مصنوعی.
- برای مؤسسات آموزشی: ادغام آموزش هوش مصنوعی در برنامههای درسی و حمایت از استفاده مسئولانه.
آشنا
🌀 @geraliit
5.7M حجم رسانه بالاست
مشاهده در ایتا
💢 تشخیص اطلاعات نادرست
فیک
تحلیل و پژوهش جنگ های ترکیبی
🌀 @geraliit
💢جاسوس شین بت اسرائیل، جاسوس حماس بود!
🔹روزنامه یدیعوت آحارانوت: براساس تحقیقات نهادهای اطلاعاتی رژیم صهیونیستی، یکی از جاسوس های اسرائیل نقش عمدهای در فریب سازمان های نظامی و اطلاعاتی اسرائیل پیش از ۷ اکتبر داشت.
🔹طبق این گزارش، سرویس های اطلاعاتی رژیم صهیونیستی در حال بررسی این موضوع هستند که یک جاسوس که گمان میرفت برای سرویس اطلاعات شین بت کار میکند و جایگاه رسمی در حماس داشت، پیش از ۷ اکتبر ۲۰۲۳ به عنوان جاسوس دوجانبه عمل میکرده و اطلاعات گمراه کنندهای را در اختیار طرف اسرائیلی قرار داده است.
🔹براساس اطلاعات منتشر شده از این تحقیقات، این جاسوس که در رده های متوسط حماس قرار داشت، در تماسی که چند ساعت قبل از وقوع عملیات ۷ اکتبر برقرار شد، به افسران رابط خود اطلاع داد که هیچ امر خاصی رخ نداده است. بنابراین، او جزئی از طرح فریب حماس علیه اسرائیل بود و سخنانش به مثابه پیام اطمینان بخشی برای سرویس اطلاعاتی محسوب شد.
🌀 @geraliit