پذیرش هوش مصنوعی؛ سریعتر از اینترنت و کامپیوتر شخصی
🔹هر نسل یک انقلاب فناوری را تجربه میکند؛ از کامپیوتر شخصی تا اینترنت. اما موج تازه، یعنی هوش مصنوعی مولد، با سرعتی بیسابقه جهان را درنوردیده است.
💢این اینفوگرافی نشان میدهد:
▪️اینترنت برای رسیدن به پذیرش عمومی ۵ سال زمان برد.
▪️کامپیوتر شخصی به ۱۲ سال نیاز داشت.
▪️اما هوش مصنوعی مولد فقط در ۲ سال به همان نقطه رسید!
این شتاب، نشانه تغییر رفتار مصرفکننده و بازار است. کسبوکارهایی که استراتژی خود را سریع با AI هماهنگ کنند، برندهاند. وگرنه خطر عقبماندن، نزدیکتر از قبل خواهد بود
♨️نگاه جف بزوس به آینده هوش مصنوعی: حبابی صنعتی با منافع اجتماعی بلندمدت
🔹جف بزوس، بنیانگذار آمازون، در اظهارات جدیدی به تحلیل وضعیت فعلی هوش مصنوعی پرداخته و آن را به یک «حباب صنعتی» (Industrial Bubble) تشبیه کرده است.
🔸به گفته او، هیجان و سرمایهگذاریهای عظیم کنونی در حوزه هوش مصنوعی، انتظاراتی غیرواقعی ایجاد کرده که ممکن است در کوتاهمدت به شکست برخی شرکتها و پروژهها منجر شود. او این وضعیت را مشابه حباب داتکام در اواخر دهه ۹۰ میلادی میداند.
🔹با این حال، بزوس تأکید میکند که این حباب نباید باعث نگرانی درباره آینده این فناوری شود. او معتقد است که پس از فروکش کردن هیجانات و اصلاح بازار، فناوریهای بنیادی هوش مصنوعی به بلوغ خواهند رسید و تحولات شگرفی در صنایع مختلف، از بهداشت و درمان گرفته تا حملونقل و آموزش، ایجاد خواهند کرد.
🔸 از دیدگاه بزوس، هرچند مسیر پیش رو با چالشها و نوسانات همراه خواهد بود، اما هوش مصنوعی در نهایت یک انقلاب بزرگ فناورانه است که منافع گستردهای برای کل جامعه به ارمغان خواهد آورد.
چگونه قابلیت کنترل والدین را در ChatGPT فعال کنیم؟
🔹والدین ابتدا باید یک دعوتنامه برای حساب کاربری فرزند خود ارسال کنند. پس از پذیرفته شدن دعوتنامه، تمام تنظیمات از طریق حساب والدین قابل مدیریت خواهد بود.
🔹برای این کار کافیست وارد حساب خود شوید و از بخش تنظیمات گزینه Parental Controls را انتخاب کنید. سپس با افزودن ایمیل یا شماره تلفن فرزندتان، دعوتنامه ارسال میشود.
♨️ویژگیهای کلیدی برای نظارت والدین بر هوش مصنوعی:
▪️پس از اتصال حسابها، گزینههای کنترلی متعددی در اختیارتان قرار میگیرد. شما میتوانید برای استفاده روزانه فرزندتان برنامه زمانی مشخصی تعیین کنید. همچنین امکان غیرفعال کردن حالت صوتی و حافظه چتبات برای جلوگیری از شخصیسازی پاسخها وجود دارد.
▪️علاوه بر این موارد، مسدود کردن قابلیت ساخت یا ویرایش تصویر نیز ممکن است. شما همچنین میتوانید از استفاده مکالمات برای آموزش مدلهای هوش مصنوعی جلوگیری کنید. این ویژگیها به ایجاد تعادل میان استفاده آموزشی و حفاظت از حریم خصوصی کمک میکنند.
▪️یکی از مهمترین بخشهای این سیستم، ارسال هشدارهای ریسک به والدین است. اگر سیستم نشانههایی از نگرانیهای مربوط به سلامت روان یا رفتارهای پرخطر را تشخیص دهد به والدین از طریق ایمیل یا پیامک اطلاع میدهد. OpenAI تاکید میکند که این هشدارها همیشه دقیق نیستند اما اولویت با آگاهسازی سریع والدین برای مداخله در مواقع ضروری است.
🎬 ویدیوساز جدید هوش مصنوعی علیبابا با نام Wan 2.5 ✨
این مدل جدید میتواند از یک متن یا تصویر، ویدیوی ۱۰ ثانیهای فولاچدی با صدا بسازد!
wan.video
🚩 پرامپت ۲ دیدگاهی چیست؟
در این روش، از مدل میخواهید از دو زاویه متفاوت به یک مسئله نگاه کند— مثلاً از دید یک متخصص و از دید یک مخاطب عادی — و بعد خروجی نهایی را ترکیب کند.
🔸به این ترتیب، متن یا پاسخ هم عمق تخصصی خواهد داشت هم فهمپذیری بالا
📘 مثال برای استاد دانشگاه:
«موضوع عدالت اجتماعی را از دو دیدگاه بررسی کن:
1️⃣ دیدگاه یک استاد علوم سیاسی
2️⃣ دیدگاه یک دانشجوی سال اول.
در پایان، جمعبندیای بنویس که هر دو دیدگاه را به هم پیوند دهد.»
📗 مثال برای معلم:
«در مورد اهمیت ریاضی در زندگی، یک توضیح از دید معلم و یکی از دید دانشآموز بنویس.
در آخر، متنی تولید کن که هر دو دیدگاه را ترکیب کند.»
📙 مثال برای دانشجو:
«موضوع تاثیر هوش مصنوعی بر آموزش را از دید یک استاد و از دید یک دانشجو تحلیل کن،
و در پایان، جمعبندی مشترکی ارائه بده.»
🔸نتیجه:
▫️متن جذابتر و چندبُعدیتر خواهد شد
▫️مدل از حالت “ تک دیدگاهه" خارج شده و گفتوگو درونی بین دو دیدگاه میسازد .
✅ این تکنیک در تهیه محتوای آموزشی، مقالهنویسی، یا طراحی محتوا کاربردی خواهد بود
آموزش مدلهای هوش مصنوعی که قبلا با چند میلیون دلار انجام شدنی بود، اکنون نزدیک ۲۰۰ میلیون دلار (برای Gemini Ultra) هزینه دارد
این افزایش سرسامآور، نشان دهنده یک رقابت سنگین برای قدرت پردازش است که تنها غولهای فناوری توان ادامه آن را دارند.
نتیجه روشن است: ساخت مدلهای بنیادین به چند شرکت بزرگ محدود شده و سایر کسبوکارها ناگزیر خواهند شد بر بستر همین پلتفرمها نوآوری کنند!
عملیات نفوذ دیجیتال اسرائیل
▪️تحقیق مشترک هاآرتص و دِمارکر (TheMarker) بر اساس گزارش Citizen Lab دانشگاه تورنتو نشان میدهد که شبکهای سازمانیافته و فارسیزبان، مستقر در اسرائیل و با تأمین مالی غیرمستقیم دولتی، کارزاری گسترده برای تقویت چهره رضا پهلوی و ترویج ایده «بازگشت سلطنت» در رسانههای اجتماعی به راه انداخته است.
▪️همزمان، گزارش مؤسسه سیتیزنلب (Citizen Lab) دانشگاه تورنتو از وجود شبکهای موازی حکایت دارد که با استفاده از حسابهای جعلی و محتوای تولیدشده توسط هوش مصنوعی، روایتهایی پرو-اسرائیلی را در فضای مجازی فارسیزبان منتشر میکند. این شبکهها، بهویژه در لحظات حساس مانند حملات هوایی اسرائیل به زندان اوین، با پخش ویدئوهای دیپفیک و اخبار جعلی از پیش هماهنگشده، سعی در شکلدهی به افکار عمومی داشتهاند
https://farhikhtegandaily.com/page/273630
آیا اطلاعات شخصی شما در دارکوب پخش شده؟با گزارش دارکوب گوگل بررسی کنید
🔹دنیای اینترنت تنها همان چیزی نیست که در مرورگر میبینیم. زیر سطح این فضای آشنا، لایهای پنهان و تاریک به نام دارکوب (Dark Web)؛ جایی که دادههای کاربران، رمزهای عبور و اطلاعات شخصی قربانیان هک و نفوذ، خرید و فروش میشود.
🔹سرویس Dark Web Report گوگل، ابزاری است که مانند یک سامانه هشدار سریع، دارکوب را بهصورت مداوم پایش میکند تا مشخص کند آیا اطلاعات شما نیز در میان دادههای افشاشده قرار گرفته یا خیر.
🔹عملکرد این ابزار را میتوان به کارآگاهی دیجیتال تشبیه کرد که هر روز در میان بازارهای پنهان دارکوب جستوجو میکند. اگر نشانهای از دادههای شما، مانند آدرس ایمیل، شماره تلفن، نام یا اطلاعات شخصی، در میان فهرستهای منتشرشده پیدا شود، بلافاصله گزارشی برایتان ارسال میشود.
https://www.zoomit.ir/security/443418-personal-information-dark-web-leak/
🔸در صورت افشای اطلاعات، چه اقداماتی باید انجام دهیم؟
◼️ تغییر رمز عبور: در صورتی که گذرواژه شما در گزارش ذکر شده، بلافاصله آن را تغییر دهید و از رمزهای تکراری برای حسابهای دیگر استفاده نکنید. استفاده از نرمافزارهای مدیریت رمز عبور (Password Manager) توصیه میشود.
همچنین گوگل تاکید میکند که گزینه تایید هویت دومرحلهای اکانتتان حتما فعال باشد.
◾️ ایمیلهای جایگزین برای حسابهای حساس: اگر آدرس ایمیل شما در دارکوب دیده شده، بهتر است برای حسابهای بانکی، کاری یا حساس، ایمیل جداگانهای تعریف کنید.
◾️افزایش هوشیاری در برابر کلاهبرداریها: آگاهی از این موضوع که اطلاعات شخصیتان در فضای تاریک اینترنت قرار گرفته، به شما کمک میکند تا در برابر تماسها، پیامها یا ایمیلهای فیشینگ هوشیارتر باشید.
استفاده از هوش مصنوعی در پژوهش.pdf
حجم:
323.6K
بنیاد ملی علم ایران دستورالعمل استفاده از هوش مصنوعی در پژوهش را تصویب کرد.
در این سند پنج اصل کلی مورد تاکید قرار گرفته است:
✓ رعایت اخلاق علمی: استفاده از هوش مصنوعی نباید منجر به تقلب علمی، سرقت ادبی یا مسائلی از این دست شود.
✓ شفافیت: تمامی موارد استفاده از هوش مصنوعی باید به صورت دقیق در پروپوزال، گزارش و مقالات ذکر شود.
✓ پاسخگویی حقوقی و اخلاقی: استفاده کننده از هوش مصنوعی مسئولیت نهایی محتوا و نتایج آن را بر عهده دارد.
✓ عدم جایگزینی انسان با ماشین:هوش مصنوعی تنها یک ابزار کمکی است و نباید جایگزین خلاقیت، تفکر انتقادی و مسئولیت پژوهشگر شود.
✓ حفظ حریم خصوصی و امنیت داده ها: استفاده از هوش مصنوعی نباید منجر به افشای اطلاعات شخصی، محرمانه یا داده های حساس شود.
C617.pdf
حجم:
32M
با فرزندان بخوانیم: بخش اول کتاب کار و فناوری پایه ششم, به موضوعاتی مثل "الگوریتم, هوش مصنوعی و برنامه نویسی به زبان اسکرچ" اختصاص دارد که میتواند بعنوان یک منبع مناسب برای شروع آموزش و یادگیری کودکان در این حوزه مورد استفاده قرار گیرد
چرا صدای پیشفرض دستیارهای دیجیتال زنانه است؟
هنگامی که از دستیارهای صوتی مانند سیری، الکسا یا گوگل اسیستنت سؤالی میپرسید، به احتمال زیاد پاسخ را از زبان یک صدای زنانه میشنوید.
شاید در نگاه اول این مسئله چندان عجیب یا قابلتوجه نباشد؛ آنقدر به شنیدن صدای زن در نقش دستیار دیجیتال عادت کردهایم که دیگر برایمان طبیعی شده است.
اما اگر لحظهای مکث کنیم و دقیقتر به موضوع بیندیشیم، پرسش مهمی پیش میآید: چرا تقریباً همهی دستیاران دیجیتال و هوشهای مصنوعی صدایی زنانه دارند؟
این موضوع تصادفی نیست. بیش از یک دهه است که شرکتهای فناوری دستیاران دیجیتال خود، از سیری و گوگل اسیستنت گرفته تا کورتانا، الکسا، چت جیپیتی و حتی اسپیکرهای هوشمند را بهطور پیشفرض با صدای زن معرفی کردهاند.
دلایل این انتخاب ریشه در تاریخ، روانشناسی و کلیشههای فرهنگی متعددی دارد که شاید کمتر به آن اندیشیده باشیم.
https://nooshdaroo.ir/digital-literacy/default-voice-digital-assistants/
3.8M حجم رسانه بالاست
مشاهده در ایتا
گاف بزرگ باشگاه استقلال در استفاده از هوش مصنوعی در یک پرونده مهم حقوقی:
-دادن اطلاعات ناقص به هوش مصنوعی(پرامپت نویسی نادرست)
ـ اعتماد محض به پاسخ AI بدون کنترل و راستی آزمائی توسط کارشناس انسانی