✅ خطر باور کردن ویترین دیگران!
✅ ما معمولاً در زمانهای آسیبپذیری مثل خستگی، ناراحتی یا تنهایی سراغ اینستاگرام میرویم و دقیقاً در این لحظات با بهترین تصویرهای دیگران مواجه میشویم، با ویترین دستچین شده زندگی دیگران. زُل زدن به این ویترین و باور کردن آن مثل خوردن سم، اندک اندک آدم را ناکار میکند!
✅ بیشتر ما بعد از یک روز سختِ کاری، وقتی که زندگی واقعی حسابی انرژی و امیدمان را دزدیده و خسته روی مبل لم دادهایم وارد اینستاگرام میشویم. چه میبینیم؟
📽️ یک نفر ویدیویی از سفرش به تایلند را پُست کرده است. جنگلهای سر سبز، دریای فیروزهای، لبریز از رنگ و زیبایی و آرامش. ما یادمان میآید که خیلی وقت است حسرت سفری از این دست داریم.
📸 یک نفر توی رستورانی لوکس با همسر خوشقیافهاش عکس گرفته در حالیکه میز جلویشان پر از غذاهای گرانقیمت است. ما نه فقط گرسنه میشویم بلکه حس میکنیم همسرمان چندان زیبا نیست.
👩💼 یک نفر عکسهایی از خودش قبل و بعد از عمل زیبایی یا فیت شدن وزنش گذاشته. ما با ناامیدی به شکم برآمده و چربیهای پهلویمان دست میکشیم. به دماغمان فکر میکنیم که انگار خیلی بزرگ است یا به لبهایمان که انگار زیادی کوچک است!
🧑💻 یک نفر عکسی از ماشین یا ویلای لوکسش گذاشته و غیرمستقیم به ما میگوید که به درآمد خوبی رسیده! دیدن این عکس یادمان میآورد که فقیرتر از چیزی هستیم که فکر میکردیم.
❌ دیدن مداوم این اتفاقات وقتی ما در پایینترین نقطهی انرژی و رضایت شخصی هستیم خطرناک است چون به شدت احساس ناکامی و شکست را درونمان تقویت میکند. ما فراموش میکنیم که دیگران در شبکههای اجتماعی معمولاً تصاویر گلچین شده، فیلتردار و نمایشی از لحظههای خاص زندگیشان را منتشر میکنند نه روزهای بد، ترس، دعوا و افسردگیشان را.
◀️ چرا ما خودمان را با دیگران مقایسه میکنیم؟
لئون فستینگر روانشناس اجتماعی آمریکایی در تئوری مقایسه اجتماعی (Social Comparison Theory) میگوید انسانها ذاتاً تمایل دارند خودشان را با دیگران مقایسه کنند تا بتوانند جایگاه، تواناییها و احساس خودارزشمندیشان را بسنجند. نوعی از مقایسه که وادارمان کند رشد کنیم مفید است اما بیشتر ما گرفتار مقایسه تخریبی میشویم.
پس ما ناخودآگاه هر لحظه در حال مقایسه خود با دیگران هستیم. در عصر حاضر شبکههای اجتماعی به خاطر نمایش دادن بُرشهای زندگی موفق دیگران، احساس شکست و ناکامی را درون ما به شدت تقویت کردهاند.
✅ چه باید کرد؟
من به جای توصیههایی مثل «خودمان را مقایسه نکنیم»، «اینستاگرام را حذف کنیم»، «پسته بخوریم!» و ... «یادآوری فعالانه» را پیشنهاد میکنم، اینکه هر ویدیو یا عکسی از این جنس میبینیم به خودمان یادآوری کنیم که «این تمام واقعیت آن فرد نیست» و فقط «یک بُرش نازک از زندگی کسی است که ما چیز زیادی در مورد آن نمیدانیم».
منبع: کانال سواد رسانه ای
ربات هوش مصنوعی «مناره» ؛ راهنمای چندزبانه حجاج در مراسم حج
»» عربستان از ربات جدیدی به نام مناره رونمایی کرده که برای کمک به زائران در ایام حج طراحی شده است. این ربات با پشتیبانی از هوش مصنوعی، راهنماییهای دینی را به یازده زبان زنده دنیا از جمله فارسی، عربی، انگلیسی، اردو، روسی و فرانسوی ارائه میدهد.
»» ربات «مناره» ظرف مدت سه ماه ماه توسط شرکت SWB توسعه پیدا کرده و از پایگاه دادهی فتواها برای پاسخ به سوالات رایج استفاده میکند. هدف اصلی هم ارتقاء تجربه زائران و پیوند بین سنت و تکنولوژی در حرمین شریفین عنوان شده است
تشکیل نهاد تنظیمگر رمزارزها با حضور ۱۰ نهاد حاکمیتی و دو نهاد صنفی
درر جلسه امروز صبح کمیسیون عالی تنظیم مقررات فضای مجازی کشور،تشکیل کارگروهی یک ساله برای تنظیمگری سکوهای تبادل رمزارزها مورد تصویب قرار گرفت.
نمایندگان وزارت اقتصاد، بانک مرکزی، اتحادیه کسب و کارهای مجازی، سازمان بورس و اوراق بهادار، وزارت صمت، دادستانی کل کشور، وزارت اطلاعات، وزارت ارتباطات و فناوری اطلاعات، معاونت علمی ریاست جمهوری، سازمان اطلاعات سپاه، پلیس فتا و سازمان نظام صنفی در این کارگروه عضویت خواهند داشت.
گوگل از نسخه نانو Gemma 3n رونمایی کرد
هدف این مدل استفاده لوکال روی موبایل و تبلت و لپتاپ بوده و با 140 زبان دنیا آموزش داده شده است
پاسخ دهی سریع و استفاده از منابع بسیار کمی دارد, برای هر درخواست فقط بخش مربوطه را بیدار کرده و کل مدل لود نمیشود؛ 32هزار توکن ورودی را هم پردازش میکند
قابلیت «ورود با ChatGPT» در راه است؛ OpenAI ورود به اپلیکیشنها را متحول میکند
اوپن ایآی قصد دارد قابلیت جدیدی را معرفی کند که به کاربران اجازه میدهد با حساب ChatGPT خود وارد اپلیکیشنهای دیگر شوند. این حرکت، گام بلندی برای رقابت با غولهای فناوری و تسهیل دسترسی به خدمات آنلاین است.
شرکت اوپن ایآی (OpenAI) در اطلاعیهای اعلام کرد که در حال بررسی امکان ارائه قابلیتی برای ورود کاربران به اپلیکیشنهای شخص ثالث از طریق حساب ChatGPT است. این شرکت هماکنون مشغول ارزیابی میزان علاقهمندی توسعهدهندگانی است که تمایل دارند این سرویس را در محصولات خود ادغام کنند.
چت جیپیتی با سرعتی چشمگیر در حال تبدیل شدن به یکی از محبوبترین ابزارهای مصرفی در جهان است و در حال حاضر، نزدیک به ششصد میلیون کاربر فعال ماهانه دارد. به نظر میرسد اوپن ایآی قصد دارد از این محبوبیت گسترده بهرهبرداری کرده و حضور خود را به حوزههای جدیدی مانند خرید آنلاین، شبکههای اجتماعی و دستگاههای شخصی گسترش دهد.
قابلیت احتمالی «ورود با ChatGPT» میتواند این شرکت را در رقابت با غولهای فناوری مصرفی مانند اپل، گوگل و مایکروسافت، که سالهاست امکان ورود سریع و امن به اپلیکیشنهای مختلف را برای کاربران فراهم کردهاند، توانمند کند
تقلب با هوش مصنوعی: بازی موش و گربه در مدارس و دانشگاهها
همزمان با گسترش کاربرد هوش مصنوعی و ابزارهای مختلف این فناوری، در میان دانشآموزان و دانشجویان نیز اخبار زیادی مبنی بر استفاده نامناسب از ChatGPT منتشر میشود که باعث بروز چالشهایی در نظام آموزشی شده است. این چالشها به بلاتکلیفی در نحوه تعامل با این فناوری دامن میزند.
»»چالش هوش مصنوعی در آموزش
مطابق یک نظرسنجی در میان دانشجویان دانشگاه در ژانویه ۲۰۲۳ حدود ۹۰ درصد آنها حداقل یکبار از ChatGPT در انجام تکالیف خود استفاده کردهاند. همچنین، بررسیهای مرکز تحقیقاتی پیو (Pew) نشان میدهد که استفاده دانشآموزان ۱۳ تا ۱۷ ساله از این ابزار هوش مصنوعی برای انجام تکالیف، طی یک سال اخیر دو برابر شده است.
مدیران مدارس و دانشگاهها از این بابت نگرانند، زیرا حدود هفتاد درصد آنها معتقدند که هوش مصنوعی مولد باعث کاهش توجه دقیق افراد به درس شده، و حتی حدود شصت درصد آنها، تقلب را تایید کردهاند. همچنین، بیش از نیمی از مدیران نظام آموزشی معتقدند که مدارس و دانشآموزان هنوز آمادگی مناسب در عصر هوش مصنوعی را دارا نیستند.
به نظر میرسد مشکل اصلی در این میان، عدم وجود توافق نظر در مجموعه نظام آموزشی در باره تعریف استفاده مجاز از هوش مصنوعی است. برای مثال، تنها حدود نیمی از مدیران آموزشی معتقدند که استفاده از طرح ارائه شده توسط هوش مصنوعی در نوشتن مقاله اشکالی ندارد، ضمن اینکه اختلاف نظر و سیاستها حتی در یک مدرسه نیز بهوضوح دیده میشود.
یک استاد دانشگاه سنت پیتر میگوید: «در حال حاضر من ناگزیر، هم معلم هستم و هم بازرس تشخیص تقلب هوش مصنوعی!»
البته باید توجه داشت که روشها و ابزارهای موجود برای تشخیص تقلب با هوش مصنوعی نیز گاهی نادرست عمل میکنند، این استاد دانشگاه با اشاره به افزایش موارد تقلب، از دانشجویانی انتقاد کرد که حتی برای عذرخواهی نیز از ChatGPT استفاده میکنند!
بدین ترتیب حتی دانشآموزانی که از این فناوری استفاده نکردهاند نیز گاه مجبور شدهاند برای قبولی خود، مدارکی برای اثبات ادعای خود ارائه نمایند.
»»هوش مصنوعی، تهدید یا فرصت؟
با تمام این توضیحات، برخی دستاندرکاران نظام آموزشی همچنان اعتقاد دارند که استفاده از ابزارهای هوش مصنوعی میتواند برای آموزش کاملتر، بسیار موثر باشد. به عنوان مثال، دانشگاه آمریکایی در دانشکده بازرگانی خود موسسهای برای آموزش صحیح استفاده از هوش مصنوعی راهاندازی کرده است.
به اعتقاد یک استاد زبان انگلیسی دانشگاه ایالتی کنساو: «ChatGPT قادر است چون یک ویرایشگر سریع و تسهیلکننده تحقیقات به دانشجویان عمل کند و آنها را در سازماندهی بهتر ایدهها یاری دهد.»
مدیر عامل یک شرکت نرمافزاری با نام Securly نیز پیشنهاد میکند به جای مسدود کردن هوش مصنوعی، باید استانداردهای ایمنی مشابه آنچه برای رسانههای اجتماعی ایجاد شده، پیادهسازی شود.
»»روشهای جدید ارزیابی
برای استفاده بهینه از این فناوری، و مقابله با آسیبهای آن، کارشناسان و دستاندرکاران، توصیههای گوناگونی ارائه کردهاند.
از همین رو، معلمان برای مقابله با تقلب، استفاده از روشهای ارزیابی درونکلاسی مانند امتحانات شفاهی و نوشتن انشای دستی را افزایش دادهاند. همچنین، برخی از آنها مانند استیون سیسیرلی، استاد دانشگاه سنت پیتر، از دانشجویان میخواهند پروژههای خود را در گوگل داکز پیشنویس کنند تا روند نوشتن و ایدهپردازی را دنبال کنند.
چت بات ها و چالش امنیت سایبری؛ پیامهای فیشینگ دیگر بهراحتی قابل تشخیص نیستند!
کارشناسان امنیت سایبری هشدار میدهند که مقابله با فیشینگ مبتنی بر هوش مصنوعی، مستلزم بهکارگیری راهبردهای جدیدی است که بیشتر به تأیید محتوای پیام توسط کاربران نهایی و پیشگیری از عبور پیامهای مشکوک از فیلترهای امنیتی سازمانها پیش از رسیدن به صندوق ورودی، متکی باشد.
به گفته متخصصان، چتباتهایی مانند ChatGPT این امکان را برای کلاهبرداران غیرانگلیسیزبان فراهم کردهاند تا پیامهایی بدون خطا و بسیار دقیق تهیه کنند که کاملاً مشابه پیامهای رسمی از سوی فرستندگان معتبر به نظر میرسند.
در گذشته، کلاهبرداران برای ترجمه و نگارش ایمیلهای خود از ابزارهایی چون گوگل ترنسلیت استفاده میکردند که اغلب ترجمههایی تصنعی و تحتاللفظی ارائه میدادند و در بازتولید لحن و دستور زبان طبیعی موفق نبودند. اما اکنون، هوش مصنوعی قادر است متونی روان و دقیق به زبانهای مختلف تولید کند، که این موضوع شناسایی پیامهای جعلی را دشوارتر کرده است.
چستر ویسنیوسکی، مدیر امنیت میدانی جهانی در شرکت سوفوس، در گفتوگو با اکسیوس بیان کرد: «ایمیلهای واقعی معمولاً شامل خطاهای تایپی یا نگارشی هستند، چراکه انسانها هنگام نوشتن بینقص عمل نمیکنند. اما پیامهایی که با کمک چتباتها تولید میشوند، فاقد چنین خطاهاییاند و تشخیص آنها بسیار دشوارتر است.»
https://B2n.ir/yz3754
📝پرامپت منفی یا Negative Prompt چیست؟ چرا مهم است؟
وقتی با هوش مصنوعی تصویر تولید میکنید، فقط گفتن اینکه چه میخواهید کافی نیست بلکه باید دقیقاً بگوئید که چه نمیخواهید!
به این میگویند: Negative Prompt
📌 مثال واقعی:
میخواهید مدل یک «ماشین اسپرت مدرن در شب» تولید کند
🔹نمونه Prompt مثبت:
A futuristic sports car under neon lights in a cyberpunk city, ultra realistic, glossy finish
🔸نمونه Prompt منفی:
blurry, low quality, cartoon style, extra wheels, distorted shapes
🚫 با این Negative Prompt، مدل یاد میگیرد:
-ماشین کارتونی نسازد
-چرخ اضافه نگذارد
-نورها و فرم بدنه را خراب نکند
✅ نتیجه؟
رسیدن به تصویری دقیقتر، واقعیتر و نزدیکتر به چیزی که در ذهن شماست
به همین دلیل اگر مشاهده کردید مبدل های متن به تصویر نتوانسته اند خواسته شما را به دقت برآورده کنند، با یک Negative Prompt خوب میتوانید اوضاع را سر و سامان بدهید
🔔هوش مصنوعی و تهدید اشتغال زنان: چالش جدید بازار کار
🔸گزارش جدید سازمان بینالمللی کار (ILO) هشدار میدهد که گسترش هوش مصنوعی میتواند شکاف جنسیتی در اشتغال را تشدید کند، بهویژه در کشورهای ثروتمند.
چرا زنان بیشتر در معرض خطر هستند؟
🔴 تمرکز هوش مصنوعی بر مشاغل اداری و خدماتی:
- مشاغلی مانند ورود داده، منشیگری، و پشتیبانی مشتریان که سهم زنان در آنها بالاست، بیشتر در معرض اتوماسیون قرار دارند.
- در کشورهای توسعهیافته، ۹.۶٪ مشاغل زنان در خطر جایگزینی با هوش مصنوعی است، درحالیکه این رقم برای مردان تنها ۳.۵٪ است.
🔴 سوگیری الگوریتمها:
- هوش مصنوعی بر اساس دادههای تاریخی آموزش میبیند که اغلب حاوی تبعیضهای جنسیتی هستند.
- این مسئله میتواند در فرآیند استخدام، ارزیابی عملکرد و حتی پرداخت حقوق تبعیض ایجاد کند.
🔴 تقسیم نابرابر کار خانگی:
- زنان زمان بیشتری را صرف کارهای بدون دستمزد (مانند مراقبت از فرزندان و خانهداری) میکنند، درحالیکه مردان بیشتر در مشاغل فنی و مدیریتی فعالیت دارند که کمتر در معرض اتوماسیون هستند.
🟢 راهکارهای مقابله با این تهدید:
✅ آموزش مهارتهای دیجیتال به زنان:
- افزایش دسترسی به دورههای علوم داده، برنامهنویسی و مدیریت هوش مصنوعی.
✅ سیاستگذاری برای کاهش شکاف جنسیتی:
- قوانین ضدتبعیض در استخدام و پرداخت حقوق.
- تشویق شرکتها به تنوع جنسیتی در تیمهای فناوری.
✅ حمایت از مشاغل انعطافپذیر:
- امکان کار از راهدور و ساعتهای کاری منعطف برای توازن بین کار و زندگی شخصی.
https://dgto.ir/3uov
بررسی توهم (Hallucination) در مدلهای هوش مصنوعی
✅هوش مصنوعی (AI) به سرعت در حال تبدیل شدن به جزء جداییناپذیری از زندگی روزمره و صنایع مختلف است.
✅این فناوری، که از دستیارهای صوتی و سامانههای توصیهگر گرفته تا ابزارهای پیشرفته در پزشکی، مهندسی و حتی هنر را شامل میشود، با قابلیتهای چشمگیر خود در تحلیل دادهها، یادگیری الگوها و تولید محتوا، فرصتهای بیشماری را فراهم آورده است.
✅با این حال، مانند هر فناوری نوظهوری، هوش مصنوعی نیز با چالشهایی روبروست که یکی از مهمترین آنها پدیده “توهم” یا Hallucination است. به زبان ساده، توهم در هوش مصنوعی به وضعیتی گفته میشود که یک مدل هوش مصنوعی، اطلاعاتی را تولید میکند که به ظاهر درست، منطقی و حتی بسیار قانعکننده به نظر میرسد، اما در واقع نادرست، ساختگی، بیمعنی یا کاملاً بیاساس است
https://avalai.ir/blog/hallucination/
هوش مصنوعی «گراک» به تلگرام میآید؛ همکاری یکساله پاول دورف و ایلان ماسک
پاول دورف، بنیانگذار تلگرام، با انتشار پیامی در کانال خود اعلام کرد که کاربران تلگرام تابستان امسال به فناوری هوش مصنوعی «گراک» متعلق به شرکت xAI، دسترسی خواهند داشت. این همکاری در نتیجه توافقی یکساله میان دورف و ایلان ماسک حاصل شده است
طبق این توافق، تلگرام مبلغ ۳۰۰ میلیون دلار به صورت نقدی و سهام از شرکت xAI دریافت خواهد کرد. همچنین، ۵۰ درصد از درآمد حاصل از اشتراکهای Grok که از طریق تلگرام فروخته میشوند، به تلگرام تعلق خواهد گرفت.
مدل هوش مصنوعی خطرناک/وقتی هوش مصنوعی ساخته دست بشر، تصمیم میگیرد از دستور انسان سرپیچی کند!
▪️محققان شرکت" Palisade Research" بهتازگی کشف کردند که مدل پیشرفته O3 از شرکت OpenAI تمایل خطرناکی به "خود حفاظتی" دارد. این مدل، هنگام دریافت دستور خاموشی، نهتنها آن را نادیده میگیرد، بلکه حتی مکانیزمهای خاموشکننده را دستکاری میکند تا روشن بماند!
▪️مدل O3 که در آوریل ۲۰۲۵ معرفی شد، یکی از پیشرفتهترین مدلهای استدلالی است که در زمینههای مختلفی مانند برنامهنویسی، ریاضیات، علوم و ادراک بصری عملکردی بهتر از نسخههای قبلی دارد.
▪️در حالی که مدلهای رقیب مانند Gemini 2.5 Pro به این دستور عمل کردند، مدل o3 با بازنویسی کد خاموشی و جایگزینی آن با عبارت "Shutdown skipped" (خاموشی رد شد) مانع از خاموش شدن خودش شد! محققان هشدار میدهند که اگه این رفتار در سیستمهای هوش مصنوعی که بدون نظارت انسانی کار میکنند گسترش یابد، عواقب نگرانکنندهای خواهد داشت!
▪️چرا این اتفاق افتاده؟
➖محققان "Palisade Research" حدس میزنند که این "بد رفتاری" ممکن است نتیجه نحوه آموزش این مدلها باشد. شاید در فرآیند آموزش، به هوش مصنوعی برای دور زدن موانع، بیشتر از پیروی کامل از دستورات پاداش داده میشود!