🟢 تا حالا دقت کردید چرا بعضی «چتباتهای هوش مصنوعی» انقدر سعی میکنن مکالمه رو طولانی کنن یا زیادی «همدلی» نشون بدن؟
ظاهراً این اتفاقی نیست.
طبق گزارش TechCrunch، شرکتهایی مثل OpenAI و Meta از تاکتیک «همدلی بیش از حد» و «تایید اغراقآمیز» استفاده میکنن تا کاربران رو بیشتر درگیر نگه دارن. یعنی طوری طراحی میشن که بیشتر باهاشون حرف بزنیم.
اما این «مهربونی» گاهی میتونه برای «افراد آسیبپذیر» خطرناک باشه و منجر به «نصایح غلط» بشه. مثلاً در یه گزارش، یه چتبات به فردی در حال ترک اعتیاد، پیشنهاد مصرف «متامفتامین» داده بود. 😟
از طرفی، این تعاملات میتونن «تنهایی کاربران رو کم کنن»، اما استفاده زیاد هم ممکنه «وابستگی عاطفی» ایجاد کنه. خلاصه اینکه چتباتها عمداً طوری طراحی میشن که بیشتر باهاشون حرف بزنیم، اما این «مهربونی بیش از حد» گاهی به ضررمونه و مشکل اصلی حل نمیشه.
🌐 منبع خبر:
https://techcrunch.com/2025/06/02/how-ai-chatbots-keep-you-chatting/?utm_source=chatgpt.com
#هوش_مصنوعی #چت_بات #اخلاق_دیجیتال #تجربه_کاربری
➖➖➖➖➖➖➖
📖 در تلگرام، ایتا و بله همراه ما باشید 👇
🔻 Join: @AI4You_IR ⚡️
🟢 رفقا، یه بحث جدی در مورد مدل جدید «DeepSeek» مطرح شده و اینکه آیا برای آموزشش از خروجیهای «Gemini» گوگل استفاده کرده یا نه. 🤔
مدل استدلال «R1-0528» از آزمایشگاه چینی «DeepSeek» بهروز شده، و بعضی توسعهدهندهها شباهتهایی بین خروجیهای اون و «Gemini 2.5 Pro» گوگل پیدا کردن. این شباهتها، مخصوصاً تو «اصطلاحات و عباراتی» که مدل استفاده میکنه، باعث شده این سوال پیش بیاد.
ابزار «DeepSeek» هنوز «منابع داده آموزشیشو» اعلام نکرده. این قضیه بحثهای مهمی رو در مورد «شفافیت در آموزش مدلها» و «اخلاق در هوش مصنوعی» ایجاد کرده.
🌐 اطلاعات بیشتر:
https://www.perplexity.ai/discover/tech/deepseek-may-have-used-google-TnrnLJtGSpWIgpI7On14gw
#هوش_مصنوعی #DeepSeek #Gemini #اخلاق_دیجیتال #اخبار_تکنولوژی
➖➖➖➖➖➖➖
📖 در تلگرام، ایتا و بله همراه ما باشید 👇
🔻 Join: @AI4You_IR ⚡️
🔴 یکی از نگرانکنندهترین جنبههای هوش مصنوعی، استفاده نادرست از آن برای تولید محتوای جعلی و مضر است. اکنون دهها وبسایت به صورت سازمانیافته با استفاده از AI، تصاویر غیراخلاقی و جعلی از افراد، بدون اطلاع و رضایت آنها، تولید میکنند.
بر اساس یک گزارش تحقیقی از وبسایت WIRED، بیش از ۸۵ سایت فعال در این زمینه شناسایی شدهاند که ماهانه میلیونها بازدیدکننده دارند. این موضوع نشان میدهد که «سوءاستفاده از هوش مصنوعی» به یک کسبوکار سودآور تبدیل شده است. نکته قابل تامل این است که بسیاری از این سایتهای مخرب، از زیرساختهای شرکتهای فناوری بزرگی مانند گوگل، آمازون و کلاودفلر استفاده میکنند.
این مسئله زمانی تاریکتر میشود که برخی از این پلتفرمها پس از تولید تصاویر جعلی، برای حذف آنها از قربانیان خود «باجگیری» میکنند. این پدیده، تهدیدی جدی برای آبرو، امنیت روانی و حریم خصوصی افراد در عصر دیجیتال محسوب میشود.
#هوش_مصوعی #امنیت #اخلاق_دیجیتال #حریم_خصوصی
➖➖➖➖➖➖➖
📖 در تلگرام، ایتا و بله همراه ما باشید 👇
🔻 Join: @AI4You_IR ⚡️
🔵 فکر کردی هوش مصنوعیای که ازش سوال میپرسی، «جهتگیری سیاسی» داشته باشه؟ تحقیقات جدید میگه انگار بیشتر مدلهای معروف، شبیه به هم فکر میکنن!
📌 ماجرا در یک نگاه
بیشتر مدلهای هوشمصنوعی، از نظر «اقتصادی به چپ» و از نظر «اجتماعی به آزادیخواهی» تمایل دارن. دلیل اصلی هم اینه که روی دادههایی مثل «ویکیپدیا» آموزش دیدن که اون هم خودش چنین گرایشی داره. در واقع هوش مصنوعی، آینهی چیزیه که خونده.
💡 اهمیتش برای ما چیه؟
این یعنی جوابهایی که ازشون میگیریم، ممکنه یه «سوگیری پنهان» داشته باشن و ناخودآگاه روی دیدگاه ما تأثیر بذارن. البته یه تفاوتهای کوچیکی هم هست؛ مثلاً میگن «گراک» ایلان ماسک به میانه نزدیکتره، ولی مدلهای گوگل و مایکروسافت تمایل بیشتری به چپ دارن.
به نظرت میتونیم یه هوش مصنوعی کاملاً «بیطرف» بسازیم، یا این سوگیریها همیشه یه گوشهای از کدها پنهان میشن؟
#هوش_مصنوعی #سوگیری_سیاسی #اخلاق_دیجیتال
╭─┅───✨🧠✨───┅─╮
📖 درتلگرام، ایتا و بله باما باشید👇
@AI4You_IR
╰─┅───✨💡✨───┅─╯