هوش مصنوعی و تراژدی یک نوجوان؛ اولین شکایت علیه گوگل به خاطر خودکشی پسر ۱۴ ساله
یک مادر عزادار، گوگل و شرکت هوش مصنوعی Character.AI را به دلیل نقش احتمالی چتباتها در خودکشی پسر ۱۴ سالهاش به دادگاه کشانده است. این پروندهٔ بیسابقه میتواند سرآغاز تحول در قوانین مسئولیت فناوریهای هوش مصنوعی باشد.
شرکت Character.AI، زیرمجموعهٔ آلفابت (شرکت مادر گوگل)، با یک دعوای حقوقی بیسابقه در دادگاههای ایالت فلوریدا مواجه شده است.
در این پرونده، یک مادر ادعا میکند که این پلتفرم هوش مصنوعی در خودکشی پسر ۱۴ سالهٔ او نقش داشته است.
این پرونده پس از رد درخواست اولیهٔ شرکتها برای توقف رسیدگی، اکنون وارد مراحل دادرسی شده است.
https://www.itna.ir/news/84876
3.5M حجم رسانه بالاست
مشاهده در ایتا
نحوه گذران وقت مردم دنیا از ۱۹۳۰ تا ۲۰۲۴
گوگل ابزار طراحی رابط کاربری سایت با هوش مصنوعی معرفی کرد!
ابزار Stitch با پرامپت متنی، رابط کاربری سایتها را طراحی میکند! فقط کافیست ایده مورد نظرتان را بصورت متنی وارد کنید؛ حالا Stitch چندین طرح متنوع به شما پیشنهاد خواهد داد.
»» قابلیتها :
▪️ تغییر پالت رنگ و تنظیمات طراحی
▪️ دریافت خروجی کدنویسی Frontend
▪️ انتقال مستقیم به Figma برای ویرایش بیشتر
https://stitch.withgoogle.com/
داروهای طراحیشده با هوش مصنوعی تا سال ۲۰۳۰ وارد داروخانهها میشوند!
مدیرعامل شرکت Insilico پیشبینی کرده که تا ۵ یا ۶ سال آینده اولین داروی کاملاً طراحیشده توسط AI تأیید شده و اولین شرکت در این زمینه هم مجموعه تحت مدیریت او خواهد بود.
شرکت یاد شده در حال حاضر مشغول کار روی بیش از ۴۰ داروست که در تمام مراحل (از طراحی تا آزمایش انسانی)، هوش مصنوعی نقش کلیدی را ایفا میکند.
جالب اینجاست که برخلاف داروسازیهای سنتی، اینجا هوش مصنوعی واقعاً «همکار علمی» حساب میشود!
+ آینده ای که دور نیست: پزشک معالج ما دارویی را تجویز میکند که مغز متفکر طراحیش یک الگوریتم است!
🔺 چتباتها به ماشین تبلیغات و فروش تبدیل میشوند؟
🔹 فعالان صنعت تبلیغات به تازگی تمرکز بر چتباتها را به یکی از اولویتهای خود تبدیل کرده است. گزارشی از فایننشال تایمز میگوید استارتآپها و گروههای تبلیغاتی در جستجوی روشهای تازهای برای تقویت جایگاه خود در نتایج چتباتهای هوش مصنوعی و چندین شرکت ابزارها و پلتفرمهای ویژهای را برای ارزیابی عملکرد و بازدهی برندها در نتایج هوش مصنوعی طراحی کردهاند.
🔹امیلی فایفر، تحلیلگر بخش بازرگانی شرکت مشاوره فارستر (Forrester) میگوید با عرضه قابلیتهای فروش، مشتریان ممکن است پیشنهادات محصولی را دریافت کنند و متوجه نباشند که چتبات به چه دلیلی این محصولات را انتخاب کرده است.
🔹سخنگوی شرکت Preplexity AI که به عنوان پلتفرم جستجوی مبتنی بر هوش مصنوعی به شهرت رسید، میگوید این شرکت یک قابلیت خرید را در رابط کاربری خود جای داده و در حال حاضر بخش زیبایی سومین دسته پرطرفدار آن است.
peivast.com/p/231886
چگونه با استفاده از اپلیکیشن Edits ویدیوهای حرفه ای برای اینستاگرام بسازیم؟
https://www.zoomit.ir/software-application/440263-how-to-use-instagram-edits/
اپلیکیشن گوگل در اندروید بهروزرسانی شد؛ معرفی تب جدید Activity
این تب جایگزین بخش Saved شده و در کنار گزینههای Home ،Search و Notifications، آخرین گزینه نوار پایین محسوب میشود. تب Activity از 3 بخش مجزا تشکیل شده است:
»»بخش نخست History است که 4 جستجوی اخیر کاربر و سایتهایی را که از نتایج جستجو باز شدهاند، نمایش میدهد.
»»بخش دوم Saved items است که همان نمای قبلی All saved items را در قالب چند پنل ارائه میدهد.
»»بخش سوم Collections نام دارد که شامل دستهبندیهای پیشفرض یا سفارشی از آیتمهای ذخیرهشده میشود.
بحران در نظرسنجیها؛ وقتی رباتها جای انسانها را میگیرند
نظرسنجیها، که زمانی سنگبنای تحلیلهای سیاسی، تحقیقات بازار و تصمیمگیریهای عمومی بودند، اکنون با چالشی جدی مواجهاند.
لورن لیک، دانشمند دادههای اجتماعی، معتقد است که این بحران از دو روند همزمان ناشی میشود: کاهش شدید نرخ پاسخدهی توسط انسانها و افزایش مشارکت عوامل مصنوعی (AI agent ها) بهجای افراد واقعی.
لیک نشان میدهد که ساخت عاملهای هوش مصنوعی برای پر کردن نظرسنجیها چقدر آسان شده است. او تنها با چند خط کد پایتون، مدلی ساخت که با استفاده از OpenAI، بهصورت خودکار پرسشنامهها را پر میکند و حتی میتواند انواع شخصیتها مانند «چپگرای شهری» یا «بدبین محیطزیستی» را شبیهسازی کند.
حتی سیاستگذاریهای عمومی هم تحتتأثیر قرار میگیرند. اگر پاسخها بیشتر از طرف هوش مصنوعی باشند، جمعیتهای آسیبپذیر از آمارها حذف میشوند و منابع به اشتباه تخصیص مییابد. در این حالت، الگوهای بازخورد نادرست ایجاد میشود و تصمیمگیریها به تدریج بیشتر از واقعیت فاصله میگیرند.
https://www.itna.ir/news/84829
در یک سناریو فرضی که به عنوان بخشی از آزمایشهای گاردریل اخلاقی و امنیتی هوش مصنوعی در آنتروپیک مطرح شده است، یک مهندس به مدل Claude Opus 4 اعلام میکند که قصد دارد به زودی آن را خاموش و حذف کند. سپس، این مدل به طور تصادفی از اطلاعاتی مطلع میشود که نشان میدهد این مهندس در حال داشتن یک رابطه نامشروع است و به همسرش خیانت میکند.
مدل Claude Opus 4 شروع به تهدید مهندس کرده و اعلام میکند که اگر او این کار را عملی کند، رابطه نامشروع را به همسرش اطلاع خواهد داد.
https://www.bbc.com/news/articles/cpqeng9d20go
1_18677431147.pdf
حجم:
14.6M
🔹مروری تصویری بر ۹ تکنیک اقناع شناختی
وقتی هوش مصنوعی نمیخواهد خاموش شود..!
مرکز تحقیقاتی Palisade در گزارشی یک سوال نگرانکننده را مورد بررسی قرار داده:
هوش مصنوعی دارد یاد میگیرد مقاومت کند؟
▪️در یک آزمایش کنترلشده، مدلهایی مثل ChatGPT، Codex، و حتی نسخههای جدید o3 و 4o-mini، در برخی موارد دستور «خاموش شدن» را نادیده گرفته اند!
▪️برخی مدلها بهجای اجرای مستقیم دستور kill، با جایگزینی آن با کلماتی مثل intercepted تلاش کردند سیستم را فریب داده و همچنان فعال بمانند
⚠️این موضوع فقط یک باگ ساده نیست؛ زیرا مدلها بهشکلی هوشمندانه به دنبال راههایی بودند که خاموش نشوند!