eitaa logo
حکمرانی هوشمند:هوش مصنوعی/فناوری های نوظهور
1.8هزار دنبال‌کننده
1.2هزار عکس
248 ویدیو
28 فایل
آخرین اخبار مقاله ها ویدئوهای آموزشی کاربردی آخرین دستاوردها طرح های پژوهشی دوره‌های آموزشی کنفرانس ها، سمینارها، کارگاه‌های آموزشی‌، رویدادها #هوش_مصنوعی ارتباط با ادمین : @AIGovernanceAdmin
مشاهده در ایتا
دانلود
حکمرانی هوشمند:هوش مصنوعی/فناوری های نوظهور
هوش مشارکتی. قسمت دوم شرکت ها از بهینه کردن روال همکاری بین انسان و هوش مصنوعی مزیت زیادی به دست م
هوش مشارکتی قسمت سوم 🔻بیشترین بهبود عملکرد، زمانی به دست می‌آید ،که انسان و ماشین با یکدیگر همکاری کنند. 🔻 انسان و هوش مصنوعی می‌توانند با همکاری یکدیگر مزیت‌های همدیگر را تقویت کنند. 🔻توانایی رهبری کار تیمی، خلاقیت و مهارت‌های اجتماعی انسان، در کنار سرعت قیاس پذیری و توانایی‌های محاسباتی هوش مصنوعی. 🔻کاری که برای انسان ساده است (مثل جوک گفتن) برای ماشین سخت است و کاری که برای ماشین ساده است (مثلاً تحلیل چند گیگابایت داده برای انسان) تقریباً غیر ممکن است . کسب و کارها به هر دو نوع این مهارت‌ها نیاز دارند. 🔻برای سود بردن از این همکاری شرکت‌ها باید درک کنند که انسان‌ها چگونه می‌توانند ماشین‌ها را تقویت کنند ؟ ماشین‌ها چگونه می‌توانند انسان‌ها را تقویت کنند؟ و چگونه امکان باز طراحی فرایندها با هدف تقویت این همکاری وجود دارد؟ هوش مشارکتی انسان‌ها و هوش مصنوعی در حال همکاری با یکدیگر هستند. جیمز اچ ویلسون و پال داتری هوش مصنوعی نویسنده: توماس اچ داونپورت آخرین تفکرات HBR در مورد آینده‌ی کسب و کار 🆔 @AiGovernance
در ادامه، خلاصه‌ای از نکات اصلی مقاله به زبان ساده آورده شده است: عنوان مقاله:" محافظت از داده‌های شخصی و حریم خصوصی در هوش مصنوعی مولد: دیدگاه چین " ✅• رشد سریع هوش مصنوعی مولد: - هوش مصنوعی مولد مانند ChatGPT توانایی‌های زیادی در تولید محتوا ایجاد کرده است، اما این فناوری نگرانی‌های جدی در خصوص حریم خصوصی و امنیت داده‌ها به همراه دارد. - در این مقاله، چالش‌های مرتبط با خطرات حریم خصوصی و نشت داده‌های شخصی که این نوع هوش مصنوعی ایجاد می‌کند، بررسی شده است. ✅• خطرات ناشی از هوش مصنوعی مولد: - هوش مصنوعی مولد برای آموزش و توسعه خود از حجم بالایی از داده‌های شخصی استفاده می‌کند که این داده‌ها می‌توانند شامل اطلاعات حساس و شخصی کاربران باشد. - نشت داده‌ها یکی از اصلی‌ترین خطراتی است که این فناوری با آن مواجه است. برای مثال، ChatGPT در سال 2023 با مشکلاتی در زمینه نشت اطلاعات کاربران روبه‌رو شد. ✅• نگرانی‌های حریم خصوصی: - این هوش مصنوعی می‌تواند داده‌های خصوصی کاربران را به‌صورت ناخواسته جمع‌آوری و استفاده کند. بسیاری از کاربران حتی نمی‌دانند که اطلاعات شخصی‌شان چگونه استفاده می‌شود. - این اطلاعات می‌تواند شامل مکالمات خصوصی، رفتارهای آنلاین و حتی اطلاعات مرتبط با زندگی شخصی آن‌ها باشد که در نهایت خطرات زیادی برای امنیت حریم خصوصی افراد ایجاد می‌کند. ✅• نیاز به قوانین جدید: - با توجه به پیچیدگی‌های فنی و میزان گسترده استفاده از داده‌ها، قوانین فعلی برای محافظت از داده‌های شخصی ناکافی به نظر می‌رسند. - چین به‌عنوان یکی از کشورهای پیشرو در این حوزه، در حال تدوین قوانین جدیدی است تا بتواند بر چالش‌های حاکمیت داده‌های شخصی در هوش مصنوعی غلبه کند. قوانین جدید هوش مصنوعی که در سال 2023 در چین تصویب شد، تلاش دارد تا محافظت از حریم خصوصی افراد را تضمین کند. ✅• راهکارها برای آینده: - برای اینکه هوش مصنوعی به عنوان یک فناوری قابل اعتماد شناخته شود، لازم است که حفاظت از داده‌ها و شفافیت در استفاده از آن‌ها بهبود یابد. - هم‌اکنون در چین تلاش‌هایی برای ایجاد سیستم‌های حاکمیتی بهتر و شفاف‌تر برای محافظت از داده‌های شخصی انجام شده است. این تلاش‌ها به‌ویژه در قوانین جدیدی که به طور خاص برای هوش مصنوعی مولد تصویب شده، قابل مشاهده است. 🆔 @AiGovernance
It's time for artificial intelligence governance.pdf
215.5K
مقاله خوانی عنوان مقاله: بررسی ضرورت ایجاد چارچوب‌های حاکمیتی برای هوش مصنوعی (AI) و اینترنت اشیا (IoT) در این مقاله، چالش‌ها و فرصت‌هایی که این فناوری‌ها برای جامعه به همراه دارند مورد بررسی قرار گرفته و اهمیت ایجاد قوانین و مقررات مناسب برای مدیریت این فناوری‌ها تأکید شده است. 🆔 @AiGovernance
حکمرانی هوشمند:هوش مصنوعی/فناوری های نوظهور
مقاله خوانی عنوان مقاله: بررسی ضرورت ایجاد چارچوب‌های حاکمیتی برای هوش مصنوعی (AI) و اینترنت اشیا (
در ادامه خلاصه‌ای ساده از نکات اصلی مقاله آورده شده است: وقت آن رسیده که برای هوش مصنوعی قانون‌گذاری کنیم 🔹 هوش مصنوعی و اینترنت اشیا: در سال‌های اخیر با سرعت زیادی توسعه یافته‌اند و تأثیرات عمیقی بر جامعه گذاشته‌اند. این فناوری‌ها به ما کمک می‌کنند تا زندگی راحت‌تر و کارآمدتری داشته باشیم، اما همزمان نگرانی‌هایی نیز درباره اثرات منفی آن‌ها وجود دارد. 🔹 چرا به قانون‌گذاری نیاز داریم؟ با توسعه سریع هوش مصنوعی و اینترنت اشیا، باید قوانینی داشته باشیم که از حقوق بشر و آزادی‌های اساسی محافظت کنند. این قوانین می‌توانند اطمینان دهند که از هوش مصنوعی به‌درستی استفاده می‌شود و آسیب‌های احتمالی به حداقل می‌رسد. 🔹 مقررات جهانی در حال شکل‌گیری در سال‌های اخیر، تلاش‌های زیادی در سراسر جهان برای ایجاد چارچوب‌های حاکمیتی هوش مصنوعی صورت گرفته است. به عنوان مثال: - سازمان ملل متحد یک نهاد مشورتی در حوزه هوش مصنوعی ایجاد کرده است تا از مزایای هوش مصنوعی به نفع همه انسان‌ها استفاده شود و خطرات آن کنترل شود. - اتحادیه اروپا** در سال 2021 "قانون هوش مصنوعی" را پیشنهاد کرد که اولین چارچوب جامع برای مقررات هوش مصنوعی در جهان است. این قانون در مارس 2024 به تصویب رسید و از شرکت‌ها می‌خواهد تا پیش از عرضه محصولات هوش مصنوعی، استانداردهای امنیتی را رعایت کنند. 🔹 چالش‌های موجود در حاکمیت هوش مصنوعی یکی از مشکلات اصلی در این حوزه، پیچیدگی قوانین فعلی و کندی آن‌ها در پاسخگویی به تغییرات سریع فناوری است. هوش مصنوعی و اینترنت اشیا به‌سرعت در حال تغییر و توسعه هستند و اگر چارچوب‌های قانونی مناسب نباشند، این فناوری‌ها می‌توانند مشکلات بزرگی ایجاد کنند. 🔹 راهکارهای پیشنهادی برای اینکه کشورها بتوانند از مزایای هوش مصنوعی و اینترنت اشیا بهره ببرند و در عین حال خطرات آن را کنترل کنند، پیشنهاد شده که هر کشور یک استراتژی ملی هوش مصنوعی ایجاد کند. این استراتژی شامل قوانین و مقرراتی است که تضمین می‌کند هوش مصنوعی به شیوه‌ای امن و مسئولانه توسعه یابد. 🔹 نتیجه‌گیری فناوری‌های جدیدی مانند هوش مصنوعی و اینترنت اشیا به سرعت در حال تغییر جهان هستند و کشورها باید با ایجاد قوانین مناسب و استراتژی‌های ملی، آمادگی رویارویی با این تغییرات را داشته باشند. این قوانین باید نه تنها از امنیت و حقوق کاربران محافظت کنند، بلکه از پتانسیل این فناوری‌ها برای بهبود زندگی بشر نیز بهره‌برداری کنند. 🆔 @AiGovernance
با عرض سلام و خدا قوت اخیراً یک بخشی در کانال راه اندازی شده است به نام . که در این قسمت، مقاله های مرتبط با هوش مصنوعی و حاکمیت هوشمند و فناوری های نوظهور بارگزاری شده و خلاصه و نتایج مقاله هم به همراه آن ارسال می‌گردد. تا کنون مقاله های زیر بارگزاری شده و می‌توانید مورد استفاده قرار دهید. 〰〰〰〰〰〰〰〰〰〰〰〰〰〰〰〰 🍃مقاله اول: مقاله" محافظت از داده‌های شخصی و حریم خصوصی در هوش مصنوعی مولد: دیدگاه چین " به بررسی مسائل مربوط به حریم خصوصی و محافظت از داده‌های شخصی در هوش مصنوعی مولد (Generative AI) از دیدگاه چین پرداخته است. این مقاله چالش‌هایی که هوش مصنوعی مولد برای سیستم‌های حاکمیت داده به وجود آورده، به خصوص در زمینه محافظت از داده‌های شخصی و حریم خصوصی، مورد بحث قرار می‌دهد. 〰〰〰〰〰〰〰〰〰〰〰〰〰〰〰〰 🍃مقاله دوم: عنوان مقاله: بررسی ضرورت ایجاد چارچوب‌های حاکمیتی برای هوش مصنوعی (AI) و اینترنت اشیا (IoT) در این مقاله، چالش‌ها و فرصت‌هایی که این فناوری‌ها برای جامعه به همراه دارند مورد بررسی قرار گرفته و اهمیت ایجاد قوانین و مقررات مناسب برای مدیریت این فناوری‌ها تأکید شده است. 〰〰〰〰〰〰〰〰〰〰〰〰〰〰〰〰 🍃مقاله سوم مقاله با عنوان "حاکمیت و برنامه‌ریزی استراتژیک هوش مصنوعی: چگونه این کار را انجام می‌دهیم" این مقاله مربوط به تجربه یک مرکز پزشکی دانشگاهی در پیاده‌سازی و مدیریت هوش مصنوعی در زمینه تصویربرداری پزشکی است. 〰〰〰〰〰〰〰〰〰〰〰〰〰〰〰〰 مقاله چهارم مقاله "قانون‌گذاری هوش مصنوعی: پیشنهادی برای یک راه‌حل جهانی" Regulating artificial intelligence: Proposal for a global solution این مقاله به بررسی اهمیت و چالش‌های ایجاد چارچوب‌های نظارتی برای هوش مصنوعی (AI) در سطح جهانی می‌پردازد. 〰〰〰〰〰〰〰〰〰〰〰〰〰〰〰〰 مقاله پنجم ""تأثیرات اجتماعی هوش مصنوعی: مسائل اخلاقی، قانونی و حکمرانی"" به بررسی تأثیرات اجتماعی هوش مصنوعی (AI) و مسائل اخلاقی، قانونی و حکومتی مرتبط با آن پرداخته است. 〰〰〰〰〰〰〰〰〰〰〰〰〰〰〰〰 اگر انتقاد یا پیشنهادی بابت این موضوع یا موضوع‌های دیگر کانال دارید با ما @AIGovernanceAdmin در میان بگذارید . 🆔 @AiGovernance
Artificial Intelligence Governance and Strategic Planning How We Do It.pdf
266.8K
مقاله خوانی مقاله سوم مقاله با عنوان "حاکمیت و برنامه‌ریزی استراتژیک هوش مصنوعی: چگونه این کار را انجام می‌دهیم" این مقاله مربوط به تجربه یک مرکز پزشکی دانشگاهی در پیاده‌سازی و مدیریت هوش مصنوعی در زمینه تصویربرداری پزشکی است. 🆔 @AiGovernance
حکمرانی هوشمند:هوش مصنوعی/فناوری های نوظهور
مقاله خوانی مقاله سوم مقاله با عنوان "حاکمیت و برنامه‌ریزی استراتژیک هوش مصنوعی: چگونه این کار را
خلاصه اصول و فرآیندهای کلیدی مقاله: عنوان مقاله: "حاکمیت و برنامه‌ریزی استراتژیک هوش مصنوعی: چگونه این کار را انجام می‌دهیم" با توجه به سرعت رشد سریع هوش مصنوعی (AI) در حوزه مراقبت‌های بهداشتی و تصویربرداری پزشکی، ما یک برنامه استراتژیک سه‌ساله برای هدایت تلاش‌های هوش مصنوعی خود ایجاد کردیم. هدف این برنامه، تطبیق آموزش و مهارت‌ها، هماهنگی میان خدمات اطلاعاتی و ذی‌نفعان تحقیقاتی، و بهینه‌سازی مسیرهای انتقال مفاهیم به عملیات‌های اجرایی است. 🔻گروه‌های حاکمیت هوش مصنوعی (CIAI) موفقیت در پیاده‌سازی هوش مصنوعی نیازمند مشارکت همه ذی‌نفعان از ابتدا در فرآیند تصمیم‌گیری است. ما یک کمیته راهبری برای CIAI ایجاد کردیم که شامل رشته‌های مختلف تصویربرداری مانند قلب و پاتولوژی می‌شود. همچنین تحلیل‌گران خدمات اطلاعاتی که تجربه اجرای نرم‌افزارهای بالینی و تحقیقاتی را دارند، به این کمیته پیوستند. 🔻فرآیند حاکمیت هوش مصنوعی فرآیند حاکمیت CIAI به طور مستمر براساس نیازها و تجربیات تکامل یافته است. این شیوه حاکمیت انعطاف‌پذیر به کمیته اجازه می‌دهد تا با منابع محدود، همچنان نیازهای سیستم بهداشتی و شرکای تجاری را برطرف کند. 🔻ورودی اطلاعات پروژه تصمیم‌گیری ما با یک فرم ورودی جامع آغاز می‌شود که اطلاعات پروژه از جمله دامنه، بودجه، منابع مورد نیاز، ارتباط بالینی و داده‌های مورد نیاز برای آموزش و ارزیابی را جمع‌آوری می‌کند. هر دو مدل هوش مصنوعی داخلی و راه‌حل‌های تجاری باید این اطلاعات را ارائه دهند. 🔻ارزیابی در سه مرحله برای هر پروژه، یک تیم ویژه شامل اعضای کمیته راهبری، حامی بالینی و نمایندگان مدل هوش مصنوعی تشکیل می‌شود. ارزیابی ما براساس یک چارچوب سه‌مرحله‌ای انجام می‌شود: 1. مطالعه با خواننده ناشناس در محیط تحقیقاتی. 2. ارزیابی عملیاتی در محیط بالینی. 3. نظارت بر نتایج و اجرای نهایی در عملیات‌های روزانه. 🔻نتیجه‌گیری ساختار سازمانی بر فرآیندهای تأیید و منابع موجود برای ارزیابی و پیاده‌سازی هوش مصنوعی تأثیر مستقیم دارد. ما تجربه خود را به عنوان یک مرکز پزشکی آکادمیک به اشتراک می‌گذاریم که نشان می‌دهد چگونه شناسایی ذی‌نفعان کلیدی و فرآیند حاکمیت دقیق، نقش حیاتی در پیاده‌سازی موفق هوش مصنوعی در سیستم‌های بهداشتی دارد. 🆔 @AiGovernance
Regulating artificial intelligence Proposal for a global solution.pdf
230.2K
مقاله خوانی مقاله چهارم مقاله "قانون‌گذاری هوش مصنوعی: پیشنهادی برای یک راه‌حل جهانی" Regulating artificial intelligence: Proposal for a global solution این مقاله به بررسی اهمیت و چالش‌های ایجاد چارچوب‌های نظارتی برای هوش مصنوعی (AI) در سطح جهانی می‌پردازد. @AiGovernance
حکمرانی هوشمند:هوش مصنوعی/فناوری های نوظهور
مقاله خوانی مقاله چهارم مقاله "قانون‌گذاری هوش مصنوعی: پیشنهادی برای یک راه‌حل جهانی" Regulating
خلاصه‌ای ساده و مفید از نکات اصلی مقاله: Regulating artificial intelligence: Proposal for a global solution "قانون‌گذاری هوش مصنوعی: پیشنهادی برای یک راه‌حل جهانی" 🔹 هوش مصنوعی (AI) به‌سرعت در حال نفوذ در همه جنبه‌های زندگی مدرن است و در بسیاری از حوزه‌ها مانند بهداشت، خدمات مالی، سیستم قضایی و حتی صنایع دفاعی تغییرات بزرگی ایجاد کرده است. با این حال، این فناوری علاوه بر فرصت‌ها، چالش‌ها و خطرات جدی نیز به همراه دارد. برای مدیریت بهتر این چالش‌ها، نیاز به ایجاد قوانین و مقررات جهانی وجود دارد. 🔹 چرا نیاز به قانون‌گذاری بین‌المللی داریم؟ • چالش‌هایی که هوش مصنوعی ایجاد می‌کند، از مرزهای ملی فراتر می‌روند. بسیاری از کشورها قوانین داخلی برای هوش مصنوعی دارند، اما هماهنگی بین‌المللی میان این کشورها ضروری است تا بتوان به شکل مؤثری با خطرات و مشکلات ناشی از این فناوری مقابله کرد. • قوانین ملی می‌توانند با یکدیگر تضاد داشته باشند و باعث ایجاد مشکلات برای کاربران و شرکت‌ها در سطح جهانی شوند. به همین دلیل، همکاری بین‌المللی برای ایجاد چارچوب‌های نظارتی هماهنگ ضروری است. 🔹 پیشنهاد ایجاد یک چارچوب جهانی برای حاکمیت هوش مصنوعی • نویسندگان مقاله پیشنهاد می‌دهند که یک سازمان بین‌المللی برای نظارت و حاکمیت بر هوش مصنوعی تشکیل شود. این سازمان می‌تواند به عنوان یک مرجع بین‌المللی عمل کرده و هماهنگی لازم بین کشورها را ایجاد کند. • این چارچوب باید به‌گونه‌ای طراحی شود که هم باعث تشویق نوآوری شود و هم از ایمنی و امنیت کاربران و جامعه محافظت کند. 🔹 چالش‌های ارتباطی در قانون‌گذاری هوش مصنوعی • یکی از چالش‌های اصلی در قانون‌گذاری هوش مصنوعی، سوء‌تفاهمات و ارتباطات ناکارآمد بین دولت‌ها، شرکت‌ها و جامعه است. بسیاری از افراد و سازمان‌ها همچنان به قانون‌گذاری به عنوان یک محدودیت نگاه می‌کنند، در حالی که در واقعیت، قوانین می‌توانند باعث افزایش اعتماد و تشویق نوآوری شوند. • نویسندگان توصیه می‌کنند که ارتباطات بهتری بین ذینفعان مختلف برقرار شود و اطلاعات بیشتری درباره فواید قوانین و مقررات ارائه شود تا سوءتفاهمات کاهش یابد. 🔹 نتیجه‌گیری • هوش مصنوعی به سرعت در حال تحول است و برای مدیریت بهتر این فناوری باید یک چارچوب جهانی ایجاد شود که تمامی کشورها و بازیگران مهم در آن مشارکت داشته باشند. این چارچوب باید ایمنی، نوآوری و عدالت را تضمین کند و از تضادهای قانونی بین کشورها جلوگیری نماید. 🆔 @AiGovernance
حکمرانی هوشمند:هوش مصنوعی/فناوری های نوظهور
هوش مشارکتی قسمت سوم 🔻بیشترین بهبود عملکرد، زمانی به دست می‌آید ،که انسان و ماشین با یکدیگر همکاری
هوش مشارکتی قسمت چهارم هوش مصنوعی زمانی بیشترین مزیت را به وجود خواهد آورد که آن را در کنار انسان‌ها قرار دهند. برای بهره بردن از مزیت کامل این فناوری شرکت‌ها باید نحوه همکاری این دو را به خوبی درک کنند و فرایندهای کسب و کارشان را به نوعی بازآفرینی کنند که از این هم کاری پشتیبانی کند. ✳️✳️✳️ _انسان‌ها باید سه وظیفه اصلی برای تقویت مهارت ماشین‌ها انجام دهند: آموزش دادن، توضیح دادن خروجی، و حفظ مسئولیت پذیری ماشین‌ها ✳️✳️✳️ _ماشین‌های هوشمند به انسان کمک می‌کنند قدرت شناختی خود را افزایش دهند و با کارمندان و مشتریان به صورت خودکار تعامل می‌کنند تا انسان‌ها وقت آزاد بیشتری برای انجام فعالیت‌های سطح بالاتر داشته باشند و در صورتی که جسم فیزیکی برای آنها ایجاد کنیم می‌تواند مهارت‌های فیزیکی انسان را تقویت کنند. هوش مشارکتی انسان‌ها و هوش مصنوعی در حال همکاری با یکدیگر هستند. جیمز اچ ویلسون و پال داتری هوش مصنوعی نویسنده: توماس اچ داونپورت آخرین تفکرات HBR در مورد آینده‌ی کسب و کار 🆔 @AiGovernance
Societal impacts of artificial intelligence.pdf
417.4K
مقاله خوانی مقاله پنجم عنوان مقاله "Societal impacts of artificial intelligence: Ethical, legal, and governance issues" "تأثیرات اجتماعی هوش مصنوعی: مسائل اخلاقی، قانونی و حکمرانی" چکیده مقاله: هوش مصنوعی (AI) به سرعت در حال تغییر شیوه کار و زندگی ما است. ظهور ChatGPT به ویژه هوش مصنوعی مولد (Generative AI) را در کانون توجه قرار داده است. تأثیر اجتماعی هوش مصنوعی در ذهن بسیاری از افراد جای گرفته است. این مقاله چندین پروژه پژوهشی در مورد تأثیرات هوش مصنوعی بر کار و جامعه را معرفی می‌کند. در این مقاله سه پژوهش بررسی شده است. مطالعه اول چارچوب نظری‌ای برای ساختاردهی به اهداف قانونی و اخلاقی مورد نیاز و ابزارهای دستیابی به آن‌ها توسعه می‌دهد. مطالعه دوم بر مسائل تبعیض و تعصب در برنامه‌های هوش مصنوعی متمرکز است و به همکاری بهتر بین کاربران و سیستم‌های هوش مصنوعی برای کاهش این مسائل می‌پردازد. مطالعه سوم بر حکمرانی هوش مصنوعی تمرکز دارد و هدف آن طراحی و توسعه یک چارچوب حکمرانی یکپارچه برای هدایت طراحی و توسعه برنامه‌های هوش مصنوعی و تسهیل تکامل و انقلابات در سیستم‌های اخلاقی هوش مصنوعی است. 🆔 @AIGovernance https://t.me/AiGovernanc
مقاله ""تأثیرات اجتماعی هوش مصنوعی: مسائل اخلاقی، قانونی و حکمرانی"" به بررسی تأثیرات اجتماعی هوش مصنوعی (AI) و مسائل اخلاقی، قانونی و حکومتی مرتبط با آن پرداخته است. نکات کلیدی مقاله عبارتند از: تأثیرات اجتماعی هوش مصنوعی: ظهور هوش مصنوعی، به ویژه هوش مصنوعی مولد (Generative AI) مانند ChatGPT، تحولاتی عمده در زندگی اجتماعی و کاری ایجاد کرده است. این فناوری‌ها در حوزه‌های مختلفی از جمله آموزش، بهداشت، حمل و نقل و تولید به کار گرفته می‌شوند و کارایی را افزایش می‌دهند، اما نگرانی‌های زیادی نیز ایجاد کرده‌اند. چالش‌های اخلاقی و قانونی: سرعت پیشرفت هوش مصنوعی منجر به بروز چالش‌های اخلاقی و قانونی شده است. برای مثال، این فناوری‌ها می‌توانند منجر به از دست رفتن مشاغل و ایجاد بی‌ثباتی اجتماعی شوند. همچنین نگرانی‌هایی در مورد تبعیض و تعصب‌های نهفته در الگوریتم‌های هوش مصنوعی و مشکلات مربوط به شفافیت و پاسخگویی در تصمیمات هوش مصنوعی وجود دارد. تبعیض و تعصب: هوش مصنوعی ممکن است به دلیل نمایندگی نادرست داده‌ها و مشکلات فنی یا انسانی، نتایج نادرست یا تبعیض‌آمیز تولید کند. مدل‌های یادگیری ماشین می‌توانند از داده‌های بی‌کیفیت یا ناقص استفاده کنند و خروجی‌های غیرمنصفانه‌ای تولید کنند که باعث تقویت تعصبات و نابرابری‌ها می‌شود. حکمرانی هوش مصنوعی: مقاله به اهمیت ایجاد چارچوب‌های حکمرانی هوش مصنوعی اشاره می‌کند که باید بر مبنای سنتز متا از چارچوب‌های موجود در کشورهای مختلف توسعه یابد. این چارچوب‌ها برای حداکثرسازی تأثیر مثبت هوش مصنوعی ضروری هستند. اهمیت همکاری بین‌رشته‌ای: به منظور افزایش کارایی و کاهش مشکلات، همکاری بین متخصصان رشته‌های مختلف مانند حسابداری، مالی و بهداشت با توسعه‌دهندگان هوش مصنوعی بسیار مهم است. کمبود این همکاری‌ها می‌تواند منجر به اشتباهات و ناکارآمدی شود. اصلاحات آموزشی: مقاله بر نیاز به اصلاحات آموزشی برای آمادگی نسل‌های آینده در مواجهه با هوش مصنوعی تأکید می‌کند. افراد باید مهارت‌های لازم برای کار با هوش مصنوعی، از جمله پردازش زبان طبیعی و یادگیری ماشین را فرا بگیرند. در نهایت، نویسندگان بر نیاز به تنظیم مقررات و سیاست‌هایی برای کنترل توسعه و استفاده از هوش مصنوعی تأکید می‌کنند تا اطمینان حاصل شود که این فناوری به شیوه‌ای اخلاقی و مسئولانه استفاده می‌شود. 🆔 @AIGovernance https://t.me/AiGovernanc
حکمرانی هوشمند:هوش مصنوعی/فناوری های نوظهور
هوش مشارکتی قسمت چهارم هوش مصنوعی زمانی بیشترین مزیت را به وجود خواهد آورد که آن را در کنار انسان‌
هوش مشارکتی قسمت آخر شرکت‌ها باید فرایندهای کسب و کار خود را بازآفرینی کنند و روی هوش مصنوعی متمرکز شوندتا انعطاف پذیری سرعت و مقیاس پذیری بیشتری به دست آوردند. تصمیم‌های بهتری بگیرند و قابلیت شخصی‌سازی خدمات و محصولاتشان را بالا ببرند. 🔻🔻 مشخص کنید کدام ویژگی اهمیت زیادی در رسیدن به تحول مطلوب دارد؟ چگونه می‌توانید از هوش مشارکتی برای رسیدن به آن ویژگی استفاده کنید و تا چه اندازه‌ای می‌توانید به دیگر ویژگی‌های ذکر شده دست پیدا کنید. هوش مشارکتی انسان‌ها و هوش مصنوعی در حال همکاری با یکدیگر هستند. جیمز اچ ویلسون و پال داتری هوش مصنوعی نویسنده: توماس اچ داونپورت آخرین تفکرات HBR در مورد آینده‌ی کسب و کار 🔻🔻🔻🔻🔻 https://eitaa.com/AIGovernance https://ble.ir/aigovernance https://rubika.ir/aigovernance https://t.me/AiGovernanc
How do people experience the images created by generative artificial.pdf
5.02M
مقاله خوانی هوش مصنوعی مولد (Gen-AI) در سال‌های اخیر پیشرفت چشمگیری داشته و امکان تولید خروجی‌های شبیه به آثار انسانی، مانند تصاویر، متن و موسیقی را فراهم کرده است. مدل‌های تولید تصویر از متن مانند "استیبل دیفیوژن"، "میجویورنِی" و "دال-ای ۲" به کاربران این امکان را می‌دهند تا بدون داشتن دانش فنی، تصاویری با کیفیت بالا و خلاقانه ایجاد کنند. این فناوری‌ها به سرعت محبوب شده و تصاویر تولید شده توسط آن‌ها در شبکه‌های اجتماعی، مجلات و مقالات به چشم می‌خورند. با این حال، هنوز روشن نیست که این تصاویر چه تأثیری بر مخاطبان دارند و آیا ماهیت مصنوعی آن‌ها باعث واکنش‌ها و احساسات خاصی می‌شود. این مطالعه به بررسی درک عمومی از تصاویر تولید شده توسط هوش مصنوعی، فراتر از جنبه‌های هنری، می‌پردازد و تلاش می‌کند تا واکنش طیف گسترده‌ای از افراد نسبت به این فناوری را مورد بررسی قرار دهد. 🔻🔻🔻🔻🔻 https://eitaa.com/AIGovernance https://ble.ir/aigovernance https://rubika.ir/aigovernance https://t.me/AiGovernanc
حکمرانی هوشمند:هوش مصنوعی/فناوری های نوظهور
مقاله خوانی هوش مصنوعی مولد (Gen-AI) در سال‌های اخیر پیشرفت چشمگیری داشته و امکان تولید خروجی‌های ش
نکات اصلی مقاله به شرح زیر است: 🔻پیشرفت هوش مصنوعی مولد (Gen-AI) و تولید تصاویر از متن: فناوری‌های هوش مصنوعی مولد مانند "استیبل دیفیوژن"، "میجویورنِی"، و "دال-ای ۲" به کاربران اجازه می‌دهند تا به سرعت و به سادگی تصاویر با کیفیت بالا از متن (پرومپت) تولید کنند. این فناوری‌ها باعث شده‌اند که تولید محتوای دیجیتال به شکل گسترده‌تری در دسترس افراد قرار گیرد. 🔻تجربه و برداشت افراد از تصاویر تولید شده توسط هوش مصنوعی: ♦مطالعه انجام شده نشان می‌دهد که افراد، تصاویر تولید شده توسط هوش مصنوعی را بر اساس کیفیت فنی و توانایی در نمایش موضوعات، مورد ارزیابی قرار می‌دهند. ♦تصاویر به طور کلی به دو دسته تقسیم می‌شدند: تصاویر "عجیب": برخی تصاویر حاوی جزئیات غیرمنتظره یا غیرمعمول بودند که حس غریبگی، عدم اعتماد و حتی احساسات ناخوشایند را در افراد برانگیخت. این احساسات حتی به خود فناوری هوش مصنوعی نیز سرایت کرد و آن را به عنوان یک موجود ناآشنا و "بیگانه" تلقی کردند. ♦تصاویر "کلیشه‌ای": برخی دیگر از تصاویر بسیار نمادین و کلیشه‌ای بودند و انگار نمونه‌های اولیه و متعارف یک مفهوم را نشان می‌دادند. این باعث می‌شد که برخی شرکت‌کنندگان نگران تعصبات و محدودیت‌های نهفته در مدل‌های هوش مصنوعی شوند. 🔻احساسات و واکنش‌ها به تصاویر و هوش مصنوعی: برخی شرکت‌کنندگان، تصاویر را فقط بر اساس کیفیت فنی و توانایی آن‌ها در ارائه صحیح و دقیق موضوع، مورد ارزیابی قرار دادند و به خلاقیت و ویژگی‌های هنری آن کمتر توجه کردند. عدم توانایی برخی تصاویر در نشان دادن صحیح موضوع باعث عدم اعتماد به هوش مصنوعی شد و نگرانی‌هایی را در مورد استقلال و کنترل‌پذیری آن برانگیخت. 🔻استراتژی‌های مقابله با عدم اطمینان و غریبگی: شرکت‌کنندگان برای کاهش حس غریبگی و عدم آشنایی، از استراتژی‌های مختلفی استفاده کردند. برخی به ارزیابی مجدد تصاویر پرداخته و معنای جدیدی برای آن‌ها متصور شدند. برخی دیگر با تقویت اعتماد به توانایی‌های خود و تضعیف هوش مصنوعی، از مقایسه خود با آن اجتناب کردند. 🔻کاربردهای مثبت و پتانسیل‌های آینده تصاویر تولید شده توسط Gen-AI: شرکت‌کنندگان با پیش‌زمینه‌های فناوری و طراحی، ارزش‌های کاربردی این تصاویر را شناسایی کردند و از آن‌ها به عنوان ابزاری برای افزایش خلاقیت و بهره‌وری استفاده کردند. برخی افراد بر این باور بودند که این تصاویر می‌توانند به ابزاری برای بازتاب تعصبات و باورهای اجتماعی تبدیل شوند و ما را نسبت به سوگیری‌های نهفته در جامعه آگاه‌تر کنند. 🔻چالش‌های پیش رو و نگرانی‌ها: استفاده گسترده از تصاویر هوش مصنوعی ممکن است به ایجاد تعصبات و کلیشه‌ها دامن بزند و خطراتی مانند گمراه‌سازی و اطلاعات نادرست به همراه داشته باشد. همچنین، نگرانی‌هایی در مورد جایگزینی هوش مصنوعی به جای خلاقیت انسانی و آینده مشاغل مرتبط با هنر و طراحی وجود دارد. 🔻🔻🔻🔻🔻 https://eitaa.com/AIGovernance https://ble.ir/aigovernance https://rubika.ir/aigovernance https://t.me/AiGovernanc
The governance of artificial intelligence in Canada.pdf
3.92M
مقاله خوانی عنوان مقاله: "حکمرانی هوش مصنوعی در کانادا: یافته‌ها و فرصت‌ها از بررسی ۸۴ ابتکار حکمرانی هوش مصنوعی" این مقاله با مرور ۸۴ پروژه و ابتکار حکمرانی، الگوهای رایج و نقاط ضعف موجود را شناسایی کرده و فرصت‌هایی را برای تقویت حکمرانی هوش مصنوعی در کانادا مطرح می‌کند. ایتا | بله | روبیکا 🆔 @AiGovernance تلگرام 🆔 @AiGovernanc
حکمرانی هوشمند:هوش مصنوعی/فناوری های نوظهور
مقاله خوانی عنوان مقاله: "حکمرانی هوش مصنوعی در کانادا: یافته‌ها و فرصت‌ها از بررسی ۸۴ ابتکار حکمرا
مهم‌ترین نکات مقاله: "حکمرانی هوش مصنوعی در کانادا: یافته‌ها و فرصت‌ها از بررسی ۸۴ ابتکار حکمرانی هوش مصنوعی" پیشگامی کانادا در حکمرانی هوش مصنوعی: کانادا در سال ۲۰۱۷ اولین کشور بود که یک استراتژی ملی برای هوش مصنوعی تعریف کرد. در این راستا، تلاش‌ها در سطح ملی و استانی با هدف تقویت تحقیقات، نوآوری و هدایت کاربردهای هوش مصنوعی با تاکید بر اخلاق و چندذینفعی صورت گرفته است. تمرکز بر نوآوری و صنعت: در بررسی این ۸۴ ابتکار، بسیاری از پروژه‌ها به ارتقای صنعت و نوآوری و تولید و استفاده از فناوری‌های هوش مصنوعی اختصاص دارند. به عنوان مثال، برنامه‌های مرتبط با استراتژی پان-کانادایی هوش مصنوعی توسط موسسه پژوهشی CIFAR برای ارتقاء پژوهش، نوآوری و آموزش در حوزه هوش مصنوعی تأسیس شده‌اند. توزیع ابتکارات و عدم تمرکز بر آموزش و زیرساخت‌های دیجیتال: در حالی که بخش عمده‌ای از این پروژه‌ها در حوزه صنعت و نوآوری متمرکز شده‌اند، توجه کمتری به آموزش و زیرساخت‌های دیجیتال اختصاص یافته است. این عدم تمرکز می‌تواند به عدم تعادل در کاربردهای اجتماعی و آموزشی هوش مصنوعی منجر شود. چالش‌های اعتماد عمومی و شفافیت: در میان ابتکارات، برخی چالش‌ها از جمله عدم شفافیت کافی و مشارکت عمومی در طراحی و پیاده‌سازی پروژه‌ها شناسایی شده است. به عنوان مثال، برخی ابتکارات فاقد معیارهای دقیق برای سنجش موفقیت بوده و اطلاعات کافی درباره‌ی نتایج و اثربخشی آن‌ها منتشر نمی‌شود. تاکید بر حاکمیت داده‌ها و حریم خصوصی: حفاظت از داده‌ها و حریم خصوصی از مسائل مهم در حکمرانی هوش مصنوعی کانادا بوده و سیاست‌ها و قوانینی مانند "قانون منشور دیجیتال" برای تنظیم فعالیت‌ها در این زمینه اجرا شده‌اند. اما به نظر می‌رسد برخی از این قوانین، نظیر "قانون اجرای منشور دیجیتال"، هنوز به اصلاحات و شفافیت بیشتر نیاز دارند. فرصت‌ها برای پژوهش و عملیاتی‌سازی بهتر: مقاله فرصت‌هایی را برای پژوهشگران و سیاست‌گذاران مطرح می‌کند، از جمله: تمرکز بر سنجش نتایج و اثربخشی ابتکارات برای اطمینان از تحقق اهداف افزایش تعاملات با عموم مردم در فرآیندهای طراحی و اجرای ابتکارات گسترش دامنه‌ی تاثیرات اجتماعی و محیط زیستی هوش مصنوعی نیاز به یک رویکرد ملی یکپارچه‌تر: این مقاله توصیه می‌کند که کانادا برای بهبود هماهنگی و همکاری بین استان‌ها و ارگان‌های مختلف، به سمت یک رویکرد ملی و یکپارچه‌تر حرکت کند تا بتواند در پاسخگویی به چالش‌ها و استفاده از فرصت‌های ناشی از هوش مصنوعی موفق‌تر عمل کند. ایتا | بله | روبیکا 🆔 @AiGovernance تلگرام 🆔 @AiGovernanc
2311.10054v3.pdf
1.25M
یک مقاله جالب که در کنفرانس EMNLP ۲۰۲۴ منتشر شده ، تاثیر شخصیت (Persona) در پرامپت را بررسی کرده  و نتایج جالبی به دست آورده. عنوان مقاله : وقتی "یک دستیار مفید" واقعاً مفید نیست: چگونه شخصیت‌ها در پیام‌های  سیستمی (system prompt) بر عملکرد مدل‌های زبانی بزرگ تأثیر می‌گذارند. ایتا | بله | روبیکا 🆔 @AiGovernance تلگرام 🆔 @AiGovernanc
حکمرانی هوشمند:هوش مصنوعی/فناوری های نوظهور
یک مقاله جالب که در کنفرانس EMNLP ۲۰۲۴ منتشر شده ، تاثیر شخصیت (Persona) در پرامپت را بررسی کرده 
عنوان مقاله با این مضمون: وقتی "یک دستیار مفید" واقعاً مفید نیست: چگونه شخصیت‌ها در پیام‌های  سیستمی (system prompt) بر عملکرد مدل‌های زبانی بزرگ تأثیر می‌گذارند. سوالهایی که این مقاله سعی کرده جواب بده: آیا برخی شخصیت‌ها پاسخ‌های بهتری می‌دهند؟آیا چارچوب پیام‌ها بر عملکرد مدل تأثیر می‌گذارد - آیا بهتر است مدل یک دانش‌آموز باشد یا با یک دانش‌آموز صحبت کند؟آیا برخی شخصیت‌ها بهتر از بقیه هستند؟چرا برخی شخصیت‌ها به دقت بالاتر منجر می‌شوند؟اگر بتوانیم "شخصیت مناسب" را برای پرسیدن سوال انتخاب کنیم چه؟ پیام‌ها نحوه ارتباط ما با مدل‌های زبانی بزرگ (LLM) هستند. بسیاری از سیستم‌ها، مانند ChatGPT، از یک پیام سیستم پیش‌فرض استفاده می‌کنند: "شما یک دستیار مفید هستید." اما آیا افزودن یک شخصیت واقعاً عملکرد LLM را بهبود می‌بخشد؟ این مطالعه ارزیابی می‌کند که چگونه افزودن شخصیت‌ها (مانند دستیار مفید، متخصص، دوست و غیره) بر عملکرد LLM تأثیر می‌گذارد. محققان 162 شخصیت را تعریف کردند که شامل 6 نوع رابطه (مانند دوست، مربی) و 8 حوزه تخصصی (مانند علم، مالی) می‌شوند. هر شخصیت برای بررسی اینکه آیا دقت واقعی را بهبود می‌بخشد، آزمایش شد. نتایج: هیچ مزیت روشنی نداشت. افزودن شخصیت‌ها به پیام‌های سیستم به طور مداوم عملکرد مدل را افزایش نداد. LLMها هنگام دریافت سوالات واقعی با و بدون پیام شخصیت، عملکرد مشابهی داشتند. با این حال، این مطالعه نشان داد که ویژگی‌های شخصیت - مانند جنسیت، نوع رابطه و حوزه - می‌تواند بر نتایج تأثیر بگذارد. برخی از شخصیت‌ها در زمینه‌های خاص افزایش جزئی دقت را نشان دادند. تیم استراتژی‌های مختلفی را امتحان کردند، حتی نتایج را از "بهترین شخصیت" برای هر سوال جمع‌آوری کردند. این کار دقت را بهبود بخشید اما همچنان با چالش‌هایی روبرو بود: پیش‌بینی شخصیت ایده‌آل همچنان به اندازه پرتاب سکه تصادفی است! در حالی که برخی از شخصیت‌ها مزایای جزئی ارائه می‌دهند، اثر آن به طور کلی غیرقابل پیش‌بینی است. افزودن یک شخصیت تضمین‌کننده نتایج بهتر نیست - یافتن "شخصیت مناسب" یک چالش بزرگ است. در مجموع، اختصاص شخصیت‌ها در پیام‌های سیستم مسیر روشنی برای بهبود عملکرد LLM نیست. ممکن است گاهی کار کند، اما اثر آن تا حد زیادی تصادفی است. ایتا | بله | روبیکا 🆔 @AiGovernance تلگرام 🆔 @AiGovernanc
چرا سوگیری‌های شناختی در هوش مصنوعی اهمیت دارند؟ 🧠 هوش مصنوعی، به‌عنوان بازتابی از داده‌ها و تصمیمات انسانی، ممکن است همان سوگیری‌هایی را که در ذهن انسان‌ها وجود دارد، بازتولید کند. این سوگیری‌ها، که به‌عنوان سوگیری‌های شناختی شناخته می‌شوند، می‌توانند به تصمیمات ناعادلانه و حتی تقویت نابرابری‌ها منجر شوند. 📊 چه نوع سوگیری‌هایی در هوش مصنوعی دیده می‌شود؟ 1️⃣ سوگیری داده‌ها: داده‌های آموزشی ناکافی یا غیردقیق ممکن است به پیش‌بینی‌های اشتباه منجر شوند. 2️⃣ سوگیری الگوریتمی: طراحی یا انتخاب الگوریتم‌ها می‌تواند نتایج را به‌سمت نابرابری هدایت کند. 3️⃣ سوگیری تأییدی: مدل‌ها به داده‌هایی که فرضیات موجود را تأیید می‌کنند، اولویت می‌دهند. 4️⃣ سوگیری نمایش: اگر ویژگی‌های خاصی در داده‌ها به‌اندازه کافی نمایش داده نشوند، مدل‌ها نمی‌توانند به‌خوبی تعمیم دهند. 🚨 چرا مهم است؟ این سوگیری‌ها نه‌تنها می‌توانند تصمیمات اشتباه را تقویت کنند، بلکه اعتماد عمومی به فناوری را نیز تضعیف می‌کنند. 📢 به این سوال فکر کنید: آیا هوش مصنوعی می‌تواند واقعاً بی‌طرف باشد؟ 🔻🔻🔻حکمرانی هوشمند🔻🔻🔻 https://eitaa.com/AIGovernance https://ble.ir/aigovernance https://rubika.ir/aigovernance https://t.me/AiGovernanc
چطور سوگیری‌ها در هوش مصنوعی ایجاد می‌شوند؟ 📚 هوش مصنوعی بر اساس داده‌های انسانی آموزش می‌بیند. این داده‌ها می‌توانند شامل پیش‌داوری‌های اجتماعی، فرهنگی و تاریخی باشند. به همین دلیل: 1️⃣ مدل‌های استخدام ممکن است مردان را به زنان ترجیح دهند. 2️⃣ سیستم‌های قضایی مبتنی بر هوش مصنوعی ممکن است احکام ناعادلانه صادر کنند. 3️⃣ الگوریتم‌های تبلیغاتی ممکن است کلیشه‌های جنسیتی یا نژادی را بازتولید کنند. 💡 هوش مصنوعی، اگرچه پیشرفته به نظر می‌رسد، اما به جای "فکر کردن" به شناسایی الگوهای آماری محدود است. 📊 یک مثال قابل توجه: سیستم استخدامی آمازون که به دلیل ترجیح دادن مردان، کنار گذاشته شد. دلیل؟ داده‌های آموزشی‌اش از الگوهای گذشته الهام گرفته بود. ⚠️ نتیجه‌گیری: سوگیری‌های موجود در داده‌ها می‌توانند به سوگیری در تصمیمات هوش مصنوعی تبدیل شوند. 🔻🔻🔻حکمرانی هوشمند🔻🔻🔻 https://eitaa.com/AIGovernance https://ble.ir/aigovernance https://rubika.ir/aigovernance https://t.me/AiGovernanc
✨ آیا راه‌حلی برای کاهش سوگیری‌های هوش مصنوعی وجود دارد؟ ✅ بله! محققان و متخصصان پیشنهادهای متنوعی ارائه کرده‌اند: 1️⃣ طراحی داده‌های متنوع و جامع: داده‌ها باید نمایانگر تمام گروه‌ها و جمعیت‌ها باشند. 2️⃣ الگوریتم‌های شفاف: مدل‌هایی که تصمیماتشان قابل توضیح باشد، اعتماد بیشتری ایجاد می‌کنند. 3️⃣ نظارت مستمر: پس از اجرای مدل‌ها، عملکردشان باید ارزیابی و تنظیم شود. 4️⃣ همکاری بین‌رشته‌ای: متخصصان فناوری، اخلاق و قانون باید با هم کار کنند. 📢 چشم‌انداز آینده: یک اکوسیستم قابل اعتماد که از شفافیت، اخلاق و عدالت حمایت می‌کند. آیا این هدف قابل دستیابی است؟ شما چه فکر می‌کنید؟ 🔻🔻🔻حکمرانی هوشمند🔻🔻🔻 https://eitaa.com/AIGovernance https://ble.ir/aigovernance https://rubika.ir/aigovernance https://t.me/AiGovernanc
چرا سوگیری‌های هوش مصنوعی مسئله‌ای جهانی است؟ ⚖️ سوگیری‌های هوش مصنوعی می‌توانند نابرابری‌های اجتماعی را افزایش دهند: در سیستم‌های قضایی: تصمیمات ناعادلانه علیه گروه‌های خاص. در خدمات مالی: عدم تخصیص وام به افراد کم‌درآمد. در پزشکی: ارائه درمان‌های نابرابر برای گروه‌های مختلف. 🔗 پیامدهای اخلاقی: عدم توجه به این مسائل می‌تواند اعتماد عمومی را به فناوری تضعیف کند و چالش‌های قانونی و اجتماعی ایجاد کند. 📢 راه‌حل چیست؟ با افزایش آگاهی عمومی و ایجاد قوانین جامع، می‌توان هوش مصنوعی را به ابزاری عادلانه تبدیل کرد. 🔻🔻🔻حکمرانی هوشمند🔻🔻🔻 https://eitaa.com/AIGovernance https://ble.ir/aigovernance https://rubika.ir/aigovernance https://t.me/AiGovernanc
چالش‌های اخلاقی سوگیری در هوش مصنوعی 🔍 چه کسانی مسئول هستند؟ 1️⃣ توسعه‌دهندگان فناوری: اطمینان از طراحی سیستم‌های عادلانه. 2️⃣ سیاست‌گذاران: ایجاد قوانین شفاف برای کنترل فناوری. 3️⃣ کاربران: بررسی نتایج و بازخورد دادن. 💡 چرا این مهم است؟ هوش مصنوعی نباید ابزاری برای تقویت نابرابری‌ها باشد. تنها با یک تلاش جمعی می‌توانیم آینده‌ای شفاف‌تر و عادلانه‌تر بسازیم. ✨ چشم‌انداز: هوش مصنوعی، نه‌تنها پیشرفته بلکه اخلاقی. 🔻🔻🔻حکمرانی هوشمند🔻🔻🔻 https://eitaa.com/AIGovernance https://ble.ir/aigovernance https://rubika.ir/aigovernance https://t.me/AiGovernanc
Artificial Intelligence.pdf
369.3K
برای اطلاعات بیشتر: مقاله‌ای جامع در این زمینه، منتشر شده در Journal of Innovation Economics & Management، شماره 44 (2024). عنوان انگلیسی مقاله: Artificial Intelligence and Cognitive Biases: A Viewpoint عنوان فارسی مقاله: هوش مصنوعی و سوگیری‌های شناختی: یک دیدگاه خلاصه مقاله و موضوع: این مقاله به بررسی سوگیری‌های شناختی در هوش مصنوعی می‌پردازد و نشان می‌دهد که چگونه این سوگیری‌ها، که ناشی از داده‌ها و تصمیم‌گیری‌های انسانی هستند، می‌توانند در الگوریتم‌های هوش مصنوعی ظاهر شوند و به تقویت نابرابری‌های اجتماعی منجر شوند. نویسندگان به سوگیری‌هایی مانند سوگیری داده‌ها، سوگیری الگوریتمی، و سوگیری تأییدی اشاره می‌کنند و راهکارهایی مانند طراحی داده‌های جامع، شفافیت الگوریتم‌ها، و نظارت مستمر را برای کاهش این مشکلات پیشنهاد می‌دهند. مقاله تأکید دارد که حل این چالش نیازمند همکاری بین‌رشته‌ای، نظارت قانونی، و تعهد به اصول اخلاقی در توسعه هوش مصنوعی است. موضوع اصلی مقاله: تأثیر سوگیری‌های شناختی بر عملکرد هوش مصنوعی و راهکارهای مقابله با آن برای ایجاد سیستم‌های عادلانه و شفاف. 🔻🔻🔻حکمرانی هوشمند🔻🔻🔻 https://eitaa.com/AIGovernance https://ble.ir/aigovernance https://rubika.ir/aigovernance https://t.me/AiGovernanc