eitaa logo
| اندکی اندیشه |
359 دنبال‌کننده
793 عکس
228 ویدیو
17 فایل
💠💠خُرده تاملات حسینعلی رحمتی در اخلاق فناوری اطلاعات، فلسفه اخلاق ، و برخی موضوعات دیگر. 📌سایت رسمی: www.harahmati.ir 📌آدرس در همه شبکه های اجتماعی: @harahmati 📌 ارتباط با بنده در ایتا: @harahmati2
مشاهده در ایتا
دانلود
11.18M حجم رسانه بالاست
مشاهده در ایتا
🍉هوش مصنوعی و بلند کردن چند هندوانه با یک دست (۳) هوش مصنوعی به مدد فناوری های پوشیدنی میتواند قدرت بدنی انسان ها را افزایش دهد؛ مثلا یک نفر بتواند چندین برابر وزن خود بار جا به جا کند. طبیعتا چنین کارهایی در ابتدا برای همه ما جذاب و خوشحال کننده است، اما نباید از «نگاه جامع و چند بُعدی» به کارکردهای این فناوری غافل شد. 🍒تا وقتی که این فناوری بتواند خدماتی از قبیل زندگی بهتر برای افراد ناتوان را ارایه کند قطعا از نظر اخلاقی قابل دفاع است، ولی همه خدمات این فناوری از این دست نخواهد بود. مثلا افزایش قدرت جسمی انسان باید متناسب با توان فکری و هوش اخلاقی او باشد که تا بتواند آن را مدیریت کند و از آن در راه درست استفاده کند. همان گونه که داشتن توان اقتصادی و سیاسی برای انسان مسوولیت آور است داشتن قدرت جسمیِ ناشی از هوش مصنوعی هم باید حتما همراه با مسوولیت پذیری اخلاقی نسبت به آن باشد. 🍒بنابراین طراحان و استفاده کنندگان از هوش مصنوعی در کنار توسعه یا به کارگیری توانایی های آن حتما بایستی به «پیوست های اخلاقی» مربوط به آن نیز توجه کنند. حسینعلی رحمتی ۱۶ شهریور ۱۴۰۳ 💥اندکی اندیشه ضرر ندارد
فعلا قابلیت پخش رسانه در مرورگر فراهم نیست
مشاهده در پیام رسان ایتا
🐕‍🦺 تاثیر «حیوان-ربات ها» بر زیست انسانی و جانوری (۴) ربات ها هر روز شکل و شمایلی نزدیک تر به موجودات حاضر در زندگی ما پیدا می کنند. مثلا ربات های حیوان-نُمایی درست شده که از نظر حرکات و سَکَنات دارند شبیه حیوان های فعلی می شوند و چه بسا در آینده ای نزدیک به عنوان مورد استفاده قرار گیرند. این کار می تواند پرسش ها و چالش هایی را از نظر موجب شود، از جمله این که: 🦖 توسعه هوش مصنوعی چه مزیت ها و مشکلاتی را می تواند برای محیط زیست جانوری ایجاد کند؟ 🦖 آیا ممکن است انسان ها به ربات های حیوانی دلبستگی عاطفی پیدا کنند؟ نسبت به آنها چه وظایف اخلاقی دارند؟ 🦖 آیا ممکن است موجب بی¬مِهری و افزایش خشونت انسان نسبت به حیوان¬های واقعی شوند؟ 🦖 یا از سوی دیگر، آیا ممکن است موجب استفاده کمتر از حیوانات واقعی و درنتیجه آسیب دیدن کمتر آنها شود؟ 🦖 همزیستی حیوانات واقعی با این ربات¬ها آیا ممکن است روی روحیات آنها مثل وفاداری یا محبت به صاحب شان تاثیر منفی بگذارد؟ حسینعلی رحمتی ۱۶ شهریور ۱۴۰۳ 💥اندکی اندیشه ضرر ندارد
فعلا قابلیت پخش رسانه در مرورگر فراهم نیست
مشاهده در پیام رسان ایتا
🔥هوش حقیقیِ ایرانی در خدمت هوش مصنوعی (۵) 🔻فناوری هوش مصنوعی در هیچ کشوری از روز اول تخم دوزرده نمی کند؛ بلکه با مجموعه از آزمون و خطا گام به گام توسعه پیدا می کند. در شبکه های اجتماعی، معرفی محصولات دیگر کشورها در زمینه هوش مصنوعی کار خوبی است ولی این نباید موجب غفلت از معرفی کوشش های علمی و دستاوردهای دانشمندان کشورمان، به خصوص جوانان، در این عرصه شود. 💪معرفی دانش و دانشمندان ایرانیِ هوش مصنوعی نوعی قدردانی از زحمات آنها، تشویق‌شان به تلاش بیشتر، دل‌گرمی برای عدم مهاجرت، ایجاد اشتغال و تولید سرمایه در کشور، و پیشتازی کشورمان در میدانِ پررقابتِ هوش مصنوعی می‌شود. از نظر اخلاقی کار خوب از هر کسی که سرزند شایسته تقدیر است ولی چه بهتر که فرزندان میهن مان را بیشتر تشویق کنیم، چرا که حق بیشتری بر گردمان دارند. البته نهادهای حاکمیتی و صاحبان صنایع و سرمایه هم باید بسته به امکانات خود در این کار خیر مشارکت کنند. 🧿ویدیو: معرفی ربات دستیار جراح ساخته شده توسط حسینعلی رحمتی ۱۷ شهریور ۱۴۰۳ 💥اندکی اندیشه ضرر ندارد
6.06M حجم رسانه بالاست
مشاهده در ایتا
♨️ربات‌ها هم عصبانی می‌شوند؟ (۶) 🔻وجود عواطف و احساسات و عکس‌العمل‌هایی چون خشم و عصبانیت در انسان‌ها طبیعی است ولی برای ربات‌ها چه؟ دانشمندان در صدد هستند ربات‌ها را به‌گونه‌ای توسعه دهند که هم احساسات انسان‌ها را درک کنند هم بتوانند رفتارهای احساسی از قبیل غم و شادی را از خود بروز دهند. این کار گرچه در ابتدای راه است ولی به هر حال از منظر می‌تواند پرسش‌هایی را برانگیزد از جمله این که: 🤖 اگر در فهم احساسات انسان اشتباه کردند و عکس‌العمل نامناسبی نشان دادند چه باید کرد؟ 🤖آیا ممکن است کاری کرد که «فقط» احساسات مثبتی چون شفقت و مهربانی نسبت به دیگران داشته باشند؟ 🤖 در این صورت آیا کارشان یک رفتار اخلاقی است یا صرفا یک واکنش مکانیکی؟ 🤖وابستگی عاطفی انسان به ربات‌ها چه تاثیرات اخلاقی روی تعامل انسان با ربات‌ها و با انسان‌های دیگر (و حتی حیوانات) می‌تواند داشته باشد؟ حسینعلی رحمتی ۱۸ شهریور ۱۴۰۳ 💥اندکی اندیشه ضرر ندارد
15.05M حجم رسانه بالاست
مشاهده در ایتا
🌀کوچک شدن ربات ها و کوچک شمردن اخلاق (۷) 👽یکی از تغییرات جالب در عرصه هوش مصنوعی تولید ربات هایی است که از نظر قد و اندازه هر روز کوچک تر می شوند. در طراحی این ربات ها معمولا از حیوانات ریزنقش مثل کِرم و پروانه و زنبور الهام گرفته می شود و حتی به شکل همین حیوانات هم ساخته می شود. البته از آنها ریزتر هم هست که به اندازه یک سرانگشت هستند. 👽 ریزربات ها کارکردهای مختلفی دارند؛ از پزشکی گرفته تا کارهای نظامی و اطلاعاتی. تولید آنها در مواردی که به کاهش صدمه به انسان ها یا درمان آنها یا ممانعت از کارهای تروریستی منجر می شود قطعا از منظر اخلاقی قابل دفاع است. 👽 اما از سوی دیگر درباره آنها دغدغه هایی هم وجود دارد، از جمله این که: چون به قول قدیمی ها عقل آدمی در چشم اوست ممکن است مراعات اصول اخلاقی درباره این ربات ها را چون ریز هستند چندان جدی گرفته نشود (همان طور که ما بزرگ تر ها نوجوان ها را چون بچه حساب می کنیم جدی نمی گیریم). این در حالی است که از نظر مراعات اصول اخلاقی در مورد طراحی، توسعه و استفاده از ربات ها فرقی بین ریز و درشت بودن آنها نیست. حسینعلی رحمتی ۱۹ شهریور ۱۴۰۳ 💥اندکی اندیشه ضرر ندارد
6.68M حجم رسانه بالاست
مشاهده در ایتا
‼️هوش مصنوعی و «کله قند»وارِگیِ اخلاقی (۸) 🦾حدّومرز اخلاقیِ توسعه ماشین های هوشمند تا کجاست؟ آیا طراحان و توسعه دهندگان هوش مصنوعی باید هر چیزی را که «می توانند» تولید کنند؟ رقابت سیری ناپذیرِ شرکت های مختلف در این زمینه چرا، چگونه و توسط چه کسانی باید زا نظر اخلاقی مورد نظارت و کنترل قرار گیرد؟ 🦾 اینها برخی از مهم ترین پرسش هایی است که اخلاق پژوهان هوش مصنوعی باید به‌جدّ در پی پاسخ به آن باشند. اگر به طراحان و تولیدکنندگان این ماشین ها باشد به نظر می رسد آنان هیچ حدّومرزی را برای این کار قائل نیستند. شاهدش این که هر روز ربات یا فناوری جدیدی تولید می کنند بدون این که خبری از «پیوست اخلاقی»اش باشد. 🦾 یکی از پیامدهای این نگاه سودگرایانه به بازار پررونق و رقابت ماشین های هوشمند این است که به زودی ما شاهد انسان(واره)هایی خواهیم بود که ظاهرشان با هم فرق می کند ولی فکر و اخلاق شان (خوب یا بد) عین هم است. درست شبیه کله قندهایِ یک شکل. (ویدیو را ببینید) حسینعلی رحمتی ۲۱ شهریور ۱۴۰۳ 💥اندکی اندیشه ضرر ندارد
16.33M حجم رسانه بالاست
مشاهده در ایتا
🔥آیا ربات ها هم باید اخلاق را مراعات کنند؟ (۹) «آیا ربات ها هم باید در گفتار و رفتارشان با خودشان و انسان ها چارچوب های اخلاقی داشته باشند؟» شاید این پرسش امروز کمی خنده دار و عجیب به نظر آید ولی با توجه به فرایند توسعه ماشین های هوشمند باید به آن جدی تر فکر کرد. و البته هرگونه پاسخ به آن مبتنی است بر این که ببینیم این ماشین ها چه اندازه از «اختیار، استقلال، و خودآگاهی» برخوردار هستند یا در آینده می شوند؛ چرا که این این سه موضوع جزو مبانی اولیه اخلاق هستند. 🍄 اگر به درصدی از امکان تربیت اخلاقی ربات ها باور داشته باشیم، آن گاه باید درباره پرسش هایی از این دست تامل کنیم: ▪️ روش تربیت اخلاقی ربات ها چه گونه است؟ ▪️چه اصول و قواعدی را باید به آنها یاد داد؟ ▪️چه کسی باید این اصول را مشخص کند؟ ▪️ اگر بین اصول اخلاقی ربات ها با اصول اخلاقی انسان های مرتبط با آنها اختلاف پیش آمد چه باید کرد؟ ▪️چه کدهای اخلاقی باید برای آنها نوشت؟ ▪️اگر ربات ها بین خودشان یک نظام اخلاقی جدید پایه گذاری کردند انسان ها چه باید بکنند؟ (ویدیو را ببینید) حسینعلی رحمتی ۲۲ شهریور ۱۴۰۳ 💥اندکی اندیشه ضرر ندارد
فعلا قابلیت پخش رسانه در مرورگر فراهم نیست
مشاهده در پیام رسان ایتا
🔴 مگه بیل به کمر ربات‌ها خورده؟ بی‌کاری به مثابه یک چالش اخلاقی (۱۰) 🛠پیدایش «ربات‌های کارگر» اگر یک گروه را خوشحال کند آنها صاحبان کارگاه ها و کارخانه ها هستند؛ چرا که این کارگران جدید نه غرولند می کنند، نه حقوق می خواهند، نه بیمه، نه حق اولاد و عیال، نه اعتصاب می کنند. تازه، زورشان هم زیادتر است، خسته هم نمی شوند. چه از این بهتر؟ اما از سوی دیگر با استفاده از هر ربات، چندین کارگر بی کار می شوند و چندین خانواده از جهات مختلف آسیب می بینند. 🛠این جاست که اخلاق پژوهان فناوری اطلاعات باید وارد شوند و مسوولیت اخلاقی صاحبان کار را در استفاده از ربات ها و مواظبت بر حفظ حقوق و کرامت انسانی کارگران به آنان یادآور شوند. و حتی اگر لازم شد تدابیر حقوقی و قضایی را هم به کار ببرند. نقش ربات ها در افزایش بی کاری، امروزه به یک دغدغه های مهم جهانی تبدیل شده است. ترس از این است که حرمت و کرامت کارگران، که قشر ضعیف و زحمتکش جامعه اند، زیر پای ربات ها و درراستای سرمایه پرستی و سودگرایی صاحبان کارخانه ها و مراکز تولیدی قربانی شود. 🛠پیامدهای اخلاقی و اجتماعی این کار کم‌تر از ضررهای اقتصادی اش نیست. حسینعلی رحمتی ۲۳ شهریور ۱۴۰۳ 💥اندکی اندیشه ضرر ندارد
💢چالش های اخلاقی فناوری های نوپدید، مبتنی بر هوش مصنوعی 🔹گزارش یک نشست علمی این نشست روز چهارشنبه ۲۱ شهریور ماه ۱۴۰۳ برگزارشد. دکتر رحمتی گفت مخاطبان این بحث عموم علاقمندان به و ، به ویژه طلاب و روحانیون هستند که درباره اخلاق اندیشی و اخلاقی پژوهی نسبت به این فناوری ها مسوولیت بیشتری دارند. ایشان تضعیف کرامت انسانی در برابر ماشین، نقض حریم خصوصی،جعل حقیقت، کاهش اقتدار نهادهای سنتی اخلاقی، شکل گیری مشاوران اخلاقی جدید، کاهش عواطف انسانی، اعتیاد مجازی، نقض مالکیت مادی و معنوی دیگران را از جمله این چالشها ذکر کرد. 📌متن کامل گزارش را در اینجا بخوانید 💥اندکی اندیشه ضرر ندارد