eitaa logo
سوادرسانه بدر
2.2هزار دنبال‌کننده
3.5هزار عکس
1.5هزار ویدیو
176 فایل
مجموعه رسانه ای بدر(بصیرت در رسانه) «هرکس رسانه قوی‌تر داشته باشددر اهدافی که دارد موفق‌تر خواهدبود.»امام خامنه ای-۱۴۰۳/۱/۶ گروه https://eitaa.com/joinchat/1082589243C010f2f6f64 آرشیو نشست و دوره ها @savad_k ارتباط با ما @ghasemi_5663 @Rasanehbadr
مشاهده در ایتا
دانلود
⭕️رونمایی چین از اولین مجری زن مصنوعی جهان با 🔹نوامبر گذشته چین اولین مرد مجری مصنوعی به نام Qiu Hao را در کنفرانس جهانی اینترنت در ووژن رونمایی کرد و امروز مدل جدید زن خبرخوان خود به نام «شین شیائوهائو» را نیز رونمایی کرد که قادر به خواندن خبر به صورت ۲۴ ساعته هستند. 💢رسانه ها به شدت در حال ترکیب شدن با انسانها هستند./پویش سواد رسانه‌ای •┈┈••••✾•🌿🌺🌿•✾•••┈┈• سواد رسانه ای نیاز هر ایرانی دوستان خود را دعوت نمایید👇 http://eitaa.com/joinchat/2011496448C2b00395a53
فعلا قابلیت پخش رسانه در مرورگر فراهم نیست
مشاهده در پیام رسان ایتا
🚦‏تصورکنید در حالیکه در هرکجای زمین هستید و به زبان فارسی صحبت می‌کنید، یک نسخه از شما همزمان در ژاپن و به زبان ژاپنی سخنرانی کنه. در این ویدیو، مایکروسافت از Azure صحبت می‌کنه که با وجود ‎هولولنز یک ‎هولوگرام در ابعاد واقعی از فرد می‌سازه! 📍عدم توجه به آینده رسانه های نوین باعث میشه آینده برای بشر ترسناک باشه! 🚩سوادزندگی جدید|سواد فضای مجازی •┈┈••••✾•🌿🌺🌿•✾•••┈┈• سواد رسانه ای نیاز هر ایرانی دوستان خود را دعوت نمایید👇 https://eitaa.com/savad_r
🔆 چرا ترکیب اخبار جعلی و هوش مصنوعی خطرناک است؟ 🔺ما در زمانی زندگی می‌کنیم که متأسفانه به طور فزاینده همه چیز آن چیزی نیست که به نظر می رسد یا آنچه که باید باشد. از زمان شکل‌گیری مفهوم اخبار جعلی، فناوری به سرعت پیشرفت کرده است. در نتیجه، ما اکنون با نمونه‌هایی از اخبار جعلی روبرو هستیم که چند ماه پیش اصلا قابل تصور نبودند. ویدئوهای دیپ فیک یکی از معضلات ترکیب هوش مصنوعی با اخبار جعلی است. 🔺 یا جعل عمیق، یک تکنیک برای ترکیب تصویر انسان مبتنی بر هوش مصنوعی است. جعل عمیق تصاویر و فیلم‌های موجود را بر روی تصاویر یا فیلم‌های منبع قرار می‌دهد. دیپ فیک فرد یا افرادی را درحال انجام یک کار در موقعیتی نشان می‌دهد که هرگز در واقعیت اتفاق نیفتاده است. هر شخصی با استفاده از هوش مصنوعی می‌تواند یک دیپ فیک بسازد و برای این کار نیازی نیست که اصلاً شخص مورد نظر جمله‌ای را ادا یا در مکان خاصی حضور پیدا کند. 🔺مورد خطرناک دیگر ربات‌های‌ دارای هستند که می توانند حقیقت را مخدوش و محتوای دروغین را جای آن، جا بزنند. وقتی این ربات‌ها هوشمندتر شوند، می‌توانند با استفاده از داده‌های موجود در دسترس عموم، صدا و دست‌خط هرکسی را تقلید کنند. 🔺 عادی، به خودی خود خطرناک است؛ حال ترکیب آن با هوش مصنوعی، آن را به مراتب خطرناک‌تر خواهد کرد. تشخیص تفاوت بین جعل و واقعیت نیز به همان مراتب دشوارتر می‌شود. ⭕️دلایل زیادی برای خطرناک بودن اخبار جعلی مجهز به هوش مصنوعی وجود دارد؛ اما برجسته‌ترین آن‌ها از نظر عضو هیئت‌علمی مؤسسه تحقیقات بلاکچین کانادا به شرح زیر است: 🔻اطلاعات و اخبار معتبر برای اداره جامعه بسیار مهم است. انسان‌ها باید در مورد عملکرد خودشان مسئول باشند؛ اما اگر از وقوع این اقدامات توسط افراد اطمینان نداشته باشیم و نتوانیم تشخیص دهیم جعل کدام است و واقعیت کدام؛ انجام این امر بسیار مشکل خواهد بود. 🔻اخبار جعلی مجهز به هوش مصنوعی نه تنها تهدیدی برای دموکراسی است‎‌‌، بلکه بازارهای مالی را نیز تهدید می‌کند. چراکه به راحتی با انتشار اخبار جعلی درباره شرکت‌ها و همچنین روند قیمت‌ها، بر بازار سهام و قیمت‌ها تاثیر می‌گذارد. 🔻مهم‌ترین عامل «بی‌حسی نسبت به واقعیت» است که بر این اساس، مردم دیگر خسته‌ شده و به اخبار هیچ‌توجهی نمی‌کنند؛ چراکه می‌دانند به هرحال بیشتر این اخبار، جعلی است و زمانی که چنین اتفاقی رخ دهد، سطح اساسی آگاهی مورد نیاز برای تحقق دموکراسی، بسیار ناپایدار خواهد بود. •┈┈••••✾•🌿🌺🌿•✾•••┈┈• مجموعه فرهنگی رسانه ای بدر(بصیرت در رسانه)👇 🔹گروه https://eitaa.com/joinchat/1082589243C010f2f6f64 🔹بایگانی نشست‌ها @savad_k 🔹کانال(ایتا و شاد) @savad_r
💢🔰 💢 در علوم انسانی-اسلامی: فرصتها و تهدیدها سخنرانان: 🔸دکتر محمدحسین بهرامی؛ 🔸دکتر مجید کافی؛ 🔸مهندس احمد ربیعی زاده، 🔸دکتر محمدرضا قاسمی؛ دبیر نشست: دکتر مهدی نصیری؛ 🗓چهارشنبه 10 خرداد 1402 از ساعت 10 الی 12 📍قم، پردیسان، پژوهشگاه حوزه و دانشگاه؛ ◀️ورود به جلسه مجازی: https://vc.rihu.ac.ir/ch/meeting2 --------------- 🔻پژوهشگاه حوزه و دانشگاه در ایتا: https://eitaa.com/rihu_ac_ir
📲افزایش سواد رسانه‌ای مخاطبان در مقابل پیشرفت پرسرعت هوش مصنوعی ، آدرس غلط دادن است!!! 🔴امروزه تکنولوژی هوش مصنوعی دارای چنان پیشرفت سرسام آوری شده است که میتوان به کمک آن حتی فرد فوت کرده‌ای را به طور تصویری زنده کرد و با تصویر او فیلمی ساخت و در آن هر حرفی زد و هر کاری کرد! سوال اساسی اینجاست که افزایش سواد رسانه‌ای کاربران فضای مجازی و تقویت تفکر انتقادی در برخورد با تولیدات رسانه‌ای ، چه مقدار میتواند آنها را از فریب‌های حرفه‌ای هوش مصنوعی در امان نگه دارد؟ ❌پاسخ چیزی نزدیک به صفر است! ⚠️چرا که هوش مصنوعی قادر به ساخت آثاری بشدت واقعی‌ست که هر چه قدر هم تفکر انتقادی و نگاه ریزبینانه‌ی مخاطبین بالا باشد ، برای تشخیص فریب آن بی‌فایده‌ است! ⭕️حداقل ۲ راهِ مقابله با هجمه‌ها و فریب‌های احتمالی هوش مصنوعی وجود دارد ؛ 1⃣ورود جدی متخصصین و نخبگان علمی کشور به این تکنولوژی و گرفتن قدرت از انحصارگران این صنعت در دنیا و ارائه‌ی الگوهایی برای شناخت فریب‌های هوش مصنوعی 2⃣احداث کامل شبکه‌ی ملی اطلاعات ✅در این راستا احداث شبکه‌ ملی اطلاعات بسیار مهم است چرا که با احداث این شبکه ، مرزهای مجازی ساماندهی خواهد شد و سو‌استفاده‌ها و فریب‌های مجازی قابلیت رصد بیشتری خواهند داشت و طبیعتا با نظارت بیشتر ، از میزان خرابکاری‌ها کاسته خواهد شد! ✍میلاد خورسندی •┈•••✾•🌾🌼🌾•✾••┈• 📲گروه https://eitaa.com/joinchat/1082589243C010f2f6f64 📲کانال http://eitaa.com/joinchat/2011496448C2b00395a53
✡️ نویسنده صهیونیست: « ادیان را اصلاح خواهد کرد» 1️⃣ ، عضو مجمع جهانی اقتصاد و استاد تاریخ دانشگاه عبری اورشلیم، گفت که در چند سال آینده می‌تواند با «بازنویسی کتاب مقدس»، ادیان را اصلاح کند! 2️⃣ وی اضافه کرد: 👈 هوش مصنوعی حتی می‌تواند یک بنویسد. در طول تاریخ، ادیان آرزوی داشتن کتابی را داشتند که توسط یک هوش فوق‌بشری، توسط غیرانسان نوشته شده باشد... هر دینی ادعا می‌کند همهٔ کتاب‌های دیگر ادیان را انسان‌ها نوشته‌اند، اما کتاب ما، نه، نه، نه، از هوش مافوق بشری آمده است. 3️⃣ او سپس یک وعدهٔ شوم داد: 👈 در چند سال آینده، ممکن است ادیانی وجود داشته باشند که واقعاً درست باشند. فقط به دینی فکر کنید که آن توسط یک هوش مصنوعی نوشته شده است. این می‌تواند چند سال دیگر به واقعیت تبدیل شود… 4️⃣ هراری مدت‌هاست رویای چنین دنیایی را در سر می‌پروراند که با سلطهٔ کامل اداره می‌شود. هراری هم‌چنین ادعا می‌کند که در طیّ یک یا دو دهه، الگوریتم‌هایی می‌توانند برای تعیین نوجوانانی که دربارهٔ خود سردرگم هستند، عمل کند!! 5️⃣ به‌عبارت دیگر؛ هراری، «روشنفکر» تیپیکالِ این روزها است که از طریق که او و امثال او را تبلیغ و ترویج می‌کنند، ایده‌های تاریک و دیستوپیایی (پادآرمانشهری) اربابان بالادستی خود، از جمله (مؤسس و ایده‌پرداز اصلی مجمع جهانی اقتصاد) و و بیل گیتس را به افکار عمومی القاء می‌کند •┈•••✾•🌾🌼🌾•✾••┈• 📲@Rasanebadr
🔻تحریم شورای عالی انقلاب فرهنگی بخاطر تاکید بر اهمیت مساله و ! 🔹حجت الاسلام خسروپناه دبیر شورای عالی انقلاب فرهنگی با اشاره به تحریم شورای عالی انقلاب فرهنگی و دبیر این شورا از سوی اتحادیه اروپا گفت: به نظر می‌رسد که این تحریم به‌دلیل مصوبات و جدیت شورا و شخص بنده نسبت به موضوعاتی نظیر امنیت غذایی، هوش مصنوعی و کوانتوم بوده است چراکه با اجرای سیاست‌ها در این زمینه‌ها کشور بیمه خواهد شد و غربی‌ها از این رویکرد واهمه دارند. •••✾•🌾🌼🌾•✾••┈• 📲گروه https://eitaa.com/joinchat/1082589243C010f2f6f64 📲کانال http://eitaa.com/joinchat/2011496448C2b00395a53
🔷 اخلاق اسلامی و تربیت کاربر مسئولیت پذیر نسبت به هوش مصنوعی در مورد نگاه دینی و به طور خاص نگاه مبتنی بر تفکر و مکتب اهل بیت(ع) می‌تواند کاربر مسئولیت‌پذیر تربیت کند. بحث مسئولیت اخلاقی که در حوزه اخلاق و فلسفه اخلاق مهم است خوشبختانه در تفکر اسلامی بسیار مورد توجه قرار گرفته است. در نگاه غیردینی ممکن است دامنه مسئولیت انسان محدود باشد، اما در تفکر دینی مسئولیت انسان دایره خیلی وسیعی دارد. انسان نسبت به خود، نسبت به انسان‌های دیگر، نسبت به محیط زیست و نسبت به خداوند مسئول است. حسینعلی رحمتی •••✾•🌾🌼🌾•✾••┈• 📲گروه https://eitaa.com/joinchat/1082589243C010f2f6f64 📲کانال http://eitaa.com/joinchat/2011496448C2b00395a53
🎯 شما طوطی نيستيد، چت‌جی‌پی‌تی هم انسان نيست 🔴 معمولاً اینطور تصور می‌کنیم که ربات‌ها هر چه در حرکات، واکنش‌ها یا جواب‌هایشان به رفتار طبیعی یک انسان واقعی نزدیک‌تر شوند، ربات‌های بهتر یا پیشرفته‌تری محسوب می‌شوند. بنابراین سازندگان ربات‌ها تمایل فراوانی به هر چه شبیه‌تر کردن ساخته‌هایشان به انسان‌ها دارند. بااین‌حال، بسیاری از متخصصان اخلاق فناوری دربارۀ این موضوع تردید دارند. آیا واقعاً خوب است که مرز میان انسان‌ها و ربات‌ها کمرنگ شوند؟ انسان فرض‌کردن ربات‌ها دقیقاً چه پیامدهایی یا آسیب‌هایی را می‌تواند به دنبال بیاورد؟ 🔴 این موضوع وقتی پیچیده‌تر می‌شود که بدانیم در میان ما آدم‌ها نیز تمایلِ زیادی برای «انسان‌وار» قلمداد کردن موجودات غیرانسانی وجود دارد، چه پای حیوانات در میان باشد، چه ربات‌ها یا حتی عروسک‌ها و مجسمه‌ها. 🔴 این روزها با فراگیرشدن بحث از چت جی‌پی‌تی و توانایی‌های خارق‌العادۀ زبانی آن، این مسئله بار دیگر به میان آمده است: امیلی بِندِر، زبان‌شناس مشهوری که یکی از خبره‌ترین متخصصانِ کاربرد زبان در هوش‌های مصنوعی است، می‌پرسد: چرا باید مثل آدم‌های معمولی حرف بزند؟ آیا چنین قابلیتی، به جز «فریب‌دادن» کاربران فایدۀ دیگری هم دارد؟ بِندر می‌نویسد: فرض ما این است که وقتی کسی حرف می‌زند، قصد دارد پیامی به ما منتقل کند و مسئولیت حرفش را هم می‌پذیرد، اما ربات‌ها درکی از حرفی که می‌زنند و پیامدهایش ندارند. 🔴 «ما دنیا را تغییر داده‌ایم. ما یاد گرفته‌ایم ماشین‌هایی بسازیم که به‌طور مکانیکی متن تولید کنند. اما هنوز یاد نگرفته‌ایم که چطور بین ماشین و ذهن انسان تمایز قائل شویم». 🔴 از نظر بِندِر «چت‌بات‌هایی که ما به‌راحتی آن‌ها را با انسان اشتباه می‌گیریم، صرفاً بامزه یا اعصاب‌‌خردکن نیستند.» بلکه مبهم‌شدن مرز میان ربات و انسان، می‌تواند آسیب‌های جدی در بر داشته باشد. یا اساساً منجر به از هم گسستن جامعه شود. یکی از مثال‌های ساده‌اش، مسئلۀ «انسان‌های جعلی» است. دنیل دنت، فیلسوف مشهور، می‌نویسد: ما نمی‌توانیم در دنیایی با «افراد جعلی» زندگی کنیم. از وقتی پول وجود داشته، جعل پول نوعی خراب‌کاری اجتماعی قلمداد می‌شد که مجازات آن اعدام، درآوردن احشاء و شقه‌شقه‌کردن بود. بحث هم دست‌کم به همین اندازه جدی است. 🔴 از نظر دنت رباتی که می‌تواند مثل یک انسان حرف بزند، فقط یک قدم تا سلاح خطرناکی که در جنگ‌های بیولوژیک یا هسته‌ای می‌تواند به کار گرفته شود، فاصله دارد. 🔴 بِندِر می‌گوید من یک قانون دارم: «کمرنگ‌کردن مرزها ممنوع!» اگر این قانون را بپذیرید، آنگاه خیلی راحت‌تر می‌توانید از شرکت‌های بزرگ تکنولوژی که برای توسعۀ هر چه بیشتر سر و دست می‌شکنند، بپرسید: این کارها برای چیست؟ اگر این ابزارها ساخته می‌شوند تا زندگی ما انسان‌ها را راحت‌تر کنند، پس چرا اصرار دارید آن‌ها را مثل دیگر انسان‌ها ببینیم؟ به آن‌ها علاقه‌مند و وابسته شویم؟ یا وقتی آن‌ها را از دست می‌دهیم، فکر کنیم یک دوست را از دست داده‌ایم؟ چرا ابزارها را در قلمرویی آن‌سوی انسانیت نگه نمی‌دارید؟ 📌 ادامۀ مطلب را در لینک زیر بخوانید: https://B2n.ir/t19517 •••✾•🌾🌼🌾•✾••┈• 📲گروه https://eitaa.com/joinchat/1082589243C010f2f6f64 📲کانال http://eitaa.com/joinchat/2011496448C2b00395a53
فعلا قابلیت پخش رسانه در مرورگر فراهم نیست
مشاهده در پیام رسان ایتا
🔘گاهی در تعریف رسانه، گفته می‌شه: توانایی تشخیص خبر از غلط ▪️امروز با عمومی شدن ، دیگه کار از فوتوشاپ و عکس گذشته و فیلم ها هم قابل اعتماد نیستن ▪️پس هر خبری ممکنه دروغ و فیک باشه؛ حتی خبر مرگ یک بازیگر مشهور رو خبرگزاری های مطرح و منتشر می‌کنن اما بعدا تکذیب می‌شه ▪️این یعنی سواد رسانه به معنای شناخت های رسانه ها برای انتقال پیام غلط، کارایی کاملی نداره و برای تشخیص خبر درست از غلط، باید ملاک دیگه‌ای داشته باشیم ▪️به نظر من سواد رسانه وابسته به های قبلی ماست؛ یعنی من اگر ضد انقلاب، بی‌دین و صهیونیست باشم، می‌رم سراغ رسانه های این تیپی و اگر نباشم، برعکس ▪️پس سواد رسانه وابسته به طرفه و شما هر وقدرم براش از سواد رسانه خالص بگی، تهش این می‌شه که از کجا معلوم تو راست می‌گی و منابعت؟! جوابی هم نداریم چون ما هم مثه اون اخبار رو با واسطه می‌گیریم، فقط منابعمون فرق داره ▪️به همین دلیل به نظرم بهترین راهکار برای سواد رسانه، کار کردن روی فکری (انسان‌شناسی، خداشناسی، هستی‌شناسی و هدف زندگی) هست که در مراحل بعدی می‌تونه کانال های ارتباطی ما رو تصحیح کنه ▪️پس اگر یه بچه بار بیاریم، خودش دیگه سراغ منابع دروغ‌پراکن ضد دین نمی‌ره و اگر نکنیم، نمی‌شه از اون منابع جداش کرد. @savad_rasaneh •••✾•🌾🌼🌾•✾••┈• 📲گروه https://eitaa.com/joinchat/1082589243C010f2f6f64 📲کانال http://eitaa.com/joinchat/2011496448C2b00395a53
🌏 هفت نوآوری برتر هوش مصنوعی در جهان در سال ۲۰۲۳ 🔸 مجله «تایمز» آمریکا، برای انتخاب بهترین ۲۰۰ نوآوری و ابتکار در زمینه های مختلف از جمله هوش مصنوعی در پایان هر سال نظرسنجی انجام می‌دهد که در ادامه تعدادی از آن‌ها به شما معرفی می‌کنیم. 🔺بیشتر بخوانید👇 itboom.ir/?p=4459 •••✾•🌾🌼🌾•✾••┈• 📲گروه https://eitaa.com/joinchat/1082589243C010f2f6f64 📲کانال http://eitaa.com/joinchat/2011496448C2b00395a53
🎯 هوش مصنوعی احمق است، اما به‌شکلی قانع‌کننده — هوش مصنوعی به شکل فعلی‌اش بیشتر است تا ، و بیشتر مبتذل است تا پیشرو 📍سال ۲۰۲۳، سال هوش مصنوعی بود. سالی که هر بار را باز می‌کردی، با تصاویر عجیب و غریب، توهمی یا آخرالزمانی‌ای مواجه می‌شدی که ساخته بود. یا داستان‌های پر شور و شوقی می‌شنیدی که چه‌کارهایی از چت جی‌پی‌تی برمی‌آید. اما کسانی که تحولات هوش مصنوعی را جدی‌تر دنبال می‌کردند، انگار به این خلاقیت‌ها چندان خوش‌بین نبودند. جیمز برایدل، در این مقالۀ مفصل توضیح می‌دهد که چرا برخی از رایج‌ترین تصورات دربارۀ هوش مصنوعی، در واقع، سراپا غلط‌اند.                                         📌 ادامۀ مطلب را در لینک زیر بخوانید: B2n.ir/d76239 •••✾•🌾🌼🌾•✾••┈• 📲گروه https://eitaa.com/joinchat/1082589243C010f2f6f64 📲کانال http://eitaa.com/joinchat/2011496448C2b00395a53
👈هوش مصنوعی یاد می‌گیرد که فریب دهد ⭕انسان‌ها مهارت فریب‌دادن دیگر هم‌نوعانشان را می‌آموزند. ⁉️آیا مدل‌های هوش مصنوعی نیز می‌توانند این مهارت را فرا بگیرند؟ 💯پاسخ به نظر مثبت است؛ آن‌ها به طرز وحشتناکی در این زمینه خوب هستند. B2n.ir/m94584 🔎📱📺📡💻📻🎥🔍 📲گروه https://eitaa.com/joinchat/1082589243C010f2f6f64 📲کانال http://eitaa.com/joinchat/2011496448C2b00395a53
📍لزوم ترسیم آرمان شهر ایران اسلامی در سناریو نویسی هوش مصنوعی 🔻در نشستی با موضوع «مطالعات و پیامدهای فرهنگی و اجتماعی هوش مصنوعی با تاکید بر حوزه زن و خانواده» مطرح شد: 📝 حقیقت امر این است که تصورات غلطی از پدیده هوش مصنوعی در کشور ما هست که آن را صرفا امری فناورانه می‌بینند. هوش مصنوعی یک پدیده است، تحقق یافتنش به کمک فناوری است ولی خودش صرف فناوری نیست بلکه یک پدیده اجتماعی و انسانی است. 📝 برای سناریو سازی هوش مصنوعی باید حالت آرمانی حضور این پدیده در جامعه را ترسیم کنیم. مثلا نظام اجتماعی ما مبتنی بر خانواده است. هوش مصنوعی تا چه میزان می‌تواند نهاد خانواده را تقویت کند؟ جامعه ایران صرف‌نظر از اسلام و غیر اسلام، خانواده‌محور بوده است... 🌐 متن کامل گزارش: https://ihkn.ir/?p=37100 🔎📱📺📡💻📻🎥🔍 📲گروه https://eitaa.com/joinchat/1082589243C010f2f6f64 📲کانال http://eitaa.com/joinchat/2011496448C2b00395a53
1866604291_198251284(1).pdf
2.75M
✅پاور پوینت آموزش هوش مصنوعی 📲@rasanebadr📲
15.43M حجم رسانه بالاست
مشاهده در ایتا
🎬 ارتش کودک کش صهیونیستی چگونه از برای کشتار فلسطینیان استفاده میکند! 📲@rasanebadr📲
🎯 مجبور نیستیم هر فناوری جدیدی را به زندگی خود راه دهیم — «انتخاب‌گرایی فناوری» چیست و چه تفاوتی با بدبینی به فناوری دارد؟ 📍نیل پستمن، نظریه‌پرداز برجستهٔ ارتباطات، در سال ۱۹۹۲ گفت که ما در عصر «تکنوپولی» زندگی می‌کنیم. به اعتقاد او، ذهنیت پس از دورهٔ تکنوکراسی رواج یافته و اکنون «همۀ ابعاد حیات فرهنگی ما تسلیم حاکمیت مطلق تکنیک و فناوری» شده است. اما مفهوم «تکنوپولی» یعنی چه؟ ارتباط آن با رسانه‌های اجتماعی و فناوری چیست؟‌ و آیا راهی برای گریز از این حاکمیت مطلق تکنیک و فناوری وجود دارد؟ 🔖 ۳۰۴۴ کلمه ⏰ زمان مطالعه: ۱۷ دقيقه 📌 ادامۀ مطلب را در لینک زیر بخوانید: B2n.ir/x92115 📲@rasanebadr📲
✨هوش مصنوعی به کمک تقویم محتوا می‌آید! 🔸 خودنویس، پلتفرم محبوب تولید محتوا، از جدیدترین ابزار خود به نام رونمایی کرد! ️ 🔸این ابزار با اتکا به قدرت هوش مصنوعی، به شما کمک می‌کند تا به طور خودکار تقویم محتوایی برای وب‌سایت یا وبلاگ خود ایجاد کنید. دیگر لازم نیست نگران ایده‌های تکراری یا کمبود محتوا باشید! 🔻تقویم محتوایی خودنویس چطور کار می‌کند؟ ▫️با استفاده از داده‌های Google Keyword Planner و Search Console، موضوعات و ایده‌های جدیدی برای محتوا را بر اساس کلمات کلیدی مرتبط و ترندهای روز به شما پیشنهاد می‌دهد. ▫️به شما کمک می‌کند تا یک تقویم محتوایی سازمان‌یافته و منظم برای تولید محتوای خود ایجاد کنید. ▫️با ارائه گزارش‌ها و تحلیل‌های دقیق، به شما کمک می‌کند تا عملکرد محتوای خود را رصد کنید و آن را بهبود ببخشید. 👌 همین الان به جمع هزاران کسب‌و‌کاری بپیوندید که از خودنویس برای تولید محتوای جذاب و موثر استفاده می‌کنند! https://khodnevisai.com/ 📲@rasanebadr📲
🛑فیلم سینمایی ران معیوب 🔺فیلم با پیش نمایشی از ارائه نمادین از «دهکده کوچک ارتباطات» ، که ارتباطات خود را بر پایه اینستاگرام یا به عبارت دیگر ارتباط «حبابی» دارد و در ادامه کشف علایق و سلایق فردی براساس آن و ایجاد دوستی ها و تشکیل روابط جدید به طریق متداول در این پلتفرم آغاز می شود، حتی لباس ارائه دهنده مطلب مانند مارک زوکربرگ مدیر اینستاگرام نمایش داده می شود. ولی این مضامین چیز جدیدی نیست، نکته جدید تجسم آن به جای گوشی همراه در یک ربات است، ولی چرا در ربات؟! 🔺در ادامه (دقیقه ۶ فیلم و به بعد) معلم بی درک و فهم با برخوردی از روی «عادت» معلمی، همسن و سالان بی درک و فهم که سعی در برقراری ارتباطشان از روی «عادت» و کلیشه های مرسوم دارند، و والدینی بی درک و فهم که ارتباط با آنان از روی جبر و «عادت» زیستی است، و همسالان قلدر با خوی متجاوز از روی «عادت»ی متداول نمایش داده می شوند، و با این کار ضمیر ناخودآگاه مخاطب را برای رهایی از این شرایط دشوار که با آن به خوبی میتوان همزادپنداری کرد را، بر می انگیزد؛ چه کسی باید خرق عادت کند و این عادت های انسانی را رفع و یا دفع کند؟ مسلما چیزی یا کسی خارج از این مجموعه انسانی...!!! 🔺بعد از دفع بچه های قلدر متجاوز توسط ربات ، قهرمان داستان متوجه یک خصیصه عجیب در ربات می شود، ربات او می تواند به انسان ها آسیب برساند و نرم افزارهای جامع کنترلی برای او تعریف نشده (دقیقه ۲۵ فیلم) و این خصیصه گویا یک عیب نیست بلکه یک حسن است. ربات در مقابل عادت ها افسارگسیخته انسانی می ایستد و علت جسم دادن به هوش مصنوعی و به شکل ربات درآمدن آن مشخص می شود. اتفاقی لاجرم و گریز ناپذیر یا یک اتفاق تصادفی، و شاید هم واقعیتی که دیر یا زود در سیر تکاملی اتفاق خواهد افتاد... 🔺فیلم سعی دارد تنهایی و منزوی بودن همگی انسانها را نمایش دهد (دقیقه ۸۵) و همزیستی انسانها را جبر محیطی و عادت پوچ انسانی تلقی کند و دوستی واقعی را فقط با موجودی برتر و البته دارای اختیار و قوه قهریه معنا دار القا کند. که این اتفاق با از خود گذشتگی و البته جاودانگی همیشگی در کالبد تمامی ربات ها توسط ربات پاک، معصوم و فداکار رقم می خورد و الگوریتم او با حُسن نظر شخص مبتکر شرکت حبابی (شخصیتی مثل مارک زوکربرگ) در نهایت و بر خلاف نظر دیگران و القات شخص منفی داستان که این الگوریتم را یک عیب و نقص می پنداشت به سایر ربات ها تزریق می شود 🔺و در نهایت (دقیقه ۹۰ فیلم) روزگار جدید و متفاوت از گذشته نمایش داده می شود. جامعه آرمانی که دیگر الگوریتم دوست یابی اینستاگرام که موارد مورد علاقه شما را نمایش میدهد و در اکسپلورر قرار میدهد و باعث ارتباط شما با دیگران می شود منسوخ شده و دیگر گوشی شما که شاید دارای نرم افزار هوش مصنوعی «هم صحبت»، دوست یا مشاوره (که هم اکنون نیز این نرم افزارها موجود می باشند) فقط نیست، او دارای یک جسم قوی است و می تواند از خودش دفاع کند و در مقابل هر رفتار غیرمتعارف شما از نظر خودش بایستد. فارغ از لیاقت ذاتی برای رسیدن به این جایگاه است، دلیل مهمتر برای این مسئله گویا بی لیاقتی انسان است...! 🔺چه خوب مفاهیم شنیع و ضد انسانی و پسند در قالب تصاویر به مخاطب القا می شود. حتی فیلمساز ابای‌ از پرداختن به آسیب های فضای مجازی ندارد و آنرا نیز نه به خاطر خاصیت آن فضا نمی داند بلکه بخاطر دنائت و خوی انسان ها معرفی می کند و در مجموع با به رخ کشیدن پستی و دنائت بشر راهی را به غیر از آنچه که گذشت برای رفع و دفع آن متصور نیست. 🔺و چه بد فرجامی است، متوسل شدن اشرف مخلوقات به مخلوقاتی پست تر و بدون روح و فراموش کردن جایگاه و عاقبتی که می تواند خودش رقم بزند. 📲@rasanebadr📲
✅ رویداد ملی هوش مصنوعی و اعتاب مقدسه #⃣ #⃣ #⃣ atabaat-ai.com 📲@rasanebadr📲
👈هوش مصنوعی UseNotesGPT صدا رو ضبط میکنه و سپس نکات مهم و خلاصه مطلب رو براتون نشون میده 🅾️از فارسی هم پشتیبانی میکنه usenotesgpt.com 📲@rasanebadr📲
فعلا قابلیت پخش رسانه در مرورگر فراهم نیست
مشاهده در پیام رسان ایتا
⬅️ نقش کلیدی والدین در شکل گیری نگرش فرزندان نسبت به هوش مصنوعی 📱والدین در مقابل هوش مصنوعی چه وظایفی دارند؟؟🤔 📲@rasanebadr📲
Revayat- 9.mp3
18.9M
▫️تفات رویکردهای تکنوفیلی و تکنوفوبیایی ▫️اینترنت اشیاء و واقعیت مجازی ▫️آینده موسوم به قفس آهنین یا بهشت از قاب فرهنگ ▫️آینده فناوری ها و سلطه هولوگرافیک 🔻کارشناسان برنامه؛ 🔹حجت الاسلام‌ محمد کهوند 🔹حجت الاسلام علیرضامحمدلو 📲@rasanebadr📲
سوادرسانه بدر
🔻دوره آموزشی دروازه ای به دنیای آینده 👤 مدرس: جناب آقای مهندس محمد صادق حیدری 👈آشنایی با هوش مصنوعی متن محور و تولید محتوا 👈نوشتن مقاله، کتاب، پایان نامه با کمک هوش مصنوعی 👈نوشتن مقاله به هر زبانی با کمک هوش مصنوعی 👈کارهای خلاقانه و جذاب به کمک هوش مصنوعی 👈طرح درس و کلاسداری به کمک هوش مصنوعی 👈ساخت فیلم، کلیپ، بازی،موزیک، نمایش 👈آشنایی با هوش مصنوعی تصویر محور و کارهای فرهنگی جذاب و خاص 👈آموزش نمایش خلاق و ویرایش تصویر و... 📲@rasanebadr📲