🔺 مدل زبانی فارسی «توکا» با ۹۰ میلیارد توکن به صورت متن‌باز عرضه شد 🔹 مدل زبانی BERT large با عنوان «توکا» برای اولین بار در ایران به زبان فارسی با ۹۰ میلیارد توکن توسط مرکز تحقیقات هوش مصنوعی پارت منتشر شد. 🔹 این مدل زبانی با هدف تسهیل توسعۀ محصولات هوشمند، به شکل منبع‌باز در اختیار علاقه‌مندان و کسب‌وکارها قرار گرفته است. 🔹 این مدل زبانی، با ظرفیت داده ۵۰۰ گیگابایت معادل ۹۰ میلیارد توکن، یکی از بهینه‌ترین مدل‌ها برای استفاده در سرویس‌های فارسی‌زبان شناخته می‌شود و به دلیل برخورداری از دقت و کیفیتی بالا، در مقایسه با دیگر مدل‌های مشابه فارسی در جایگاه نخست قرار می‌گیرد. 🔹 مدل زبانی «توکا»، قابلیت اجرا و آموزش روی سخت‌افزارهای نه‌چندان قدرتمند را فراهم می‌کند و مناسب‌ترین گزینه برای اهداف تحقیقاتی، توسعه‌دهندگان شخصی و کسب‌وکارهای نوپا است. بیشتربدانید👇 https://pvst.ir/hxo ⚖ •┈•••✾•💞🌺💞•✾•••┈•⚖ 🌐 اندیشه حقوق عمومی و فضای مجازی 🆔 @TABATABAEI_IR