🔺 مدل زبانی فارسی «توکا» با ۹۰ میلیارد توکن به صورت متنباز عرضه شد
🔹 مدل زبانی BERT large با عنوان «توکا» برای اولین بار در ایران به زبان فارسی با ۹۰ میلیارد توکن توسط مرکز تحقیقات هوش مصنوعی پارت منتشر شد.
🔹 این مدل زبانی با هدف تسهیل توسعۀ محصولات هوشمند، به شکل منبعباز در اختیار علاقهمندان و کسبوکارها قرار گرفته است.
🔹 این مدل زبانی، با ظرفیت داده ۵۰۰ گیگابایت معادل ۹۰ میلیارد توکن، یکی از بهینهترین مدلها برای استفاده در سرویسهای فارسیزبان شناخته میشود و به دلیل برخورداری از دقت و کیفیتی بالا، در مقایسه با دیگر مدلهای مشابه فارسی در جایگاه نخست قرار میگیرد.
🔹 مدل زبانی «توکا»، قابلیت اجرا و آموزش روی سختافزارهای نهچندان قدرتمند را فراهم میکند و مناسبترین گزینه برای اهداف تحقیقاتی، توسعهدهندگان شخصی و کسبوکارهای نوپا است.
بیشتربدانید👇
https://pvst.ir/hxo
⚖ •┈•••✾•💞🌺💞•✾•••┈•⚖
🌐 اندیشه حقوق عمومی و فضای مجازی
🆔
@TABATABAEI_IR