开源预训练语言模型合集
预训练模型合集,主要发布自研的预训练语言模型,推动自然语言处理技术的进步。预训练语言模型通过在大规模文本上进行预训练,可以作为下游自然语言处理任务的模型参数或者模型输入以提高模型的整体性能。
模型概览
以下是我们目前公开发布的模型概览:
名称
数据来源
训练数据大小
词表大小
模型大小
下载地址
RoBERTa Tiny
百科,新闻 等
35G
21128
27MB
(mrcv)
RoBERTa Small
百科,新闻 等
35G
21128
48MB
(j2ns)
SimBERT Tiny
2200万相似句组
13685
26MB
(1tp7)
SimBERT Small
2200万相似句组
13685
49MB
(nu67)
SimBERT Base
2200万相似句组
13685
344MB
(6xhq)
RoBERTa+ Ti
到此这篇预训练模型怎么使用(预训练模型下载)的文章就介绍到这了,更多相关内容请继续浏览下面的相关 推荐文章,希望大家都能在编程的领域有一番成就!版权声明:
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。
如若内容造成侵权、违法违规、事实不符,请将相关资料发送至xkadmin@xkablog.com进行投诉反馈,一经查实,立即处理!
转载请注明出处,原文链接:https://www.xkablog.com/bcyy/31423.html