
数据统计
数据评估
关于Lamini LLM特别声明
本站哆咪虾提供的Lamini LLM都来源于网络,不保证外部链接的准确性和完整性,同时,对于该外部链接的指向,不由哆咪虾实际控制,在2024-04-06 下午5:31收录时,该网页上的内容,都属于合规合法,后期网页的内容如出现违规,可以直接联系网站管理员进行删除,哆咪虾不承担任何责任。
相关导航

APACHE MXNET:A FLEXIBLE AND EFFICIENT,LIBRARY FOR DEEP LEARNING

BLOOM
BLOOM:一个拥有1760亿参数的开放式多语言语言模型

MOSS
MOSS,复旦大学开发的对话式大语言模型

LLaMA
LlaMA是Meta AI开发的一种新的开源大语言模型。它正式发布了各种类型的LLaMA模型,从70亿个参数到650亿个参数。LLaMA 65B模型在大多数用例中都显示出了惊人的能力。它在Open LLM排行榜上名列前十。Meta表示,它没有进行任何专有训练。相反,该公司使用了来自CommonCrawl、C4、GitHub、ArXiv、维基百科、StackExchange等网站的公开数据。

MPT-30B
MPT-30B是另一个与LLaMA衍生模型竞争的开源大模型。它是由Mosaic ML开发的,并对来自不同来源的大量数据进行了微调。它使用来自ShareGPT Vicuna、Camel AI、GPTeacher、Guanaco、Baize和其他的数据集。这个开源模型最棒的部分是它有8K令牌的上下文长度。

悟道
悟道2.0参数达到1.75万亿个,可以同时处理中英文和图片数据。

城里月光
Moonlight-领先AI技术与工具、场景化应用:AI 文生图、AI音乐、AI短视频脚本、智能聊天等应用全覆盖

通义千问
里达摩院推出的大模型,拥有千亿参数,可用于智能问答、知识检索、文案创作等场景
暂无评论...