
MPT-30B
MPT-30B是另一个与LLaMA衍生模型竞争的开源大模型。它是由Mosaic ML开发的,并对来自不同来源的大量数据进行了微调。它使用来自ShareGPT Vicuna、Camel AI、GPTeacher、Guanaco、Baize和其他的数据集。这个开源模型最棒的部分是它有8K令牌的上下文长度。
Apache MXNet于2023年9月进入了Attic。Apache MXNet是一个灵活高效的深度学习库。
网站、下载和问题跟踪器仍然保持开放,尽管问题跟踪器是只读的。请访问http://mxnet.apache.org了解更多关于MXNet的信息。
与Attic中的任何项目一样 – 如果您选择在Apache之外fork MXNet,请告诉我们,以便我们可以链接到您的项目。
本站哆咪虾提供的Mxnet都来源于网络,不保证外部链接的准确性和完整性,同时,对于该外部链接的指向,不由哆咪虾实际控制,在2024-04-06 下午2:44收录时,该网页上的内容,都属于合规合法,后期网页的内容如出现违规,可以直接联系网站管理员进行删除,哆咪虾不承担任何责任。