以下是一些开源大模型:
1. FengshenbangLM:
地址:
简介:是 IDEA 研究院认知计算与自然语言研究中心主导的大模型开源体系,开源了姜子牙通用大模型 V1,是基于 LLaMa 的 130 亿参数的大规模预训练模型,具备翻译、编程、文本分类、信息抽取、摘要、文案生成、常识问答和数学计算等能力。除姜子牙系列模型之外,还开源了太乙、二郎神系列等模型。
2. BiLLa:
地址:
简介:开源了推理能力增强的中英双语 LLaMA 模型。较大提升 LLaMA 的中文理解能力,并尽可能减少对原始 LLaMA 英文能力的损伤;训练过程增加较多的任务型数据,利用 ChatGPT 生成解析,强化模型理解任务求解逻辑;全量参数更新,追求更好的生成效果。
3. Moss:
地址:
简介:支持中英双语和多种插件的开源对话语言模型,MOSS 基座语言模型在约七千亿中英文以及代码单词上预训练得到,后续经过对话指令微调、插件增强学习和人类偏好训练具备多轮对话能力及使用多种插件的能力。
4. Qwen:
相关信息:国产大模型,多次冲进 LMSys 榜单,最早出现的是通义千问 14B 开源视频 Qwen14B,后来是 Qwen 系列的 72B、110B 以及通义千问闭源模型 QwenMax,得分一个比一次高,LMSys 也曾官方发推认证通义千问开源模型的实力。Qwen 系列开源模型的累计下载量突破了 1600 万,国内外有海量开发者都基于 Qwen 开发了自己的模型和应用。
5. Grok1:
地址:
简介:拥有 3140 亿参数的专家混合模型,使用旋转位置嵌入,词汇量达到 131,072,未针对任何特定应用程序进行微调。
2025-03-23