今天,智谱发布了第四代 GLM 系列开源模型:GLM-4-9B。
GLM-4-9B 系列模型包括:基础版本 GLM-4-9B(8K)、对话版本 GLM-4-9B-Chat(128K)、超长上下文版本 GLM-4-9B-Chat-1M(1M)和多模态版本 GLM-4V-9B-Chat(8K)。GLM-4-9B 模型具备了更强大的推理性能、更长的上下文处理能力、多语言、多模态和 All Tools 等突出能力。
目前,SiliconCloud已上线GLM-4-9B-Chat开源模型。欢迎试用:
https://cloud.siliconflow.cn/models/text/chat/17885302522
注意!!!GLM-4-9B-Chat已进入“6.18购物狂欢节”福利包:“每人送3亿token”。注册即可畅玩(截止6月18日23:59):
www.siliconflow.cn/zh-cn/siliconcloud
据智谱介绍,在预训练方面,他们引入了大语言模型进入数据筛选流程,最终获得了10T高质量多语言数据,数据量是ChatGLM3-6B模型的3倍以上。同时,它们采用了FP8技术进行高效的预训练,相较于第三代模型,训练效率提高了3.5倍。在有限显存的情况下,他们探索了性能的极限,并发现6B模型性能有限。因此,在考虑到大多数用户的显存大小后,他们将模型规模提升至9B,并将预训练计算量增加了5倍。
Github:https://github.com/THUDM/GLM-4
关于SiliconCloud
SiliconCloud是集合主流开源大模型的一站式云服务平台,为开发者提供更快、更便宜、更全面的模型API。
目前,SiliconCloud已上架包括GLM-4-9B-Chat、DeepSeek V2、Mixtral、Llama 3、Qwen、SDXL、InstantID在内的多种开源大语言模型、图片生成模型,支持用户自由切换符合不同应用场景的模型。同时,SiliconCloud提供开箱即用的大模型推理加速服务,为生成式AI应用带来更高效的用户体验。
真正在乎大模型推理性能和成本的开发者,绝不会错过SiliconCloud。更何况,现在还送3亿token。快试试吧:
www.siliconflow.cn/zh-cn/siliconcloud