近日,深度求索团队更新了DeepSeek-V2模型,新版本DeepSeek-V2-Chat模型推理能力有了极大提升。尤其在数学解题、逻辑推理、编程、指令跟随、Json格式输出不同维度上,最高有16%的性能提升。
在Arena-Hard测评中,DeepSeek-V2-Chat与GPT-4-0314的对战胜率从41.6%提升到了68.3%。DeepSeek-V2-Chat模型的角色扮演能力显著增强,可以在对话中按要求扮演不同角色。
此外,深度求索团队对DeepSeek-V2-Chat的“system”区域指令跟随能力进行了优化,显著增强了沉浸式翻译、RAG 等任务的用户体验。
短短半年,深度求索团队的进步堪称神速。
今年1月,他们开源了国内首个MoE模型,随后在5月初发布了最强开源MoE模型DeepSeek-V2,6月中旬,他们发布了代码生成能力超越GPT4-Turbo的DeepSeek Coder V2。
这一次,DeepSeek-V2-Chat在各方面或比肩GPT4,至少是国产大模型的新标杆。
据官方此前介绍,DeepSeek-V2系列模型采用了全新的模型结构。DeepSeek V2没有沿用主流的“类LLaMA的Dense结构”和“类Mistral的Sparse结构”,而是对模型框架进行了全方位的创新,提出了媲美MHA的MLA(Multi-head Latent Attention)架构,大幅减少计算量和推理显存;自研Sparse结构DeepSeekMoE进一步将计算量降低到极致,两者结合最终实现模型性能跨级别的提升。
(DeepSeek-V2与其他大模型的效果对比)
一如既往,大模型API平台SiliconCloud第一时间上线了推理加速版DeepSeek-V2-Chat。
新用户送2000万Token,快试试吧:
https://cloud.siliconflow.cn/models/text/chat/17885302520https://cloud.siliconflow.cn/models/text/chat/17885302520
在SiliconCloud上,DeepSeek-V2-Chat的输出在50tokens/s左右,速度飞快。
写一道简单的代码题,感受一下DeepSeek-V2-Chat的输出:
再问一道数学题:
除了DeepSeek-V2-Chat,SiliconCloud已上架包括DeepSeek-Coder-V2、Stable Diffusion 3 Medium、Qwen2、GLM-4-9B-Chat、SDXL、InstantID在内的多种开源大语言模型、图片生成模型与代码生成模型。
其中,Qwen(7B)、GLM4(9B)等多个大模型API免费使用,让开发者与产品经理无需担心研发阶段和大规模推广所带来的算力成本,实现“Token 自由”。
作为集合顶尖大模型的一站式云服务平台,SiliconCloud为开发者提供更快、更便宜、更全面、体验更丝滑的模型API。
SiliconCloud支持用户自由切换符合不同应用场景的模型,同时提供开箱即用的大模型推理加速服务,为生成式AI应用带来更高效的用户体验。
欢迎来玩儿:
cloud.siliconflow.cn/s/deepseek_v2_newhttp://cloud.siliconflow.cn/s/deepseek_v2_new
其他人都在看
-
800+页免费“大模型”电子书
-
LLM Serving有效吞吐量的最大化实现
-
文生图王者登场:SD3 Medium正式开源
-
大模型产品化第一年:战术、运营与战略
-
最强开源代码模型DeepSeek-Coder-V2问世
-
20+公司AI产品分析;工程师的LLM使用痛点
-
国产大模型免费用!开发者Token自由实现了
开发AI超级应用,减少响应时间,就用SiliconCloud
更快、更便宜、更全面、体验更丝滑的大模型API