深度求索(DeepSeek)

来自石头百科-维基百科

深度求索(全称杭州深度求索人工智能基础技术研究有限公司,英文简称DeepSeek)是中国人工智能以及大型语言模型公司,其创始人和CEO为梁文锋。

发展历程[编辑 | 编辑源代码]

2023年7月,DeepSeek由中国对冲基金幻方量化创立,其创始人和CEO为梁文锋,公司的总部位于中国浙江省杭州市,公司专注于AI大模型的研究和开发[1]

2024年5月,DeepSeek发布并开源了旗下MoE大模型DeepSeek-V2,因其模型架构与经济性而脱颖而出,DeepSeek-V2的API定价为每百万tokens输入1元、输出2元,价格仅为GPT-4 Turbo的百分之一。

2024年12月,DeepSeek发布并开源了DeepSeek-V3,DeepSeek表示该大模型的训练系基于2,048块英伟达H800型GPU(针对中国市场的低配版GPU)集群上运行55天完成,训练耗资557.6万美元;DeepSeek-V3的评测成绩超越Qwen2.5-72B(阿里自研大模型)和Llama 3.1-405B(Meta自研大模型)等开源模型,能与GPT-4o、Claude 3.5-Sonnet(Anthropic自研大模型)等闭源模型相抗衡。

2025年1月20日, DeepSeek发布并开源了DeepSeek-R1模型,该模型在数学、代码、自然语言推理等任务上,性能超越OpenAI o1正式版[2]

DeepSeek-R1[编辑 | 编辑源代码]

DeepSeek-R1是DeepSeek研发的系列推理模型。DeepSeek-R1系列模型使用强化学习训练,推理过程包含大量反思和验证,思维链长度可达数万字。该系列模型在数学、代码以及各种复杂逻辑推理任务上。

DeepSeek-R1-Lite 预览版模型在美国数学竞赛(AMC)中难度等级最高的AIME以及全球顶级编程竞赛(codeforces)等评测中,超越了GPT-4o等模型。

2024年11月20日,DeepSeek宣布,全新研发的推理模型DeepSeek-R1-Lite预览版正式上线,用户可通过官方网页一键开启与模型的推理对话体验。DeepSeek-R1-Lite仍处于迭代开发阶段,仅支持网页使用,暂不支持 API 调用。DeepSeek官方称正式版DeepSeek-R1模型将完全开源,并公开技术报告和部署 API 服务[3]

2025年1月20日,DeepSeek正式发布 DeepSeek-R1 模型,并同步开源模型权重。DeepSeek-R1 API 服务定价为每百万输入tokens 1元(缓存命中)/4元(缓存未命中),每百万输出tokens/16元[4]

主要功能[编辑 | 编辑源代码]

DeepSeek-R1系列模型使用强化学习训练,推理过程包含大量反思和验证,思维链长度可达数万字。该系列模型在数学、代码以及各种复杂逻辑推理任务上,取得了媲美OpenAI o1-preview的推理效果,并为用户展现了o1没有公开的完整思考过程。DeepSeek-R1-Lite 所使用的也是一个较小的基座模型,无法完全释放长思维链的潜力。

DeepSeek-R1 在后训练阶段大规模使用了强化学习技术,在仅有极少标注数据的情况下,极大提升了模型推理能力。在数学、代码、自然语言推理等任务上,性能比肩 OpenAI o1 正式版。DeepSeek 在开源 DeepSeek-R1-Zero 和 DeepSeek-R1 两个 660B 模型的同时,通过DeepSeek-R1的输出,蒸馏了6个小模型开源给社区,其中32B和70B模型在多项能力上实现了对标 OpenAI o1-mini 的效果。

外链[编辑 | 编辑源代码]