跳转到内容
主菜单
主菜单
移至侧栏
隐藏
导航
首页
最近更改
随机页面
MediaWiki帮助
石头百科-维基百科
搜索
搜索
创建账号
登录
个人工具
创建账号
登录
未登录编辑者的页面
了解详情
贡献
讨论
编辑“
深度求索(DeepSeek)
”
页面
讨论
大陆简体
阅读
编辑
编辑源代码
查看历史
工具
工具
移至侧栏
隐藏
操作
阅读
编辑
编辑源代码
查看历史
常规
链入页面
相关更改
特殊页面
页面信息
警告:
您没有登录。如果您进行任何编辑,您的IP地址会公开展示。如果您
登录
或
创建账号
,您的编辑会以您的用户名署名,此外还有其他益处。
反垃圾检查。
不要
加入这个!
'''深度求索'''(全称'''杭州深度求索人工智能基础技术研究有限公司''',英文简称'''DeepSeek''')是中国人工智能以及大型语言模型公司,其创始人和CEO为梁文锋。 == 发展历程 == 2023年7月,DeepSeek由中国对冲基金幻方量化创立,其创始人和CEO为梁文锋,公司的总部位于中国浙江省杭州市,公司专注于AI大模型的研究和开发<ref>[https://finance.sina.com.cn/jjxw/2025-01-22/doc-inefuxsi7314244.shtml 量化巨头幻方创始人梁文锋参加总理座谈会并发言,他还创办了“AI界拼多多”]|AI_新浪财经_新浪网</ref>。 2024年5月,DeepSeek发布并开源了旗下MoE大模型DeepSeek-V2,因其模型架构与经济性而脱颖而出,DeepSeek-V2的API定价为每百万tokens输入1元、输出2元,价格仅为GPT-4 Turbo的百分之一。 2024年12月,DeepSeek发布并开源了DeepSeek-V3,DeepSeek表示该大模型的训练系基于2,048块英伟达H800型GPU(针对中国市场的低配版GPU)集群上运行55天完成,训练耗资557.6万美元;DeepSeek-V3的评测成绩超越Qwen2.5-72B(阿里自研大模型)和Llama 3.1-405B(Meta自研大模型)等开源模型,能与GPT-4o、Claude 3.5-Sonnet(Anthropic自研大模型)等闭源模型相抗衡。 2025年1月20日, DeepSeek发布并开源了DeepSeek-R1模型,该模型在数学、代码、自然语言推理等任务上,性能超越OpenAI o1正式版<ref>GitHub - [https://github.com/deepseek-ai/DeepSeek-R1 deepseek-ai/DeepSeek-R1]</ref>。 == DeepSeek-R1 == DeepSeek-R1是DeepSeek研发的系列推理模型。DeepSeek-R1系列模型使用强化学习训练,推理过程包含大量反思和验证,思维链长度可达数万字。该系列模型在数学、代码以及各种复杂逻辑推理任务上。 DeepSeek-R1-Lite 预览版模型在美国数学竞赛(AMC)中难度等级最高的AIME以及全球顶级编程竞赛(codeforces)等评测中,超越了GPT-4o等模型。 2024年11月20日,DeepSeek宣布,全新研发的推理模型DeepSeek-R1-Lite预览版正式上线,用户可通过官方网页一键开启与模型的推理对话体验。DeepSeek-R1-Lite仍处于迭代开发阶段,仅支持网页使用,暂不支持 API 调用。DeepSeek官方称正式版DeepSeek-R1模型将完全开源,并公开技术报告和部署 API 服务<ref>[https://news.10jqka.com.cn/20241120/c663723760.shtml DeepSeek 推理模型预览版上线,解密 o1推理过程] 同花顺7x24快讯</ref>。 2025年1月20日,DeepSeek正式发布 DeepSeek-R1 模型,并同步开源模型权重。DeepSeek-R1 API 服务定价为每百万输入tokens 1元(缓存命中)/4元(缓存未命中),每百万输出tokens/16元<ref>[https://api-docs.deepseek.com/quick_start/pricing Models & Pricing] | DeepSeek API Docs</ref>。 === 主要功能 === DeepSeek-R1系列模型使用强化学习训练,推理过程包含大量反思和验证,思维链长度可达数万字。该系列模型在数学、代码以及各种复杂逻辑推理任务上,取得了媲美OpenAI o1-preview的推理效果,并为用户展现了o1没有公开的完整思考过程。DeepSeek-R1-Lite 所使用的也是一个较小的基座模型,无法完全释放长思维链的潜力。 DeepSeek-R1 在后训练阶段大规模使用了强化学习技术,在仅有极少标注数据的情况下,极大提升了模型推理能力。在数学、代码、自然语言推理等任务上,性能比肩 OpenAI o1 正式版。DeepSeek 在开源 DeepSeek-R1-Zero 和 DeepSeek-R1 两个 660B 模型的同时,通过DeepSeek-R1的输出,蒸馏了6个小模型开源给社区,其中32B和70B模型在多项能力上实现了对标 OpenAI o1-mini 的效果。 == 外链 == <references />
摘要:
请注意,所有对石头百科-维基百科的贡献均可能会被其他贡献者编辑、修改或删除。如果您不希望您的文字作品被随意编辑,请不要在此提交。
您同时也向我们承诺,您提交的内容为您自己所创作,或是复制自公共领域或类似自由来源(详情请见
石头百科-维基百科:著作权
)。
未经许可,请勿提交受著作权保护的作品!
取消
编辑帮助
(在新窗口中打开)
开关有限宽度模式