2025大年初一的时候我曾发了一篇如何在本地部署DeepSeek大模型的流程教程,意外的获得了超多的点击和收藏,也了解到了许多用户遇到的问题,经过一段时间的使用,我发现蒸馏过的32b DeepSeek用起来不太如意,遂折腾了一下,成功部署并能较为流畅的运行70b的 ...
2025年9月29日,DeepSeek-V3.2-Exp发布并开源,引入稀疏Attention架构。昇腾已快速基于vLLM/SGLang等推理框架完成适配部署,实现DeepSeek ...
DoNews12月1日消息,据DeepSeek官方公众号公布,两个月前,实验性的 DeepSeek-V3.2-Exp发布,收到了众多热心用户反馈的对比测试结果。目前未发现 V3.2-Exp 在任何特定场景中显著差于 V3.1-Terminus,这验证了 DSA 稀疏注意力机制的有效性。 今天,DeepSeek同时发布两个正式版 ...
IT之家 12 月 1 日消息,DeepSeek V3.2 正式版今日发布,强化 Agent 能力,融入思考推理。 官方今日同时发布两个正式版模型:DeepSeek-V3.2 和 DeepSeek-V3.2-Speciale。 官方网页端、App 和 API 均已更新为正式版 DeepSeek-V3.2。Speciale 版本目前仅以临时 API 服务形式开放,以供社区 ...
V3.1编程击败Claude 4,训练扩增10倍 DeepSeek-V3.1官宣了,作为首款「混合推理」模型,将开启智能体新时代。新模型共有671B参数,编码实力碾压DeepSeek-R1、Claude 4 Opus,登顶编程开源第一。 官宣了! 刚刚,DeepSeek正式上线DeepSeek-V3.1,这是迈向智能体时代第一步。
2025年2月15日,当微信AI搜索正式灰度测试接入DeepSeek-R1模型时,这场始于中国杭州的AI革命迎来标志性时刻——国民级应用全面拥抱开源大模型,这款不到两年时间便改写全球AI格局的大模型,正以开源生态与极致成本重塑行业规则。 DeepSeek的诞生正值全球AI技术 ...
一些您可能无法访问的结果已被隐去。
显示无法访问的结果