即日起登录 chat.deepseek.com 或官方 App,即可与 DeepSeek-V4 对话,体验 1M 超长上下文记忆。API 服务已同步上线,调用时只需将 model 参数改为 deepseek-v4-pro 或 deepseek-v4-flash。赶快来体验吧!
🚀 DeepSeek V4 来了
DeepSeek 于今日正式发布 V4 系列模型,这是继 V3.2 之后的一次重大版本升级。 V4 系列包含两个版本:DeepSeek V4 Pro(高性能旗舰)和 DeepSeek V4 Flash(高速轻量版), 分别面向不同场景需求。UGOOE 作为国内首批接入平台,现已全面支持两个模型的 API 调用。
V4 系列在推理能力、代码生成、多轮对话、长上下文处理等方面均实现了显著提升。 特别是 1M 超长上下文窗口,可一次性处理百万级 tokens 的内容——举例来说, 你可以把一整部《三体》三部曲丢给它,它仍能精准回答其中的细节问题。
无论是构建复杂 Agent 系统、处理大规模数据分析,还是需要极低延迟的实时对话场景, V4 系列都能提供行业领先的体验。
📊 性能对比
以下为 DeepSeek V4 系列与 V3.2 在主流基准测试中的性能对比(数据仅供示意参考):
| 基准测试 | DeepSeek V3.2 | DeepSeek V4 Flash | DeepSeek V4 Pro 最佳 |
|---|---|---|---|
| MMLU (知识理解) | 86.2% | 88.5% | 91.3% |
| HumanEval (代码生成) | 82.7% | 85.1% | 91.8% |
| GSM8K (数学推理) | 89.4% | 91.2% | 94.6% |
| MATH-500 (高阶数学) | 73.5% | 76.8% | 83.2% |
| LIVE_CODE (实际编程) | 67.1% | 70.3% | 79.5% |
| ClueWSC (中文理解) | 91.0% | 92.8% | 95.4% |
| 推理速度 (tokens/s) | ~120 | ~280 | ~150 |
| 上下文长度 | 128K | 256K | 256K |
可以看到,V4 Pro 在几乎所有推理和编码基准上超越 V3.2 达 5-10 个百分点, 而 V4 Flash 则在保持强劲性能的同时,推理速度达到 V3.2 的 2 倍以上, 是实时应用场景的理想选择。
🛠️ 如何在 UGOOE 上使用 DeepSeek V4
接入 DeepSeek V4 系列非常简单,只需三步:
1 注册账号
前往 UGOOE 注册页面 创建一个免费账号,注册即送 $5 体验金,无需信用卡。
2 获取 API Key
登录后在 API 控制台 创建一个新的 API Key。建议为不同项目创建独立的 Key 以方便管理。
3 调用模型
使用标准的 OpenAI 兼容 API 格式,将模型参数设置为:
deepseek-v4-flash— 高速轻量版,适合实时对话和简单推理deepseek-v4-pro— 高性能旗舰版,适合复杂推理和编码任务
💻 代码示例
以下是通过 curl 调用 DeepSeek V4 Flash 模型的示例:
curl https://ai.ugooe.cn/v1/chat/completions \
-H "Authorization: Bearer YOUR_API_KEY" \
-H "Content-Type: application/json" \
-d '{
"model": "deepseek-v4-flash",
"messages": [
{"role": "system", "content": "你是 DeepSeek V4 助手"},
{"role": "user", "content": "用 Python 实现一个快速排序算法"}
],
"temperature": 0.7,
"max_tokens": 4096
}'
调用 DeepSeek V4 Pro 只需将 model 参数改为 deepseek-v4-pro:
curl https://ai.ugooe.cn/v1/chat/completions \
-H "Authorization: Bearer YOUR_API_KEY" \
-H "Content-Type: application/json" \
-d '{
"model": "deepseek-v4-pro",
"messages": [
{"role": "user", "content": "解释一下 Transformer 架构的注意力机制"}
],
"temperature": 0.3,
"max_tokens": 8192
}'
使用 Python SDK 调用:
client = OpenAI(
base_url="https://ai.ugooe.cn/v1",
api_key="YOUR_API_KEY"
)
response = client.chat.completions.create(
model="deepseek-v4-pro",
messages=[
{"role": "user", "content": "写一个优雅的递归斐波那契"}
]
)
print(response.choices[0].message.content)
💰 定价方案
DeepSeek V4 系列定价极具竞争力,远低于同级别竞品:
🔥 DeepSeek V4 Flash — $0.001 / 1K tokens
极致性价比,适合高频调用、实时对话、内容生成等场景。推理速度达到 280+ tokens/s,延迟极低。
🏆 DeepSeek V4 Pro — $0.002 / 1K tokens
旗舰性能,适合复杂推理、代码生成、数据分析等需要高精度的任务。在多个基准测试中达到业界领先水平。
* 定价按输入+输出 tokens 总量计费。所有 UGOOE 注册用户均可使用体验金免费测试。
🎯 总结
DeepSeek V4 系列代表了开源大模型领域的最新突破。无论你是需要极致性能的 V4 Pro, 还是追求速度与性价比的 V4 Flash,UGOOE 都已为你准备好了一键接入的 API 服务。