← 返回博客列表
DeepSeek V4 已正式发布

即日起登录 chat.deepseek.com 或官方 App,即可与 DeepSeek-V4 对话,体验 1M 超长上下文记忆。API 服务已同步上线,调用时只需将 model 参数改为 deepseek-v4-prodeepseek-v4-flash。赶快来体验吧!

🚀 DeepSeek V4 来了

DeepSeek 于今日正式发布 V4 系列模型,这是继 V3.2 之后的一次重大版本升级。 V4 系列包含两个版本:DeepSeek V4 Pro(高性能旗舰)和 DeepSeek V4 Flash(高速轻量版), 分别面向不同场景需求。UGOOE 作为国内首批接入平台,现已全面支持两个模型的 API 调用。

V4 系列在推理能力、代码生成、多轮对话、长上下文处理等方面均实现了显著提升。 特别是 1M 超长上下文窗口,可一次性处理百万级 tokens 的内容——举例来说, 你可以把一整部《三体》三部曲丢给它,它仍能精准回答其中的细节问题。

无论是构建复杂 Agent 系统、处理大规模数据分析,还是需要极低延迟的实时对话场景, V4 系列都能提供行业领先的体验。

📊 性能对比

以下为 DeepSeek V4 系列与 V3.2 在主流基准测试中的性能对比(数据仅供示意参考):

基准测试 DeepSeek V3.2 DeepSeek V4 Flash DeepSeek V4 Pro 最佳
MMLU (知识理解) 86.2% 88.5% 91.3%
HumanEval (代码生成) 82.7% 85.1% 91.8%
GSM8K (数学推理) 89.4% 91.2% 94.6%
MATH-500 (高阶数学) 73.5% 76.8% 83.2%
LIVE_CODE (实际编程) 67.1% 70.3% 79.5%
ClueWSC (中文理解) 91.0% 92.8% 95.4%
推理速度 (tokens/s) ~120 ~280 ~150
上下文长度 128K 256K 256K

可以看到,V4 Pro 在几乎所有推理和编码基准上超越 V3.2 达 5-10 个百分点, 而 V4 Flash 则在保持强劲性能的同时,推理速度达到 V3.2 的 2 倍以上, 是实时应用场景的理想选择。

🛠️ 如何在 UGOOE 上使用 DeepSeek V4

接入 DeepSeek V4 系列非常简单,只需三步:

1 注册账号

前往 UGOOE 注册页面 创建一个免费账号,注册即送 $5 体验金,无需信用卡。

2 获取 API Key

登录后在 API 控制台 创建一个新的 API Key。建议为不同项目创建独立的 Key 以方便管理。

3 调用模型

使用标准的 OpenAI 兼容 API 格式,将模型参数设置为:

  • deepseek-v4-flash — 高速轻量版,适合实时对话和简单推理
  • deepseek-v4-pro — 高性能旗舰版,适合复杂推理和编码任务

💻 代码示例

以下是通过 curl 调用 DeepSeek V4 Flash 模型的示例:

# DeepSeek V4 Flash — 高速推理
curl https://ai.ugooe.cn/v1/chat/completions \
  -H "Authorization: Bearer YOUR_API_KEY" \
  -H "Content-Type: application/json" \
  -d '{
    "model": "deepseek-v4-flash",
    "messages": [
      {"role": "system", "content": "你是 DeepSeek V4 助手"},
      {"role": "user", "content": "用 Python 实现一个快速排序算法"}
    ],
    "temperature": 0.7,
    "max_tokens": 4096
  }'

调用 DeepSeek V4 Pro 只需将 model 参数改为 deepseek-v4-pro

# DeepSeek V4 Pro — 高性能旗舰
curl https://ai.ugooe.cn/v1/chat/completions \
  -H "Authorization: Bearer YOUR_API_KEY" \
  -H "Content-Type: application/json" \
  -d '{
    "model": "deepseek-v4-pro",
    "messages": [
      {"role": "user", "content": "解释一下 Transformer 架构的注意力机制"}
    ],
    "temperature": 0.3,
    "max_tokens": 8192
  }'

使用 Python SDK 调用:

from openai import OpenAI

client = OpenAI(
    base_url="https://ai.ugooe.cn/v1",
    api_key="YOUR_API_KEY"
)

response = client.chat.completions.create(
    model="deepseek-v4-pro",
    messages=[
        {"role": "user", "content": "写一个优雅的递归斐波那契"}
    ]
)
print(response.choices[0].message.content)

💰 定价方案

DeepSeek V4 系列定价极具竞争力,远低于同级别竞品:

🔥 DeepSeek V4 Flash — $0.001 / 1K tokens

极致性价比,适合高频调用、实时对话、内容生成等场景。推理速度达到 280+ tokens/s,延迟极低。

🏆 DeepSeek V4 Pro — $0.002 / 1K tokens

旗舰性能,适合复杂推理、代码生成、数据分析等需要高精度的任务。在多个基准测试中达到业界领先水平。

* 定价按输入+输出 tokens 总量计费。所有 UGOOE 注册用户均可使用体验金免费测试。

🎯 总结

DeepSeek V4 系列代表了开源大模型领域的最新突破。无论你是需要极致性能的 V4 Pro, 还是追求速度与性价比的 V4 Flash,UGOOE 都已为你准备好了一键接入的 API 服务。

👉 查看完整定价方案立即注册免费体验