对外文档 正式版本 ● 接口可用

VOD AIGC 生文能力
接入指南

腾讯云点播 AIGC 文生文能力,支持 OpenAI、Anthropic、Responses 三种主流协议,兼容多厂商顶级模型。

支持协议
3 种
默认 RPM
10 次/分
默认 TPM
10W tokens/分
接入步骤
3 步
01
能力介绍
🌐
多协议支持
支持 OpenAI Chat、OpenAI Responses、Anthropic 三种主流协议,一站接入。
3 步快速接入
开通服务 → 获取 API Token → 调用 LLM 模型,流程简洁清晰。
💰
原厂一致计费
计费方式与原厂模型保持一致,折扣详询商务,每日结算出账。

接入三步骤

开通服务
在腾讯云官网开通云点播和媒体处理产品,系统自动创建 SubAppId。
获取 API Token
通过腾讯云 API 调用 CreateAigcApiToken 接口创建生文专用 Token(APIKey)。
调用 LLM 模型
使用 Token 直接调用生文接口,选择目标模型,支持流式和非流式输出。

平台入口

🇨🇳 国内站
登录 → 腾讯云 → 云点播
🌍 国际站
Log in → Tencent Cloud → 云点播(国际站)
⚠️
限速说明:默认限速 RPM(每分钟 10 个请求),TPM(每分钟 10W tokens)。如需调整,请提供 API Key 的 SubAppId,系统按 SubAppId 维度进行限频。
02
模型清单

目前支持以下模型,持续更新补齐中...

💡
Pro 模型说明:目前谷歌整体资源都不足,无法做到保障,建议优先考虑使用 Flash 系列。文件和图片处理通过"内嵌数据"方式传输,文件大小限制在 70MB 以内。
厂商 模型标识 资源说明 上下文 / 输出 支持输入
OpenAI gpt-5.4 超过 200w TPM 需提前 3 天申请 上下文:1050k / 最大输出:128k 文本、图片
gpt-5.2 上下文:400k / 最大输出:128k 文本、图片
gpt-5.1
gpt-5.1-chat
gpt-5-chat 4月15日下架
gpt-5-nano
gpt-4o 上下文:128k / 最大输出:16,384
Gemini gemini-3.1-pro-preview ⚠️ 资源紧缺 输入:1,048,576 / 输出:65,536 文本、代码、图片、音频、视频
gemini-3.1-flash-lite-preview 超过 200w TPM 需提前 3 天申请
gemini-3-pro-preview 3月9日下线
gemini-3-flash-preview
gemini-2.5-pro
gemini-2.5-flash
GK 仅国际站 gk-4-1-fast-reasoning NEW 超过 200w TPM 需提前 3 天申请 上下文:2M / 最大输出:2M 文本、图片
CD 仅国际站 cd-sonnet-4.6 NEW 超过 200w TPM 需提前 3 天申请 对齐官网 文本、图片
cd-opus-4.6
cd-opus-4.5
cd-haiku-4.5
03
开通服务

在腾讯云官网开通云点播和媒体处理产品服务,开通后系统自动创建 SubAppId。

🔑
SubAppId 重要说明:按照 SubAppId 维度限频,提交调频申请时请说明使用哪个 SubAppId。SubAppId 一旦被删除,其下所有 API Key 将立即失效。

子账户授权策略

如果子账户需要调用相关接口,需要主账户赋予其权限:

策略1:所有 SubAppId
策略2:指定 SubAppId
JSON
{
  "statement": [
    {
      "action": [
        "vod:CreateAigcApiToken",
        "vod:DeleteAigcApiToken"
      ],
      "effect": "allow",
      "resource": "*"
    }
  ],
  "version": "2.0"
}
JSON
{
  "statement": [
    {
      "action": [
        "vod:CreateAigcApiToken",
        "vod:DeleteAigcApiToken"
      ],
      "effect": "allow",
      "resource": "qcs::vod::uin/*:subAppId/1500050693"
    }
  ],
  "version": "2.0"
}
04
Token(APIKey)管理
APIKey 没有过期时间,不需要每次调用都创建一个 APIKey。每个用户限制最多 50 个 Token,可删除、可查询。注意:APIKey 需要约 1 分钟同步到网关,创建后马上使用可能会失败。
➕ 创建接口
CreateAigcApiToken
  • 国内站代码示例可用
  • 国际站代码示例可用(国际站与国内站 APIKey 不通用)
  • 支持控制台界面直接操作生成
🗑️ 删除接口
DeleteAigcApiToken
  • 删除后网关需要小段时间才能失效
  • 国内站/国际站均有代码示例
🔍 查询接口
DescribeAigcApiTokens
  • 可查询已创建的 Token 列表
  • 国内站/国际站均有代码示例
05
生文接口

接口目前支持以下 3 种协议:

① OpenAI 兼容协议
② Anthropic 协议
③ Responses 协议

最主流协议,生文调用方法及参数业界较统一,除 CD 模型(走 Anthropic 协议)和 gpt-5.4-pro(走 Responses 协议)外,其他模型均推荐使用此协议。

POST https://text-aigc.vod-qcloud.com/v1/chat/completions
Python SDK
cURL
Python
from openai import OpenAI

client = OpenAI(
    api_key="YOUR_API_KEY",
    base_url="https://text-aigc.vod-qcloud.com/v1"
)

response = client.chat.completions.create(
    model="gpt-5-nano",
    messages=[
        {"role": "system", "content": "You are a helpful assistant."},
        {"role": "user", "content": "Hi, how are you?"},
    ],
    extra_body={"reasoning_split": True},
)

print(f"Thinking:\n{response.choices[0].message.reasoning_details[0]['text']}\n")
print(f"Text:\n{response.choices[0].message.content}\n")
cURL
curl -X POST https://text-aigc.vod-qcloud.com/v1/chat/completions \
  -H "Content-Type: application/json" \
  -H "Authorization: Bearer ${API_TOKEN}" \
  -d '{
    "model": "gpt-5.1",
    "stream": true,
    "messages": [
      {
        "role": "user",
        "content": "who are you?"
      }
    ]
  }'

请求头参数

HTTP 头名称是否必需说明
Authorization二选一格式:Bearer ${TOKEN},有 x-api-key 则不需要
x-api-key二选一格式:${TOKEN},有 Authorization 则不需要,Anthropic 协议使用
X-Request-Id可选用户可传入自己的 request id

请求体核心参数

参数名类型必填说明
modelString指定使用的 AI 模型,可选值见模型清单
messagesList<Object>对话消息列表,提供上下文和当前问题
streambool是否使用流式输出
thinking_enabledBoolean是否开启推理(思考)模式,true 时延迟增加
temperatureFloat控制输出随机性,0~2,默认 0.7
max_tokensInteger最大生成 Token 数量
reasoning_effortString思考等级:none/minimal/low/medium/high/xhigh
toolsArray工具列表,支持 Function Calling
input_compliance_checkbool开启输入文本审核,不过则返回 400
output_compliance_checkbool开启输出文本审核

返回示例

JSON
{
  "id": "chatcmpl-CjFQ2DVpDRL7zVf6gHRYIPiXx4JJN",
  "object": "chat.completion",
  "created": 1764900066,
  "model": "gpt-5.1-2025-11-13",
  "choices": [
    {
      "index": 0,
      "message": {
        "role": "assistant",
        "content": "I'm an AI assistant created by OpenAI..."
      },
      "finish_reason": "stop"
    }
  ],
  "usage": {
    "prompt_tokens": 40,
    "completion_tokens": 53,
    "total_tokens": 93
  }
}

Anthropic 公司推出的协议,主要用于调用 CD(Claude)系列模型。

POST https://text-aigc.vod-qcloud.com/v1/messages
Python SDK
cURL
Python
pip install anthropic
Python
import anthropic

client = anthropic.Anthropic(
    api_key="YOUR_API_KEY",
    base_url="https://text-aigc.vod-qcloud.com/v1"
)

message = client.messages.create(
    model="cd-sonnet-4.6",
    max_tokens=1000,
    system="You are a helpful assistant.",
    messages=[
        {
            "role": "user",
            "content": [{"type": "text", "text": "Hi, how are you?"}]
        }
    ]
)

for block in message.content:
    if block.type == "thinking":
        print(f"Thinking:\n{block.thinking}\n")
    elif block.type == "text":
        print(f"Text:\n{block.text}\n")
cURL
curl https://text-aigc.vod-qcloud.com/v1/messages \
    -H 'Content-Type: application/json' \
    -H "X-Api-Key: $YOUR_API_KEY" \
    -d '{
          "max_tokens": 1024,
          "messages": [
            {
              "content": "Hello, world",
              "role": "user"
            }
          ],
          "model": "cd-sonnet-4.6"
        }'

OpenAI Responses 协议,主要支持 GPT 系列模型(如 gpt-5.1-chat)。

POST https://text-aigc.vod-qcloud.com/v1/responses
cURL
curl https://text-aigc.vod-qcloud.com/v1/responses -v \
  -H "Content-Type: application/json" \
  -H "Accept: text/event-stream" \
  -H "Authorization: Bearer $YOUR_API_KEY" \
  -d '{
    "model": "gpt-5.1-chat",
    "instructions": "You are a helpful assistant.",
    "input": "Hello!",
    "stream": true
  }'

原厂文档:https://developers.openai.com/api/reference/resources/responses/methods/create

06
错误码
200
成功
400
请求参数错误
401
认证失败
403
权限不足 / 已停服(可能欠费)
404
模型/端点不存在,如 model 名不支持
429
速率限制,默认 RPM 10 / TPM 10W
500/502/503
服务器错误 / 上游错误
ℹ️
每个错误都会返回具体错误信息和 request_id 字段;每个请求都返回 X-Request-Id 响应头。

默认限速

10
请求 / 分钟 (RPM)
10W
Tokens / 分钟 (TPM)

如需调整限速,请咨询对接同事,提供需要调整的 SubAppId。

07
用量查询

查询整体生文的用量情况,目前支持接口查询和页面查询两种方式。

📡 接口查询
  • 国内站:DescribeAigcUsageData
  • 国际站:DescribeAigcUsageData
📊 页面查询
  • 用量统计界面:登录腾讯云控制台
  • 资源维度成本分析
  • 资源维度账单 / 明细账单
  • 可视化页面:云点播 → 用量统计 → AIGC
08
常见 Q&A
分类问题答案
接口调用 当前支持 tools 么? 3.11 已支持,详情查看接口参数说明
如果有模型不在已有列表怎么办? 联系对接同事进行评估支持
可以不带 instruction 么? 可以,instruction 可以不带。如需设定,可通过 system 设定:{"content":"You are a helpful assistant.","role":"system"}
默认调用并发 测试期间资源有限,默认支持 TPM 10。如需升级 TPM,请正式接入后提出申请,我们评估支持。
法务支持 目前 AI 调用的相关合规说明 请参考:媒体处理 AI 相关功能的特别约定(腾讯云政策与规范)