AI Proxy Node AI Proxy Node 文档

接入文档

本站完全兼容 OpenAI / Anthropic / Google 三家原生协议,原 SDK 仅需替换 Base URL 即可使用。

基础信息

Base URLhttps://aiproxynode.com
OpenAI 兼容前缀/v1/*
Claude 原生前缀/v1/messages/claude/v1/messages
Gemini 原生前缀/v1beta/*/gemini/v1beta/*
认证方式Authorization: Bearer sk-xxxxxxx-api-key: sk-xxxxxx

OpenAI 兼容协议

按 OpenAI 官方 ChatCompletions 协议调用即可。模型名使用各家官方名,本站会自动路由到对应上游。

Python
from openai import OpenAI

client = OpenAI(
    api_key="sk-xxxxxx",
    base_url="https://aiproxynode.com/v1",
)

# 通过 OpenAI 协议调任意模型
for model in ["gpt-4o", "claude-sonnet-4-5", "gemini-2.0-flash", "deepseek-chat"]:
    resp = client.chat.completions.create(
        model=model,
        messages=[{"role": "user", "content": "Hi"}],
    )
    print(model, "->", resp.choices[0].message.content)

多模态(图像输入)

Python
resp = client.chat.completions.create(
    model="gpt-4o",
    messages=[{
        "role": "user",
        "content": [
            {"type": "text", "text": "图里写了什么?"},
            {"type": "image_url", "image_url": {"url": "https://example.com/x.png"}},
        ],
    }],
)

Function Calling / Tools

Python
tools = [{
    "type": "function",
    "function": {
        "name": "get_weather",
        "description": "查询某城市天气",
        "parameters": {
            "type": "object",
            "properties": {"city": {"type": "string"}},
            "required": ["city"],
        },
    },
}]

resp = client.chat.completions.create(
    model="gpt-4o",
    messages=[{"role": "user", "content": "北京天气如何?"}],
    tools=tools,
)

Claude 原生接口

使用 Anthropic 官方 SDK 时,把 base_url 改为 https://aiproxynode.com 即可。

Python
import anthropic

client = anthropic.Anthropic(
    api_key="sk-xxxxxx",
    base_url="https://aiproxynode.com",
)

resp = client.messages.create(
    model="claude-sonnet-4-5",
    max_tokens=1024,
    messages=[{"role": "user", "content": "Hi"}],
)
print(resp.content[0].text)

Gemini 原生接口

使用 Google generativeai SDK 时,需通过 client_options 指向本站:

Python
import google.generativeai as genai

genai.configure(
    api_key="sk-xxxxxx",
    transport="rest",
    client_options={"api_endpoint": "https://aiproxynode.com"},
)

model = genai.GenerativeModel("gemini-2.0-flash")
resp = model.generate_content("Hi")
print(resp.text)
推荐使用 OpenAI 兼容协议

除非业务强依赖某家原生特性(如 Claude 的 tool_use 块、Gemini 的多轮多模态对话),优先用 OpenAI 兼容协议 — 调试工具与生态最完整。

流式输出

所有模型都支持流式(Server-Sent Events):

Python
stream = client.chat.completions.create(
    model="gpt-4o",
    messages=[{"role": "user", "content": "写一首五言绝句"}],
    stream=True,
)

for chunk in stream:
    delta = chunk.choices[0].delta.content
    if delta:
        print(delta, end="", flush=True)
curl
curl https://aiproxynode.com/v1/chat/completions \
  -H "Authorization: Bearer sk-xxxxxx" \
  -H "Content-Type: application/json" \
  -d '{
    "model": "gpt-4o",
    "messages": [{"role": "user", "content": "写诗"}],
    "stream": true
  }'

模型列表

常用模型直接使用官方模型名调用即可。完整可用模型与定价见 主站 → 模型广场

OpenAI

Anthropic Claude

Google Gemini

DeepSeek / 国产

错误码

HTTP错误类型说明
400invalid_request_error请求参数错误,常见为缺字段或字段类型错
401authentication_errorAPI Key 不正确或被禁用
402insufficient_quota余额不足或令牌额度耗尽
403forbidden令牌无该模型权限
404not_found模型名不存在或已下线
429rate_limit_exceeded触发限流,重试或降低并发
500internal_error上游或网关异常,请重试
502 / 503upstream_error上游临时不可用,自动重试或换模型
推荐做法

对外服务务必加幂等重试(指数退避),并对 5xx 失败做模型自动降级。