We2AI

支持的国产大模型

We2AI 通过 OpenAI 兼容接口统一接入下面这些国产大语言模型 —— 你的应用代码不用改,把 base_url 换成我们的、把 model 名字换一下就能调用,按量计费、统一账单。

快速跳转: DeepSeek 通义千问 智谱 GLM Kimi 调用示例

DeepSeek · DeepSeek (深度求索)

DeepSeek 是国产开源大模型里推理能力最强的几个之一,DeepSeek V4 在中文推理、代码生成、长文档理解上接近 GPT-4 水平,价格只有它的几十分之一。DeepSeek-R1 是带思维链(chain-of-thought)的推理模型,做复杂数学题和代码 debug 时表现尤其好。

通义千问 Qwen · 阿里云

阿里巴巴自研的 Qwen 系列覆盖广,从 qwen-plus(通用高性价比)、qwen-max(旗舰)、到 qwen-coder(代码专用)一应俱全。Qwen 在中文指令理解、多轮对话连贯性上做得很扎实,工具调用(function calling)兼容性高,适合做 agent 和 RAG。

智谱 GLM · 智谱 AI

清华系智谱团队出品,GLM-4.5GLM-4.5-air 是当前主力,前者旗舰,后者轻量低延迟。GLM 系列在中英双语切换、结构化输出(JSON Mode)上很稳,最近的版本工具调用做得也不错。GLM-4-flash 适合做高频低成本任务(比如分类、关键词抽取)。

Kimi · 月之暗面 Moonshot

月之暗面的 Kimi 起家就是长上下文,moonshot-v1-128kmoonshot-v1-1m 适合喂整本书、整个代码仓库做问答。新版 kimi-k1 在推理能力上跟上了,但价格还是 Kimi 系列里偏贵的,按需选用。

怎么调用

所有模型都走 OpenAI 兼容协议,你只需要改两个地方:base_url 指向 https://we2ai.ai/v1api_key 用你在 We2AI 后台创建的令牌。model 字段填上面表格里的对应名字。

Python(openai SDK)

from openai import OpenAI

client = OpenAI(
    base_url="https://we2ai.ai/v1",
    api_key="sk-YOUR_WE2AI_TOKEN",
)

resp = client.chat.completions.create(
    model="deepseek-chat",
    messages=[{"role": "user", "content": "用一句话介绍你自己"}],
)
print(resp.choices[0].message.content)

cURL

curl https://we2ai.ai/v1/chat/completions \
  -H "Authorization: Bearer sk-YOUR_WE2AI_TOKEN" \
  -H "Content-Type: application/json" \
  -d '{
    "model": "qwen-plus",
    "messages": [{"role":"user","content":"hi"}]
  }'

Node.js

import OpenAI from "openai";

const client = new OpenAI({
  baseURL: "https://we2ai.ai/v1",
  apiKey: process.env.WE2AI_TOKEN,
});

const r = await client.chat.completions.create({
  model: "glm-4.5",
  messages: [{ role: "user", content: "hi" }],
});
console.log(r.choices[0].message.content);

哪些模型暂时没接

OpenAI GPT、Anthropic Claude、Google Gemini —— 三家境外模型暂不接入,原因是合规。后续会通过 Azure OpenAI / AWS Bedrock 等正规渠道引入。如果你的工作流非要 GPT-4 或 Claude,目前推荐另开账户走官方接口。

价格 / 计费方式

所有模型都按 1M tokens 计费(输入 / 输出独立计价),实时扣费、最小单位 1 token、调用失败不扣费。详细单价见后台「定价」页或 首页价格区