跳到主要内容
新模型支持

我们现已支持 Qwen3-Coder-480B-A35B 模型(模型标识:Qwen3-Coder),该模型专为代码生成和理解优化,具备 256k 上下文长度和 64k 最大输出长度,支持 Claude CodeClineRoo Code 等工具。

快速开始

心流 API 提供与 OpenAI 100% 兼容的接口服务,让您可以无缝切换到我们的 AI 服务,享受更高性能和更具成本效益的解决方案。

第一步:获取 API 密钥

  1. 访问 心流官网 并完成注册登录
  2. 在用户设置页面生成您的专属 API KEY
  3. 妥善保存 API KEY,用于后续接口调用

💡 提示:API KEY 具有完整的账户权限,请勿泄露给他人。

第二步:了解支持的模型

我们提供多种高性能的 AI 模型供您选择使用。为了获取最新的模型信息、详细参数配置和使用说明,请访问我们的模型页面:

查看完整模型列表

点击查看所有支持的模型

在模型页面,您可以:

  • 查看所有可用模型的详细信息
  • 了解每个模型的上下文长度和输出限制
  • 查看模型的性能特点和适用场景
  • 复制 模型ID 用于 API 调用

第三步:配置接口参数

使用以下配置信息来调用心流 API:

参数名称参数值说明
HTTP URLhttps://apis.iflow.cn/v1/chat/completions聊天接口,支持流式和非流式
API Key你的密钥控制台 获取
OpenAi Base URLhttps://apis.iflow.cn/v1OpenAI SDK使用

第四步:开始调用接口

基础示例

以下是使用不同编程语言调用心流 API 的示例:

from openai import OpenAI

client = OpenAI(
base_url="https://apis.iflow.cn/v1",
api_key="<YOUR_IFLOW_API_KEY>",
)

completion = client.chat.completions.create(
extra_body={},
model="TBStars2-200B-A13B",
messages=[
{
"role": "user",
"content": "What is the meaning of life?"
}
]
)
print(completion.choices[0].message.content)

下一步

  • 📖 详细文档:查看完整的 API 参考手册
  • 🔧 高级配置:了解更多参数配置选项
  • 💬 技术支持联系我们 获取帮助

🚀 开始构建:现在您已经掌握了基础用法,可以开始在您的项目中集成心流 API 了!