一个接口,所有 AI 模型

统一AI模型网关

全球支持顶尖模型最多的智能网关

通过单一API端点访问全球顶尖AI模型,简化集成,提升效率,降低成本

1000+
AI 模型
99.9%
可用性
100%
OpenAI 兼容
<100ms
额外延迟

全球顶尖AI模型

接入 OpenAI GPT、Anthropic Claude、Google Gemini、DeepSeek 等顶级 AI 提供商,一个接口调用所有模型

🤖

OpenAI

支持 GPT 全系列

GPT-5 GPT-4o GPT-4
🧠

Anthropic

Claude 4.5 - 最强推理能力

Claude 4.5 Claude 3 Opus

Google

Gemini 3.0 Pro - 超长上下文窗口

Gemini 3.0 Pro 2M Context
🚀

DeepSeek

DeepSeek - 极具性价比的模型

DeepSeek Chat 超低价格
🧩

Qwen

Qwen - 多语言与工具调用能力突出

Qwen-Max Qwen-Plus
🌙

Kimi

Kimi - 长文本处理与检索问答优秀

Kimi K2 Long Context
📦

Doubao

Doubao - 字节系高性价比与稳定输出

Doubao Pro Fast Inference
🐉

HunYuan

HunYuan - 腾讯系模型,综合性能均衡

Hunyuan Turbo Tencent AI

简化集成

100% 兼容 OpenAI API 格式,无需修改现有代码,一行配置即可切换至 InferLink

切换前 (OpenAI)
import openai

client = openai.OpenAI(
    api_key="YOUR_OPENAI_KEY"
)

response = client.chat.completions.create(
    model="openai/gpt-5",
    messages=[{"role": "user", "content": "Hello"}]
)
切换后 (InferLink)
import openai

client = openai.OpenAI(
    api_key="YOUR_INFERLINK_KEY",
    base_url="https://api.inferlink.ai/v1"
)

response = client.chat.completions.create(
    model="openai/gpt-5",
    messages=[{"role": "user", "content": "Hello"}]
)

完全兼容 OpenAI SDK,零学习成本

仅需更改 base_url,即可接入所有模型

支持流式响应、函数调用等高级特性

详尽的文档和代码示例

更优惠的价格

直连各大 AI 提供商,无中间商赚差价。按实际使用量计费,比官方价格更优惠

模型 官方价格 InferLink 价格 节省
🤖 GPT-5.1 输入 ¥0.0020 / 输出 ¥0.0150 输入 ¥0.0016 / 输出 ¥0.0130 -13%
🧠 Claude Sonnet 4.5 输入 ¥0.0030 / 输出 ¥0.0150 输入 ¥0.0020 / 输出 ¥0.0098 -35%
✨ Gemini 2.0 Flash 输入 ¥0.0002 / 输出 ¥0.0008 输入 ¥0.0001 / 输出 ¥0.0005 -38%
🐋 DeepSeek Chat 输入 ¥0.0028 / 输出 ¥0.0056 输入 ¥0.0026 / 输出 ¥0.0039 超值
💰

GPT-5.1 输出低至 ¥0.013/1k tokens

⚖️

Claude Sonnet 4.5 比官方便宜 35%

🎯

Gemini 2.0 Flash 超低价 ¥0.0001/1k tokens

无最低消费,用多少付多少

为什么选择 InferLink

专为开发者打造的统一 AI 网关,让 AI 集成更简单、更可靠、更经济

🔗

统一接口

兼容 OpenAI API 格式,一次集成,访问多个顶级 AI 模型

高性能

智能路由与负载均衡,确保低延迟和高可用性

💰

按需付费

透明定价,按实际使用量计费,无隐藏费用

🛡️

企业级安全

数据加密传输,API Key 认证,完善的权限管理

📊

实时监控

详细的使用统计和成本分析,帮助优化 AI 支出

🔄

自动故障转移

智能健康检查,自动切换到可用的备用提供商

API 文档

完整的 API 参考文档,帮助您快速集成 InferLink,包含详细的代码示例和最佳实践

快速开始

使用 InferLink API 非常简单,只需三步:

  1. 注册账号并获取 API Key
  2. 充值账户余额
  3. 使用标准 OpenAI SDK 调用 API

代码示例

import openai

client = openai.OpenAI(
    api_key="YOUR_INFERLINK_API_KEY",
    base_url="https://api.inferlink.ai/v1"
)

response = client.chat.completions.create(
    model="deeprouter/gemini-1.5-pro",
    messages=[{"role": "user", "content": "Hello"}]
)

print(response.choices[0].message.content)

定价说明

灵活透明的按量付费模式,无最低消费要求,只为您实际使用的资源付费

计费类型说明

InferLink 系统支持三种计费类型,根据模型能力自动适配最合适的计量方式

按 Token 计费
token

适用于文本对话、补全、嵌入向量等 LLM 类模型。分别对输入 Token 与输出 Token 计价,输出通常高于输入。缓存命中的输入 Token 享有折扣。

适用模型 GPT-5、Claude、Gemini、DeepSeek-Chat、嵌入模型
🔁
按次计费
request

每次 API 调用收取固定费用,不论输入输出多少 Token。适用于图像生成、部分视频生成等计算密集型任务,费用固定、预算可控。

适用模型 DALL·E、Stable Diffusion、部分视频生成模型
📐
按单元计费
unit

根据实际消耗的自然单元计费,单元类型取决于模型能力。

  • 🖼️ megapixel — 图像生成按百万像素计量
  • 🎬 second — 视频/音频按秒数计量
  • ⏱️ minute — 语音识别 (STT) 按分钟计量
  • 🔤 character — 文字转语音 (TTS) 按字符数计量
适用模型 TTS、STT、图像风格化、视频生成

参考定价

以下为部分主流模型参考价格(IFT/1M tokens)

模型 输入 输出
GPT-5.10.8 IFT6.5 IFT
Claude Sonnet 4.51.0 IFT4.9 IFT
Gemini 2.0 Flash0.07 IFT0.27 IFT
DeepSeek Chat0.4 IFT0.6 IFT

💎 会员等级与权益

升级等级以享受更低的模型调用成本,平台费用减免直接降低您的实际支出

👤 Standard
0%
平台费用减免
默认等级,支付完整平台费用
免费
当前等级
🥈 Silver
25%
平台费用减免
支付更低比例的额外费用
50 IFT / 30天
立即升级
🥇 Gold
50%
平台费用减免
显著降低模型调用成本
200 IFT / 30天
立即升级
👑 Platinum
100%
平台费用减免
享受 0% 额外费用,即模型基础价
500 IFT / 30天
立即升级

下载客户端

多平台支持的专业 AI 客户端,提供对话、编程等场景的极致体验,支持本地数据加密存储

💬

InferLink Chat

v1.0.3 发布于 Nov 11, 2025 • 23 MB

轻量级 AI 对话客户端,支持 GPT、Claude、Gemini 等多个模型。简洁优雅的界面,强大的会话管理功能。

主要特性

  • 多模型支持 (GPT, Claude, Gemini, Kimi, DeepSeek, Qwen)
  • 本地会话存储,数据安全可靠
  • AES-256-GCM 加密 API 密钥
  • Markdown 渲染与代码高亮
  • 会话导出与管理

📦 下载客户端

🐧 Linux x64 🍎 macOS Intel 🍎 macOS Apple Silicon 🪟 Windows x64 🪟 Windows ARM64 📋 SHA256 校验 📄 版本信息
💻

InferLink Code

v1.0.3 发布于 Nov 11, 2025 • 23 MB

专业 AI 编程工作台,集成 Codex、Gemini Code、Claude Code 工具。支持代码生成、执行和调试。

主要特性

  • 三大 AI 编程工具集成 (Codex, Gemini Code, Claude Code)
  • 内置代码执行环境
  • 终端集成与进程管理
  • 项目文件管理
  • 实时输出查看

📦 下载客户端

🐧 Linux x64 🍎 macOS Intel 🍎 macOS Apple Silicon 🪟 Windows x64 🪟 Windows ARM64 📋 SHA256 校验 📄 版本信息

📖 安装指南

🐧 Linux 安装

  1. 下载对应的文件
  2. 添加执行权限: chmod +x InferLink-*
  3. 运行: ./InferLink-Chat-Linux-x64

🔒 验证下载

使用 SHA256 校验文件完整性:

sha256sum -c SHA256SUMS.txt

💡 系统要求

  • Ubuntu 20.04+ / Debian 11+
  • 4 GB RAM (推荐 8 GB)
  • 200 MB 磁盘空间
  • InferLink API Key

登录

注册

有邀请码?填写可获得奖励

忘记密码

重置密码