开通厂商模型API服务

我们开发的智能体应用,核心就是调用大语言模型(LLM)的API接口,来实现智能体的智能。

厂商提供的LLM服务,基本都是通过API接口来调用的。

下面就给大家介绍一下 如何开通和调用一些主流厂商提供的 API接口。

开通账号

使用服务商提供的大语言模型的API,首先当然是要开通账号了。

这个不用多说,大家都会。

开通大模型服务

开通了帐号之后,还要开通大模型服务

另外,OpenAI 标准 的 API调用, 必须使用 API key ,所以要创建一个。

下面介绍的这些厂商 , 大都有一定的免费额度, 简单试用 可以不用充值。

而 DeepSeek, 目前是必须要充值的,可以充5元先试用一下。

DeepSeek

DeepSeek 页面很简洁, 开通和充值操作也简单。缺点是没有提供免费额度, 需要先充值才能使用。

点击这里, 进入 DeepSeek 平台管理界面

创建账号,充值,然后创建 API KEY

操作很简单,小白都知道,我就不多说了。

阿里云 百炼

点击这里,进入阿里云百炼


然后,点击右下角图标 , 开通百炼大模型服务,并领取免费额度

然后 点击这里,进入创建 API Key 页面,点击 创建 API Key 按钮,按照界面提示操作,就可以创建一个 API Key 了。


点击这里,打开阿里支持的模型 及价格 列表页面

可以看到, 阿里云百炼提供了很多模型,有的模型是他们自己研发的,有的是其他公司的。

价格也不一样, 可以根据需要选择开通。


点击这里, 可以查看模型使用额度。

阿里为很多模型提供了免费额度, 可以在这里查看。

注意,在代码中填写模型名称时, 要和本页表中最左边一列 模型Code 使用的名称一致。比如 qwen3.5-plusqwen-maxdeepseek-v3.2 等等。


调用接口时,openai 接口 的 url 如下

https://dashscope.aliyuncs.com/compatible-mode/v1

模型根据你的需要选择。 随着时间的推移,阿里云百炼会不断上新模型, 也会调整模型的价格和免费额度, 具体以阿里云百炼的官网为准。

比如,目前可以选择这些:

deepseek-v3.2
qwen3-max-preview 
qwen3.5-plus 
kimi-k2.5
glm-5 

字节 火山引擎

点击这里,进入 字节 火山引擎的界面


然后 点击左侧菜单的 系统管理 -> API Key 管理 ,点击 创建 API Key 如果没有实名认证,需要先实名认证

然后根据界面引导 选择开通模型,可以选择 一键开通所有模型。


可以在左侧菜单的 系统管理 -> 开通管理 选择开通模型

点击这些模型,可以查看详细信息

百度 千帆

点击这里,进入 百度智能云 控制台界面

然后 点击这里,进入 API Key 管理界面

点击 创建 API Key


这个网址,是 百度千帆大模型开发平台 的文档中心,

比如要看图片上传接口 , 可以左侧菜单, 推理服务API -> 推理服务API V2 -> 多模态

然后 右侧目录 图片 Base64 编码输入

测试代码

开通了账号,开通了大模型服务,拿到了 API Key 之后,就可以调用接口了。

目前这些厂商 的 AI 模型 API调用接口 基本都兼容 OpenAI 标准。

所以我们开发使用这些 API 时,可以使用同样的代码,只需要配置不同的 服务商参数即可。

这里我们使用Python语言示例。

推荐通过 openai 的 SDK, 这样使用起来更方便一些。

执行命令安装

pip install openai -i https://pypi.tuna.tsinghua.edu.cn/simple

下面是一个示例代码,展示了如何调用这些大模型服务的API接口,来实现一个简单的文本终端界面。

如果能顺利运行通过,就表示前面的操作都是正确的,已经成功调用了大模型服务的API接口了。

# 这里以 阿里云百炼 的接口为例,其他厂商的接口也是兼容的,配置不同的参数即可
base_url = "https://dashscope.aliyuncs.com/compatible-mode/v1"
api_key  = "xxxxxxx"        # 替换为你的 API key
model    = 'deepseek-v3.2'  # qwen3-max-preview qwen3.5-plus kimi-k2.5  glm-5 

# 示例问题
question = """简要介绍一下指环王电影里面的摩瑞亚矿坑"""


from openai import OpenAI

client = OpenAI(
    api_key=api_key,
    base_url=base_url
)


response = client.chat.completions.create(
    model=model,
    messages=[
        {"role": "user", "content": question}
    ],
    stream=True
)

for chunk in response:
    content = chunk.choices[0].delta.content
    if content:
        print(content, end='', flush=True)

input("\n\n按回车键关闭...")