模型
Agents SDK 开箱即用地支持两种 OpenAI 模型形式:
- 推荐:
OpenAIResponsesModel,它使用新的Responses API 调用 OpenAI API。 OpenAIChatCompletionsModel,它使用Chat Completions API 调用 OpenAI API。
OpenAI 模型
当你在初始化Agent 时未指定模型,将使用默认模型。当前默认是为了兼容性和低延迟而选用的gpt-4.1。如果你有权限,建议将你的智能体设置为gpt-5.2 以获得更高质量,同时保留明确的model_settings。
如果你想切换到其他模型,例如gpt-5.2,请按照下一节的步骤进行。
默认 OpenAI 模型
如果你希望对所有未设置自定义模型的智能体始终使用某个特定模型,请在运行你的智能体之前设置环境变量OPENAI_DEFAULT_MODEL。
GPT-5 模型
当你以这种方式使用任一 GPT-5 推理模型(gpt-5、gpt-5-mini 或gpt-5-nano)时,SDK 会默认应用合理的ModelSettings。具体来说,它会将reasoning.effort 和verbosity 都设置为"low"。如果你想自己构建这些设置,请调用agents.models.get_default_model_settings("gpt-5")。
对于更低延迟或特定需求,你可以选择不同的模型和设置。要调整默认模型的推理力度,请传入你自己的ModelSettings:
fromopenai.types.sharedimportReasoningfromagentsimportAgent,ModelSettingsmy_agent=Agent(name="My Agent",instructions="You're a helpful agent.",model_settings=ModelSettings(reasoning=Reasoning(effort="minimal"),verbosity="low")# If OPENAI_DEFAULT_MODEL=gpt-5 is set, passing only model_settings works.# It's also fine to pass a GPT-5 model name explicitly:# model="gpt-5",)特别是为了降低延迟,使用gpt-5-mini 或gpt-5-nano 且设置reasoning.effort="minimal" 通常会比默认设置更快返回响应。不过,Responses API 中的一些内置工具(例如 文件检索 和 图像生成)不支持"minimal" 推理力度,这也是本 Agents SDK 默认采用"low" 的原因。
非 GPT-5 模型
如果你传入一个非 GPT-5 的模型名称且未提供自定义model_settings,SDK 会回退到与任意模型兼容的通用ModelSettings。
非 OpenAI 模型
你可以通过LiteLLM 集成 使用大多数其他非 OpenAI 模型。首先,安装 litellm 依赖组:
然后,搭配litellm/ 前缀使用任意受支持的模型:
claude_agent=Agent(model="litellm/anthropic/claude-3-5-sonnet-20240620",...)gemini_agent=Agent(model="litellm/gemini/gemini-2.5-flash-preview-04-17",...)使用非 OpenAI 模型的其他方式
你还可以通过另外 3 种方式集成其他 LLM 提供方(code examples在此):
set_default_openai_client适用于你希望全局使用一个AsyncOpenAI实例作为 LLM 客户端的场景。适用于 LLM 提供方有 OpenAI 兼容 API 端点的情况,并且你可以设置base_url和api_key。参见可配置示例:examples/model_providers/custom_example_global.py。ModelProvider作用于Runner.run层级。这让你可以声明“在此次运行中为所有智能体使用自定义模型提供方”。参见可配置示例:examples/model_providers/custom_example_provider.py。Agent.model允许你在特定的 Agent 实例上指定模型。这样你可以为不同智能体混用不同的提供方。参见可配置示例:examples/model_providers/custom_example_agent.py。一种便捷地使用大多数可用模型的方法是通过LiteLLM 集成。
在你没有来自platform.openai.com 的 API key 的情况下,我们建议通过set_tracing_disabled() 禁用追踪,或设置其他追踪进程。
Note
在这些示例中,我们使用 Chat Completions API/模型,因为大多数 LLM 提供方尚未支持 Responses API。如果你的 LLM 提供方支持它,我们建议使用 Responses。
模型混用
在单个工作流中,你可能希望为每个智能体使用不同的模型。例如:你可以使用更小、更快的模型进行分诊,同时为复杂任务使用更大、更强的模型。在配置Agent 时,你可以通过以下任一方式选择特定模型:
- 传入模型的名称。
- 传入任意模型名称 + 一个可以将该名称映射到 Model 实例的
ModelProvider。 - 直接提供一个
Model实现。
Note
虽然我们的 SDK 同时支持OpenAIResponsesModel 和OpenAIChatCompletionsModel 这两种形态,但我们建议为每个工作流使用单一模型形态,因为两者支持的功能和工具集不同。如果你的工作流需要混用不同的模型形态,请确保你使用的所有功能在两者上都可用。
fromagentsimportAgent,Runner,AsyncOpenAI,OpenAIChatCompletionsModelimportasynciospanish_agent=Agent(name="Spanish agent",instructions="You only speak Spanish.",model="gpt-5-mini",# (1)!)english_agent=Agent(name="English agent",instructions="You only speak English",model=OpenAIChatCompletionsModel(# (2)!model="gpt-5-nano",openai_client=AsyncOpenAI()),)triage_agent=Agent(name="Triage agent",instructions="Handoff to the appropriate agent based on the language of the request.",handoffs=[spanish_agent,english_agent],model="gpt-5",)asyncdefmain():result=awaitRunner.run(triage_agent,input="Hola, ¿cómo estás?")print(result.final_output)- 直接设置一个 OpenAI 模型的名称。
- 提供一个
Model实现。
当你希望进一步配置智能体所用的模型时,你可以传入ModelSettings,它提供了可选的模型配置参数,例如 temperature。
fromagentsimportAgent,ModelSettingsenglish_agent=Agent(name="English agent",instructions="You only speak English",model="gpt-4.1",model_settings=ModelSettings(temperature=0.1),)此外,当你使用 OpenAI 的 Responses API 时,还有一些其他可选参数(例如user、service_tier 等)。如果这些参数不在顶层可用,你可以使用extra_args 传入。
fromagentsimportAgent,ModelSettingsenglish_agent=Agent(name="English agent",instructions="You only speak English",model="gpt-4.1",model_settings=ModelSettings(temperature=0.1,extra_args={"service_tier":"flex","user":"user_12345"},),)使用其他 LLM 提供方的常见问题
Tracing 客户端错误 401
如果你遇到与追踪相关的错误,这是因为追踪数据会上传到 OpenAI 服务,而你没有 OpenAI API key。你有三种解决方案:
- 完全禁用追踪:
set_tracing_disabled(True)。 - 为追踪设置一个 OpenAI key:
set_tracing_export_api_key(...)。此 API key 仅用于上传追踪,且必须来自platform.openai.com。 - 使用非 OpenAI 的追踪进程。参见追踪文档。
Responses API 支持
SDK 默认使用 Responses API,但大多数其他 LLM 提供方尚未支持它。因此你可能会看到 404 或类似问题。为了解决,你有两种选择:
- 调用
set_default_openai_api("chat_completions")。这在你通过环境变量设置OPENAI_API_KEY和OPENAI_BASE_URL时有效。 - 使用
OpenAIChatCompletionsModel。code examples 在这里。
Structured outputs 支持
一些模型提供方不支持structured outputs。这有时会导致类似如下的错误:
BadRequestError: Error code: 400 - {'error': {'message': "'response_format.type' : value is not one of the allowed values ['text','json_object']", 'type': 'invalid_request_error'}}这是部分模型提供方的不足——它们支持 JSON 输出,但不允许你为输出指定json_schema。我们正在为此提供修复,但我们建议依赖支持 JSON schema 输出的提供方,否则你的应用经常会因为格式错误的 JSON 而出问题。
跨提供方混用模型
你需要了解不同模型提供方之间的功能差异,否则可能会遇到错误。比如,OpenAI 支持 structured outputs、多模态输入,以及托管的 文件检索 和 网络检索,但许多其他提供方并不支持这些功能。请注意以下限制:
- 不要向不理解的提供方发送不受支持的
tools - 在调用仅文本模型之前过滤掉多模态输入
- 注意不支持结构化 JSON 输出的提供方可能会偶尔产生无效的 JSON。