创建运行试用版
创建运行。
查询参数
要包含在响应中的其他字段的列表。目前唯一支持的值是step_details.tool_calls[*].file_search.results[*].content
以获取文件搜索结果内容。
有关更多信息,请参阅文件搜索工具文档。
请求正文
用于执行此运行的助手的 ID。
用于执行此运行的 Model 的 ID。如果此处提供了值,它将覆盖与助手关联的模型。否则,将使用与助手关联的模型。
覆盖助手的指令。这对于修改每次运行的行为非常有用。
使用温度进行采样的替代方法,称为核抽样,其中模型考虑具有top_p概率质量的标记的结果。所以 0.1 意味着只考虑包含前 10% 概率质量的 token。
我们通常建议更改此温度或温度,但不能同时更改两者。
在运行过程中可以使用的提示令牌的最大数量。运行将尽最大努力在运行的多个轮次中仅使用指定的提示令牌数。如果运行超过指定的提示令牌数,则运行将以 status 结束incomplete
.看incomplete_details
了解更多信息。
在运行过程中可以使用的完成令牌的最大数量。运行将尽最大努力在运行的多个轮次中仅使用指定的完成令牌数。如果运行超过指定的完成令牌数,则运行将以 status 结束incomplete
.看incomplete_details
了解更多信息。
控制模型调用哪个 (如果有) 工具。none
表示模型不会调用任何工具,而是生成一条消息。auto
是默认值,这意味着模型可以在生成消息或调用一个或多个工具之间进行选择。required
表示模型在响应用户之前必须调用一个或多个工具。
指定特定工具,如{"type": "file_search"}
或{"type": "function", "function": {"name": "my_function"}}
强制模型调用该工具。
是否在工具使用过程中启用并行函数调用。
指定模型必须输出的格式。兼容 GPT-4o、GPT-4 Turbo 和所有 GPT-3.5 Turbo 型号gpt-3.5-turbo-1106
.
设置为{ "type": "json_schema", "json_schema": {...} }
启用结构化输出,以确保模型与您提供的 JSON 架构匹配。在结构化输出指南中了解更多信息。
设置为{ "type": "json_object" }
启用 JSON 模式,以确保模型生成的消息是有效的 JSON。
重要提示:使用 JSON 模式时,还必须通过系统或用户消息指示模型自行生成 JSON。否则,模型可能会生成无休止的空格流,直到生成达到令牌限制,从而导致长时间运行且似乎“卡住”的请求。另请注意,如果出现以下情况,消息内容可能会被部分截断finish_reason="length"
,这表示已超过代数max_tokens
或对话超过了最大上下文长度。
返回
run 对象。
1
2
3
4
5
6
7
curl https://api.openai.com/v1/threads/thread_abc123/runs \
-H "Authorization: Bearer $OPENAI_API_KEY" \
-H "Content-Type: application/json" \
-H "OpenAI-Beta: assistants=v2" \
-d '{
"assistant_id": "asst_abc123"
}'
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
{
"id": "run_abc123",
"object": "thread.run",
"created_at": 1699063290,
"assistant_id": "asst_abc123",
"thread_id": "thread_abc123",
"status": "queued",
"started_at": 1699063290,
"expires_at": null,
"cancelled_at": null,
"failed_at": null,
"completed_at": 1699063291,
"last_error": null,
"model": "gpt-4o",
"instructions": null,
"incomplete_details": null,
"tools": [
{
"type": "code_interpreter"
}
],
"metadata": {},
"usage": null,
"temperature": 1.0,
"top_p": 1.0,
"max_prompt_tokens": 1000,
"max_completion_tokens": 1000,
"truncation_strategy": {
"type": "auto",
"last_messages": null
},
"response_format": "auto",
"tool_choice": "auto",
"parallel_tool_calls": true
}