跳到主要内容

流触发端点

使用 /run/webhook 端点来运行流。

要创建、读取、更新和删除流,请参阅 流管理端点

运行流

提示

Langflow 会为所有流自动生成 /v1/run/$FLOW_ID 端点的 Python、JavaScript 和 curl 代码片段。 有关更多信息,请参阅 生成 API 代码片段

通过 ID 或名称执行指定的流。 流 ID 可以在 API access 面板 上的代码片段中找到,也可以在流的 URL 中找到。

以下示例运行 Basic Prompting 模板流,并在请求正文中传递流参数。 此流需要聊天输入字符串 (input_value),其他所有参数均使用默认值。


_12
curl -X POST \
_12
"$LANGFLOW_SERVER_URL/api/v1/run/$FLOW_ID" \
_12
-H "Content-Type: application/json" \
_12
-H "x-api-key: $LANGFLOW_API_KEY" \
_12
-d '{
_12
"input_value": "给我讲一些有趣的事情!",
_12
"session_id": "chat-123",
_12
"input_type": "chat",
_12
"output_type": "chat",
_12
"output_component": "",
_12
"tweaks": null
_12
}'

来自 /v1/run/$FLOW_ID 的响应包含运行的元数据、输入和输出。

结果

以下示例展示了来自 Basic Prompting 流的响应:


_29
{
_29
"session_id": "chat-123",
_29
"outputs": [{
_29
"inputs": {
_29
"input_value": "给我讲一些有趣的事情!"
_29
},
_29
"outputs": [{
_29
"results": {
_29
"message": {
_29
"text": "当然!你听说过“生物发光”现象吗?这是一种迷人的自然现象,生物体通过化学反应产生并发出光。这种能力存在于各种物种中,包括某些种类的水母、萤火虫以及像琵琶鱼这样的深海生物。\n\n生物发光是通过一种名为荧光素的发光分子与氧气发生化学反应,并在一种名为荧光素酶的酶催化下产生的。结果是产生美丽的光芒,可以服务于各种目的,例如吸引配偶、威慑捕食者或诱捕猎物。\n\n海洋中可以看到最令人惊叹的生物发光展示之一,某些浮游生物在受到干扰时会发光,在水中营造出迷人的蓝色光芒。这种现象通常被称为“海火”,在全球各地的沿海地区都可以看到。\n\n生物发光不仅捕捉了我们的想象力,在科学和医学领域也有实际应用,包括生物传感器和成像技术的发展。这是大自然创造力和复杂性的一个卓越范例!",
_29
"sender": "Machine",
_29
"sender_name": "AI",
_29
"session_id": "chat-123",
_29
"timestamp": "2025-03-03T17:17:37+00:00",
_29
"flow_id": "d2bbd92b-187e-4c84-b2d4-5df365704201",
_29
"properties": {
_29
"source": {
_29
"id": "OpenAIModel-d1wOZ",
_29
"display_name": "OpenAI",
_29
"source": "gpt-4o-mini"
_29
},
_29
"icon": "OpenAI"
_29
},
_29
"component_id": "ChatOutput-ylMzN"
_29
}
_29
}
_29
}]
_29
}]
_29
}

如果您在应用程序中解析响应,您很可能需要从响应中提取相关内容,而不是将整个响应传回给用户。 有关从 Langflow API 响应中提取数据的脚本示例,请参阅 快速上手

流式传输 LLM 令牌响应

通过 /v1/run/$FLOW_ID,流将以批处理方式执行,并带有可选的 LLM 令牌响应流式传输。

要流式传输 LLM 令牌响应,请在请求中附加 ?stream=true 查询参数:


_10
curl -X POST \
_10
"$LANGFLOW_SERVER_URL/api/v1/run/$FLOW_ID?stream=true" \
_10
-H "accept: application/json" \
_10
-H "Content-Type: application/json" \
_10
-H "x-api-key: $LANGFLOW_API_KEY" \
_10
-d '{
_10
"message": "给我讲一些有趣的事情!",
_10
"session_id": "chat-123"
_10
}'

LLM 聊天响应将以 token 事件的形式流式传回,最后以关闭连接的 end 事件结束。

结果

以下示例经过截断,以展示一系列 token 事件以及关闭 LLM 令牌流式响应的最终 end 事件:


_17
{"event": "add_message", "data": {"timestamp": "2025-03-03T17:20:18", "sender": "User", "sender_name": "User", "session_id": "chat-123", "text": "给我讲一些有趣的事情!", "files": [], "error": false, "edit": false, "properties": {"text_color": "", "background_color": "", "edited": false, "source": {"id": null, "display_name": null, "source": null}, "icon": "", "allow_markdown": false, "positive_feedback": null, "state": "complete", "targets": []}, "category": "message", "content_blocks": [], "id": "0103a21b-ebf7-4c02-9d72-017fb297f812", "flow_id": "d2bbd92b-187e-4c84-b2d4-5df365704201"}}
_17
_17
{"event": "add_message", "data": {"timestamp": "2025-03-03T17:20:18", "sender": "Machine", "sender_name": "AI", "session_id": "chat-123", "text": "", "files": [], "error": false, "edit": false, "properties": {"text_color": "", "background_color": "", "edited": false, "source": {"id": "OpenAIModel-d1wOZ", "display_name": "OpenAI", "source": "gpt-4o-mini"}, "icon": "OpenAI", "allow_markdown": false, "positive_feedback": null, "state": "complete", "targets": []}, "category": "message", "content_blocks": [], "id": "27b66789-e673-4c65-9e81-021752925161", "flow_id": "d2bbd92b-187e-4c84-b2d4-5df365704201"}}
_17
_17
{"event": "token", "data": {"chunk": " 你是否", "id": "27b66789-e673-4c65-9e81-021752925161", "timestamp": "2025-03-03 17:20:18 UTC"}}
_17
_17
{"event": "token", "data": {"chunk": " 听说过", "id": "27b66789-e673-4c65-9e81-021752925161", "timestamp": "2025-03-03 17:20:18 UTC"}}
_17
_17
{"event": "token", "data": {"chunk": " “生物", "id": "27b66789-e673-4c65-9e81-021752925161", "timestamp": "2025-03-03 17:20:18 UTC"}}
_17
_17
{"event": "token", "data": {"chunk": " 发光”", "id": "27b66789-e673-4c65-9e81-021752925161", "timestamp": "2025-03-03 17:20:18 UTC"}}
_17
_17
{"event": "token", "data": {"chunk": " 现象", "id": "27b66789-e673-4c65-9e81-021752925161", "timestamp": "2025-03-03 17:20:18 UTC"}}
_17
_17
{"event": "token", "data": {"chunk": " ?", "id": "27b66789-e673-4c65-9e81-021752925161", "timestamp": "2025-03-03 17:20:18 UTC"}}
_17
_17
{"event": "end", "data": {"result": {"session_id": "chat-123", "message": "当然!你听说过“生物发光”现象吗?..."}}}

运行端点请求头

请求头说明示例
Content-Type必填。指定 JSON 格式。"application/json"
accept可选。指定响应格式。"application/json"
x-api-key可选。仅在启用身份验证时需要。"sk-..."

运行端点参数

参数类型说明
flow_idUUID/string必填。URL 的一部分:/run/$FLOW_ID
streamBoolean可选。查询参数:/run/$FLOW_ID?stream=true
input_valuestring可选。JSON 正文字段。主要输入文本/提示。默认值:null
input_typestring可选。JSON 正文字段。输入类型("chat" 或 "text")。默认值:"chat"
output_typestring可选。JSON 正文字段。输出类型("chat"、"any"、"debug")。默认值:"chat"
output_componentstring可选。JSON 正文字段。输出的目标组件。默认值:""
tweaksobject可选。JSON 正文字段。组件调整。默认值:null
session_idstring可选。JSON 正文字段。对话上下文 ID。请参阅 会话 ID。默认值:null

包含所有请求头和参数的请求示例


_17
curl -X POST \
_17
"$LANGFLOW_SERVER_URL/api/v1/run/$FLOW_ID?stream=true" \
_17
-H "Content-Type: application/json" \
_17
-H "accept: application/json" \
_17
-H "x-api-key: $LANGFLOW_API_KEY" \
_17
-d '{
_17
"input_value": "给我讲一个故事",
_17
"input_type": "chat",
_17
"output_type": "chat",
_17
"output_component": "chat_output",
_17
"session_id": "chat-123",
_17
"tweaks": {
_17
"component_id": {
_17
"parameter_name": "value"
_17
}
_17
}
_17
}'

通过 Webhook 运行流

通过发送 HTTP POST 请求使用 /webhook 端点启动流。

提示

在向流中添加 Webhook 组件 后,打开 API access 面板,然后点击 Webhook curl 选项卡,获取为您生成的流自动生成的 POST /webhook 请求。 有关更多信息,请参阅 通过 Webhook 触发流


_10
curl -X POST \
_10
"$LANGFLOW_SERVER_URL/api/v1/webhook/$FLOW_ID" \
_10
-H "Content-Type: application/json" \
_10
-H "x-api-key: $LANGFLOW_API_KEY" \
_10
-d '{"data": "示例数据"}'

结果

_10
{
_10
"message": "任务已在后台启动",
_10
"status": "in progress"
_10
}

已弃用的流触发端点

以下端点已弃用,并由 /run 端点取代:

  • /process
  • /predict
Search