LLM 任务
LLM 任务
Section titled “LLM 任务”llm-task 是一个可选插件工具,用于运行纯 JSON 的 LLM 任务并返回结构化输出(可选择根据 JSON Schema 进行验证)。
这非常适合像 Lobster 这样的工作流引擎:你可以添加单个 LLM 步骤,而无需为每个工作流编写自定义 CoderClaw 代码。
- 启用插件:
{ "plugins": { "entries": { "llm-task": { "enabled": true } } }}- 将工具加入允许列表(它以
optional: true注册):
{ "agents": { "list": [ { "id": "main", "tools": { "allow": ["llm-task"] } } ] }}配置(可选)
Section titled “配置(可选)”{ "plugins": { "entries": { "llm-task": { "enabled": true, "config": { "defaultProvider": "openai-codex", "defaultModel": "gpt-5.2", "defaultAuthProfileId": "main", "allowedModels": ["openai-codex/gpt-5.2"], "maxTokens": 800, "timeoutMs": 30000 } } } }}allowedModels 是 provider/model 字符串的允许列表。如果设置了该项,任何不在列表中的请求都会被拒绝。
prompt(字符串,必填)input(任意类型,可选)schema(对象,可选 JSON Schema)provider(字符串,可选)model(字符串,可选)authProfileId(字符串,可选)temperature(数字,可选)maxTokens(数字,可选)timeoutMs(数字,可选)
返回 details.json,包含解析后的 JSON(如果提供了 schema,则会进行验证)。
示例:Lobster 工作流步骤
Section titled “示例:Lobster 工作流步骤”coderclaw.invoke --tool llm-task --action json --args-json '{ "prompt": "Given the input email, return intent and draft.", "input": { "subject": "Hello", "body": "Can you help?" }, "schema": { "type": "object", "properties": { "intent": { "type": "string" }, "draft": { "type": "string" } }, "required": ["intent", "draft"], "additionalProperties": false }}'安全注意事项
Section titled “安全注意事项”- 该工具为纯 JSON 模式,指示模型仅输出 JSON(无代码围栏、无注释说明)。
- 此次运行不会向模型暴露任何工具。
- 除非使用
schema进行验证,否则应将输出视为不可信。 - 在任何有副作用的步骤(发送、发布、执行)之前设置审批流程。