跳转到主要内容

概述

comfyui-image-annotator 是社区用户 luckdvr 贡献的交互式图像标注 ComfyUI 节点。它的核心价值是——降低提示词门槛。你不用再费劲描述”把图片左上角那个红色按钮换成蓝色”,只要在图上圈出来、点一下、画个框,让模型清楚看到”我要改这里”即可。最适合搭配在 Nano Banana Pro 节点前面,组成”图片 → 标注 → API”的三段式工作流。
项目信息
  • 🔗 开源地址:github.com/luckdvr/comfyui-image-annotator
  • 📜 许可证:MIT
  • 👤 作者:luckdvr
  • ⭐ 社区贡献,与 Luck Nano Banana Pro 同作者
推荐工作流:图片 → 标注节点 → API 节点
LoadImage  ─►  ImageAnnotator  ─►  Luck Nano Banana Pro  ─►  SaveImage
               (在图上圈出要改的区域)     (看着标注按指令改图)
适合人群:不擅长写英文提示词、不知道怎么精确描述”改哪里”的用户。把”描述区域”的工作交给鼠标,把”怎么改”的工作交给一句简单的 prompt。

核心功能

三种标注方式

点(⦿):单击放置 · 矩形(▢):拖拽画框 · 多边形(⬡):多点连线自动闭合

实时渲染预览

标注实时渲染到画布,所见即所得,不用反复跑图看效果

缩放 / 平移 / 选择

内置画布操作,处理大图也能精准定位局部

50 步撤销

最多 50 步撤销历史,尽情尝试不怕误操作

双输出

同时输出标注后的图片(供模型参考)+ JSON 标注数据(便于后续节点解析)

样式可定制

描边颜色、宽度、填充透明度、点大小均可配置

支持的 API易 模型

该节点本身不调用 API,只负责对图像做标注。标注后的图片可喂给任何支持图像输入的 API易 模型,最佳搭档:
模型名称模型标识用途API 文档
Nano Banana Progemini-3-pro-image-preview根据标注区域局部改图/融合查看文档
Gemini / Qwen-VL 系列多种图像理解、基于标注的视觉问答查看文档

节点说明

输入

参数名类型必填说明
imageIMAGE要标注的原图

输出

输出端类型说明
annotated_imageIMAGE已渲染标注标记的图片(可直接喂给下游 API 节点)
annotations_jsonSTRING描述标注位置/类型的 JSON 字符串(供需要结构化输入的节点使用)

安装配置

1

第一步:克隆到 custom_nodes

cd ComfyUI/custom_nodes
git clone https://github.com/luckdvr/comfyui-image-annotator.git
2

第二步:重启 ComfyUI

无额外依赖(使用 ComfyUI 自带环境即可),重启后在节点搜索栏输入 ImageAnnotator 即可找到。
3

第三步:搭建三段式工作流

把节点依次连起来:
LoadImage → ImageAnnotator → Luck Nano Banana Pro → SaveImage
ImageAnnotator 的画布上圈出要改动的位置,然后在下游 API 节点写一句简单的 prompt(如 “replace the marked area with a red sports car”),运行即可。

使用示例

示例 1:局部换物(小白友好)

1

加载原图

LoadImage 载入一张客厅照片
2

标注目标区域

ImageAnnotator:用矩形框住沙发旁的空位
3

写一句简单 prompt

Luck Nano Banana Pro:prompt = “Put a green indoor plant in the marked area”
4

运行输出

模型会在你框出的位置放一盆绿植,不动其他区域

示例 2:多区域精准标注

多边形标注人物衣服 + 标注帽子位置 + 矩形标注背景区域,然后用 prompt:
Change the clothing in polygon 1 to a black suit, add a hat at point 1,
replace the background in rectangle 1 with a sunset beach
模型会分别对三个区域做不同的修改。

示例 3:视觉问答 / 理解

配合 Gemini / Qwen-VL:让模型解释”被框出来的物体是什么、在图里起什么作用”,标注提供精确的视觉锚点。

常见问题

传统改图需要你用文字精确描述”改哪里、怎么改”。对非英语用户、不熟 AI prompt 的小白非常不友好。有了这个节点,位置信息由鼠标标注直接给出,prompt 只需描述”改成什么”即可。原本需要 3-5 句话的精确描述,现在一句简单英文就能搞定。
会,而且是往好的方向影响。大部分多模态模型(Nano Banana、Gemini、Qwen-VL)都能理解图上的标注符号,把它们识别为”用户指示的目标区域”,从而更精准地按指令编辑。若担心标注样式干扰最终输出,可在节点内调低描边宽度、使用半透明填充。
  1. 确认目录是 ComfyUI/custom_nodes/comfyui-image-annotator
  2. 完全重启 ComfyUI(刷新前端不够)
  3. 检查 ComfyUI 控制台有无报错
可以。把下游节点只接 annotations_json 端口即可。适合需要把坐标传给自定义脚本做后处理的场景。
推荐流水线:LoadImage → ImageAnnotator → Luck Nano Banana Pro
  • Luck Nano Banana Proimage_01ImageAnnotatorannotated_image 输出
  • prompt 中用自然语言描述”对标注区域做什么”
  • 首次效果不理想时,用 Luck Nano Banana Proretry_times 或 seed 模式多跑几次

相关资源

Luck Nano Banana Pro 节点

同作者的 API 调用节点,与本节点完美搭配

Nano Banana Pro API

了解 Nano Banana Pro 的完整能力

ComfyUI 节点合集

查看所有 Nano Banana ComfyUI 节点

API易控制台

管理密钥、用量与分组