# moark-comfyui **Repository Path**: gitee-ai/moark-comfyui ## Basic Information - **Project Name**: moark-comfyui - **Description**: Moark-ComfyUI 是基于 ComfyUI 的自定义节点集合,提供对 Moark AI API 的便捷接入,支持 Qwen 图像生成与 FLUX.1-dev 文生图,并支持通过 URL 加载 LoRA(最多 3 个)。 - **Primary Language**: Python - **License**: Apache-2.0 - **Default Branch**: master - **Homepage**: None - **GVP Project**: No ## Statistics - **Stars**: 0 - **Forks**: 0 - **Created**: 2025-09-18 - **Last Updated**: 2025-09-22 ## Categories & Tags **Categories**: ai **Tags**: None ## README # moark-comfyui #### 介绍 Moark-ComfyUI 是基于 ComfyUI 的自定义节点集合,提供对 Moark AI API 的便捷接入,支持 Qwen 图像生成与 FLUX.1-dev 文生图,并支持通过 URL 加载 LoRA(最多 3 个)。 #### 可用节点 - Moark API Client:创建并注入 Moark API 客户端(输入 `api_key`)。 - Moark Loras:配置 LoRA 列表(`path` 与 `weight/scale`)。 - Moark Qwen Image Lora:基于 Qwen 图像模型生成图片,支持 LoRA。 - Moark Flux Dev Lora:基于 FLUX.1-dev 生成图片,支持 LoRA。 #### 安装 1. 进入 ComfyUI/custom_nodes 目录。 2. 克隆本仓库:`git clone https://gitee.com/gitee-ai/moark-comfyui.git` 3. 安装依赖: - Windows(ComfyUI portable):`python -m pip install -r requirements.txt` - Linux 或 macOS:`pip install -r requirements.txt` 4. 可选:如果不想在节点中明文填写 API Key,可将 `config.ini.tmp` 重命名为 `config.ini` 并写入 API Key。 5. 启动 ComfyUI 即可使用 Moark 节点。 #### 使用说明 1. 在工作流中加入以下节点并连接: - `Moark API Client` → 输出 `client`。 - 可选:`Moark Loras` → 输出 `loras`(至多 3 个)。 - 选择模型生成节点:`Moark Qwen Image Lora` 或 `Moark Flux Dev Lora`。 2. 在生成节点中填写 `prompt`、`negative_prompt`、尺寸、步数、种子等参数。 3. 点击运行,输出图片张量,可连接到预览或保存节点。 示例工作流(Flux.1-Schnell): ![](./examples/comflyui_flux_schnell_example.jpg) #### 如何使用 LoRA(Moark) 1. 由于服务运行在 Moark API 上,不能直接使用本地 LoRA 文件;支持通过 URL 加载公开可访问的 LoRA 文件。 2. 使用 `Moark Loras` 节点配置 LoRA,填入: - `lora_path`:LoRA 的 URL(例如:`https://gitee.com/gitee-ai/moark-assets/raw/master/flux.1-dev%2Ftost-2024-10-05-16-42-00-5t1cker-5ty1e.safetensors`)。 - `lora_weight`:权重,范围 0.0 ~ 4.0,推荐 0.5 ~ 1.5。 3. 可添加多组 `path/weight`(最多 3 个)。 4. 建议使用中国大陆境内网络公开可访问的 URL 即可。 #### 参与贡献 1. Fork 本仓库 2. 新建分支(如 `feat_xxx`) 3. 提交代码 4. 发起 Pull Request #### 许可 本项目遵循其依赖与上游项目的相应许可证。若有疑问请在 Issue 中讨论。