FLUX.1 : ComfyUI : Advanced マルチ ControlNet (HED & Depth)

今回は “Apply Advanced Flux ControlNet” ノードを使用して、マルチ ControlNet 用ワークフローを改良してみます。

FLUX.1 : ComfyUI : Advanced マルチ ControlNet (HED & Depth)

作成 : Masashi Okumura (@ClassCat)
作成日時 : 09/25/2024

* サンプルコードの動作確認はしておりますが、必要な場合には適宜、追加改変しています。
* ご自由にリンクを張って頂いてかまいませんが、sales-info@classcat.com までご一報いただけると嬉しいです。

 

クラスキャット 人工知能 研究開発支援サービス ⭐️ リニューアルしました 😉

クラスキャット は人工知能に関する各種サービスを提供しています。お気軽にご相談ください :

  • 人工知能導入個別相談会(無償)実施中! [詳細]

  • 人工知能研究開発支援 [詳細]
    1. 自社特有情報を含むチャットボット構築支援
    2. 画像認識 (医療系含む) / 画像生成

  • PoC(概念実証)を失敗させないための支援 [詳細]

お問合せ : 本件に関するお問合せは下記までお願いします。

  • クラスキャット セールス・インフォメーション
  • sales-info@classcat.com
  • ClassCatJP

 

 

FLUX.1 : ComfyUI : Advanced マルチ ControlNet (HED & Depth)

前回 (FLUX.1 : ComfyUI : マルチ ControlNet (HED & Depth)) は複数の XLabs-AI ControlNet モデルを使用して、マルチ ControlNet (HED & Depth) 用の ComfyUI ワークフローを作成してみました。

今回は “Apply Advanced Flux ControlNet” ノードを使用して、マルチ ControlNet 用ワークフローを改良してみます。

 

HED エッジ検出

XLabs-AI ControlNet のチェックポイントは Hugging Face Hub で公開されています : XLabs-AI/flux-controlnet-collections

HED エッジ検出のためには flux-hed-controlnet-v3.safetensors を使用してみます。
取得して ComfyUI/models/xlabs/controlnets フォルダに配置すれば良いです。

 

Depth (Midas) (深度マップ)

深度マップについても同様で、flux-depth-controlnet-v3.safetensors を使用してみます。

 

ワークフロー

ワークフローは以下のような感じです。”Apply Flux ControlNet” ノードの代わりに “Apply Advanced Flux ControlNet” ノードを使用すると、開始点と終了点のプロパティの指定が可能になります :

 

実行

入力画像はこれもお馴染みになった次の画像を使用します :

例えば以下のようなプロンプトを使用してみます :

cyberpunk, colorful, pastel watercolor style, a maid with cat ears and a tail holding a cake in the retro kitchen, there are several lit candles on the cake, the large windows offer a view of the trees at night, there is a picture of a flower hanging on the wall,

実行すると、次のような出力画像が得られました。ワークフローとしても利用できます :

 

以上