FLUX、最先端のAI画像生成器は、人工知能の世界に革命をもたらしました。テキストプロンプトから驚くほど詳細でクリエイティブな画像を生成する能力により、FLUXはアーティスト、デザイナー、AI愛好者にとって欠かせないツールとなっています。オンライン版も利用可能ですが、あなたのマシンでFLUXをローカルで実行することには、より速い処理、無制限の使用、プライバシーの向上といった利点があります。このガイドでは、Windows、Mac、およびLinuxシステムでFLUXをローカルで実行するための3つの方法を説明します。
始める前に、より優れた品質のBest FlowGPT画像生成器の代替についてお話ししましょう。
以下の画像は、Anakin AIのAI画像生成器を使用して生成されました。今すぐ試してみてください! 👇👇👇
プロンプト: 純真で魅力的、長い髪、オルタナティブな雰囲気、美しい目、そばかす、中程度の胸控え目の胸元、引き締まった体、挑発的なカジュアルな写真、(居心地の良い寝室)、オフショルダーのシャツ、ダイナミックな角度、鮮やかな照明、高コントラスト、ドラマティックな影、非常に詳細、詳細な肌、被写界深度、フィルムグレイン
プロンプト: カメラの向かいに座っているモデルのPOV写真、ロマンチックな高級な設定でカメラを向いています。中程度の焼き加減のステーキがテーブルにスライスされて数かけらあり、木製の板の上に小皿に見えるサイド調味料またはサルサが刻んだ野菜と共にあります。
プロンプト: 「ブレイキング・ブレッド」というTVショーポスター、「ブレイキング・バッド」のパロディ。粉まみれのエプロンを着た厳格なベーカーが、田舎のベーカリーで武器のようにめん棒を持っています。パンのローフと小麦粉の袋が砂漠の背景を模しています。黒板メニューにはダジャレに満ちたアイテムがリストされています。タイトルは「ブレイキング」のために荒々しいフォントを使用し、「ブレッド」にはパンのような金色の文字が使われています。キャッチフレーズ:「焼くのは危険なゲームだ。」
プロンプト: 美しい日本のアニメスタイルで、白い天使の翼を持つ大人の女性、黒い悪魔の角と黒いヘッドバンド、赤い後光、長いピンクのウェーブの髪、茶色の目、悪意のあるスマイル。黒と白のテクニカルウェアのフーディー、ストラップとバックルがたくさん付いたジーンズを着ています。彼女はスプレーペイント缶を持ち、「Anakin AI画像生成器」という大きな黒と黄色のスプレーペイントのグラフィティの文字の側に立っています。
これらの素晴らしい高品質の画像は、Anakin AIのAI画像生成器を使用して生成されました。今すぐ試してみてください! 👇👇👇
Anakin.ai - ワンストップAIアプリプラットフォーム
コンテンツ、画像、動画、音声を生成し、自動化されたワークフロー、カスタムAIアプリ、インテリジェントエージェントを作成します。あなたの…
app.anakin.ai
方法1: ComfyUIを使用してFLUXをローカルで実行する
ComfyUIは、FLUXを含むAIモデルを実行するための強力で使いやすいインターフェースです。この方法は、グラフィカルインターフェースを好み、コマンドライン操作を行いたくないユーザーにお勧めです。
ステップ1: ComfyUIをインストールする
- ComfyUI GitHubリリースページにアクセスします: https://github.com/comfyanonymous/ComfyUI/releases
- お使いのオペレーティングシステムに合わせた最新バージョンをダウンロードします。
- ダウンロードしたアーカイブを任意の場所に解凍します。
ステップ2: FLUXモデルをダウンロードする
- FLUX HuggingFaceリポジトリにアクセスします: https://huggingface.co/black-forest-labs/FLUX.1-schnell/tree/main
- 次のファイルをダウンロードします:
- flux_schnell.safetensors(メインモデル)
- ae.safetensors(VAEファイル)
3. FLUXテキストエンコーダーリポジトリ(https://huggingface.co/comfyanonymous/flux_text_encoders/tree/main)から次のものをダウンロードします:
- t5xxl_fp16.safetensors(32GB以上のRAMを搭載したシステム用)
- t5xxl_fp8_e4m3fn.safetensors(32GB未満のRAMを搭載したシステム用)
- clip_l.safetensors
ステップ3: ComfyUIフォルダーにファイルを置く
- flux_schnell.safetensorsをComfyUI/models/checkpoints/に移動します。
- ae.safetensorsをComfyUI/models/vae/に移動します。
- t5xxl_fp16.safetensors(またはt5xxl_fp8_e4m3fn.safetensors)とclip_l.safetensorsをComfyUI/models/clip/に移動します。
ステップ4: ComfyUIを実行する
- ターミナルまたはコマンドプロンプトを開きます。
- ComfyUIフォルダーに移動します。
- お使いのシステムに合ったコマンドを実行します:
- Windows: python_embeded\\\\python.exe -m ComfyUI
- Mac/Linux: python3 main.py
4. ウェブブラウザを開き、http://localhost:8188にアクセスします。
ステップ5: FLUXワークフローを設定する
- ComfyUIインターフェースで、右クリックして次のノードを追加します:
- CLIPテキストエンコード(T5XXL)
- CLIPテキストエンコード(CLIP L)
- Fluxガイダンス
- 空の潜在画像
- VAEデコード
2. ノードを次のように接続します:
- CLIPテキストエンコード(T5XXL)の出力をFluxガイダンスの「t5_emb」入力に接続します。
- CLIPテキストエンコード(CLIP L)の出力をFluxガイダンスの「clip_emb」入力に接続します。
- 空の潜在画像の出力をFluxガイダンスの「latent」入力に接続します。
- Fluxガイダンスの出力をVAEデコードの入力に接続します。
3. 各ノードで希望するパラメータを設定します。
ステップ6: 画像を生成する
- 両方のCLIPテキストエンコードノードにテキストプロンプトを入力します。
- 「キュープロンプト」をクリックして画像を生成します。
方法2: Stable Diffusion WebUIを使用する
Stable Diffusion WebUIは、FLUXを含むAIモデルを実行するための別の人気のあるインターフェースです。この方法は、Stable Diffusionにすでに慣れていて、そのインターフェースを好むユーザーに適しています。
ステップ1: Stable Diffusion WebUIをインストールする
- Stable Diffusion WebUIリポジトリをクローンします:
git clone <https://github.com/AUTOMATIC1111/stable-diffusion-webui.git>
2. クローンしたディレクトリに移動します:
cd stable-diffusion-webui
3. お使いのシステムに合ったスクリプトを実行します:
- Windows: webui-user.bat
- Mac/Linux: ./webui.sh
ステップ2: FLUXモデルをダウンロードする
方法1と同じ手順でFLUXモデルとVAEファイルをダウンロードします。
ステップ3: Stable Diffusion WebUIフォルダーにファイルを置く
- flux_schnell.safetensorsをstable-diffusion-webui/models/Stable-diffusion/に移動します。
- ae.safetensorsをstable-diffusion-webui/models/VAE/に移動します。
ステップ4: Stable Diffusion WebUIを設定する
- WebUIで「設定」タブに移動します。
- 「Stable Diffusion」の下で、FLUXモデルを選択します。
- 「VAE」の下で、FLUX VAEファイルを選択します。
- 「設定を適用」をクリックし、WebUIを再起動します。
ステップ5: 画像を生成する
- テキストから画像へのタブで、プロンプトを入力します。
- 設定を希望通りに調整します。
- 「生成」をクリックして画像を作成します。
方法3: Stability Matrixを使用する
Stability Matrixは、FLUXを含むさまざまなAIモデルを実行できる強力で使いやすいアプリケーションです。洗練されたインターフェースと高度な機能があります。この方法は、使いやすさとカスタマイズオプションのバランスを求めるユーザーに最適です。
ステップ1: Stability Matrixをインストールする
- Stability MatrixのGitHubページにアクセスします: https://github.com/LykosAI/StabilityMatrix
- お使いのオペレーティングシステム(Windows、Mac、またはLinux)に合わせた最新リリースをダウンロードします。
- お使いのOSに従ってアプリケーションをインストールします:
- Windows: インストーラー実行ファイルを実行します。
- Mac: .appファイルをアプリケーションフォルダーにドラッグします。
- Linux: AppImageを抽出し、実行可能にします。
ステップ2: Stability Matrixをセットアップする
- Stability Matrixを起動します。
- 最初の実行時に、アプリケーションが初期設定を案内します。
- 希望するインストール場所とGPU設定を選択します。
ステップ3: ComfyUIパッケージをインストールする
- Stability Matrixで「パッケージマネージャ」タブに移動します。
- 利用可能なパッケージのリストから「ComfyUI」を見つけます。
- ComfyUIの横にある「インストール」をクリックします。
- インストールが完了するまで待ちます。
ステップ4: FLUXモデルをダウンロードする
- Stability Matrixで「モデルマネージャ」タブに移動します。
- 「新しいモデルを追加」をクリックします。
- 検索バーに「FLUX」と入力し、Enterを押します。
- 次のモデルを見つけ、それぞれ「ダウンロード」をクリックします:
- FLUX.1-schnell(メインモデル)
- FLUX VAE(VAEファイル)
- FLUX T5XXLテキストエンコーダー(お使いのシステムのRAMに基づいてfp16またはfp8を選択します)
- FLUX CLIP Lテキストエンコーダー
ステップ5: FLUX用にComfyUIを構成する
- Stability Matrixで「インストール済みパッケージ」タブに移動します。
- ComfyUIを見つけ、「起動」をクリックします。
- ComfyUIがブラウザで開いたとき、ワークスペースで右クリックして次のノードを追加します:
- CLIPテキストエンコード(T5XXL)
- CLIPテキストエンコード(CLIP L)
- Fluxガイダンス
- 空の潜在画像
- VAEデコード
ステップ6: FLUXワークフローを設定する
- ノードを次のように接続します:
- CLIPテキストエンコード(T5XXL)の出力をFluxガイダンス「t5_emb」に接続します。
- CLIPテキストエンコード(CLIP L)の出力をFluxガイダンス「clip_emb」に接続します。
- 空の潜在画像の出力をFluxガイダンス「latent」に接続します。
- Fluxガイダンスの出力をVAEデコードの入力に接続します。
2. 各ノードで適切なFLUXモデルを選択します:
- CLIPテキストエンコード(T5XXL)には、FLUX T5XXLテキストエンコーダーを選択します。
- CLIPテキストエンコード(CLIP L)には、FLUX CLIP Lテキストエンコーダーを選択します。
- Fluxガイダンスには、FLUX.1-schnellを選択します。
- VAEデコードには、FLUX VAEを選択します。
ステップ7: 画像を生成する
- 両方のCLIPテキストエンコードノードに希望するテキストプロンプトを入力します。
- Fluxガイダンスノードのパラメータを調整します:
- ステップ数を設定します(例: 20–50)
- ガイダンススケールを調整します(例: 7–9)
- 希望する幅と高さを設定します(例: 512x512)
3. 「キュープロンプト」をクリックして画像を生成します。
方法4: Pythonスクリプトを使用する(高度な場合)
この方法は、Pythonに慣れていて、よりカスタマイズ可能なアプローチを好む高度なユーザー向けです。
ステップ1: Python環境をセットアップする
- Python 3.8以上をインストールします。
2. 新しい仮想環境を作成します:
python -m venv flux_env
3. 仮想環境を有効にします:
- Windows: flux_env\\\\Scripts\\\\activate
- Mac/Linux: source flux_env/bin/activate
ステップ2: 依存関係をインストールする
- CUDAサポート付きのPyTorchをインストールします(pytorch.orgを訪問して、お使いのシステムに適したコマンドを確認してください)。
2. その他の必要なパッケージをインストールします:
pip install transformers diffusers accelerate
ステップ3: FLUXモデルをダウンロードする
方法1と同じ手順でFLUXモデルとVAEファイルをダウンロードします。
ステップ4: Pythonスクリプトを作成する
run_flux.pyという名前の新しいファイルを作成し、次の内容で保存します:
import torch
from diffusers import FluxModel, FluxScheduler, FluxPipeline
from transformers import T5EncoderModel, CLIPTextModel, CLIPTokenizer
def load_flux():
flux_model = FluxModel.from_pretrained(“path/to/flux_schnell.safetensors”)
t5_model = T5EncoderModel.from_pretrained(“path/to/t5xxl_fp16.safetensors”)
clip_model = CLIPTextModel.from_pretrained(“path/to/clip_l.safetensors”)
clip_tokenizer = CLIPTokenizer.from_pretrained(“openai/clip-vit-large-patch14”)
scheduler = FluxScheduler()
pipeline = FluxPipeline(
flux_model=flux_model,
t5_model=t5_model,
clip_model=clip_model,
clip_tokenizer=clip_tokenizer,
scheduler=scheduler
)
return pipeline
def generate_image(pipeline, prompt, num_inference_steps=50):
image = pipeline(prompt, num_inference_steps=num_inference_steps).images[0]
return image
if __name__ == “__main__”:
pipeline = load_flux()
prompt = “山と湖のある美しい風景”
image = generate_image(pipeline, prompt)
image.save(“flux_generated_image.png”)
ステップ5: スクリプトを実行する
- ターミナルまたはコマンドプロンプトを開きます。
- 仮想環境を有効にします。
- スクリプトを実行します:
python run_flux.py
結論
FLUXをローカルで実行することで、AI生成アートやデザインの可能性が広がります。ユーザーフレンドリーなComfyUI、馴染みのあるStable Diffusion WebUI、またはカスタムPythonスクリプトのいずれかを選んでも、FLUXの力をあなたのマシンで活用するためのツールを手に入れました。モデルのライセンス条件を尊重し、責任を持って使用することを忘れないでください。
FLUXを探求する際は、さまざまなプロンプト、設定、ワークフローを試して、その潜在能力を引き出してみてください。FLUXをローカルで実行できることで、生成プロセスに対する制御が強化され、より迅速な反復が可能になり、モデルの能力をより深く理解することができます。
練習と創造力で、AI支援アートの限界を押し広げる驚くべき高品質の画像を生成できるようになるでしょう。FLUXとAI画像生成の魅力的な世界への旅を楽しんでください!