4 Methoden, um FLUX lokal auf Windows, Mac und Linux auszuführen

FLUX, der innovative KI-Bilderzeuger, hat die Welt der künstlichen Intelligenz im Sturm erobert. Mit seiner Fähigkeit, atemberaubend detaillierte und kreative Bilder aus Textaufforderungen zu erzeugen, ist FLUX zu einem unverzichtbaren Werkzeug für Künstler, Designer und KI-Enthusiasten geworden. Während Online-Versionen verfügbar sind, bietet die lokale Ausführung von FLUX auf Ihrem Rechner

Build APIs Faster & Together in Apidog

4 Methoden, um FLUX lokal auf Windows, Mac und Linux auszuführen

Start for free
Inhalte

FLUX, der innovative KI-Bilderzeuger, hat die Welt der künstlichen Intelligenz im Sturm erobert. Mit seiner Fähigkeit, atemberaubend detaillierte und kreative Bilder aus Textaufforderungen zu erzeugen, ist FLUX zu einem unverzichtbaren Werkzeug für Künstler, Designer und KI-Enthusiasten geworden. Während Online-Versionen verfügbar sind, bietet die lokale Ausführung von FLUX auf Ihrem Rechner Vorteile wie schnellere Verarbeitung, uneingeschränkte Nutzung und verbesserte Privatsphäre. Dieser Leitfaden wird Sie durch drei Methoden führen, um FLUX lokal auf Windows-, Mac- und Linux-Systemen auszuführen.

Bevor wir beginnen, lassen Sie uns über die beste Alternative zum FlowGPT-Bilderzeuger sprechen, die Ihnen eine viel bessere Qualität bietet.

Die folgenden Bilder wurden mit Anakin AI’s KI-Bilderzeuger erstellt. Probieren Sie es jetzt aus! 👇👇👇

Aufforderung: unschuldig und verführerisch, lange Haare, alternativer Vibe, schöne Augen, Sommersprossen, mittelgroße Brüste, subtile Brüchigkeit, straffer Körper, sexy, candid Bild, (gemütliches Schlafzimmer), schulterfreies Hemd, dynamischer Winkel, lebendige Beleuchtung, hoher Kontrast, dramatische Schatten, hochdetailliert, detaillierte Haut, Tiefenschärfe, Filmkorn

Aufforderung: Foto eines Models, das an einem Restauranttisch gegenüber von der Kamera sitzt, in einer romantischen gehobenen Umgebung, Blick zur Kamera. Ein medium rare Steak liegt auf dem Tisch, in mehrere Stücke geschnitten, auf einem Holzbrett, das auch einen kleinen Teller mit dem zu sein scheinen Beilagen oder Salsa mit gehacktem Gemüse hat.

Aufforderung: Ein Poster für die TV-Show „Breaking Bread“, eine Parodie auf Breaking Bad. Ein strenger Bäcker in einer mit Mehl bestäubten Schürze hält ein Nudelholz wie eine Waffe in einer rustikalen Bäckerei. Brote und Mehlsäcke imitieren den Wüstenhintergrund. Die Tafel mit dem Menü listet Wortspiele auf. Der Titel verwendet eine grobe Schriftart für „Breaking“ und goldene, brotähnliche Buchstaben für „Bread.“ Tagline: „Backen ist ein gefährliches Spiel.“

Aufforderung: reizvoll im japanischen Anime-Stil, eine erwachsene Frau mit weißen Engelsflügeln, schwarzen Teufelshörnern und einem schwarzen Kopfschmuck, rohem Heiligenschein, langen, pinken lockigen Haaren, braunen Augen, bösem Grinsen. Trägt einen schwarzen und weißen Techwear-Hoodie, Jeans mit vielen Riemen und Schnallen. Sie hält eine Sprühfarbe und steht gegen eine Wand mit dem Text „Anakin KI-Bilderzeuger“ in großen schwarzen und gelben Sprühfarben-Graffiti neben sich.

Diese großartigen, hochwertigen Bilder wurden mit Anakin AI’s KI-Bilderzeuger erstellt. Probieren Sie es jetzt aus! 👇👇👇

Anakin.ai - One-Stop KI-App-Plattform

Inhalte, Bilder, Videos und Stimme generieren; automatisierte Workflows, benutzerdefinierte KI-Apps und intelligente Agenten erstellen. Ihre…

app.anakin.ai

Methode 1: ComfyUI verwenden, um FLUX lokal auszuführen

ComfyUI ist eine leistungsstarke und benutzerfreundliche Schnittstelle zur Ausführung von KI-Modellen, einschließlich FLUX. Diese Methode wird empfohlen für Benutzer, die eine grafische Oberfläche bevorzugen und sich nicht mit Befehlszeilenoperationen auseinandersetzen möchten.

Schritt 1: ComfyUI installieren

  1. Besuchen Sie die ComfyUI-GitHub-Releases-Seite: https://github.com/comfyanonymous/ComfyUI/releases
  2. Laden Sie die neueste Version für Ihr Betriebssystem herunter.
  3. Entpacken Sie das heruntergeladene Archiv an einem Ort Ihrer Wahl.

Schritt 2: FLUX-Modelle herunterladen

  1. Besuchen Sie das FLUX HuggingFace-Repository: https://huggingface.co/black-forest-labs/FLUX.1-schnell/tree/main
  2. Laden Sie die folgenden Dateien herunter:
  • flux_schnell.safetensors (Hauptmodell)
  • ae.safetensors (VAE-Datei)

3. Aus dem FLUX-Textencoder-Repository (https://huggingface.co/comfyanonymous/flux_text_encoders/tree/main) herunterladen:

  • t5xxl_fp16.safetensors (für Systeme mit 32GB+ RAM)
  • t5xxl_fp8_e4m3fn.safetensors (für Systeme mit weniger als 32GB RAM)
  • clip_l.safetensors

Schritt 3: Dateien in ComfyUI-Ordnern ablegen

  1. Bewegen Sie flux_schnell.safetensors nach ComfyUI/models/checkpoints/
  2. Bewegen Sie ae.safetensors nach ComfyUI/models/vae/
  3. Bewegen Sie t5xxl_fp16.safetensors (oder t5xxl_fp8_e4m3fn.safetensors) und clip_l.safetensors nach ComfyUI/models/clip/

Schritt 4: ComfyUI ausführen

  1. Öffnen Sie ein Terminal oder Eingabeaufforderung.
  2. Wechseln Sie in den ComfyUI-Ordner.
  3. Führen Sie den entsprechenden Befehl für Ihr System aus:
  • Windows: python_embeded\\\\python.exe -m ComfyUI
  • Mac/Linux: python3 main.py

4. Öffnen Sie einen Webbrowser und gehen Sie zu http://localhost:8188

Schritt 5: FLUX-Workflow einrichten

  1. Fügen Sie in der ComfyUI-Oberfläche mit der rechten Maustaste die folgenden Knoten hinzu:
  • CLIP Text Encode (T5XXL)
  • CLIP Text Encode (CLIP L)
  • Flux Guidance
  • Leeres latentes Bild
  • VAE Dekodieren

2. Verbinden Sie die Knoten wie folgt:

  • CLIP Text Encode (T5XXL) Ausgabe zu Flux Guidance „t5_emb“ Eingabe
  • CLIP Text Encode (CLIP L) Ausgabe zu Flux Guidance „clip_emb“ Eingabe
  • Leeres latentes Bild Ausgabe zu Flux Guidance „latent“ Eingabe
  • Flux Guidance Ausgabe zu VAE Decode Eingabe

3. Stellen Sie Ihre gewünschten Parameter in jedem Knoten ein.

Schritt 6: Bilder generieren

  1. Geben Sie Ihre Texteingabe in beiden CLIP Text Encode-Knoten ein.
  2. Klicken Sie auf „Queue Prompt“, um ein Bild zu generieren.

Methode 2: Verwendung von Stable Diffusion WebUI

Stable Diffusion WebUI ist eine weitere beliebte Schnittstelle zum Ausführen von KI-Modellen, einschließlich FLUX. Diese Methode eignet sich für Benutzer, die bereits mit Stable Diffusion vertraut sind und dessen Schnittstelle bevorzugen.

Schritt 1: Stable Diffusion WebUI installieren

  1. Klone das Stable Diffusion WebUI-Repository:

git clone <https://github.com/AUTOMATIC1111/stable-diffusion-webui.git>

2. Wechseln Sie in das geklonte Verzeichnis:

cd stable-diffusion-webui

3. Führen Sie das entsprechende Skript für Ihr System aus:

  • Windows: webui-user.bat
  • Mac/Linux: ./webui.sh

Schritt 2: FLUX-Modelle herunterladen

Folgen Sie denselben Schritten wie in Methode 1, um die FLUX-Modelle und die VAE-Datei herunterzuladen.

Schritt 3: Dateien in Stable Diffusion WebUI-Ordner ablegen

  1. Bewegen Sie flux_schnell.safetensors nach stable-diffusion-webui/models/Stable-diffusion/
  2. Bewegen Sie ae.safetensors nach stable-diffusion-webui/models/VAE/

Schritt 4: Stable Diffusion WebUI konfigurieren

  1. Gehen Sie im WebUI zum Tab „Einstellungen“.
  2. Unter „Stable Diffusion“ wählen Sie das FLUX-Modell aus.
  3. Unter „VAE“ wählen Sie die FLUX VAE-Datei aus.
  4. Klicken Sie auf „Einstellungen anwenden“ und starten Sie das WebUI neu.

Schritt 5: Bilder generieren

  1. Geben Sie in der Text-zu-Bild-Registerkarte Ihre Eingabeaufforderung ein.
  2. Passen Sie die Einstellungen nach Wunsch an.
  3. Klicken Sie auf „Generieren“, um Ihr Bild zu erstellen.

Methode 3: Verwendung von Stability Matrix

Stability Matrix ist eine leistungsstarke, benutzerfreundliche Anwendung, die es Ihnen ermöglicht, verschiedene KI-Modelle, einschließlich FLUX, mit einer eleganten Oberfläche und erweiterten Funktionen auszuführen. Diese Methode ist ideal für Benutzer, die ein Gleichgewicht zwischen Benutzerfreundlichkeit und Anpassungsoptionen wünschen.

Schritt 1: Stability Matrix installieren

  1. Besuchen Sie die Stability Matrix GitHub-Seite: https://github.com/LykosAI/StabilityMatrix
  2. Laden Sie die neueste Version für Ihr Betriebssystem (Windows, Mac oder Linux) herunter.
  3. Installieren Sie die Anwendung gemäß den Anweisungen für Ihr OS:
  • Windows: Führen Sie die Installationsdatei aus.
  • Mac: Ziehen Sie die .app-Datei in Ihren Anwendungen-Ordner.
  • Linux: Entpacken Sie die AppImage und machen Sie sie ausführbar.

Schritt 2: Stability Matrix einrichten

  1. Starten Sie Stability Matrix.
  2. Beim ersten Ausführen wird die Anwendung Sie durch die ersten Schritte führen.
  3. Wählen Sie Ihren bevorzugten Installationsort und GPU-Einstellungen aus.

Schritt 3: ComfyUI-Paket installieren

  1. Gehen Sie in Stability Matrix zum Tab „Paketmanager“.
  2. Finden Sie „ComfyUI“ in der Liste der verfügbaren Pakete.
  3. Klicken Sie neben ComfyUI auf „Installieren“.
  4. Warten Sie, bis die Installation abgeschlossen ist.

Schritt 4: FLUX-Modelle herunterladen

  1. Gehen Sie in Stability Matrix zum Tab „Modellmanager“.
  2. Klicken Sie auf „Neues Modell hinzufügen“.
  3. Geben Sie im Suchfeld „FLUX“ ein und drücken Sie die Eingabetaste.
  4. Finden Sie die folgenden Modelle und klicken Sie für jedes auf „Herunterladen“:
  • FLUX.1-schnell (Hauptmodell)
  • FLUX VAE (VAE-Datei)
  • FLUX T5XXL Text Encoder (wählen Sie fp16 oder fp8 je nach RAM Ihres Systems)
  • FLUX CLIP L Text Encoder

Schritt 5: ComfyUI für FLUX konfigurieren

  1. Gehen Sie in Stability Matrix zum Tab „Installierte Pakete“.
  2. Finden Sie ComfyUI und klicken Sie auf „Starten“.
  3. Wenn ComfyUI in Ihrem Browser geöffnet wird, klicken Sie mit der rechten Maustaste in den Arbeitsbereich und fügen Sie die folgenden Knoten hinzu:
  • CLIP Text Encode (T5XXL)
  • CLIP Text Encode (CLIP L)
  • Flux Guidance
  • Leeres latentes Bild
  • VAE Dekodieren

Schritt 6: FLUX-Workflow einrichten

  1. Verbinden Sie die Knoten wie folgt:
  • CLIP Text Encode (T5XXL) Ausgabe zu Flux Guidance „t5_emb“ Eingabe
  • CLIP Text Encode (CLIP L) Ausgabe zu Flux Guidance „clip_emb“ Eingabe
  • Leeres latentes Bild Ausgabe zu Flux Guidance „latent“ Eingabe
  • Flux Guidance Ausgabe zu VAE Decode Eingabe

2. Wählen Sie für jeden Knoten das entsprechende FLUX-Modell aus:

  • Für CLIP Text Encode (T5XXL), wählen Sie den FLUX T5XXL Text Encoder
  • Für CLIP Text Encode (CLIP L), wählen Sie den FLUX CLIP L Text Encoder
  • Für Flux Guidance, wählen Sie FLUX.1-schnell
  • Für VAE Decode, wählen Sie FLUX VAE

Schritt 7: Bilder generieren

  1. Geben Sie Ihre gewünschte Texteingabe in beiden CLIP Text Encode-Knoten ein.
  2. Passen Sie die Parameter im Flux Guidance-Knoten an:
  • Stellen Sie die Anzahl der Schritte ein (z. B. 20–50)
  • Passen Sie den Guidance-Scale an (z. B. 7–9)
  • Stellen Sie die gewünschte Breite und Höhe ein (z. B. 512x512)

3. Klicken Sie auf „Queue Prompt“, um ein Bild zu generieren.

Methode 4: Verwendung eines Python-Skripts (Fortgeschrittene)

Diese Methode ist für fortgeschrittene Benutzer gedacht, die sich mit Python auskennen und einen anpassbareren Ansatz bevorzugen.

Schritt 1: Python-Umgebung einrichten

  1. Installieren Sie Python 3.8 oder höher.

2. Erstellen Sie eine neue virtuelle Umgebung:

python -m venv flux_env

3. Aktivieren Sie die virtuelle Umgebung:

  • Windows: flux_env\\\\Scripts\\\\activate
  • Mac/Linux: source flux_env/bin/activate

Schritt 2: Abhängigkeiten installieren

  1. Installieren Sie PyTorch mit CUDA-Unterstützung (besuchen Sie pytorch.org für den richtigen Befehl für Ihr System).

2. Installieren Sie andere erforderliche Pakete:

pip install transformers diffusers accelerate

Schritt 3: FLUX-Modelle herunterladen

Folgen Sie denselben Schritten wie in Methode 1, um die FLUX-Modelle und die VAE-Datei herunterzuladen.

Schritt 4: Python-Skript erstellen

Erstellen Sie eine neue Datei namens run_flux.py mit folgendem Inhalt:

import torch

from diffusers import FluxModel, FluxScheduler, FluxPipeline

from transformers import T5EncoderModel, CLIPTextModel, CLIPTokenizer

def load_flux():

flux_model = FluxModel.from_pretrained(“pfad/zu/flux_schnell.safetensors”)

t5_model = T5EncoderModel.from_pretrained(“pfad/zu/t5xxl_fp16.safetensors”)

clip_model = CLIPTextModel.from_pretrained(“pfad/zu/clip_l.safetensors”)

clip_tokenizer = CLIPTokenizer.from_pretrained(“openai/clip-vit-large-patch14”)

scheduler = FluxScheduler()

pipeline = FluxPipeline(

flux_model=flux_model,

t5_model=t5_model,

clip_model=clip_model,

clip_tokenizer=clip_tokenizer,

scheduler=scheduler

)

return pipeline

def generate_image(pipeline, prompt, num_inference_steps=50):

image = pipeline(prompt, num_inference_steps=num_inference_steps).images[0]

return image

if __name__ == “__main__”:

pipeline = load_flux()

prompt = “Eine schöne Landschaft mit Bergen und einem See”

image = generate_image(pipeline, prompt)

image.save(“flux_generated_image.png”)

Schritt 5: Skript ausführen

  1. Öffnen Sie ein Terminal oder eine Eingabeaufforderung.
  2. Aktivieren Sie Ihre virtuelle Umgebung.
  3. Führen Sie das Skript aus:

python run_flux.py

Fazit

Das lokale Ausführen von FLUX eröffnet eine Welt von Möglichkeiten für KI-generierte Kunst und Design. Egal, ob Sie die benutzerfreundliche ComfyUI, das vertraute Stable Diffusion WebUI oder ein benutzerdefiniertes Python-Skript wählen, jetzt haben Sie die Werkzeuge, um die Power von FLUX auf Ihrer eigenen Maschine zu nutzen. Denken Sie daran, die Lizenzbedingungen des Modells zu respektieren und es verantwortungsbewusst zu nutzen.

Wenn Sie FLUX erkunden, experimentieren Sie mit verschiedenen Eingabeaufforderungen, Einstellungen und Workflows, um sein volles Potenzial freizuschalten. Die Möglichkeit, FLUX lokal auszuführen, gibt Ihnen nicht nur mehr Kontrolle über den Generierungsprozess, sondern ermöglicht auch schnellere Iterationen und ein tieferes Verständnis der Fähigkeiten des Modells.

Mit Übung und Kreativität werden Sie atemberaubende, hochwertige Bilder erzeugen, die die Grenzen der KI-unterstützten Kunst erweitern. Genießen Sie Ihre Reise in die faszinierende Welt von FLUX und der KI-Bilderzeugung!