Wie man Flux Schnell auf dem Mac lokal ausführt

💡Möchten Sie FLUX online ausprobieren, ohne zusätzlichen Aufwand? Probieren Sie es jetzt bei Anakin AI!👇👇👇FLUX.1 Pro Online | AnakinBetter than Midjourney and Stable Diffusion, Try the Open Source, State-of-the-art image generation Tool: FLUX Pro Online!Anakin.aiFLUX.1-schnell | Free AI tool | AnakinFlux Schnell is a fast, open-source text-to-image model

Build APIs Faster & Together in Apidog

Wie man Flux Schnell auf dem Mac lokal ausführt

Start for free
Inhalte
💡
Möchten Sie FLUX online ausprobieren, ohne zusätzlichen Aufwand?

Probieren Sie es jetzt bei Anakin AI!👇👇👇
FLUX.1 Pro Online | Anakin
Better than Midjourney and Stable Diffusion, Try the Open Source, State-of-the-art image generation Tool: FLUX Pro Online!
FLUX.1-schnell | Free AI tool | Anakin
Flux Schnell is a fast, open-source text-to-image model designed for efficient image generation, offering high-quality outputs with minimal computational resources.
FLUX.1-dev | Free AI tool | Anakin
Flux Dev is an open-weight, guidance-distilled text-to-image model that offers high-quality image generation for non-commercial applications, balancing performance and efficiency.

Flux Schnell ist ein leistungsstarkes Bildgenerierungsmodell, das hochwertige Bilder aus Textvorgaben erstellen kann. In diesem Artikel zeigen wir Ihnen, wie Sie Flux Schnell lokal auf einem MacBook Pro mit einem M3 Max Chip einrichten und ausführen können. Wir werden die Anforderungen, Installationsvorgänge und ein Schritt-für-Schritt-Tutorial zur Erzeugung Ihres ersten Bildes behandeln.

Anforderungen für Flux Schnell lokal auf dem Mac

Bevor wir beginnen, stellen Sie sicher, dass Ihr System die folgenden Anforderungen erfüllt:

  • MacBook Pro mit M3 Max Chip
  • Mindestens 40 GB verfügbarer RAM
  • macOS Sonoma oder höher
  • Xcode Command Line Tools installiert
  • Homebrew-Paketmanager

Installationsvorgänge für Flux Schnell lokal

Zerlegen wir den Installationsvorgang in überschaubare Schritte:

Schritt 1: Miniconda installieren

Wir installieren zunächst Miniconda, das uns bei der Verwaltung unserer Python-Umgebung hilft:

  1. Öffnen Sie das Terminal
  2. Führen Sie den folgenden Befehl aus, um den Miniconda-Installer herunterzuladen:
curl -O https://repo.anaconda.com/miniconda/Miniconda3-latest-MacOSX-arm64.sh
  1. Installieren Sie Miniconda:
sh Miniconda3-latest-MacOSX-arm64.sh
  1. Befolgen Sie die Anweisungen, um die Installation abzuschließen
  2. Schließen Sie das Terminal und öffnen Sie es erneut, um die Änderungen zu übernehmen

Schritt 2: Conda-Umgebung erstellen und aktivieren

Erstellen Sie nun eine dedizierte Umgebung für Flux:

conda create -n flux python=3.11 -y
conda activate flux

Schritt 3: PyTorch installieren

Installieren Sie PyTorch mit MPS (Metal Performance Shaders) Unterstützung:

pip install torch==2.3.1

Schritt 4: Diffusers und Abhängigkeiten installieren

Installieren Sie die erforderlichen Bibliotheken:

pip install git+https://github.com/huggingface/diffusers.git
pip install transformers==4.43.3 sentencepiece==0.2.0 accelerate==0.33.0 protobuf==5.27.3

Jetzt Flux Schnell Lokal verwenden!

Jetzt, da alles installiert ist, gehen wir den Prozess durch, um Flux Schnell auszuführen und ein Bild zu generieren.

Schritt 1: Das Skript vorbereiten

Erstellen Sie eine neue Python-Datei namens flux_generate.py und fügen Sie den folgenden Code hinzu:

import torch
from diffusers import FluxPipeline
import diffusers

# Die rope-Funktion anpassen, um MPS-Gerät zu verarbeiten
_flux_rope = diffusers.models.transformers.transformer_flux.rope
def new_flux_rope(pos: torch.Tensor, dim: int, theta: int) -> torch.Tensor:
    assert dim % 2 == 0, "Die Dimension muss gerade sein."
    if pos.device.type == "mps":
        return _flux_rope(pos.to("cpu"), dim, theta).to(device=pos.device)
    else:
        return _flux_rope(pos, dim, theta)

diffusers.models.transformers.transformer_flux.rope = new_flux_rope

# Das Flux Schnell-Modell laden
pipe = FluxPipeline.from_pretrained("black-forest-labs/FLUX.1-schnell", revision='refs/pr/1', torch_dtype=torch.bfloat16).to("mps")

# Die Vorgabe für die Bildgenerierung festlegen
prompt = "Eine Katze, die ein Schild mit 'Hallo Welt' hält."

# Das Bild generieren
out = pipe(
    prompt=prompt,
    guidance_scale=0.,
    height=1024,
    width=1024,
    num_inference_steps=4,
    max_sequence_length=256,
).images[0]

# Das generierte Bild speichern
out.save("flux_image.png")

Schritt 2: Das Skript ausführen

Wechseln Sie im Terminal zum Verzeichnis, das flux_generate.py enthält, und führen Sie aus:

python flux_generate.py

Dieser Vorgang sollte etwa 30 Sekunden dauern und bis zu 40 GB RAM auf Ihrem MacBook Pro M3 Max nutzen.

Den Code verstehen

Zerlegen wir die wichtigsten Komponenten des Skripts:

Bibliotheken importieren: Wir importieren die erforderlichen Module von PyTorch und Diffusers.

Anpassen der ROPE-Funktion: Die Funktion new_flux_rope ist ein Workaround, um das MPS-Gerät (Metal Performance Shaders) zu behandeln. Damit wird die Kompatibilität mit dem M3 Max Chip gewährleistet.

Das Modell laden: Wir verwenden FluxPipeline.from_pretrained(), um das Flux Schnell-Modell zu laden, und geben das Modell-Repository und die Revision an.

Die Vorgabe festlegen: Wir definieren die Textvorgabe, die das zu generierende Bild beschreibt.

Das Bild generieren: Die Funktion pipe() wird mit verschiedenen Parametern aufgerufen:

  • prompt: Die Textbeschreibung des Bildes
  • guidance_scale: Für dieses Beispiel auf 0 gesetzt
  • height und width: Bildabmessungen (1024x1024 Pixel)
  • num_inference_steps: Anzahl der Denoising-Schritte (in diesem Fall 4)
  • max_sequence_length: Maximale Länge der Eingabesequenz (256)

Das Bild speichern: Das generierte Bild wird als "flux_image.png" im selben Verzeichnis gespeichert.

Leistungsoptimierung für Flux Schnell lokal

Um die beste Leistung von Flux Schnell auf Ihrem MacBook Pro M3 Max zu erzielen:

  1. Schließen Sie nicht benötigte Anwendungen, um RAM- und CPU-Ressourcen freizugeben.
  2. Sorgen Sie für gute Belüftung Ihres MacBooks, um eine thermische Drosselung zu verhindern.
  3. Experimentieren Sie mit num_inference_steps: Eine Erhöhung dieses Werts kann die Bildqualität verbessern, verlängert jedoch auch die Generierungszeit.
  4. Passen Sie max_sequence_length an: Längere Sequenzen ermöglichen detaillierte Vorgaben, erfordern jedoch mehr Speicher und Verarbeitungszeit.

Problembehandlung für Flux Schnell lokal

Wenn Sie auf Probleme stoßen:

  1. CUDA-Fehler: Stellen Sie sicher, dass Sie das MPS-Backend (to("mps")) anstelle von CUDA verwenden, da der M3 Max CUDA nicht unterstützt.
  2. Speicherfehler: Versuchen Sie, die Bildgröße oder max_sequence_length zu reduzieren, wenn Ihnen der Speicher ausgeht.
  3. Fehler bei Modul nicht gefunden: Überprüfen Sie, ob alle erforderlichen Pakete in Ihrer Conda-Umgebung installiert sind.

Jetzt, da Flux Schnell lokal läuft, hier sind einige Ideen zum Erkunden:

  1. Experimentieren Sie mit Vorgaben: Probieren Sie verschiedene Textbeschreibungen aus, um zu sehen, wie das Modell sie interpretiert.
  2. Passen Sie Parameter an: Spielen Sie mit guidance_scale, num_inference_steps und Bildabmessungen, um deren Auswirkungen auf die Ausgabe zu sehen.
  3. Batch-Verarbeitung: Ändern Sie das Skript, um mehrere Bilder aus einer Liste von Vorgaben zu generieren.
  4. Integration: Erwägen Sie die Integration von Flux Schnell in Ihre eigenen Anwendungen oder Workflows.

Fazit

Die lokale Ausführung von Flux Schnell auf Ihrem MacBook Pro M3 Max eröffnet Ihnen eine Welt kreativer Möglichkeiten. Mit seiner beeindruckenden Geschwindigkeit und Qualität können Sie beeindruckende Bilder direkt auf Ihrem eigenen Gerät generieren. Wenn Sie sich mit dem Modell und seinen Parametern vertrauter machen, können Sie Ihre Ergebnisse feinabstimmen und die Grenzen der KI-generierten Kunst überschreiten.

Beachten Sie beim Verwenden von KI-generierten Bildern Urheberrechts- und ethische Aspekte und geben Sie immer dem Modell und seinen Erstellern Anerkennung, wenn Sie Ihre Ergebnisse teilen.