Probieren Sie es jetzt bei Anakin AI!👇👇👇
Flux Schnell ist ein leistungsstarkes Bildgenerierungsmodell, das hochwertige Bilder aus Textvorgaben erstellen kann. In diesem Artikel zeigen wir Ihnen, wie Sie Flux Schnell lokal auf einem MacBook Pro mit einem M3 Max Chip einrichten und ausführen können. Wir werden die Anforderungen, Installationsvorgänge und ein Schritt-für-Schritt-Tutorial zur Erzeugung Ihres ersten Bildes behandeln.
Anforderungen für Flux Schnell lokal auf dem Mac
Bevor wir beginnen, stellen Sie sicher, dass Ihr System die folgenden Anforderungen erfüllt:
- MacBook Pro mit M3 Max Chip
- Mindestens 40 GB verfügbarer RAM
- macOS Sonoma oder höher
- Xcode Command Line Tools installiert
- Homebrew-Paketmanager
Installationsvorgänge für Flux Schnell lokal
Zerlegen wir den Installationsvorgang in überschaubare Schritte:
Schritt 1: Miniconda installieren
Wir installieren zunächst Miniconda, das uns bei der Verwaltung unserer Python-Umgebung hilft:
- Öffnen Sie das Terminal
- Führen Sie den folgenden Befehl aus, um den Miniconda-Installer herunterzuladen:
curl -O https://repo.anaconda.com/miniconda/Miniconda3-latest-MacOSX-arm64.sh
- Installieren Sie Miniconda:
sh Miniconda3-latest-MacOSX-arm64.sh
- Befolgen Sie die Anweisungen, um die Installation abzuschließen
- Schließen Sie das Terminal und öffnen Sie es erneut, um die Änderungen zu übernehmen
Schritt 2: Conda-Umgebung erstellen und aktivieren
Erstellen Sie nun eine dedizierte Umgebung für Flux:
conda create -n flux python=3.11 -y
conda activate flux
Schritt 3: PyTorch installieren
Installieren Sie PyTorch mit MPS (Metal Performance Shaders) Unterstützung:
pip install torch==2.3.1
Schritt 4: Diffusers und Abhängigkeiten installieren
Installieren Sie die erforderlichen Bibliotheken:
pip install git+https://github.com/huggingface/diffusers.git
pip install transformers==4.43.3 sentencepiece==0.2.0 accelerate==0.33.0 protobuf==5.27.3
Jetzt Flux Schnell Lokal verwenden!
Jetzt, da alles installiert ist, gehen wir den Prozess durch, um Flux Schnell auszuführen und ein Bild zu generieren.
Schritt 1: Das Skript vorbereiten
Erstellen Sie eine neue Python-Datei namens flux_generate.py
und fügen Sie den folgenden Code hinzu:
import torch
from diffusers import FluxPipeline
import diffusers
# Die rope-Funktion anpassen, um MPS-Gerät zu verarbeiten
_flux_rope = diffusers.models.transformers.transformer_flux.rope
def new_flux_rope(pos: torch.Tensor, dim: int, theta: int) -> torch.Tensor:
assert dim % 2 == 0, "Die Dimension muss gerade sein."
if pos.device.type == "mps":
return _flux_rope(pos.to("cpu"), dim, theta).to(device=pos.device)
else:
return _flux_rope(pos, dim, theta)
diffusers.models.transformers.transformer_flux.rope = new_flux_rope
# Das Flux Schnell-Modell laden
pipe = FluxPipeline.from_pretrained("black-forest-labs/FLUX.1-schnell", revision='refs/pr/1', torch_dtype=torch.bfloat16).to("mps")
# Die Vorgabe für die Bildgenerierung festlegen
prompt = "Eine Katze, die ein Schild mit 'Hallo Welt' hält."
# Das Bild generieren
out = pipe(
prompt=prompt,
guidance_scale=0.,
height=1024,
width=1024,
num_inference_steps=4,
max_sequence_length=256,
).images[0]
# Das generierte Bild speichern
out.save("flux_image.png")
Schritt 2: Das Skript ausführen
Wechseln Sie im Terminal zum Verzeichnis, das flux_generate.py
enthält, und führen Sie aus:
python flux_generate.py
Dieser Vorgang sollte etwa 30 Sekunden dauern und bis zu 40 GB RAM auf Ihrem MacBook Pro M3 Max nutzen.
Den Code verstehen
Zerlegen wir die wichtigsten Komponenten des Skripts:
Bibliotheken importieren: Wir importieren die erforderlichen Module von PyTorch und Diffusers.
Anpassen der ROPE-Funktion: Die Funktion new_flux_rope
ist ein Workaround, um das MPS-Gerät (Metal Performance Shaders) zu behandeln. Damit wird die Kompatibilität mit dem M3 Max Chip gewährleistet.
Das Modell laden: Wir verwenden FluxPipeline.from_pretrained()
, um das Flux Schnell-Modell zu laden, und geben das Modell-Repository und die Revision an.
Die Vorgabe festlegen: Wir definieren die Textvorgabe, die das zu generierende Bild beschreibt.
Das Bild generieren: Die Funktion pipe()
wird mit verschiedenen Parametern aufgerufen:
prompt
: Die Textbeschreibung des Bildesguidance_scale
: Für dieses Beispiel auf 0 gesetztheight
undwidth
: Bildabmessungen (1024x1024 Pixel)num_inference_steps
: Anzahl der Denoising-Schritte (in diesem Fall 4)max_sequence_length
: Maximale Länge der Eingabesequenz (256)
Das Bild speichern: Das generierte Bild wird als "flux_image.png" im selben Verzeichnis gespeichert.
Leistungsoptimierung für Flux Schnell lokal
Um die beste Leistung von Flux Schnell auf Ihrem MacBook Pro M3 Max zu erzielen:
- Schließen Sie nicht benötigte Anwendungen, um RAM- und CPU-Ressourcen freizugeben.
- Sorgen Sie für gute Belüftung Ihres MacBooks, um eine thermische Drosselung zu verhindern.
- Experimentieren Sie mit
num_inference_steps
: Eine Erhöhung dieses Werts kann die Bildqualität verbessern, verlängert jedoch auch die Generierungszeit. - Passen Sie
max_sequence_length
an: Längere Sequenzen ermöglichen detaillierte Vorgaben, erfordern jedoch mehr Speicher und Verarbeitungszeit.
Problembehandlung für Flux Schnell lokal
Wenn Sie auf Probleme stoßen:
- CUDA-Fehler: Stellen Sie sicher, dass Sie das MPS-Backend (
to("mps")
) anstelle von CUDA verwenden, da der M3 Max CUDA nicht unterstützt. - Speicherfehler: Versuchen Sie, die Bildgröße oder
max_sequence_length
zu reduzieren, wenn Ihnen der Speicher ausgeht. - Fehler bei Modul nicht gefunden: Überprüfen Sie, ob alle erforderlichen Pakete in Ihrer Conda-Umgebung installiert sind.
Jetzt, da Flux Schnell lokal läuft, hier sind einige Ideen zum Erkunden:
- Experimentieren Sie mit Vorgaben: Probieren Sie verschiedene Textbeschreibungen aus, um zu sehen, wie das Modell sie interpretiert.
- Passen Sie Parameter an: Spielen Sie mit
guidance_scale
,num_inference_steps
und Bildabmessungen, um deren Auswirkungen auf die Ausgabe zu sehen. - Batch-Verarbeitung: Ändern Sie das Skript, um mehrere Bilder aus einer Liste von Vorgaben zu generieren.
- Integration: Erwägen Sie die Integration von Flux Schnell in Ihre eigenen Anwendungen oder Workflows.
Fazit
Die lokale Ausführung von Flux Schnell auf Ihrem MacBook Pro M3 Max eröffnet Ihnen eine Welt kreativer Möglichkeiten. Mit seiner beeindruckenden Geschwindigkeit und Qualität können Sie beeindruckende Bilder direkt auf Ihrem eigenen Gerät generieren. Wenn Sie sich mit dem Modell und seinen Parametern vertrauter machen, können Sie Ihre Ergebnisse feinabstimmen und die Grenzen der KI-generierten Kunst überschreiten.
Beachten Sie beim Verwenden von KI-generierten Bildern Urheberrechts- und ethische Aspekte und geben Sie immer dem Modell und seinen Erstellern Anerkennung, wenn Sie Ihre Ergebnisse teilen.