Ollama CheatSheet: Einstieg in das lokale Ausführen von LLM mit Ollama

Das Ausführen von großen Sprachmodellen (LLMs) auf Ihrem Computer ist dank Tools wie Ollama immer zugänglicher geworden. Ollama ermöglicht es Ihnen, verschiedene Open-Source-LLMs auf Ihrem Gerät zu verwalten und zu nutzen und bietet Ihnen ein hohes Maß an Kontrolle und Datenschutz. Dieses Spickzettel hilft Ihnen dabei, alles, was Sie zum

Build APIs Faster & Together in Apidog

Ollama CheatSheet: Einstieg in das lokale Ausführen von LLM mit Ollama

Start for free
Inhalte

Das Ausführen von großen Sprachmodellen (LLMs) auf Ihrem Computer ist dank Tools wie Ollama immer zugänglicher geworden. Ollama ermöglicht es Ihnen, verschiedene Open-Source-LLMs auf Ihrem Gerät zu verwalten und zu nutzen und bietet Ihnen ein hohes Maß an Kontrolle und Datenschutz. Dieses Spickzettel hilft Ihnen dabei, alles, was Sie zum Starten der lokalen Ausführung von LLMs mit Ollama benötigen, von der Installation bis zur fortgeschrittenen Nutzung, zu verstehen.

Einführung in Ollama

Ollama ist eine Open-Source-Plattform, die den Prozess der lokalen Ausführung von LLMs vereinfacht. Es unterstützt eine Vielzahl von Modellen, einschließlich LLaMA 2, Mistral und Gemma, und ermöglicht es Ihnen, problemlos zwischen ihnen zu wechseln. Durch die lokale Ausführung von LLMs können Sie die Kosten und Datenschutzbedenken, die mit cloudbasierten Diensten verbunden sind, vermeiden.

💡
Interessiert an den neuesten Trends in der KI?

Dann dürfen Sie Anakin AI nicht verpassen!

Anakin AI ist eine All-in-One-Plattform für die Workflow-Automatisierung. Mit dem benutzerfreundlichen No-Code-App-Builder können Sie leistungsstarke KI-Apps erstellen. Mit Llama 3, Claude, GPT-4, Uncensored LLMs, Stable Diffusion und mehr.

Erstellen Sie Ihre Traum-KI-App in Minuten, nicht Wochen, mit Anakin AI!

Warum Ollama verwenden?

  1. Privatsphäre: Durch die lokale Ausführung von LLMs wird sichergestellt, dass Ihre Daten Ihr Gerät niemals verlassen und Datenschutz- und Compliance-Bedenken berücksichtigt werden.
  2. Kosteneffizienz: Vermeiden Sie die Kosten, die mit cloudbasierten LLM-Diensten verbunden sind.
  3. Kontrolle: Erhalten Sie mehr Kontrolle über die KI-Modelle und deren Konfigurationen.
  4. Flexibilität: Wechseln Sie problemlos zwischen verschiedenen Modellen und passen Sie sie an Ihre Bedürfnisse an.

Installation

Voraussetzungen

  • Ein Computer mit ausreichend Arbeitsspeicher und Speicherplatz (mindestens 8 GB RAM werden empfohlen).
  • Grundkenntnisse im Umgang mit der Kommandozeile.

Schritt-für-Schritt-Installation

Ollama herunterladen: Besuchen Sie das Ollama-GitHub-Repository oder die Ollama-Website, um die geeignete Version für Ihr Betriebssystem (Mac, Windows oder Linux) herunterzuladen.

Ollama installieren:

  • Mac: Laden Sie die Datei .dmg herunter und folgen Sie den Installationsanweisungen.
  • Windows: Laden Sie die Datei .exe herunter und führen Sie den Installationsprozess aus.
  • Linux: Befolgen Sie die auf der GitHub-Seite angegebenen Installationsanweisungen.

Installation überprüfen: Öffnen Sie Ihr Terminal oder die Kommandozeile und führen Sie den folgenden Befehl aus, um die Installation zu überprüfen:

ollama --version

Ausführen Ihres ersten LLM

Herunterladen eines Modells

Um ein LLM auszuführen, müssen Sie zuerst ein Modell herunterladen. Verwenden Sie beispielsweise den folgenden Befehl, um das LLaMA 2-Modell herunterzuladen:

ollama run llama2

Dieser Befehl lädt das Modell herunter und richtet es für die Verwendung ein. Beachten Sie, dass der Download je nach Größe des Modells einige Zeit in Anspruch nehmen kann.

Mit dem Modell interagieren

Nachdem das Modell heruntergeladen wurde, können Sie damit interagieren. Verwenden Sie beispielsweise den folgenden Befehl, um dem LLaMA 2-Modell eine Frage zu stellen:

ollama run llama2

Sie werden zur Eingabe Ihrer Anfrage aufgefordert. Zum Beispiel:

>>> Was können Sie für mich tun?

Das Modell generiert dann eine Antwort basierend auf Ihrer Anfrage.

Erweiterte Nutzung

Ollama als lokaler Server ausführen

Sie können Ollama in Ihre Anwendungen integrieren, indem Sie es als lokalen Server ausführen und über eine REST-API damit interagieren. Starten Sie den Server mit dem folgenden Befehl:

ollama serve

Sie können dann API-Aufrufe tätigen, um mit dem Modell zu interagieren. Verwenden Sie beispielsweise curl:

curl --location --request POST 'http://localhost:11434/v1/generate' \
--header 'Content-Type: application/json' \
--data-raw '{
    "prompt": "Ein hyperrealistisches Porträt eines mittelalterlichen Ritters",
    "model": "llama2"
}'

Verwendung von Client-Bibliotheken

Ollama bietet Client-Bibliotheken für verschiedene Programmiersprachen, darunter Python und JavaScript. Diese Bibliotheken vereinfachen den Prozess der Durchführung von API-Aufrufen. Verwenden Sie beispielsweise die Python-Bibliothek:

import ollama

client = ollama.Client(api_key='IHR_API-SCHLÜSSEL')
response = client.generate(prompt="Ein hyperrealistisches Porträt eines mittelalterlichen Ritters", model="llama2")
print(response)

Anpassen von Modellen

Mit Ollama können Sie Modelle anpassen, indem Sie Parameter und Systemhinweise anpassen. Dies kann über die Bearbeitung der Konfigurationsdatei des Modells erfolgen. Ändern Sie zum Beispiel die Temperatureinstellung des LLaMA 2-Modells wie folgt:

model: llama2
temperature: 0.7

Wechseln zwischen Modellen

Das Wechseln zwischen verschiedenen Modellen in Ollama ist unkompliziert. Geben Sie einfach den Modellnamen in Ihrem Befehl an. Um beispielsweise zum Mistral-Modell zu wechseln:

ollama run mistral

Leistungsüberlegungen

Das lokale Ausführen von LLMs kann ressourcenintensiv sein. Hier sind einige Tipps zur Optimierung der Leistung:

  1. Verwenden Sie eine leistungsstarke Maschine: Maschinen mit mehr RAM und besseren Grafikkarten bieten bessere Leistung.
  2. Optimieren Sie die Modellgröße: Verwenden Sie kleinere Modelle, wenn die Leistung ein Problem darstellt.
  3. Docker-Integration: Für eine bessere GPU-Auslastung sollten Sie Ollama in einem Docker-Container mit dem Nvidia Container Toolkit ausführen.

Fehlerbehebung

Häufige Probleme

  1. Modell-Download-Fehler: Stellen Sie sicher, dass Sie über eine stabile Internetverbindung und ausreichend Speicherplatz verfügen.
  2. Leistungsprobleme: Überprüfen Sie Ihre Systemressourcen und erwägen Sie die Verwendung eines kleineren Modells oder ein Upgrade Ihrer Hardware.
  3. API-Fehler: Stellen Sie sicher, dass der Server läuft und dass Sie den richtigen API-Endpunkt und die richtigen Parameter verwenden.

Hilfe erhalten

Für zusätzlichen Support können Sie die Ollama-Dokumentation konsultieren oder sich in der GitHub-Community und anderen sozialen Plattformen engagieren.

Anakin AI API mit Ollama verwenden

Anakin AI bietet einen umfassenden API-Dienst, mit dem Entwickler nahtlos KI-Funktionen in ihre Anwendungen integrieren können. Durch die Nutzung der Anakin AI-API können Sie Ihre Projekte mit leistungsstarken KI-Funktionen verbessern, ohne komplexe Backend-Architekturen verwalten zu müssen. So können Sie Ollama verwenden, um die Anakin AI-API aufzurufen:

Schritt 1: Plan aktualisieren und Kontostand überprüfen

Stellen Sie sicher, dass Ihr Anakin AI-Konto über ausreichendes Guthaben verfügt. Gehen Sie zum Anakin AI Web-App, klicken Sie auf das Avatar-Symbol in der linken unteren Ecke und rufen Sie die Upgrade-Seite auf, um den Abonnementstatus zu überprüfen oder Ihren Plan bei Bedarf zu aktualisieren.

Schritt 2: Generieren Sie Ihren API-Zugriffstoken

Generieren Sie einen API-Zugriffstoken, indem Sie den Abschnitt Integration in der Anakin AI Web-App besuchen. Klicken Sie auf Token verwalten, wählen Sie Neues Token aus, geben Sie die Token-Konfiguration ein und speichern Sie den API-Zugriffstoken sicher.

Schritt 3: API-Aufrufe mit Ollama tätigen

Mit Ihrem API-Zugriffstoken können Sie jetzt API-Aufrufe an Anakin AI mit Ollama tätigen. Hier ist ein Beispiel, wie Sie die Anakin AI-API verwenden, um Textinhalt zu generieren:

curl --location --request POST 'https://api.anakin.ai/v1/quickapps/{{appId}}/runs' \
--header 'Authorization: Bearer ANAKINAI_API_ACCESS_TOKEN' \
--header 'X-Anakin-Api-Version: 2024-05-06' \
--header 'Content-Type: application/json' \
--data-raw '{
    "inputs": {
        "Product/Service": "Cloud Service",
        "Features": "Zuverlässigkeit und Leistung.",
        "Advantages": "Effizienz",
        "Framework": "Attention-Interest-Desire-Action"
    },
    "stream": true
}'

Ersetzen Sie {{appId}} durch Ihre App-ID und ANAKINAI_API_ACCESS_TOKEN durch den generierten Token.

Schritt 4: Integration mit Ollama

Um Anakin AI's API mit Ollama zu integrieren, können Sie die Python-Client-Bibliothek verwenden. Hier ist ein Beispiel:

import ollama
import requests

client = ollama.Client(api_key='IHR_OLLAMA_API_KEY')

# Definieren Sie den Anakin AI-API-Endpunkt und die Header
anakin_api_url = 'https://api.anakin.ai/v1/quickapps/{{appId}}/runs'
headers = {
    'Authorization': 'Bearer ANAKINAI_API_ACCESS_TOKEN',
    'X-Anakin-Api-Version': '2024-05-06',
    'Content-Type': 'application/json'
}

# Definieren Sie die Nutzdaten für den Anakin AI-API-Aufruf
payload = {
    "inputs": {
        "Product/Service": "Cloud Service",
        "Features": "Zuverlässigkeit und Leistung.",
        "Advantages": "Effizienz",
        "Framework": "Attention-Interest-Desire-Action"
    },
    "stream": True
}

# Führen Sie den API-Aufruf an Anakin AI durch
response = requests.post(anakin_api_url, headers=headers, json=payload)
print(response.json())

Dieses Beispiel zeigt, wie Sie Anakin AI's API von einem Python-Skript aus mithilfe von Ollama aufrufen können.

FAQs

Was ist Ollama?

Ollama ist eine Open-Source-Plattform, mit der große Sprachmodelle (LLMs) lokal auf Ihrem Computer ausgeführt werden können.

Wie installiere ich Ollama?

Laden Sie die geeignete Version für Ihr Betriebssystem aus dem Ollama GitHub-Repository oder der Website herunter und befolgen Sie die Installationsanweisungen.

Kann ich mit Ollama mehrere Modelle ausführen?

Ja, Ollama unterstützt mehrere Modelle, und Sie können problemlos zwischen ihnen wechseln, indem Sie den Modellnamen in Ihren Befehlen angeben.

Wie interagiere ich mit einem Modell mit Ollama?

Sie können mit einem Modell interagieren, indem Sie es im Terminal ausführen und Ihre Anfragen eingeben oder die REST-API für programmatischen Zugriff verwenden.

Welche Systemanforderungen gelten für die Ausführung von Ollama?

Es wird ein Computer mit mindestens 8 GB RAM empfohlen. Leistungsfähigere Hardware bieten bessere Leistung.

Wie passe ich ein Modell in Ollama an?

Sie können ein Modell anpassen, indem Sie seine Konfigurationsdatei bearbeiten und Parameter wie Temperatur und Systemhinweise anpassen.

Kann ich Ollama auf einer GPU ausführen?

Ja, Ollama kann GPUs für eine bessere Leistung verwenden. Verwenden Sie Docker mit dem Nvidia Container Toolkit, um die GPU-Auslastung zu optimieren.

Wie integriere ich die Anakin AI-API mit Ollama?

Erzeugen Sie einen API-Zugriffstoken von Anakin AI und verwenden Sie ihn dann, um API-Aufrufe von Ollama aus durchzuführen. Verwenden Sie die Python-Client-Bibliothek, um diese Integration zu erleichtern.

Fazit

Mit Ollama können Sie große Sprachmodelle lokal ausführen und erhalten dabei eine hohe Kontrolle, Datenschutz und Flexibilität. Ob Sie ein Entwickler sind, der LLMs in Ihre Anwendungen integrieren möchte, oder ein Enthusiast, der die Möglichkeiten der KI erkundet, Ollama bietet eine leistungsstarke und benutzerfreundliche Lösung. Folgen Sie diesem Spickzettel, um mit Ollama zu beginnen und das Potenzial lokaler LLMs zu nutzen.