Die Gemini 1.5 Pro API ist ein leistungsstarkes Tool, das Entwicklern ermöglicht, das fortschrittliche Sprachmodell von Google in ihre Anwendungen zu integrieren. Diese API bietet Zugriff auf die neuesten generativen Modelle von Google und ermöglicht Ihnen eine Vielzahl von Aufgaben wie Textgenerierung, Fragenbeantwortung und Bildbeschreibung. In dieser umfassenden Anleitung führen wir Sie durch den Prozess der Verwendung der Gemini 1.5 Pro API, von der Einrichtung Ihrer Entwicklungsumgebung bis zur Erstellung Ihrer ersten Anwendung.
Dann sollten Sie Anakin AI nicht verpassen!
Anakin AI ist eine All-in-One-Plattform für die Workflow-Automatisierung. Erstellen Sie leistungsstarke KI-Apps mit einem benutzerfreundlichen No-Code-App-Builder mit Llama 3, Claude, GPT-4, Uncensored LLMs, Stable Diffusion...
Erstellen Sie Ihre Traum-KI-App innerhalb von Minuten, nicht Wochen, mit Anakin AI!
Schritt 1: Generieren Sie einen API-Schlüssel
Bevor Sie die Gemini 1.5 Pro API verwenden können, müssen Sie einen API-Schlüssel von der Entwicklerseite von Google AI erhalten. Dieser Schlüssel authentifiziert Ihre Anfragen und gewährt Ihnen Zugriff auf die API.
- Besuchen Sie die Entwicklerseite von Google AI und melden Sie sich mit Ihrem Google-Konto an.
- Klicken Sie auf die Schaltfläche "API-Schlüssel abrufen".
- Folgen Sie den Anweisungen, um ein neues Projekt zu erstellen oder ein vorhandenes auszuwählen.
- Sobald Ihr Projekt eingerichtet ist, erhalten Sie einen API-Schlüssel. Stellen Sie sicher, dass Sie diesen Schlüssel sicher aufbewahren, da er für alle API-Anfragen erforderlich ist.
Schritt 2: Installieren Sie die API-Bibliothek
Um den Prozess der Interaktion mit der Gemini 1.5 Pro API zu vereinfachen, bietet Google offizielle Client-Bibliotheken für verschiedene Programmiersprachen. In dieser Anleitung verwenden wir die Python-Bibliothek, aber der Prozess ist für andere Sprachen ähnlich.
- Öffnen Sie Ihr Terminal oder die Eingabeaufforderung.
- Installieren Sie das Gemini Python API-Paket mit pip:
pip install google-generativeai
- Nach Abschluss der Installation können Sie die erforderlichen Bibliotheken in Ihr Python-Skript importieren:
import google.generativeai as genai
from google.generativeai.types import ContentType
from PIL import Image
Schritt 3: Konfigurieren Sie den API-Schlüssel
Bevor Sie API-Aufrufe tätigen können, müssen Sie Ihren API-Schlüssel in Ihrem Python-Skript konfigurieren:
GOOGLE_API_KEY = 'Hier Ihren API-Schlüssel eingeben'
genai.configure(api_key=GOOGLE_API_KEY)
Ersetzen Sie 'Hier Ihren API-Schlüssel eingeben'
durch den API-Schlüssel, den Sie in Schritt 1 erhalten haben.
Schritt 4: Zugriff auf das Gemini 1.5 Pro Model
Die Gemini 1.5 Pro API bietet Zugriff auf verschiedene Modelle, von denen jedes seine eigenen Fähigkeiten und Spezialisierungen hat. In diesem Beispiel verwenden wir das Modell gemini-1.5-pro-latest
, das die neueste Version des Gemini 1.5 Pro Modells ist.
model = genai.GenerativeModel('gemini-1.5-pro-latest')
Schritt 5: Generieren von Inhalten
Mit dem initialisierten Modell können Sie nun Inhalte mit der Gemini 1.5 Pro API generieren. Die API unterstützt sowohl textbasierte als auch multimodale Eingabeaufforderungen, mit denen Sie Bilder, Videos und andere Medien in Ihre Anfragen integrieren können.
Nur-Text Aufforderung
Um Text aus einer nur-Text Aufforderung zu generieren, können Sie die Methode generate_content
verwenden:
aufforderung = "Schreibe eine Geschichte über einen magischen Rucksack."
antwort = model.generate_content(aufforderung)
print(antwort.text)
Dadurch wird eine Geschichte basierend auf der angegebenen Aufforderung generiert und das Ergebnis in der Konsole ausgegeben.
Multimodale Aufforderung
Die Gemini 1.5 Pro API unterstützt auch multimodale Aufforderungen, bei denen Text und Bilder kombiniert werden. Hier ist ein Beispiel, wie Sie eine Bildunterschrift generieren können:
text_aufforderung = "Beschreiben Sie das Bild im Detail."
bild = Image.open('beispielbild.jpg')
aufforderung = [text_aufforderung, bild]
antwort = model.generate_content(aufforderung)
print(antwort.text)
In diesem Beispiel definieren wir zunächst eine Textaufforderung und öffnen eine Bilddatei mit der PIL
-Bibliothek. Anschließend kombinieren wir die Textaufforderung und das Bild zu einer Liste, die als Aufforderung für die Methode generate_content
dient. Die API generiert eine detaillierte Beschreibung des Bildes basierend auf der angegebenen Aufforderung.
Schritt 6: Erkunden Sie erweiterte Funktionen
Die Gemini 1.5 Pro API bietet eine Vielzahl von erweiterten Funktionen, wie z.B. Mehrfachgespräche (Chat), gestreamte Antworten und Einbettungen. Lassen Sie uns einige dieser Funktionen genauer betrachten.
Mehrfachgespräche (Chat)
Die Gemini API ermöglicht es Ihnen, interaktive Chat-Erlebnisse für Ihre Benutzer zu erstellen. Mit der Chat-Funktion können Sie mehrere Runden von Fragen und Antworten sammeln, sodass Benutzer schrittweise auf Antworten hinarbeiten oder Hilfe bei mehrteiligen Problemen erhalten können.
model = genai.GenerativeModel('gemini-1.5-flash')
chat = model.start_chat(history=[])
antwort = chat.send_message("Stellen Sie sich vor, Sie sind ein Schneemann und bleiben Sie für jede Antwort in Ihrer Rolle.")
print(antwort.text)
antwort = chat.send_message("Was ist Ihre Lieblingsjahreszeit?")
print(antwort.text)
In diesem Beispiel starten wir eine neue Chat-Sitzung mit einer leeren Aufforderungshistorie. Anschließend senden wir zwei Nachrichten an den Chat, wobei das Modell in der Rolle eines Schneemanns antwortet. Mit der Methode send_message
können Sie das Gespräch fortsetzen, indem Sie weitere Nachrichten senden.
Gestreamte Antworten
Die Gemini API ermöglicht es Ihnen, Antworten von generativen KI-Modellen als Datenstrom zu empfangen. Diese Funktion ermöglicht es Ihnen, inkrementelle Datenstücke an Ihre Anwendung zurückzusenden, während sie vom Modell generiert werden, und so ein interaktiveres Erlebnis für Ihre Benutzer zu schaffen.
antwort = model.generate_content(aufforderung, stream=True)
for chunk in antwort.iter_text():
print(chunk, end='')
In diesem Beispiel setzen wir den Parameter stream
beim Aufruf der Methode generate_content
auf True
. Die Antwort wird dann als Stream zurückgegeben, und wir können über die Methode iter_text
iterieren, um jedes Datenstück der Antwort zu drucken, sobald es verfügbar ist.
Einbettungen
Die Gemini API bietet einen Einbettungsdienst, der hochmoderne Einbettungen für Wörter, Phrasen und Sätze generiert. Diese Einbettungen können für verschiedene Aufgaben im Bereich der natürlichen Sprachverarbeitung verwendet werden, z.B. für die semantische Suche, die Textklassifikation und das Clustering.
from google.generativeai import EmbeddingModel
embeddings_model = EmbeddingModel()
text = "Dies ist ein Beispielsatz."
einbettungen = embeddings_model.get_embeddings(text)
print(einbettungen)
In diesem Beispiel erstellen wir eine Instanz der Klasse EmbeddingModel
und verwenden die Methode get_embeddings
, um Einbettungen für einen gegebenen Text zu generieren. Die resultierenden Einbettungen können in verschiedenen nachgelagerten Aufgaben oder Anwendungen verwendet werden.
API-Integration mit Anakin.ai
Anakin.ai bietet einen umfassenden API-Service für alle Anwendungen und ermöglicht Entwicklern und Unternehmen, ihre Projekte nahtlos mit den Anakin.ai APIs zu integrieren und zu erweitern. Durch die Nutzung dieser APIs erhalten Benutzer die Flexibilität, die robusten Produktfunktionen von Anakin.ai in ihren eigenen Anwendungen einfach nutzen zu können.
Diese Möglichkeit ermöglicht es Entwicklern und Unternehmen, ihre spezifischen Anpassungsanforderungen ohne den Aufwand der Verwaltung komplexer Backend-Architekturen und Bereitstellungsprozesse zu erfüllen. Dadurch werden Entwicklungskosten und -arbeitslast erheblich reduziert und eine beispiellose Benutzerfreundlichkeit für Entwickler geboten.
Vorteile der API-Integration
- Entwickeln Sie schnell KI-Anwendungen, die auf Ihre geschäftlichen Anforderungen zugeschnitten sind, mit Anakin.ai's intuitiver visueller Oberfläche und der Echtzeit-Implementierung auf allen Clients.
- Unterstützung für mehrere KI-Modellanbieter, die Ihnen die Flexibilität bieten, bei Bedarf Anbieter zu wechseln.
- Vorgefertigter Zugriff auf die wesentlichen Funktionalitäten des KI-Modells.
- Bleiben Sie mit den kommenden fortschrittlichen Funktionen auf dem neuesten Stand, die über die API verfügbar sind.
Verwendung der Gemini API mit Anakin AI
Schritt 1: Rüsten Sie Ihren Plan auf und überprüfen Sie Ihr Kontoguthaben
Der API-Dienst steht derzeit ausschließlich Abonnenten zur Verfügung. Während der Verwendung des KI-Modells über API-Aufrufe werden Guthaben aus Ihrem Kontostand verbraucht. Um den Abonnementstatus zu überprüfen oder Ihren Plan aufzurüsten, navigieren Sie zur Anakin.ai Web App. Klicken Sie auf den Avatar in der linken unteren Ecke, um zur Upgrade-Seite zu gelangen. Stellen Sie sicher, dass Ihr aktuelles Konto ausreichend Guthaben aufweist.
Schritt 2: Testen Sie Ihre App
Um die App zu testen, wählen Sie die App aus und klicken Sie auf die Schaltfläche Generieren. Bestätigen Sie, dass sie ordnungsgemäß ausgeführt wird und die erwartete Ausgabe generiert, bevor Sie fortfahren.
Schritt 3: API-Dokumentation anzeigen und API-Zugriffstoken verwalten
Besuchen Sie als nächstes den Bereich Integration der App oben. In diesem Abschnitt können Sie auf "Details anzeigen" klicken, um die von Anakin.ai bereitgestellte API-Dokumentation anzuzeigen, den Zugriff auf die API verwalten und die App-ID anzeigen.
Schritt 4: Generieren Sie Ihr API-Zugriffstoken
Klicken Sie auf die Schaltfläche "Token verwalten", um Ihr API-Zugriffstoken zu verwalten, und wählen Sie "Neues Token" aus, um Ihr API-Zugriffstoken zu generieren. Geben Sie die Token-Konfiguration ein, klicken Sie dann auf "Speichern und Token generieren" und speichern Sie das API-Zugriffstoken sicher.
Hinweis: Das generierte API-Zugriffstoken wird nur einmal angezeigt. Stellen Sie sicher, dass Sie es sofort sicher kopieren und speichern. Eine bewährte Vorgehensweise besteht darin, API-Schlüssel im Klartext über Backend-Aufrufe anstelle von direkt im Frontend-Code oder in den Anfragen anzuzeigen. Dadurch wird ein Missbrauch oder Angriffe auf Ihre App verhindert.
Sie können für eine App mehrere API-Zugriffstoken erstellen, um sie unter verschiedenen Benutzern oder Entwicklern zu verteilen. Dadurch wird sichergestellt, dass Benutzer der API die von der App bereitgestellten KI-Funktionen nutzen können, während die zugrunde liegende Konfiguration der Aufforderungen und andere Werkzeugfunktionen intakt bleibt.
Erstellen Sie eine schnelle App mit Anakin AI
Eine schnelle App ermöglicht es Ihnen, hochwertige Textinhalte wie Blog-Beiträge, Übersetzungen und andere kreative Inhalte zu generieren. Durch Aufruf der API zum Ausführen einer schnellen App wird der Benutzerinputinhalt gesendet und das generierte Textergebnis wird abgerufen.
Die für die Textgenerierung verwendeten Modelleparameter und der Aufforderungsvorlagendienst hängen von den Eingabeeinstellungen in der Anakin.ai App -> Verwalten -> Design Seite ab.
In der App -> Integration -> API-Liste - > Details finden Sie die API-Dokumentation und Beispielanfragen für die App.
Hier ist ein Beispiel für einen API-Aufruf zur Erstellung von Textergänzungsinformationen:
curl --location --request POST 'https://api.anakin.ai/v1/quickapps/{{appId}}/runs' \
--header 'Authorization: Bearer ANAKINAI_API_ACCESS_TOKEN' \
--header 'X-Anakin-Api-Version: 2024-05-06' \
--header 'Content-Type: application/json' \
--data-raw '{
"inputs": {
"Produkt/Dienstleistung": "Cloud-Service",
"Merkmale": "Zuverlässigkeit und Leistung.",
"Vorteile": "Effizienz",
"Framework": "Attention-Interest-Desire-Action"
},
"stream": true
}'
Tipp: Ersetzen Sie die Variable {{appId}}
durch die gewünschte appId und ersetzen Sie ANAKINAI_API_ACCESS_TOKEN
durch das generierte API-Zugriffstoken aus Schritt 4.
Überprüfen Sie weitere Details zur Quick App API in der API-Referenz.
Erstellen Sie Ihre eigene KI-Chatbot-App mit Anakin AI
Eine Chatbot-App ermöglicht es Ihnen, Chatbots zu erstellen, die in einem natürlichen Frage-Antwort-Format mit Benutzern interagieren. Um ein Gespräch zu beginnen, rufen Sie die API zum Konversation mit Chatbot auf und setzen Sie den zurückgegebenen Parametername fort, um das Gespräch aufrechtzuerhalten.
In der App -> Integration -> API-Liste - > Details finden Sie die API-Dokumentation und Beispielanfragen für die App.
Hier ist ein Beispiel für einen API-Aufruf zum Senden von Konversationsnachrichten:
curl --location --request POST 'https://api.anakin.ai/v1/chatbots/{{appId}}/messages' \
--header 'Authorization: Bearer ANAKINAI_API_ACCESS_TOKEN' \
--header 'X-Anakin-Api-Version: 2024-05-06' \
--header 'Content-Type: application/json' \
--data-raw '{
"content": "Wie ist Ihr Name? Sind Sie der clevere?",
"stream": true
}'
Tipp: Ersetzen Sie die Variable {{appId}}
durch die gewünschte appId und ersetzen Sie ANAKINAI_API_ACCESS_TOKEN
durch das generierte API-Zugriffstoken aus Schritt 4.
Überprüfen Sie weitere Details zur Chatbot API in der API-Referenz.
Abschluss
Die Gemini 1.5 Pro API ist ein leistungsstarkes Tool, das Entwicklern ermöglicht, das fortschrittliche Sprachmodell von Google in ihre Anwendungen zu integrieren. Durch die Befolgung der in dieser Anleitung beschriebenen Schritte können Sie Ihre Entwicklungsumgebung einrichten, API-Schlüssel generieren und Anwendungen erstellen, die die Möglichkeiten des Gemini 1.5 Pro Modells nutzen.
Ob Sie an der Textgenerierung, Fragenbeantwortung, Bildbeschreibung oder einer anderen natürlichsprachlichen Verarbeitungsaufgabe arbeiten, die Gemini 1.5 Pro API bietet eine flexible und leistungsstarke Lösung. Durch Integration mit Anakin.ai's API-Service können Sie Ihre Anwendungen zudem mit erweiterten Funktionen verbessern und den Entwicklungsprozess optimieren.
Wenn Sie die Gemini 1.5 Pro API und die Integration von Anakin.ai's API weiter erkunden, sollten Sie die offizielle Dokumentation zu Rate ziehen und sich über die neuesten Updates und Funktionen auf dem Laufenden halten. Die Welt der KI entwickelt sich schnell weiter und diese Werkzeuge werden weiterhin neue Möglichkeiten für Entwickler und Unternehmen eröffnen.
Dann sollten Sie Anakin AI nicht verpassen!
Anakin AI ist eine All-in-One-Plattform für die Workflow-Automatisierung. Erstellen Sie leistungsstarke KI-Apps mit einem benutzerfreundlichen No-Code-App-Builder mit Llama 3, Claude, GPT-4, Uncensored LLMs, Stable Diffusion...
Erstellen Sie Ihre Traum-KI-App innerhalb von Minuten, nicht Wochen, mit Anakin AI!