ラマ3 8bをOllamaで実行し、Anakin AIでAIアプリを構築する方法

この包括的なガイドでは、Ollamaを使用してローカルで強力なLlama 3 8b言語モデルを実行し、何のコーディングも必要とせずにカスタムAIアプリケーションを構築するためにAnakin AIを活用します。

Anakin AIを無料で利用開始

ラマ3 8bをOllamaで実行し、Anakin AIでAIアプリを構築する方法

Start for free
目次

以下のHTMLコードを日本語に翻訳してください。 次のようなURLを確認してください: https://anakin.ai/apps/keyword または https://anakin.ai/blog/keyword 次のように変換されるようにしてください: https://anakin.ai/ja-jp/apps/keyword https://anakin.ai/ja-jp/blog/keyword 以下がHTMLコードです:

この包括的なガイドでは、Ollamaを使用してローカルで強力なLlama 3 8b言語モデルを実行し、コーディングの必要なしでカスタムAIアプリケーションを構築する方法を探ります。

Ollamaを使用したLlama 3 8bの実行

Ollamaは、リソースが制限されていてもローカルマシンでLlama 3などさまざまな大規模な言語モデル(LLM)を実行できる無料でオープンソースのアプリケーションです。 パフォーマンスの最適化を利用して、比較的低いハードウェア要件でLLMをローカルで実行することができます。

ステップ1:Ollamaのインストール

まず、Ollamaをシステムにインストールします。Windows、macOS、Linuxを含むすべての主要なオペレーティングシステムをサポートしています。 Ollamaのウェブサイト(https://ollama.com/)を訪問し、プラットフォームに適したバージョンをダウンロードします。

ステップ2:Llama 3 8bの実行

Ollamaがインストールされたら、ターミナルまたはコマンドプロンプトを開き、次のコマンドを実行してLlama 3 8bを起動します:

ollama run llama3:8b

このコマンドは、8 billionパラメータのバージョンのLlama 3をダウンロードして読み込みます。モデルのダウンロードと読み込みが完了するまで数分お待ちください。その後、次のようなチャットプロンプトが表示されます:

ollama run llama3:8b

>>> アメリカ合衆国の2番目の大統領は誰でしたか?

アメリカ合衆国の第2代大統領はジョン・アダムズでした。彼は1797年から1801年まで務め、ジョージ・ワシントンの後任とトーマス・ジェファーソンの前任です。

>>> 30番目の大統領は誰でしたか?

アメリカ合衆国の30番目の大統領はカルビン・クーリッジです!彼は1923年8月2日から1929年3月4日まで務めました。

>>> /bye

これで、クエリやプロンプトを入力してLlama 3 8bとやり取りができるようになりました。モデルはトレーニングに基づいて応答を生成します。

ステップ3:Ollamaの機能を探索(オプション)

Ollamaにはいくつかの追加機能があります:

Open WebUI:Open WebUIは、Docker内で完全に実行される拡張可能なセルフホスト型UIです。Ollamaや他のOpenAI互換のLLMと対話するためのユーザーフレンドリーなインターフェースを提供します。より直感的な体験のために、Ollamaと一緒にOpen WebUIをインストールして実行できます。

Ollama API:Ollamaは、LLMを独自のプロジェクトに統合するためのAPIを提供しています。Ollama APIまたはOpenAI互換のAPIを使用してリクエストを行い、ロードされたLLMから応答を受け取ることができます。

カスタムモデルファイル:Ollamaでは、特定のプロンプト、パラメータ、振る舞いを持つカスタムモデルファイルを作成できます。この機能を使用すると、LLMの動作を特定のニーズに合わせて調整することができます。

モデル管理:Ollamaは、ローカルシステム上のさまざまなLLMモデルを取得、プッシュ、管理するためのコマンドを提供し、使用するモデルを柔軟に選択できます。

Anakin AIを使用してAIアプリを構築する

Anakin AIは、コーディングの知識なしでカスタマイズ可能なAIアプリケーションを作成できるノーコードプラットフォームです。さまざまな業界やユースケースをカバーするプリビルトのAIアプリケーションのライブラリと、ゼロから新しいアプリを作成する機能を提供しています。

ステップ1:Anakin AIにサインアップする

Anakin AIのウェブサイト(https://www.anakin.ai/)を訪問し、無料アカウントでサインアップします。ログインすると、個人用のワークスペースにアクセスできます。

ステップ2:プリビルトアプリを選択するか、新しいアプリを作成する

Anakin AIは、さまざまな業界やユースケースをカバーするプリビルトのAIアプリケーションのライブラリを提供しています。たとえば、YouTubeのショートスクリプトを生成する場合は、その目的に適したプリメイドのアプリを選択できます。

または、ワークスペースで「アプリの追加または作成」ボタンをクリックし、新しいアプリを作成することもできます。クイックアプリのオプションを選択し、アプリに名前を付けます。

ステップ3:アプリをカスタマイズする

アプリを選択または作成したら、独自のニーズに合わせてカスタマイズできます。YouTubeのショートスクリプトのトピックや、出力形式のなどの入力フィールドを定義します。また、使用するAIモデルを選択し、他のパラメータを調整することもできます。

たとえば、与えられたトピックに基づいてブログ投稿のアイデアを生成する簡単なアプリを作成しましょう:

  1. 「トピック」という名前の一行テキストフィールドを定義します。
  2. 「AIテキストジェネレータ」のステップを追加し、与えられたトピックに基づいてAIにブログ投稿のアイデアを生成するようにプロンプトを作成します。
  3. 出力をAIの応答を表示するように設定します。

ステップ4:出力を生成する

アプリをカスタマイズした後、[生成]ボタンをクリックして目的の出力を生成します。Anakin AIは、選択したAIモデルと入力パラメータを使用してコンテンツを生成したり、指定されたタスクを実行したりします。

この例では、AIは与えられたトピックに基づいてブログ投稿のアイデアのリストを生成します。

ステップ5:高度な機能を探索(オプション)

Anakin AIにはさまざまな高度な機能があります:

API統合:Anakin AIは、すべてのアプリケーションに対して包括的なAPIサービスを提供しており、開発者や組織がAnakin AIのAPIを使用してプロジェクトをシームレスに統合して拡張することを可能にしています。これらのAPIを活用することで、ユーザーは自分自身のアプリケーション内でAnakin AIの強力な製品機能に簡単にアクセスできるフレキシブルさを得ることができます。

APIを使用するには、プランをアップグレードし、APIアクセストークンを生成し、提供されたドキュメントに従ってAPIリクエストを行う必要があります。 Anakin AIのAPI統合により、ビジネスニーズに合わせた迅速なAIアプリケーションの開発、複数のAIモデルプロバイダのサポート、次世代の高度な機能に対する先取りが可能になります。

アプリの共有:カスタマイズしたAIアプリが役立つ場合は、提供されたリンクを使用してそれらをAnakin AIのアプリストアに公開して他の人と共有することができます。

プリメイドアプリ:Anakin AIには、さまざまな業界やユースケースをカバーするプリメイドのAIアプリのライブラリもあります。これらのアプリは特定のニーズに合わせてカスタマイズでき、ゼロから作成する場合よりも洗練された結果を提供します。

ローカルでLlama 3 8bをOllamaで実行し、Anakin AIのノーコードプラットフォームを使用することで、プロジェクトに高度な自然言語処理を活用するための無限の可能性を開くことができます。緻密なコーディングや技術的な専門知識なしに、ワークフローを合理化し、生産性を向上させることができます。開発者、ビジネスオーナー、または個人ユーザーであっても、このガイドは、進化し続ける技術的な環境でAIの力を利用し、最先端に立つための知識とリソースを提供します。

Ollamaを使用したDBRX Instructの実行

DBRXは、Databricksが作成したオープンで汎用性のある大規模言語モデル(LLM)です。これは、次のトークン予測を使用してトレーニングされたトランスフォーマーベースのデコーダーモデルであり、細かい粒子のエキスパートの混合(MoE)アーキテクチャと合計1320億のパラメータのうち、入力によってアクティブになるパラメータは360億です。

DBRX InstructをOllamaで実行するためには、次の手順に従ってください:

ステップ1:Ollamaをインストールする(もしインストールされていなければ)

まだOllamaがインストールされていない場合は、前のセクションの手順に従ってインストールします。

ステップ2:DBRX Instructを実行する

Ollamaがインストールされたら、ターミナルまたはコマンドプロンプトを開き、次のコマンドを実行してDBRX Instructを起動します:

ollama run dbrx:instruct

このコマンドは、DBRX Instructモデルをダウンロードして読み込みます。モデルのダウンロードと読み込みが完了するまで数分お待ちください。その後、次のようなチャットプロンプトが表示されます:

ollama run dbrx:instruct

>>> フランスの首都はどこですか?

フランスの首都はパリです。

>>> 機械学習の概念を説明できますか?

もちろん、機械学習は、コンピュータシステムが明示的にプログラムされることなく効果的に特定のタスクを実行するためのアルゴリズムと統計モデルを開発する人工知能の分野です。決められた事前のルールに従うのではなく、機械学習のアルゴリズムはデータを使用してパターンを学習し、決定または予測を行います。

プロセスは通常、アルゴリズムに大量のトレーニングデータを提供し、分析してパターンや関係性を特定することで行われます。この分析を基に、アルゴリズムは新たな未知のデータに対して予測や決定を行うためのモデルを構築します。

>>> /bye

これで、クエリやプロンプトを入力してDBRX Instructとやり取りができるようになりました。モデルはトレーニングに基づいて応答を生成します。

ステップ3:DBRX Instructの機能を探索する

DBRX Instructは、さまざまなタスクで優れた性能を発揮する強力なLLMです。これには、次の機能が含まれます:

質問応答:DBRX Instructにさまざまなトピックの質問をすることができ、トレーニングデータに基づいて正確かつ詳細な回答を提供します。

テキスト生成:DBRX Instructは、プロンプトや指示に基づいて記事、ストーリー、スクリプトなどの高品質なテキストコンテンツを生成することができます。

コード生成:優れたコードモデルとして、DBRX Instructはコードスニペットを生成したり、プログラミングの概念を説明したりすることでプログラミングのタスクをサポートできます。

データ分析:DBRX Instructは、入力に基づいてインサイト、サマリー、およびビジュアライゼーションを提供することで、データの分析と解釈を支援できます。

タスクサポート:DBRX Instructを仮想アシスタントとして使用して、研究、計画、意思決定などのさまざまなタスクをサポートできます。

DBRX Instructは汎用のLLMですので、上記の例に限定されることはありません。さまざまなプロンプトとタスクを試して、その潜在能力を発見するために探索してみてください。

Anakin AIのAPI統合を使用してAIアプリを構築する

Anakin AIは、コンプリートなAPIサービスを提供し、開発者や組織がAnakin AIのAPIを使用して、独自のアプリケーションをシームレスに統合して拡張することができます。これらのAPIを活用することで、複雑なバックエンドアーキテクチャとデプロイプロセスの管理に関連するコストを削減し、開発プロセスを合理化することができます。

API統合の利点

迅速な開発: Anakin AIの直感的なビジュアルインターフェースを使用して、ビジネスニーズに合わせたAIアプリケーションを迅速に開発し、すべてのクライアントでリアルタイムに実装します。

モデルの柔軟性: 複数のAIモデルプロバイダのサポートにより、必要に応じてプロバイダを切り替える柔軟性を持つことができます。

簡素化されたアクセス: AIモデルの必要な機能に事前パッケージ化されたアクセスが提供されるため、開発オーバーヘッドが削減されます。

将来への対応: APIを介して利用可能な次世代の高度な機能により、先行予約を行うことで進んだ機能を活用することができます。

APIの使い方

ステップ1:プランのアップグレードとアカウントクレジットの確認

Anakin AIのAPIサービスは現在、サブスクライバーのみで利用可能です。APIコールを介してAIモデルを使用する間、アカウントの残高クレジットが消費されます。

サブスクリプションのステータスを確認したり、プランをアップグレードしたりするには、Anakin AIのウェブアプリに移動します。左下隅にあるアバターをクリックして、アップグレードページにアクセスします。現在のアカウントに十分なクレジットがあることを確認してください。

ステップ2:アプリをテストする

次に、テスト用のアプリを選択し、「生成」ボタンをクリックします。正常に実行され、予想される出力を生成することを確認してから、先に進んでください。

ステップ3:APIのドキュメントを表示し、APIアクセストークンを管理する

次に、上部にあるアプリの統合セクションに移動します。このセクションでは、「詳細を表示」をクリックして、Anakin AIが提供するAPIドキュメント、アクセストークンの管理、およびアプリIDを表示できます。

ステップ4:APIアクセストークンを生成する

「APIアクセストークンの管理」ボタンをクリックしてAPIアクセストークンを管理し、「新規トークン」を選択してAPIアクセストークンを生成します。

次のトークン構成を完了し、「保存してトークンを生成」をクリックしてAPIアクセストークンをコピーして保存します。

注意:生成されたAPIアクセストークンは表示されたタイミングでのみ表示されます。すぐに安全にコピーして保存するようにしてください。APIキーを暗号化せずにバックエンド呼び出しを通じて公開することは、直接フロントエンドのコードやリクエスト内に記載するよりも攻撃や乱用を防ぐのに役立ちます。これにより、APIのユーザーはアプリ開発者が提供するAIの能力にアクセスできる一方で、基礎となるプロンプトエンジニアリングや他のツールの機能が維持されます。

アプリごとに複数のAPIアクセストークンを作成し、さまざまなユーザーや開発者に配布することができます。これにより、APIのユーザーはアプリのAI機能にアクセスできる一方で、プロンプトエンジニアリングや他のツールの機能は保持されます。

クイックアプリのAPIの例

クイックアプリは、ブログ投稿や翻訳などの高品質なテキストコンテンツを生成することができます。[Run a Quick App API]を呼び出すことで、ユーザーの入力コンテンツが送信され、生成されたテキスト結果が取得されます。

テキストの生成に使用されるモデルのパラメータやプロンプトテンプレートは、Anakin AIアプリ -> 管理 -> デザインページの入力設定に依存します。

Anakin AIアプリのAPIドキュメントとリクエストの詳細については、「App -> Integration -> API List -> View Details」を参照してください。

以下は、テキスト補完情報を作成するためのAPIコールの例です:

curl --location --request POST 'https://api.anakin.ai/v1/quickapps/{{appId}}/runs' \
--header 'Authorization: Bearer ANAKINAI_API_ACCESS_TOKEN' \
--header 'X-Anakin-Api-Version: 2024-05-06' \
--header 'Content-Type: application/json' \
--data-raw '{
    "inputs": {
        "Product/Service": "Cloud Service",
        "Features": "Reliability and performance.",
        "Advantages": "Efficiency",
        "Framework": "Attention-Interest-Desire-Action"
    },
    "stream": true
}'

TIP: {{appId}}をリクエストしたいappIdに置き換え、ANAKINAI_API_ACCESS_TOKENをステップ4で生成したAPIアクセストークンで置き換えてください。

クイックアプリAPIの詳細については、APIリファレンスを参照してください。

チャットボットアプリのAPIの例

チャットボットアプリでは、自然な質問応答形式でユーザーと対話するチャットボットを作成することができます。[Conversation with Chatbot API]を呼び出して会話を開始し、返されたパラメータ名を続けて渡すことで会話を維持することができます。

Anakin AIアプリのAPIドキュメントとサンプルリクエストについては、「App -> Integration -> API List -> View Details」を参照してください。

以下は、会話メッセージを送信するためのAPIコールの例です:

curl --location --request POST 'https://api.anakin.ai/v1/chatbots/{{appId}}/messages' \
--header 'Authorization: Bearer ANAKINAI_API_ACCESS_TOKEN' \
--header 'X-Anakin-Api-Version: 2024-05-06' \
--header 'Content-Type: application/json' \
--data-raw '{
    "content": "What'\''s your name? Are you the clever one?",
    "stream": true
}'

TIP: {{appId}}をリクエストしたいappIdに置き換え、ANAKINAI_API_ACCESS_TOKENをステップ4で生成したAPIアクセストークンで置き換えてください。

チャットボットAPIについての詳細については、APIリファレンスを参照してください。

Anakin AIのAPI統合を活用することで、プロジェクトに高度なAI機能をシームレスに組み込み、開発プロセスを合理化し、複雑なバックエンドアーキテクチャやデプロイプロセスの管理に関連するコストを削減することができます。

この包括的なガイドでは、Ollamaを使用してローカルで強力なLlama 3 8bおよびDBRX Instruct言語モデルを実行し、Anakin AIのノーコードプラットフォームを使用してコーディングの知識なしでカスタムAIアプリケーションを構築する方法を探りました。また、Anakin AIのAPI統合についても取り上げ、開発者や組織がAnakin AIの強力な製品機能をシームレスに統合し拡張できるようにしました。

これらのツールの機能を組み合わせることで、プロジェクトに高度な自然言語処理とAI技術を活用し、ワークフローを合理化し、生産性を向上させるための無限の可能性を開くことができます。開発者、ビジネスオーナー、または個人ユーザーであっても、このガイドは、常に進化するテクノロジーの環境でAIの力を利用し、先取りできるようにするための知識とリソースを提供します。