魅力的なAI生成ビデオの作成にわくわくしていますが、クラウドサービスの制限を回避したいですか?LTXV 13Bモデルは、オープンソースのビデオ生成において大きなブレークスルーを示しており、商業ソリューションに匹敵する印象的な品質を提供します。この包括的なガイドでは、この強力なAIビデオジェネレーターを自分のコンピュータにインストールし、実行する方法を説明し、創造プロセスに完全にコントロールを与えます。
開発者やコンテンツクリエイター、AI愛好者であれば、このステップバイステップのチュートリアルでは、基本的な要件からWindows、macOS、Linuxシステムにおける高度な構成に至るまで、すべてをカバーしています。
Anakin AI

始める前に:LTXV 13Bインストールのための重要な準備

さて、袖をまくってインストールの詳細に入る前に、簡単な「事前チェック」を行いましょう。これらの基礎的な要素を今整理しておくことで、全体のプロセスがずっとスムーズになり、将来の頭痛を避けることができます。それはまるで、傑作を焼く前にすべての材料と道具を集めることのようです!
VRAM:あなたのAIエンジンの命の源
LTXV 13Bは高度なモデルであり、高性能なエンジンのように、効果的に動作するには十分な燃料が必要です。AIの領域では、その燃料はビデオRAM(VRAM)であり、あなたのグラフィックカードの専用メモリです。
- 理想的なシナリオ(12GB以上のVRAM):完全で妥協のないltxv-13b-0.9.7-dev.safetensorsモデルを実行し、最高のパフォーマンスを達成するためには、少なくとも12GBのVRAMを備えたGPUが強く推奨されます。これにより、スムーズな生成とより複雑なタスクが可能になります。
- 8GB VRAMで動作:一部のユーザーは8GBのVRAMでLTXV 13Bを成功裏に動作させたと報告しています。しかし、生成時間が遅くなる可能性があり、設定にもっと注意が必要になるかもしれません。おそらく短いクリップを生成したり、解像度を下げて生成したりする必要があります。
- 低VRAMソリューション(6-8GB):グラフィックカードにより控えめなVRAM(例えば6-8GB)がある場合でも、絶望しないでください!AIコミュニティには巧妙な解決策があります。量子化されたモデル、具体的にはltxv-13b-0.9.7-dev-fp8.safetensors(またはHugging Faceで見つかるKijaiのFP8バージョンなど)は、リソースに対してはるかに軽量に設計されています。これらのsafetensorsファイルは小さく、要求が少ないため、低VRAMインストールが完全に実現可能です。
ストレージスペース:あなたのAI創造に成長の余地を与える
AIモデル、特にビデオ生成用に設計されたものは、それらに関連するファイルとともに、かなりのディスクスペースを占有する可能性があります。
- 大量の空きディスクスペースがあるか確認しましょう - 少なくとも30-50GBを目指すのが安全な選択です。これにより、ComfyUI自体、Pythonインストール、LTXVモデル(完全版は約10-15GB それぞれ)、必要なテキストエンコーダー、アップスケーラーモデル、そして生成したビデオを快適に収容できます。
安定したインターネット接続
いくつかのコンポーネント、GitHubからのソフトウェアリポジトリ、およびHugging Faceなどのプラットフォームからの大きなモデルファイルをダウンロードします。安定して適度な速度のインターネット接続があれば、このプロセスが遥かに快適になり、イライラする中断を防げます。
コアソフトウェアツール:PythonとGit
これらは私たちのプロジェクトの基礎的なソフトウェアビルディングブロックです。
- Python:LTXV 13BとComfyUIは、一般的にPythonバージョン3.10で最もよく機能します。この特定のバージョンを各オペレーティングシステム用にインストールする手順を案内します。
- Git & Git LFS:Gitはリポジトリからソフトウェアプロジェクトを「クローン」(ダウンロードおよび管理)するために使用される重要なバージョン管理システムです。Git LFS(Large File Storage)は、LTXV Huggingfaceなどで一般的に見つかる非常に大きなモデルファイルを処理するために重要なGitの拡張機能です。
これらの前提条件を理解し、希望的に整えてから、次の興奮する部分に進みましょう - 実際のインストールです!macOS、Windows、Linuxのための詳細なステップバイステップの指示を提供します。
macOS LTXV 13Bインストールガイド(Apple Siliconを活用)

Apple Silicon Macs(M1、M2、M3、M4シリーズ)を使用している方には、このセクションがLTXV 13Bをセットアップする手順を案内し、GPUアクセラレーションのためにAppleのMetal Performance Shaders(MPS)を活用します。
ステップ1:Homebrewをインストール(欠けているパッケージマネージャー)
Homebrewがまだインストールされていない場合、それはmacOSでソフトウェアをインストールするための非常に便利なツールです。
- ターミナルアプリケーションを開きます(アプリケーション > ユーティリティの中に見つけることができるか、Spotlightで検索してください)。
次のコマンドをコピーし、それをターミナルに貼り付けてEnterを押します:
/bin/bash -c "$(curl -fsSL https://raw.githubusercontent.com/Homebrew/install/HEAD/install.sh)"
- インストールを完了するための画面上のプロンプトに従います。Homebrewがあなたのパスワードを要求する場合があります。
ステップ2:Python 3.10をインストール
前述のように、Python 3.10がターゲットバージョンです。
brew install python@3.10
HomebrewがPython 3.10をダウンロードしてインストールします。
ステップ3:GitとGit LFSをインストール
これらはComfyUIとモデルファイルをダウンロードするために必要です。
brew install git git-lfs
git lfs install
git lfs installコマンドは、あなたのユーザーアカウントのためにGit LFSを初期化し、大きなファイルを正しく処理可能にします。
ステップ4:プロジェクトディレクトリと仮想環境を作成する
プロジェクトを整然と保ち、依存関係を隔離しておくのは良い習慣です。
- LTXVプロジェクト専用のディレクトリを作成し、その中に移動します:
mkdir LTXV_ComfyUI_Project
cd LTXV_ComfyUI_Project
- Pythonの仮想環境を作成します。これは、このプロジェクトのPythonパッケージのための隔離されたスペースを作成し、他のプロジェクトやシステムのPythonインストールとの競合を防ぎます。
python3.10 -m venv venv
source venv/bin/activate
仮想環境がアクティブであることは、ターミナルプロンプトの先頭に(venv)が表示されることでわかります。
ステップ5:MPSサポート付きのPyTorchをインストール
PyTorchはLTXV 13Bが基づく深層学習フレームワークです。
LTXVは最適なMPSサポートのためにPyTorch 2.3.0または新しいバージョンを必要とします。一般的に最新の安定版をインストールするのが最善です。macOS用の最新のインストールコマンドは公式PyTorchウェブサイトで確認でき、一般的なコマンドを使用することもできます:
pip install torch torchvision torchaudio
- このコマンドは、アクティブな仮想環境にPyTorchとその関連ライブラリをダウンロードしてインストールします。
ステップ6:ComfyUIリポジトリをクローン
さて、ComfyUI自体を入手しましょう。公式のGitHubリポジトリからクローンします。
git clone https://github.com/comfyanonymous/ComfyUI.git
cd ComfyUI
これにより、ComfyUIコードが新しいComfyUIフォルダにダウンロードされ、現在のディレクトリがそれに変更されます。
ステップ7:ComfyUI依存関係をインストール
仮想環境がまだアクティブな状態で、ComfyUIディレクトリ内にいる状態で、ComfyUIが必要とするPythonパッケージをインストールします:
pip install -r requirements.txt
ステップ8:ComfyUIマネージャーをインストール(強く推奨!)
ComfyUIマネージャーは、カスタムノード(LTXV用のものなど)を簡素化してインストールおよび管理するための非常に便利な拡張機能です。
- ComfyUIのカスタムノードディレクトリに移動します:
cd custom_nodes - このディレクトリにComfyUIマネージャーリポジトリをクローンします:
git clone https://github.com/ltdrdata/ComfyUI-Manager.git - ComfyUIのメインディレクトリに戻ります:
cd ..
ステップ9:ComfyUIの最初の起動とLTXVノードのインストール
ComfyUIを実行します。--force-fp16フラグは、計算を16ビット浮動小数点精度に強制することで、Mac上でパフォーマンスを向上させる場合がありますが、このフラグなしで実行してみることもできます。
python main.py --force-fp16
- ウェブブラウザ(SafariやChromeなど)を開き、http://127.0.0.1:8188にアクセスします。ComfyUIインターフェースが読み込まれるはずです。
- ComfyUIマネージャーが正しくインストールされていれば、ComfyUIインターフェースに「マネージャー」ボタンが表示されます。クリックしてみてください。
- マネージャーメニューで「カスタムノードのインストール」をクリックします。
- 検索バーを使用してComfyUI-LTXVideoを見つけます。これはLightricksからの公式ノードパッケージで、しばしばLTXVのGitHubやHugging Faceページからリンクされています。「インストール」をクリックします。
- ComfyUI-VideoHelperSuiteのインストールも強く推奨されます。探して「インストール」をクリックしてください。このスイートはビデオワークフローに役立つ多くのユーティリティを提供します。
- 重要なステップ:新しいノードをインストールした後は、必ずComfyUIを再起動してください。ComfyUIが実行されているターミナルウィンドウを閉じ(通常はCtrl+C)、再度python main.py --force-fp16をComfyUIディレクトリから実行してください。
ステップ10:LTXV 13Bモデルファイルと必要なエンコーダーをダウンロード
ここで、実際のAIの「脳」を取得します。これらはLightricks LTX-Video Hugging Faceページからダウンロードする必要があります。
- LTXV 13Bモデル:
- 最高品質のために(12GB VRAM以上がある場合):ltxv-13b-0.9.7-dev.safetensors
- 低VRAM環境の場合:ltxv-13b-0.9.7-dev-fp8.safetensors
- ダウンロードした.safetensorsファイルをComfyUI/models/checkpoints/ディレクトリに配置します。
- テキストエンコーダー:これらのモデルはLTXVがあなたのテキストプロンプトを理解するのに役立ちます。
- T5エンコーダー:t5xxl_fp16.safetensors(またはFP8 LTXVモデルを使用している場合はt5xxl_fp8_e4m3fn.safetensorsなど)をダウンロードします。これらは通常LTXVドキュメントからリンクされているか、Hugging Faceで見つかります。これらをComfyUI/models/clip/に配置します。
PixArtテキストエンコーダー:このエンコーダーは通常、そのリポジトリをクローンすることで取得します。ターミナル(venvがアクティブで、メインプロジェクトディレクトリにいることを確認してください、ComfyUIではありません):
cd path/to/your/LTXV_ComfyUI_Project/ComfyUI/models/
mkdir -p text_encoders # ディレクトリが存在しない場合は作成します
cd text_encoders
git clone https://huggingface.co/PixArt-alpha/PixArt-XL-2-1024-MS
cd ../../.. # プロジェクトのComfyUIディレクトリに戻ります
- アップスケーラーモデル:生成されたビデオの解像度を向上させるためのものです。Lightricks Hugging Faceページからltxv-spatial-upscaler-0.9.7.safetensorsとltxv-temporal-upscaler-0.9.7.safetensorsをダウンロードします。
- これらをComfyUI/models/upscale_models/に配置します。
ステップ11:FFmpegをインストール(ビデオ保存の問題が発生した場合)
ComfyUIはビデオファイルを処理して保存するためにFFmpegに依存している。生成したビデオを保存しようとしてエラーが発生した場合:
brew install ffmpeg
ステップ12:ComfyUIを実行して作成を始める!
- メインComfyUIディレクトリから(venvがアクティブの状態で)、ComfyUIを起動します:python main.py --force-fp16。
- 例のLTXV ComfyUIワークフローをロードします。これらのJSONファイルはComfyUI-LTXVideo/example_workflowsディレクトリにあります(例えば、ltxv-13b-i2v-base.jsonは画像からビデオ、ltxv-13b-i2v-base-fp8.jsonはFP8 LTXVモデルを使用している場合)。JSONファイルをブラウザのComfyUIインターフェースにドラッグアンドドロップします。
- プロンプト、入力画像(LTX画像からビデオワークフロー用)、その他の設定を必要に応じて変更し、「キューをプロンプト」をクリックして生成を開始します!
macOSユーザーの皆さん、これで準備は整いました!セットアップを満喫した後、Windowsに移りましょう。
Windows LTXV 13Bインストールガイド(NVIDIAパワーの活用)

Windowsユーザー、特にNVIDIA GPUを持つ方、このセクションはLTXビデオジェネレーターをローカルでセットアップするための包括的なガイドです!
ステップ1:Python 3.10をインストール
- 公式PythonウェブサイトのWindowsダウンロードページに移動します。Python 3.10.xバージョンのインストーラーをダウンロードします。
- 非常に重要:インストールプロセス中に、「Python 3.10をPATHに追加」というボックスにチェックを入れます。これにより、追加の設定なしでコマンドラインからPythonにアクセスできるようになります。
ステップ2:Windows用Gitをインストール
- 公式GitウェブサイトからWindows用のGitをダウンロードします。
- インストーラーを実行します。インストール中に、「Git LFS(Large File Storage)」をインストールするコンポーネントの一つとして含めることを確認してください。
ステップ3:NVIDIA CUDA Toolkitをインストール(GPUアクセラレーションに必須)
NVIDIA GPUを持っている場合、CUDA ToolkitはPyTorchなどのソフトウェアがGPUを計算に利用可能にし、速度を大幅に向上させます。
- NVIDIA CUDA Toolkitダウンロードページにアクセスします。
- PyTorchおよびGPUに適合するバージョンをダウンロードしてインストールします。LTXVはCUDA 12.2でテストされましたが、CUDA 12.1またはそれ以降のバージョンが一般的にうまく機能します。次の手順でのPyTorchインストールセレクターも、適合するCUDAバージョンについてガイドします。
ステップ4:プロジェクトディレクトリと仮想環境を設定する
- コマンドプロンプト(cmd)またはPowerShellを開きます。
- プロジェクトディレクトリを作成します:mkdir LTXV_ComfyUI_Project
- その中に移動します:cd LTXV_ComfyUI_Project
- Pythonの仮想環境を作成します:python -m venv venv
- 仮想環境をアクティブにします:.\venv\Scripts\activate
コマンドプロンプトの先頭に(venv)が表示され、環境がアクティブであることを示します。
ステップ5:CUDAサポート付きのPyTorchをインストール
- 公式PyTorchウェブサイトのローカルインストールページにアクセスします。
- セレクターを使用して、Stable、Windows、Pip、Python、インストール済みのCUDAバージョン(例:CUDA 12.1)を選びます。
生成されたインストールコマンドをコピーします。これは以下のようになります(CUDAバージョンが合っていることを確認してください):
pip3 install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu121
- このコマンドをアクティブな仮想環境で実行します。
ステップ6:ComfyUIを取得(クローンまたはスタンドアロンパッケージを使用)
オプションA:クローン(更新や管理のために推奨):
git clone https://github.com/comfyanonymous/ComfyUI.git
cd ComfyUI
- オプションB:スタンドアロンパッケージ:ComfyUIも組み込みのPython環境を持つWindows用スタンドアロンパッケージを提供しています。これを選択した場合は、ダウンロードして抽出します。カスタムノードやモデルの設定は似たようなものになりますが、一部のパスが若干異なる場合があります。
ステップ7:ComfyUI依存関係をインストール
ComfyUIをクローンし、自分の仮想環境を使用している場合(ステップ4で作成したもの):
pip install -r requirements.txt
(スタンドアロンのComfyUIパッケージを使用している場合、このステップは内部のスクリプトで管理されるかもしれません。)
ステップ8:ComfyUIマネージャーをインストール
- ComfyUIインストール内のcustom_nodesディレクトリに移動します(例:クローンしている場合はcd custom_nodes)。
ComfyUIマネージャーリポジトリをクローンします:
git clone https://github.com/ltdrdata/ComfyUI-Manager.git
- ComfyUIのメインディレクトリに戻ります:cd ..
ステップ9:最初の起動とマネージャーを介してLTXVノードをインストール
- ComfyUIを実行します:
- クローンした場合:python main.py
- スタンドアロンパッケージを使用している場合:提供された.batファイル(例:run_nvidia_gpu.bat)を使用します。
- ウェブブラウザでhttp://127.0.0.1:8188を開きます。
- 「マネージャー」ボタンをクリックした後、「カスタムノードのインストール」をクリックします。
- ComfyUI-LTXVideoを検索して「インストール」をクリックします。
- ComfyUI-VideoHelperSuiteを検索して「インストール」をクリックします。
- 新しいノードがロードされるためにComfyUIを再起動します(ターミナル/スクリプトを閉じて再実行します)。
ステップ10:LTXV 13Bモデルファイルとエンコーダーをダウンロード
このプロセスはmacOSのステップ10と同じです。これはLTXV 13Bのダウンロードおよびセットアップの重要な部分です。
- LTXV 13Bモデル(.safetensors):全体またはFP8バージョンをComfyUI\models\checkpoints\に配置します。
- Windows低VRAMのヒント:Hugging FaceからKijaiのFP8量子化モデルを検討してください。Q8カーネルビルドに問題が発生した場合、公式FP8よりも簡単に設定できることがあります(次のステップを参照)。
- テキストエンコーダー:
- T5(.safetensors)をComfyUI\models\clip\に配置します。
- PixArt(git clone ...)をComfyUI\models\text_encoders\に配置します。(git cloneコマンドはmacOSのステップ10を参照し、必要に応じてWindows用のパスに適応してください、例:cd ComfyUI\models\text_encoders && git clone ...)。
- アップスケーラーモデル(.safetensors):ComfyUI\models\upscale_models\に配置します。
ステップ11:(公式FP8モデル用のオプションだが推奨)LTX-Video-Q8-Kernelsをインストール
このステップは、公式ltxv-13b-0.9.7-dev-fp8.safetensorsモデルの最適なパフォーマンスを有効にするために、特定の量子化カーネルをインストールします。
- 前提条件:これは複雑な場合があります。CUDA 12.8以上の互換性のあるGPU(しばしばRTX 40xxシリーズまたはそれ以降)とMicrosoft C++ Build Tools(Visual Studio Installerを介してインストール可能で、「C++によるデスクトップ開発」作業負荷を選択する必要があります)が必要です。
- 前提条件を満たしていて、続行することを選択した場合:
- ComfyUIのvenvがアクティブであることを確認してください。
リポジトリをクローンします:
git clone https://github.com/Lightricks/LTX-Video-Q8-Kernels.git
cd LTX-Video-Q8-Kernels
カーネルをインストールします:
python setup.py install
- このステップが難しすぎる場合、KijaiのFP8モデルは、これらのカスタムカーネルなしで動作することが多く、低VRAMのインストールを簡略化します。
ステップ12:ComfyUIを実行してビデオの創造力を解き放つ!
- メインディレクトリからComfyUIを起動します:python main.py。
- LTXVワークフローJSONファイルを読み込み、ユニークなLTX AIビデオコンテンツの生成を開始します!
Windowsのインストールが完了しました!さあ、Linuxユーザーについて確認しましょう。
Linux LTXV 13Bインストールガイド(オープンソースの柔軟性を活かす)

Linuxユーザーの皆さん、ようこそ!LinuxでLTXV 13Bをインストールするプロセスは堅牢で、コマンドラインとLinux環境の柔軟性を活かしています。
ステップ1:Python、Git、ビルド必需品をインストール
あなたのディストリビューションのパッケージマネージャーを使用します。Debian/Ubuntu系システムの場合:
sudo apt update
sudo apt install python3.10 python3.10-venv python3-pip git git-lfs build-essential
git lfs install --system # または --user
build-essentialパッケージ(またはArch Linuxのbase-develなどの同等品)は、一部のPythonパッケージやオプションのQ8カーネルに必要なコンパイラやツールを提供します。
ステップ2:NVIDIA CUDA Toolkitをインストール
NVIDIAの公式ドキュメントに従って、特定のLinuxディストリビューション用のCUDA Toolkitをインストールします。通常、NVIDIAのソフトウェアリポジトリを追加し、その後適切なドライバとツールキットのバージョンをパッケージマネージャーを使用してインストールします。
ステップ3:プロジェクトディレクトリと仮想環境を設定する
mkdir LTXV_ComfyUI_Project && cd LTXV_ComfyUI_Project
python3.10 -m venv venv
source venv/bin/activate
ステップ4:CUDAサポート付きのPyTorchをインストール
公式PyTorchウェブサイトのローカルインストールページにアクセスします。Linux、Pip、Python、およびインストール済みのCUDAバージョンを選択し、アクティブな仮想環境で提供されたインストールコマンドを実行します。例えば、CUDA 12.1の場合:
pip3 install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu121
ステップ5:ComfyUIリポジトリをクローン
git clone https://github.com/comfyanonymous/ComfyUI.git
cd ComfyUI
ステップ6:ComfyUI依存関係をインストール
pip install -r requirements.txt
ステップ7:ComfyUIマネージャーをインストール
cd custom_nodes
git clone https://github.com/ltdrdata/ComfyUI-Manager.git
cd ..
ステップ8:最初の起動とマネージャーを介してLTXVノードをインストール
- ComfyUIを実行します:python main.py
- ウェブブラウザでhttp://127.0.0.1:8188にアクセスします。
- マネージャーを利用して(「マネージャーボタンをクリック -> カスタムノードのインストール」)ComfyUI-LTXVideoとComfyUI-VideoHelperSuiteを見つけてインストールします。
- ComfyUIを再起動します(ターミナルでCtrl+Cを押してから、再度python main.pyを実行)。
ステップ9:LTXV 13Bモデルファイルとエンコーダーをダウンロード
これはmacOSのステップ10 / Windowsのステップ10で詳述した手順と同じです。LTXV 13Bモデル(.safetensors)、T5テキストエンコーダー(.safetensors)、PixArtテキストエンコーダーリポジトリをクローンし、Lightricks LTX-Video Hugging Faceページからアップスケーラーモデル(.safetensors)をダウンロードします。これらを各ComfyUI/models/サブディレクトリ(checkpoints、clip、text_encoders、upscale_models)に配置します。このLTXV 13Bダウンロードステップは非常に重要です。
ステップ10:(オプション)LTX-Video-Q8-Kernelsをインストール
これはWindowsのステップ11と同様ですが、Linux用です。build-essential(またはあなたのディストリビューションのC++コンパイラ用の同等品)がインストールされていることを確認してください。
- venvをアクティブにします。
- リポジトリをクローンします:git clone https://github.com/Lightricks/LTX-Video-Q8-Kernels.git
- ディレクトリに移動します:cd LTX-Video-Q8-Kernels
- カーネルをインストールします:python setup.py install
再度言いますが、これが問題を引き起こす場合、代替のFP8モデル(Kijaiのようなもの)が低VRAMのインストールを簡素化できることがあります。
ステップ11:ComfyUIを実行してビデオ生成の旅を始めよう!
- メインディレクトリからComfyUIを実行します:python main.py。
- LTXV ComfyUIワークフローJSONファイルを読み込み、強力なComfyUIビデオ生成を始めます!
LTXV 13Bがこれほどの興奮を引き起こす理由
包括的なLTXV 13Bインストールプロセスを経てきましたが、この特定のLTXビデオジェネレーターが急速に進化するAIの風景の中でどのように際立っているのでしょうか?
- オープンソースの精神:LTXV 13Bは、Lightricksの優れたチームによって開発されたオープンソースのAIビデオモデルです。これは非常に重要で、世界中の開発者や研究者がそのアーキテクチャを検討し、修正し、その基盤の上に構築できることを可能にします。このコラボレーティブなアプローチは急速な革新を促進し、強力なAIツールへのアクセスを民主化します。メインリポジトリを見つけ、 GitHub(Lightricks/LTX-Video)で貢献または詳しく学ぶことができます。
- 卓越したビデオ品質:LTXV 13Bは高い忠実度と視覚的に魅力的なビデオコンテンツを生成するように設計されています。詳細なテキストプロンプトから始める場合でも、既存の画像をLTX画像からビデオ生成のベースとして使用する場合でも、その結果は驚くほど印象的であり、しばしば動きや美学についての強い理解を示します。
- ComfyUIとのシームレスな統合:LTXV 13BとComfyUIの相乗効果は大きな利点です。ComfyUIのノードベースのインターフェースは、複雑で高度にカスタマイズ可能なLTXV ComfyUIワークフローを可能にします。異なるモデルを結合し、さまざまな生成パラメータを正確に制御し、より柔軟なAIツールでは許可されていない方法で複雑なパイプラインを試すことができます。これにより、比類のない創造的自由が提供されます。
- 継続的な開発と改善:AI分野は驚異的なスピードで進歩しており、LTXV 13Bも例外ではありません。モデルとその関連するComfyUIノードは、Lightricksとコミュニティによって積極的に更新され、改善、バグ修正、新機能が定期的に追加されています。最新の進展に遅れないようにするために、LTXV HuggingfaceページおよびLTXV GitHubのComfyUI-L