Cara Menjalankan Deep Seek Secara Lokal dengan Ollama

Dalam lanskap kecerdasan buatan yang berkembang pesat, kemampuan untuk menjalankan model bahasa yang kuat secara lokal di mesin Anda sendiri menyediakan privasi, kontrol, dan fleksibilitas yang tak tertandingi. DeepSeek-R1, model bahasa mutakhir yang dikembangkan oleh DeepSeek, telah menarik perhatian signifikan karena kinerjanya yang mengesankan dalam tugas penalaran, matematika, dan pemrograman—

Build APIs Faster & Together in Apidog

Cara Menjalankan Deep Seek Secara Lokal dengan Ollama

Start for free
Inhalte

Dalam lanskap kecerdasan buatan yang berkembang pesat, kemampuan untuk menjalankan model bahasa yang kuat secara lokal di mesin Anda sendiri menyediakan privasi, kontrol, dan fleksibilitas yang tak tertandingi. DeepSeek-R1, model bahasa mutakhir yang dikembangkan oleh DeepSeek, telah menarik perhatian signifikan karena kinerjanya yang mengesankan dalam tugas penalaran, matematika, dan pemrograman—bahkan sebanding dengan model milik OpenAI. Panduan komprehensif ini akan membimbing Anda melalui proses menjalankan DeepSeek-R1 secara lokal menggunakan Ollama, platform yang ramah pengguna yang dirancang untuk menyederhanakan penerapan model bahasa besar di komputer pribadi.

Memahami DeepSeek-R1

DeepSeek-R1 adalah representasi dari seri model penalaran generasi pertama DeepSeek, yang dirancang untuk bersaing dengan model komersial kelas atas seperti OpenAI's o1. Yang membuat DeepSeek-R1 sangat menarik adalah tersedia dalam berbagai ukuran, dari versi yang lebih kecil hingga model dengan parameter 671B penuh, menjadikannya dapat diakses di berbagai konfigurasi perangkat keras. Model ini dilisensikan di bawah MIT, memungkinkan untuk aplikasi pribadi dan komersial.

Tim DeepSeek telah menunjukkan bahwa kemampuan penalaran dari model terbesar mereka dapat didistilasi secara efektif menjadi model yang lebih kecil dan lebih mudah dikelola. Ini berarti bahwa bahkan jika Anda tidak memiliki akses ke perangkat keras kelas perusahaan, Anda tetap bisa mendapatkan manfaat dari kemampuan AI canggih pada pengaturan yang lebih sederhana.

Mengapa Ollama?

Ollama telah muncul sebagai salah satu solusi paling populer untuk menjalankan model bahasa besar secara lokal karena:

  • Menyederhanakan instalasi dan manajemen model AI yang kompleks
  • Menangani unduhan model dan inisialisasi secara otomatis
  • Mengoptimalkan model untuk perangkat keras spesifik Anda
  • Menyediakan antarmuka yang mudah digunakan untuk berinteraksi dengan model
  • Men supports a wide range of models beyond just DeepSeek

Persyaratan Sistem

Sebelum memulai, Anda harus memahami bahwa menjalankan model AI secara lokal membutuhkan sumber daya komputasi yang substansial. Persyaratan bervariasi tergantung pada versi DeepSeek-R1 mana yang Anda rencanakan untuk digunakan:

  • Untuk model kecil (1.5B, 7B, atau 8B): CPU modern dengan setidaknya 16GB RAM dan sebaiknya GPU yang layak dengan VRAM 8GB+
  • Untuk model menengah (14B, 32B): GPU yang kuat dengan VRAM 16-24GB sangat dianjurkan
  • Untuk model yang lebih besar (70B): GPU kelas atas dengan VRAM 40GB+ atau beberapa GPU
  • Untuk model penuh 671B: Perangkat keras kelas perusahaan dengan beberapa GPU yang kuat

Dukungan sistem operasi mencakup macOS, Linux, dan Windows.

Panduan Instalasi Langkah demi Langkah

Langkah 1: Instal Ollama

Pertama, mari kita siapkan Ollama di sistem Anda.

Untuk macOS dan Linux:

curl -fsSL https://ollama.com/install.sh | sh

Untuk Windows:
Unduh penginstal dari situs web resmi Ollama dan ikuti wizard instalasi.

Setelah instalasi, verifikasi bahwa Ollama berjalan dengan baik:

ollama --version

Langkah 2: Unduh dan Jalankan DeepSeek-R1

Setelah Ollama terinstal, Anda dapat mengunduh dan menjalankan DeepSeek-R1 dengan satu perintah saja. Pilih ukuran model yang sesuai berdasarkan kemampuan perangkat keras Anda:

Untuk sistem entry-level (versi 1.5B, unduhan 1.1GB):

ollama run deepseek-r1:1.5b

Untuk sistem menengah (versi 7B, unduhan 4.7GB):

ollama run deepseek-r1:7b

Untuk sistem yang lebih baik (versi 8B berdasarkan Llama, unduhan 4.9GB):

ollama run deepseek-r1:8b

Untuk sistem berkinerja tinggi (versi 14B, unduhan 9.0GB):

ollama run deepseek-r1:14b

Untuk sistem yang sangat kuat (versi 32B, unduhan 20GB):

ollama run deepseek-r1:32b

Untuk perangkat keras perusahaan (versi 70B, unduhan 43GB):

ollama run deepseek-r1:70b

Untuk cluster penelitian (model 671B penuh, unduhan 404GB):

ollama run deepseek-r1:671b

Ketika Anda menjalankan perintah ini untuk pertama kalinya, Ollama akan secara otomatis mengunduh dan menyiapkan model. Ini mungkin memakan waktu tergantung pada koneksi internet Anda dan ukuran model.

Langkah 3: Berinteraksi dengan DeepSeek-R1

Setelah model dimuat, Anda akan disajikan antarmuka baris perintah di mana Anda dapat mulai berinteraksi dengan DeepSeek-R1. Cukup ketik pertanyaan Anda dan tekan Enter.

>>> Apa perbedaan utama antara pembelajaran terawasi dan tidak terawasi?

DeepSeek-R1 akan memproses query Anda dan memberikan respon berdasarkan pelatihannya.

Langkah 4: Penggunaan Lanjutan

Ollama menawarkan beberapa fitur canggih yang dapat meningkatkan pengalaman Anda dengan DeepSeek-R1:

Parameter kustom:

ollama run deepseek-r1:8b --temperature 0.7 --top-p 0.9

Menggunakan API:
Ollama juga menyediakan API HTTP yang memungkinkan Anda mengintegrasikan model ke dalam aplikasi Anda:

curl -X POST http://localhost:11434/api/generate -d '{
  "model": "deepseek-r1:8b",
  "prompt": "Jelaskan komputer kuantum dalam istilah sederhana",
  "stream": false
}'

Menggunakan Anakin AI: Alternatif yang Kuat

Membangun Alur Kerja AI dengan Mudah menggunakan Anakin AI!
Membangun Alur Kerja AI dengan Mudah menggunakan Anakin AI

Sementara menjalankan model secara lokal dengan Ollama menawarkan kontrol dan privasi yang hebat, hal ini membutuhkan sumber daya komputasi yang signifikan dan pengaturan teknis. Bagi banyak pengguna, terutama mereka yang tidak memiliki akses ke perangkat keras yang kuat, Anakin AI menyediakan alternatif yang sangat baik yang memungkinkan Anda merasakan DeepSeek dan model kuat lainnya tanpa kompleksitas instalasi lokal.

Anakin AI adalah platform all-in-one yang menawarkan:

  1. Akses Langsung: Gunakan DeepSeek dan model kuat lainnya langsung di browser Anda tanpa mengunduh atau menginstal apa pun.
  2. Antarmuka Ramah Pengguna: Antarmuka percakapan yang bersih dan intuitif yang membuat berinteraksi dengan model AI menjadi sederhana dan langsung.
  3. Dukungan Model Multiple: Akses tidak hanya ke DeepSeek tetapi juga berbagai model lainnya seperti Llama, Mistral, Dolphin, dan banyak LLM open-source lainnya.
  4. Tidak Ada Pembatasan Perangkat Keras: Jalankan percakapan dengan model besar bahkan di perangkat keras sederhana seperti laptop atau tablet.
  5. Percakapan Persisten: Semua obrolan Anda disimpan dan terorganisir, memudahkan untuk merujuk interaksi sebelumnya.
  6. Fitur Canggih: Buat aplikasi AI, integrasikan dengan data Anda, dan bangun alur kerja kustom.

Untuk memulai dengan Anakin AI, cukup:

  1. Kunjungi https://anakin.ai
  2. Buat akun atau masuk
  3. Pilih DeepSeek dari model yang tersedia
  4. Mulai percakapan segera tanpa pengaturan apa pun

Pendekatan ini sangat bermanfaat bagi:

  • Pengguna dengan sumber daya perangkat keras terbatas
  • Mereka yang membutuhkan akses cepat tanpa pengaturan teknis
  • Tim yang ingin berkolaborasi menggunakan infrastruktur AI yang sama
  • Pengembang yang menguji berbagai model sebelum melakukan penyebaran lokal

Tips Optimasi Kinerja

Jika Anda menjalankan DeepSeek secara lokal dengan Ollama, berikut adalah beberapa tips untuk mengoptimalkan kinerja:

  1. Percepatan GPU: Pastikan driver GPU Anda diperbarui dan dikonfigurasi dengan benar untuk kinerja maksimum.
  2. Manajemen Memori: Tutup aplikasi yang tidak perlu saat menjalankan model yang lebih besar untuk membebaskan sumber daya sistem.
  3. Kuantisasi: Ollama secara otomatis menerapkan kuantisasi untuk mengurangi penggunaan memori, tetapi Anda dapat bereksperimen dengan pengaturan kuantisasi yang berbeda sesuai kebutuhan Anda.
  4. Manajemen Jendela Konteks: Perhatikan panjang prompt dan tanggapan Anda, karena percakapan yang sangat panjang dapat mengonsumsi lebih banyak memori dan memperlambat tanggapan.
  5. Pendinginan: Menjalankan model AI bisa sangat berat secara komputasional dan menghasilkan panas. Pastikan sistem Anda memiliki pendinginan yang tepat untuk mencegah throttling termal.

Membangun Aplikasi dengan DeepSeek-R1

Di luar interaksi percakapan sederhana, DeepSeek-R1 dapat diintegrasikan ke dalam berbagai aplikasi:

Generasi dan Analisis Kode:
DeepSeek-R1 unggul dalam tugas yang berkaitan dengan kode, menjadikannya berharga bagi pengembang yang ingin:

  • Menghasilkan potongan kode berdasarkan persyaratan
  • Memperbaiki kode yang ada
  • Mengoptimalkan algoritma
  • Menerjemahkan antar bahasa pemrograman

Penelitian dan Analisis:
Kemampuan penalaran model ini menjadikannya sangat cocok untuk:

  • Menyimpulkan makalah akademis
  • Menganalisis tren data
  • Menghasilkan hipotesis
  • Membuat laporan terstruktur

Pembuatan Konten:
Gunakan DeepSeek-R1 untuk:

  • Menulis dan mengedit artikel
  • Membuat salinan pemasaran
  • Menghasilkan konten kreatif
  • Menerjemahkan antar bahasa

Kesimpulan

Menjalankan DeepSeek-R1 secara lokal dengan Ollama merupakan langkah signifikan dalam mendemokratisasi akses ke model AI yang kuat. Pendekatan ini memberi Anda kontrol penuh atas data dan interaksi Anda sambil memanfaatkan kemampuan pemrosesan bahasa mutakhir. Tergantung pada sumber daya perangkat keras dan tingkat kenyamanan teknis Anda, Anda dapat memilih antara menjalankan model secara lokal melalui Ollama atau mengaksesnya melalui platform ramah pengguna seperti Anakin AI.

Seiring perkembangan teknologi AI, kemampuan untuk menjalankan model ini secara lokal akan semakin penting bagi individu yang peduli dengan privasi, pengembang yang bekerja dengan data sensitif, dan organisasi yang ingin membangun aplikasi proprietary tanpa bergantung pada API pihak ketiga.

Apakah Anda seorang pengembang yang membangun generasi berikutnya dari aplikasi bertenaga AI, peneliti yang menjelajahi kemampuan model bahasa besar, atau sekadar penggemar yang tertarik mengalami AI mutakhir, DeepSeek-R1 dengan Ollama menawarkan solusi yang kuat dan fleksibel yang menempatkan kemampuan AI canggih langsung di ujung jari Anda.

Dengan pengaturan dan sumber daya yang tepat, Anda dapat memanfaatkan kekuatan DeepSeek-R1 untuk segala hal mulai dari generasi teks sederhana hingga tugas penalaran kompleks, semuanya sambil menjaga kontrol penuh atas data dan sumber daya komputasi Anda. Dan untuk saat-saat ketika komputasi lokal tidak praktis, ingatlah bahwa solusi seperti Anakin AI menyediakan alternatif yang nyaman yang menjaga kekuatan model AI canggih hanya dalam beberapa klik.