Cara Mengunduh dan Menjalankan Deepseek R1 Secara Lokal di PC Anda

💡Tertarik dengan tren terbaru dalam AI? Maka, Anda tidak boleh melewatkan Anakin AI! Anakin AI adalah platform all-in-one untuk semua otomatisasi alur kerja Anda, membuat aplikasi AI yang kuat dengan Pembuat Aplikasi Tanpa Kode yang mudah digunakan, dengan Deepseek, OpenAI's o3-mini-high, Claude 3.7 Sonnet, FLUX, Minimax Video, Hunyuan... Bangun

Build APIs Faster & Together in Apidog

Cara Mengunduh dan Menjalankan Deepseek R1 Secara Lokal di PC Anda

Start for free
Inhalte
💡
Tertarik dengan tren terbaru dalam AI?

Maka, Anda tidak boleh melewatkan Anakin AI!

Anakin AI adalah platform all-in-one untuk semua otomatisasi alur kerja Anda, membuat aplikasi AI yang kuat dengan Pembuat Aplikasi Tanpa Kode yang mudah digunakan, dengan Deepseek, OpenAI's o3-mini-high, Claude 3.7 Sonnet, FLUX, Minimax Video, Hunyuan...

Bangun Aplikasi AI Impian Anda dalam hitungan menit, bukan minggu dengan Anakin AI!

Pendahuluan

Kecerdasan buatan telah membuat kemajuan yang luar biasa dalam beberapa tahun terakhir, dengan model bahasa yang kuat semakin dapat diakses oleh pengguna sehari-hari. DeepSeek R1, yang dikembangkan oleh DeepSeek, merupakan salah satu model AI open-source yang paling canggih yang tersedia saat ini. Yang membuat DeepSeek R1 sangat mengesankan adalah kemampuannya untuk mencocokkan model komersial seperti OpenAI's o1 dan Claude 3.5 Sonnet dalam tugas matematika, pengkodean, dan penalaran, sambil tersedia untuk penggunaan lokal.

Dalam tutorial komprehensif ini, kami akan membimbing Anda melalui proses mengunduh dan menjalankan DeepSeek R1 secara lokal di PC Anda. Kami juga akan memperkenalkan Anda pada Anakin AI, platform yang kuat yang menawarkan cara alternatif untuk memanfaatkan kemampuan DeepSeek tanpa beban teknis dari instalasi lokal.

Memahami DeepSeek R1

DeepSeek R1 adalah seri model penalaran generasi pertama DeepSeek, tersedia dalam berbagai ukuran untuk mengakomodasi konfigurasi perangkat keras yang berbeda. Dari versi kecil yang didistilasi hingga model penuh dengan 671B parameter, DeepSeek R1 memberikan fleksibilitas bagi pengguna dengan berbagai sumber daya komputasi. Model ini berlisensi di bawah MIT, memungkinkan untuk aplikasi pribadi dan komersial.

DeepSeek R1 unggul dalam:

  • Generasi teks: Menciptakan artikel, ringkasan, dan konten kreatif
  • Bantuan kode: Menghasilkan dan melakukan debugging kode di berbagai bahasa pemrograman
  • Pemahaman bahasa alami: Menginterpretasikan masukan manusia dengan pemahaman yang nuansa
  • Pertanyaan-jawaban: Memberikan respons informatif berbasis konteks

Persyaratan Sistem

Sebelum mencoba menjalankan DeepSeek R1 secara lokal, pastikan sistem Anda memenuhi persyaratan yang diperlukan. Ini bervariasi tergantung pada versi model mana yang Anda rencanakan untuk digunakan:

  • Untuk model yang lebih kecil (1.5B, 7B, atau 8B): CPU modern dengan minimal 16GB RAM dan lebih disukai GPU dengan VRAM 8GB+
  • Untuk model menengah (14B, 32B): GPU yang kuat dengan VRAM 16-24GB
  • Untuk model yang lebih besar (70B): GPU kelas atas dengan VRAM 40GB+ atau beberapa GPU
  • Untuk model penuh 671B: Perangkat keras kelas perusahaan dengan beberapa GPU yang kuat

DeepSeek R1 mendukung sistem operasi macOS, Linux, dan Windows.

Menggunakan Ollama untuk Menjalankan DeepSeek R1 Secara Lokal

Ollama telah muncul sebagai salah satu solusi paling populer untuk menjalankan model bahasa besar secara lokal. Ini menyederhanakan proses dengan menangani unduhan model, inisialisasi, dan optimasi untuk perangkat keras spesifik Anda.

Langkah 1: Instal Ollama

Pertama, mari kita instal Ollama di sistem Anda:

Untuk macOS:

brew install ollama

Jika Homebrew belum diinstal, kunjungi brew.sh dan ikuti petunjuk pengaturannya.

Untuk Windows: Unduh Ollama dari situs web resmi dan ikuti wizard instalasi.

Untuk Linux:

curl -fsSL <https://ollama.com/install.sh> | sh

Setelah instalasi, verifikasi bahwa Ollama berjalan dengan baik:

ollama --version

Langkah 2: Unduh DeepSeek R1

Setelah Ollama terinstal, Anda dapat mengunduh DeepSeek R1 dengan perintah sederhana. Pilih ukuran model yang sesuai berdasarkan kemampuan perangkat keras Anda:

ollama pull deepseek-r1

Untuk versi yang lebih kecil, tentukan ukuran model:

ollama pull deepseek-r1:1.5b

Ukuran lain yang tersedia termasuk:

  • deepseek-r1:7b (unduhan 4.7GB)
  • deepseek-r1:8b (unduhan 4.9GB)
  • deepseek-r1:14b (unduhan 9.0GB)
  • deepseek-r1:32b (unduhan 20GB)
  • deepseek-r1:70b (unduhan 43GB)
  • deepseek-r1:671b (unduhan 404GB - memerlukan perangkat keras perusahaan)

Langkah 3: Mulai Model

Setelah mengunduh model, mulai server Ollama:

ollama serve

Kemudian, jalankan DeepSeek R1:

ollama run deepseek-r1

Atau, untuk menggunakan versi tertentu:

ollama run deepseek-r1:1.5b

Langkah 4: Interaksi dengan DeepSeek R1

Dengan model yang sedang berjalan, Anda sekarang dapat berinteraksi dengannya di terminal. Cukup ketik kueri Anda dan tekan Enter:

>>> Apa itu kelas dalam C++?

DeepSeek R1 akan memproses kueri Anda dan memberikan respons terperinci berdasarkan pelatihannya.

Penggunaan Lanjutan dengan Ollama

Ollama menawarkan beberapa fitur lanjutan untuk meningkatkan pengalaman Anda dengan DeepSeek R1:

Parameter Kustom

Anda dapat menyesuaikan perilaku model dengan parameter seperti temperatur dan top-p:

ollama run deepseek-r1:8b --temperature 0.7 --top-p 0.9

Menggunakan API

Ollama menyediakan API HTTP yang memungkinkan Anda mengintegrasikan model ke dalam aplikasi Anda:

curl -X POST <http://localhost:11434/api/generate> -d '{
  "model": "deepseek-r1:8b",
  "prompt": "Jelaskan komputer kuantum dalam istilah sederhana",
  "stream": false
}'

Tips Optimasi Kinerja

Untuk mendapatkan kinerja terbaik saat menjalankan DeepSeek R1 secara lokal:

  1. Percepatan GPU: Pastikan driver GPU Anda diperbarui dan dikonfigurasi dengan benar.
  2. Manajemen Memori: Tutup aplikasi yang tidak perlu saat menjalankan model yang lebih besar.
  3. Kuantisasi: Bereksperimenlah dengan pengaturan kuantisasi yang berbeda untuk kebutuhan spesifik Anda.
  4. Manajemen Jendela Konteks: Waspadai panjang prompt dan respons Anda untuk mengoptimalkan penggunaan memori.
  5. Pendinginan: Pastikan sistem Anda memiliki pendinginan yang tepat untuk mencegah throttling termal.

Menggunakan Anakin AI: Alternatif yang Kuat

Saat menjalankan model secara lokal dengan Ollama menawarkan kontrol dan privasi yang besar, itu memerlukan sumber daya komputasi yang signifikan dan pengaturan teknis. Bagi banyak pengguna, terutama mereka yang tidak memiliki akses ke perangkat keras yang kuat, Anakin AI memberikan alternatif yang sangat baik yang memungkinkan Anda mengalami DeepSeek dan model kuat lainnya tanpa kompleksitas instalasi lokal.

Apa itu Anakin AI?

Anakin AI adalah platform all-in-one yang menawarkan:

  • Akses Langsung: Gunakan DeepSeek dan model kuat lainnya langsung di browser Anda tanpa mengunduh atau menginstal apa pun.
  • Antarmuka Ramah Pengguna: Antarmuka obrolan yang bersih dan intuitif yang membuat interaksi dengan model AI menjadi sederhana.
  • Dukungan Beberapa Model: Akses tidak hanya ke DeepSeek tetapi juga Llama, Mistral, Dolphin, dan banyak LLM open-source lainnya.
  • Tanpa Kendala Perangkat Keras: Jalankan percakapan dengan model besar bahkan pada perangkat keras sederhana seperti laptop atau tablet.
  • Percakapan Persisten: Semua obrolan Anda disimpan dan diorganisir untuk referensi mudah.
  • Fitur Lanjutan: Buat aplikasi AI, integrasikan dengan data Anda, dan bangun alur kerja kustom.

Memulai dengan Anakin AI

Untuk mulai menggunakan DeepSeek R1 melalui Anakin AI:

  1. Kunjungi https://anakin.ai
  2. Buat akun atau masuk
  3. Pilih DeepSeek dari model yang tersedia
  4. Mulai obrolan segera tanpa pengaturan apapun

Manfaat Menggunakan Anakin AI

Anakin AI sangat bermanfaat untuk:

  • Pengguna dengan sumber daya perangkat keras terbatas
  • Orang yang perlu akses cepat tanpa pengaturan teknis
  • Tim yang ingin berkolaborasi menggunakan infrastruktur AI yang sama
  • Pengembang yang menguji berbagai model sebelum menerapkannya secara lokal

Anakin AI juga menawarkan kemampuan untuk membuat alur kerja AI tanpa pengetahuan pengkodean, menjadikannya pilihan yang dapat diakses untuk pengguna dari semua latar belakang teknis.

Membangun Aplikasi dengan DeepSeek R1

Di luar interaksi obrolan sederhana, DeepSeek R1 dapat diintegrasikan ke dalam berbagai aplikasi:

Generasi dan Analisis Kode

DeepSeek R1 unggul dalam tugas terkait kode, menjadikannya berharga bagi para pengembang yang ingin:

  • Menghasilkan potongan kode berdasarkan persyaratan
  • Melakukan debugging kode yang ada
  • Mengoptimalkan algoritma
  • Menerjemahkan antara bahasa pemrograman

Riset dan Analisis

Kemampuan penalaran model membuatnya cocok untuk:

  • Merangkum makalah akademis
  • Menganalisis tren data
  • Menghasilkan hipotesis
  • Membuat laporan terstruktur

Pembuatan Konten

Gunakan DeepSeek R1 untuk:

  • Menulis dan mengedit artikel
  • Membuat salinan pemasaran
  • Menghasilkan konten kreatif
  • Menerjemahkan antara bahasa

Kesimpulan

Menjalankan DeepSeek R1 secara lokal dengan Ollama merupakan langkah maju yang signifikan dalam mendemokratisasi akses ke model AI yang kuat. Pendekatan ini memberi Anda kendali penuh atas data dan interaksi Anda sambil memanfaatkan kemampuan pemrosesan bahasa yang canggih.

Bergantung pada sumber daya perangkat keras Anda dan tingkat kenyamanan teknis, Anda dapat memilih antara menjalankan model secara lokal melalui Ollama atau mengaksesnya melalui platform ramah pengguna seperti Anakin AI. Kedua pendekatan memiliki kelebihan masing-masing:

  • Instalasi lokal dengan Ollama: Privasi maksimum, kontrol, dan kustomisasi, tetapi memerlukan perangkat keras yang sesuai
  • Anakin AI: Akses langsung, tanpa keterbatasan perangkat keras, antarmuka ramah pengguna, dan kemampuan alur kerja tambahan

Apakah Anda seorang pengembang yang membangun generasi aplikasi bertenaga AI berikutnya, seorang peneliti yang mengeksplorasi kemampuan model bahasa besar, atau sekadar penggemar yang tertarik untuk mengalami AI mutakhir, DeepSeek R1 menawarkan kemampuan mengesankan yang sebelumnya hanya tersedia melalui layanan berbayar.

Dengan mengikuti panduan ini, Anda sekarang memiliki pengetahuan untuk menjalankan DeepSeek R1 secara lokal menggunakan Ollama atau mengaksesnya melalui Anakin AI, tergantung pada kebutuhan dan sumber daya spesifik Anda. Kekuatan AI lanjutan sekarang ada di ujung jari Anda!