Como Usar o DeepSeek AI e Chave de API Grátis

No cenário em rápida evolução da inteligência artificial, o acesso a poderosos modelos de IA tem sido tradicionalmente limitado por barreiras de custo significativas e requisitos técnicos. O DeepSeek AI, um modelo de linguagem de ponta desenvolvido pela empresa chinesa de IA DeepSeek, emergiu como um divisor de águas nesse

Build APIs Faster & Together in Apidog

Como Usar o DeepSeek AI e Chave de API Grátis

Start for free
Inhalte

No cenário em rápida evolução da inteligência artificial, o acesso a poderosos modelos de IA tem sido tradicionalmente limitado por barreiras de custo significativas e requisitos técnicos. O DeepSeek AI, um modelo de linguagem de ponta desenvolvido pela empresa chinesa de IA DeepSeek, emergiu como um divisor de águas nesse espaço. Com desempenho comparável a modelos proprietários como as ofertas da OpenAI, a abordagem de código aberto do DeepSeek democratizou o acesso a capacidades avançadas de IA. Este guia abrangente o conduzirá por vários métodos para usar o DeepSeek AI completamente grátis, capacitando você a aproveitar essa tecnologia sem restrições financeiras.

💡
Interessado na última tendência em IA?

Então, você não pode deixar de conferir Anakin AI!

Anakin AI é uma plataforma tudo-em-um para toda a sua automação de fluxo de trabalho, criando potentes aplicativos de IA com um construtor de aplicativos de fácil utilização, com Llama 3, Claude 3.5 Sonnet, GPT-4, LLMs não censurados, Stable Diffusion...

Construa seu aplicativo de IA dos sonhos em minutos, não semanas, com Anakin AI!
Construa Facilmente Fluxos de Trabalho Agentes de IA com Anakin AI!
Construa Facilmente Fluxos de Trabalho Agentes de IA com Anakin AI

O que é o DeepSeek AI?

O DeepSeek AI é uma coleção de grandes modelos de linguagem (LLMs) que ganhou atenção significativa na comunidade de IA por suas impressionantes capacidades em raciocínio, matemática, programação e tarefas de conhecimento geral. O que destaca o DeepSeek é não apenas seu desempenho, mas sua acessibilidade— a empresa disponibilizou várias versões de seus modelos como ofertas de código aberto, permitindo que pesquisadores, desenvolvedores e entusiastas os utilizem sem os custos proibitivos associados a muitos serviços comerciais de IA.

A família de modelos DeepSeek inclui:

  • DeepSeek-R1: O modelo de raciocínio de primeira geração da empresa, disponível em vários tamanhos, de 1,5 bilhões a 671 bilhões de parâmetros
  • DeepSeek-V3: O modelo de IA conversacional otimizado para interações de propósito geral
  • DeepSeek Coder: Modelos especializados para programação e geração de código

Esses modelos mostraram desempenho notável em benchmarks, com algumas versões se aproximando ou igualando as capacidades de modelos proprietários muito mais caros de grandes empresas de IA.

Usando Anakin AI: A Maneira Mais Simples de Acessar DeepSeek

Antes de mergulhar em abordagens mais técnicas, vamos explorar a maneira mais fácil de acessar os modelos DeepSeek sem qualquer configuração ou conhecimento técnico: Anakin AI.

Anakin AI é uma plataforma de IA tudo-em-um que fornece acesso gratuito a uma ampla gama de poderosos modelos de IA, incluindo o DeepSeek. Esta plataforma amigável permite que você comece a usar instantaneamente as capacidades do DeepSeek sem baixar nada ou configurar ambientes complexos.

Começando com Anakin AI:

  1. Visite anakin.ai e crie uma conta gratuita
  2. Navegue até a seção App Store e busque por "DeepSeek"
  3. Você encontrará vários aplicativos DeepSeek disponíveis, incluindo DeepSeek-R1 e DeepSeek V3
  4. Clique em "Usar este aplicativo" no modelo DeepSeek de sua preferência
  5. Comece a interagir com o modelo imediatamente através da interface de chat intuitiva

Anakin AI oferece várias vantagens para acessar o DeepSeek:

  • Nenhuma instalação ou configuração necessária
  • Interface amigável projetada tanto para iniciantes quanto para especialistas
  • Acesso a múltiplos modelos de IA além apenas do DeepSeek
  • Nível gratuito disponível com limites de uso razoáveis
  • Recursos avançados, como fluxos de trabalho personalizados e processamento em lote

Com Anakin AI, você pode experimentar as capacidades do DeepSeek para tarefas como responder perguntas, geração de conteúdo, assistência em programação e resolução de problemas, sem se preocupar com requisitos de hardware ou configurações técnicas.

Executando DeepSeek Localmente com Ollama

Para aqueles que preferem executar modelos de IA localmente em seu próprio hardware para maior privacidade, controle e potencialmente desempenho superior, o Ollama oferece uma excelente solução para implantar modelos DeepSeek em seu computador.

Requisitos para Executar DeepSeek Localmente:

Os requisitos de hardware variam dependendo de qual versão do DeepSeek você planeja usar:

  • Para modelos menores (1,5B, 7B ou 8B): Um CPU moderno com pelo menos 16GB de RAM, de preferência com uma GPU decente (8GB+ VRAM)
  • Para modelos médios (14B, 32B): Uma GPU poderosa com 16-24GB de VRAM
  • Para modelos maiores (70B): GPUs de alta performance com 40GB+ de VRAM
  • Para o modelo completo de 671B: Hardware de nível empresarial com múltiplas GPUs poderosas

Guia Passo a Passo para Executar DeepSeek com Ollama:

Instale o Ollama:

  • Para macOS e Linux: curl -fsSL <https://ollama.com/install.sh> | sh
  • Para Windows: Baixe o instalador em ollama.com/download

Baixe e Execute o DeepSeek: Escolha o tamanho do modelo apropriado com base nas capacidades do seu hardware:

# Para sistemas de nível básico (versão 1,5B)
ollama run deepseek-r1:1.5b

# Para sistemas de médio porte (versão 7B)
ollama run deepseek-r1:7b

# Para sistemas melhores (versão baseada no Llama de 8B)
ollama run deepseek-r1:8b

# Para sistemas de alto desempenho (versão 14B)
ollama run deepseek-r1:14b

Interagindo com o Modelo: Uma vez que o modelo esteja carregado, você verá um prompt de comando onde poderá começar a fazer perguntas ou dar comandos:

>>> Qual é a importância da computação quântica?

Gerenciando seus Modelos:

  • Listar modelos instalados: ollama list
  • Remover um modelo: ollama rm deepseek-r1:7b
  • Mostrar informações do modelo: ollama show deepseek-r1

Adicionando uma Interface Gráfica:

Enquanto o Ollama fornece uma interface de linha de comando por padrão, você pode aprimorar sua experiência com uma interface gráfica de usuário. Opções populares incluem:

  • Abrir WebUI: Uma interface da web rica em recursos para interagir com os modelos Ollama
  • LM Studio: Um aplicativo para desktop para gerenciar e usar modelos de linguagem locais
  • MSTY.app: Uma interface amigável otimizada para Ollama

Para instalar o Open WebUI, por exemplo, você pode usar o Docker:

docker run -d --name openwebui -p 3000:8080 -v open-webui:/app/backend/data --restart always ghcr.io/open-webui/open-webui:latest

Depois acesse-o em http://localhost:3000 no seu navegador.

DeepSeek em Plataformas de Nuvem

Se você não tem o hardware necessário para executar o DeepSeek localmente, mas ainda assim deseja controle direto sobre o modelo, várias plataformas em nuvem oferecem opções gratuitas ou de baixo custo para implantar modelos DeepSeek:

Google Colab (Nível Gratuito):

Crie um novo notebook do Google Colab

Instale os pacotes necessários:

!pip install transformers torch accelerate

Carregue e use o DeepSeek:

from transformers import AutoModelForCausalLM, AutoTokenizer

model_id = "deepseek-ai/deepseek-r1-7b"
tokenizer = AutoTokenizer.from_pretrained(model_id)
model = AutoModelForCausalLM.from_pretrained(model_id)

# Gera texto
inputs = tokenizer("Escreva um poema sobre inteligência artificial", return_tensors="pt")
outputs = model.generate(**inputs, max_length=200)
print(tokenizer.decode(outputs[0], skip_special_tokens=True))

Hugging Face Spaces:

  1. Crie uma conta gratuita no Hugging Face
  2. Crie um novo Espaço
  3. Selecione Gradio como seu framework
  4. Construa uma interface simples para o DeepSeek usando os modelos fornecidos

Construindo Aplicações RAG com DeepSeek

Uma das aplicações mais poderosas do DeepSeek é a criação de sistemas de Geração Aumentada por Recuperação (RAG) que podem fazer referência a bases de conhecimento específicas. Aqui está uma abordagem simplificada para criar um sistema RAG gratuito com o DeepSeek:

Usando LangChain com DeepSeek:

Instale os pacotes necessários:

pip install langchain langchain-community langchain-deepseek-official

Configure o processamento de documentos:

from langchain.document_loaders import PyPDFLoader
from langchain.text_splitter import RecursiveCharacterTextSplitter

# Carregar documento
loader = PyPDFLoader("seu_documento.pdf")
data = loader.load()

# Dividir em partes
text_splitter = RecursiveCharacterTextSplitter(chunk_size=1000, chunk_overlap=100)
documents = text_splitter.split_documents(data)

Crie embeddings e configure o armazenamento vetorial:

from langchain.embeddings import HuggingFaceEmbeddings
from langchain.vectorstores import FAISS

# Use o modelo de embedding gratuito
embeddings = HuggingFaceEmbeddings(model_name="all-MiniLM-L6-v2")

# Crie o armazenamento vetorial
vectorstore = FAISS.from_documents(documents, embeddings)

Configure o DeepSeek com o serviço gratuito NVIDIA NIM:

from langchain_nvidia_ai_endpoints import ChatNVIDIA
from langchain.chains import RetrievalQA

# Obtenha uma chave de API gratuita da NVIDIA NIM
llm = ChatNVIDIA(
    model="deepseek-ai/deepseek-r1",
    api_key="sua_chave_api_gratuita_nvidia_nim",
    temperature=0.7
)

# Crie a cadeia RAG
qa_chain = RetrievalQA.from_chain_type(
    llm=llm,
    chain_type="stuff",
    retriever=vectorstore.as_retriever()
)

# Consulte o sistema
result = qa_chain.invoke({"query": "Quais são os principais pontos do documento?"})
print(result["result"])

Opções de Acesso à API do DeepSeek

Se você prefere usar o DeepSeek através de chamadas de API sem configurar o modelo você mesmo, várias opções oferecem acesso gratuito ou de baixo custo:

  1. NVIDIA NIM: Oferece modelos DeepSeek com créditos gratuitos para novos usuários
  2. Perplexity API: Fornece acesso a modelos DeepSeek com um generoso nível gratuito
  3. Plataforma Oficial do DeepSeek: Ocasionalmente oferece créditos de API gratuitos para desenvolvedores

Para começar com o NVIDIA NIM:

  1. Crie uma conta em nim.nvidia.com
  2. Navegue até a seção de modelos de IA e selecione DeepSeek
  3. Gere uma chave de API
  4. Use a chave em suas aplicações com bibliotecas como LangChain ou diretamente via chamadas de API REST

Recursos da Comunidade e Ferramentas de Código Aberto

A comunidade de código aberto desenvolveu inúmeras ferramentas gratuitas para aprimorar sua experiência com o DeepSeek:

  1. Integração LangChain: Framework gratuito para construir aplicações com DeepSeek
  2. Repositórios do DeepSeek no GitHub: Código e exemplos oficiais do DeepSeek
  3. Ferramentas de Quantização de Modelos: Ferramentas como GPTQ e AWQ para reduzir o tamanho do modelo sem perda significativa de desempenho
  4. Comunidades no Discord: Comunidades ativas de usuários compartilhando dicas e casos de uso

Otimizando o Desempenho do DeepSeek em Hardware Limitado

Se você estiver executando o DeepSeek localmente em hardware modesto, essas técnicas de otimização podem ajudar:

  1. Use Modelos Quantizados: Versões quantizadas de 4 bits ou 8 bits reduzem significativamente os requisitos de memória
  2. Reduza o Comprimento do Contexto: Limite o contexto de entrada para reduzir o uso de memória
  3. Otimize os Recursos do Sistema: Feche aplicativos e processos desnecessários
  4. Use Aceleração por GPU: Mesmo GPUs mais antigas podem fornecer acelerações significativas em comparação com inferência somente em CPU

Conclusão: Abraçando o Futuro da IA Gratuita

O DeepSeek representa um marco significativo na democratização do acesso a poderosos modelos de IA. Ao tornar modelos de linguagem avançada disponíveis como ofertas de código aberto, o DeepSeek permite que indivíduos, pesquisadores e organizações aproveitem as capacidades de IA de ponta sem as barreiras financeiras que tradicionalmente limitaram o acesso.

Enquanto a execução desses modelos localmente oferece o máximo controle e privacidade, plataformas como a Anakin AI oferecem a abordagem mais amigável para experimentar imediatamente as capacidades do DeepSeek. A interface intuitiva da Anakin, combinada com seu nível gratuito e acesso a múltiplos modelos além do DeepSeek, faz dela um excelente ponto de partida para qualquer um que deseje explorar o potencial dessa tecnologia.

Seja você optando por usar a Anakin AI pela sua simplicidade, executando o DeepSeek localmente com o Ollama para controle máximo, ou aproveitando plataformas em nuvem para escalabilidade, a democratização da tecnologia de IA através de modelos de código aberto como o DeepSeek está capacitando uma nova geração de inovação e criatividade.

À medida que você inicia sua jornada com o DeepSeek, lembre-se de que as aplicações de IA mais poderosas geralmente vêm da combinação desses modelos com seus dados únicos, problemas e insights. As ferramentas e métodos apresentados neste guia fornecem apenas o ponto de partida— a verdadeira mágica vem do que você constrói com eles.