Como Instalar o DeepSeek Localmente: Guia Passo a Passo

Como Instalar o DeepSeek Localmente: Guia Passo a Passo

O DeepSeek é um modelo de inteligência artificial poderoso que pode ser executado localmente para diversas aplicações, como processamento de linguagem natural, análise de dados e automação de tarefas. Ele permite que desenvolvedores e pesquisadores tenham um ambiente de IA robusto sem precisar depender de servidores externos. Neste guia, vamos mostrar como instalar e configurar o DeepSeek no seu computador ou servidor local.

🖥️ Requisitos do Sistema

Antes de começar a instalação, é importante garantir que seu sistema atende aos seguintes requisitos mínimos:

  • Sistema Operacional: Linux (Ubuntu recomendado), macOS ou Windows com WSL2
  • Placa de Vídeo (GPU): NVIDIA com suporte a CUDA (mínimo 8 GB VRAM recomendado)
  • Drivers: NVIDIA Driver e CUDA Toolkit instalados
  • Python: Versão 3.8 ou superior
  • Pytorch: Instalado com suporte a CUDA
  • Armazenamento: Pelo menos 20 GB livres para downloads e armazenamento do modelo

Se você estiver usando apenas CPU, a execução do modelo será mais lenta, mas ainda funcional.

📥 1. Instalando Dependências

Se você ainda não tem as dependências instaladas, execute os comandos abaixo:

No Ubuntu/Linux

sudo apt update && sudo apt install -y python3 python3-pip git

No Windows (com WSL2)

  1. Instale o Ubuntu via Microsoft Store.
  2. Abra o terminal do WSL e execute:
sudo apt update && sudo apt install -y python3 python3-pip git

Além disso, é recomendável instalar o Virtualenv para criar um ambiente isolado:

pip install virtualenv

🛠️ 2. Instalando o PyTorch com CUDA (Opcional para GPUs NVIDIA)

Se você tem uma GPU NVIDIA e quer usar aceleração via CUDA, instale o PyTorch compatível:

pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu118

Caso use apenas CPU:

pip install torch torchvision torchaudio

Isso garantirá que o DeepSeek seja executado com um melhor desempenho, utilizando o poder de processamento da GPU.

🔽 3. Baixando o DeepSeek

Agora vamos clonar o repositório oficial do DeepSeek:

git clone https://github.com/deepseek-ai/deepseek.git
cd deepseek

Isso criará uma pasta chamada deepseek contendo os arquivos necessários para a execução do modelo.

🔧 4. Instalando os Pacotes Necessários

Dentro do diretório do DeepSeek, instale as dependências:

pip install -r requirements.txt

Se houver erro de compatibilidade com a versão do transformers, tente:

pip install --upgrade transformers

Outra alternativa é usar um ambiente virtual:

virtualenv deepseek_env
source deepseek_env/bin/activate  # Linux/macOS
.\deepseek_env\Scripts\activate  # Windows
pip install -r requirements.txt

Isso garante que as bibliotecas não conflitem com outras instalações do sistema.

🚀 5. Rodando o DeepSeek Localmente

Agora você pode executar o modelo DeepSeek diretamente no terminal:

python run.py --model deepseek

Caso tenha uma GPU e queira acelerar a inferência, use:

python run.py --model deepseek --device cuda

Se precisar de mais otimizações, experimente utilizar o bitsandbytes:

pip install bitsandbytes
python run.py --model deepseek --device cuda --use-8bit

Isso ajudará a reduzir o consumo de memória durante a execução.

🛠️ 6. Instalando o DeepSeek com Ollama

Uma alternativa mais simples para rodar o DeepSeek localmente é utilizar o Ollama, que facilita o gerenciamento de modelos de IA.

Passos para instalar e rodar o DeepSeek com Ollama:

  1. Instalar o Ollama
    • No Linux/macOS:
      curl -fsSL https://ollama.com/install.sh | sh
      
    • No Windows, baixe o instalador pelo site oficial: ollama.com
  2. Baixar o modelo DeepSeek:
    ollama pull deepseek
    
  3. Rodar o DeepSeek localmente:
    ollama run deepseek
    

Com esses passos, o Ollama gerencia todo o processo de instalação e execução do DeepSeek de maneira simplificada.

📝 7. Testando a Instalação

Agora que o DeepSeek está rodando, você pode fazer um teste rápido no Python:

from deepseek import DeepSeek
model = DeepSeek.load("deepseek")
response = model.generate("Qual é a capital do Brasil?")
print(response)

Se tudo estiver funcionando corretamente, o modelo responderá com “Brasília”.

Caso enfrente problemas, verifique as mensagens de erro e tente reinstalar as dependências.

🔧 8. Solução de Problemas

Se você encontrar dificuldades na instalação, aqui estão algumas soluções comuns:

  • Erro de falta de memória: Se estiver rodando em uma máquina com pouca RAM, tente reduzir a carga utilizando --use-8bit ou rodando apenas em CPU.
  • Erro de compatibilidade com CUDA: Verifique se a versão do PyTorch é compatível com sua versão do CUDA rodando nvcc --version no terminal.
  • Problema de permissão em Windows/WSL: Tente rodar o comando com sudo no WSL ou Run as Administrator no Windows.

Se o problema persistir, consulte a documentação oficial do DeepSeek para mais informações.

🎯 Conclusão

Com esses passos, você instalou e configurou o DeepSeek localmente. Agora, pode utilizá-lo para pesquisas, automação de tarefas ou qualquer outra aplicação de IA. Se deseja melhorar o desempenho, considere utilizar uma GPU mais potente ou otimizações como quantização do modelo.

Caso tenha dúvidas ou problemas durante a instalação, deixe seu comentário!

🔗 Links úteis:

 

Anterior Segurança e Boas Práticas na Criação e Geração de Imagens Docker: Do Dockerfile ao Deploy com Hadolint, SonarQube e Trivy
Próxima As 5 tendências DevOps que você precisa acompanhar em 2025

About author

Você pode gostar também

Infraestrutura TI

Rocket.Chat App: Criando seu primeiro aplicativo

Dando continuidade o nosso post anterior onde entendemos o que é um aplicativo do Rocket, o seu poder e como preparar o ambiente, agora criar o seu primeiro aplicativo. Espero

DevOps

Automatize processos com Ansible e otimize seu tempo de trabalho

Já parou para pensar como seria incrível executar um comando, e quase que instantaneamente, teríamos um processo que normalmente exigiria alguns bons minutos ou horas para executar, com diversas etapas

Infraestrutura TI

Descubra como o Zabbix automatiza o monitoramento de recursos

Descoberta de baixo nível, ou Low-level discovery (LLD), é um processo que automatiza o registro e monitoramento de recursos pelo Zabbix, ele pode fazer a identificação de métricas em sistemas