Como Rodar o DeepSeek-R1 GRÁTIS no Linux
O que é o DeepSeek-R1?
O DeepSeek-R1 é um modelo de linguagem de grande escala desenvolvido pela startup chinesa DeepSeek. Ele se destaca por suas capacidades avançadas de raciocínio, com desempenho comparável ao OpenAI-o1 em matemática, codificação e lógica. Além de ser gratuito e de código aberto, pode ser executado localmente em sua máquina.
Instalando o Ollama no Linux
O Ollama é uma plataforma que permite rodar modelos de linguagem localmente, garantindo maior controle e privacidade. Para instalar no Linux, siga os passos abaixo:
1. Atualize os pacotes do sistema
sudo apt update && sudo apt upgrade -y
2. Instale as dependências necessárias
sudo apt install -y curl
3. Baixe e instale o Ollama
curl -fsSL https://ollama.com/install.sh | sh
ou acesse o site https://ollama.com/
4. Verifique a instalação
ollama –version
Se o comando retornar a versão instalada, o Ollama foi instalado com sucesso.
Executando o modelo DeepSeek-R1 de 14B no Ollama
Após a instalação, siga os passos para rodar o modelo DeepSeek-R1.
1. Baixe e Execute o modelo DeepSeek-R1
ollama run deepseek-r1
Esse comando fará o download do modelo para o seu sistema.
A Ollama oferece uma gama de modelos DeepSeek R1, abrangendo desde parâmetros 1.5B até o modelo de parâmetro 671B completo. O modelo 671B é o DeepSeek-R1 original, enquanto os modelos menores são versões destiladas baseadas nas arquiteturas Qwen e Llama. Se seu hardware não suportar o modelo 671B, você pode facilmente executar uma versão menor usando o comando a seguir e substituindo o Xabaixo pelo tamanho do parâmetro que você deseja (1.5b, 7b, 8b, 14b, 32b, 70b, 671b):
Isso iniciará uma sessão interativa onde você pode inserir prompts e receber respostas do modelo.
Instalando o Open WebUI no Linux
O Open WebUI é uma interface web de código aberto para interação com modelos de linguagem, compatível com o Ollama. A instalação pode ser feita via Docker.
1. Instale o Docker (se ainda não estiver instalado)
sudo apt install -y docker.io
2. Baixe e execute o Open WebUI
docker run -d -p 3000:8080 -v ollama:/root/.ollama -v open-webui:/app/backend/data \
–name open-webui –restart always ghcr.io/open-webui/open-webui:ollama
Isso fará o download da imagem do Open WebUI e iniciará o serviço.
3. Acesse a interface
Abra o navegador e vá até:
http://localhost:3000/
No primeiro acesso, será necessário criar uma conta de administrador.
Integrando o Open WebUI com o Ollama para Rodar o DeepSeek-R1
Após instalar o Open WebUI e o Ollama, siga os passos abaixo para rodar o modelo DeepSeek-R1 na interface web.
1. Baixe o modelo no Ollama
ollama pull deepseek-r1:Xb
2. Configure o Open WebUI
No Open WebUI, vá até a seção de modelos e adicione deepseek-r1:14b à lista de modelos disponíveis.
3. Use o modelo
Na interface do Open WebUI, selecione o modelo DeepSeek-R1 e insira prompts para começar a interagir.