Como Rodar o DeepSeek-R1 GRÁTIS no Linux
O que é o DeepSeek-R1?
O DeepSeek-R1 é um modelo de linguagem de grande escala desenvolvido pela startup chinesa DeepSeek. Ele se destaca por suas capacidades avançadas de raciocínio, com desempenho comparável ao OpenAI-o1 em matemática, codificação e lógica. Além de ser gratuito e de código aberto, pode ser executado localmente em sua máquina.
Instalando o Ollama no Linux
O Ollama é uma plataforma que permite rodar modelos de linguagem localmente, garantindo maior controle e privacidade. Para instalar no Linux, siga os passos abaixo:
1. Atualize os pacotes do sistema
sudo apt update && sudo apt upgrade -y
2. Instale as dependências necessárias
sudo apt install -y curl
3. Baixe e instale o Ollama
curl -fsSL https://ollama.com/install.sh | sh
ou acesse o site https://ollama.com/
4. Verifique a instalação
ollama –version
Se o comando retornar a versão instalada, o Ollama foi instalado com sucesso.
Executando o modelo DeepSeek-R1 de 14B no Ollama
Após a instalação, siga os passos para rodar o modelo DeepSeek-R1.
1. Baixe e Execute o modelo DeepSeek-R1
ollama run deepseek-r1
Esse comando fará o download do modelo para o seu sistema.
A Ollama oferece uma gama de modelos DeepSeek R1, abrangendo desde parâmetros 1.5B até o modelo de parâmetro 671B completo. O modelo 671B é o DeepSeek-R1 original, enquanto os modelos menores são versões destiladas baseadas nas arquiteturas Qwen e Llama. Se seu hardware não suportar o modelo 671B, você pode facilmente executar uma versão menor usando o comando a seguir e substituindo o Xabaixo pelo tamanho do parâmetro que você deseja (1.5b, 7b, 8b, 14b, 32b, 70b, 671b):
Isso iniciará uma sessão interativa onde você pode inserir prompts e receber respostas do modelo.
Instalando o Open WebUI no Linux
O Open WebUI é uma interface web de código aberto para interação com modelos de linguagem, compatível com o Ollama. A instalação pode ser feita via Docker.
1. Instale o Docker (se ainda não estiver instalado)
sudo apt install -y docker.io
2. Baixe e execute o Open WebUI
docker run -d -p 3000:8080 -v ollama:/root/.ollama -v open-webui:/app/backend/data \
–name open-webui –restart always ghcr.io/open-webui/open-webui:ollama
Isso fará o download da imagem do Open WebUI e iniciará o serviço.
3. Acesse a interface
Abra o navegador e vá até:
http://localhost:3000/
No primeiro acesso, será necessário criar uma conta de administrador.
Integrando o Open WebUI com o Ollama para Rodar o DeepSeek-R1
Após instalar o Open WebUI e o Ollama, siga os passos abaixo para rodar o modelo DeepSeek-R1 na interface web.
1. Baixe o modelo no Ollama
ollama pull deepseek-r1:Xb
2. Configure o Open WebUI
No Open WebUI, vá até a seção de modelos e adicione deepseek-r1:14b à lista de modelos disponíveis.
3. Use o modelo
Na interface do Open WebUI, selecione o modelo DeepSeek-R1 e insira prompts para começar a interagir.
About author
Você pode gostar também
Melhore seus serviços de TI com a consultoria especializada da 4Linux
A consultoria consiste em uma orientação profissional para clientes que buscam melhorias nos seus serviços. Os consultores atuam ajudando na identificação de problemas que muitas vezes podem passar despercebidos por
GitLab CI – Integração Contínua sem sair do repositório
Ferramentas de CI/CD hoje em dia andam de mãos dadas com os nossos projetos – dificilmente vemos um repositório no GitHub, GitLab, Bitbucket, Gitea… sem alguma configuração de integração contínua.
Descubra como a Rankdone está revolucionando o recrutamento de TI
A startup Rankdone.com é uma plataforma de testes para fazer seleção em processos de recrutamento. A Rankdone é uma start-up que nasceu dentro da 4Linux e este ano ela foi







