Como Rodar o DeepSeek-R1 GRÁTIS no Linux
O que é o DeepSeek-R1?
O DeepSeek-R1 é um modelo de linguagem de grande escala desenvolvido pela startup chinesa DeepSeek. Ele se destaca por suas capacidades avançadas de raciocínio, com desempenho comparável ao OpenAI-o1 em matemática, codificação e lógica. Além de ser gratuito e de código aberto, pode ser executado localmente em sua máquina.
Instalando o Ollama no Linux
O Ollama é uma plataforma que permite rodar modelos de linguagem localmente, garantindo maior controle e privacidade. Para instalar no Linux, siga os passos abaixo:
1. Atualize os pacotes do sistema
sudo apt update && sudo apt upgrade -y
2. Instale as dependências necessárias
sudo apt install -y curl
3. Baixe e instale o Ollama
curl -fsSL https://ollama.com/install.sh | sh
ou acesse o site https://ollama.com/
4. Verifique a instalação
ollama –version
Se o comando retornar a versão instalada, o Ollama foi instalado com sucesso.
Executando o modelo DeepSeek-R1 de 14B no Ollama
Após a instalação, siga os passos para rodar o modelo DeepSeek-R1.
1. Baixe e Execute o modelo DeepSeek-R1
ollama run deepseek-r1
Esse comando fará o download do modelo para o seu sistema.
A Ollama oferece uma gama de modelos DeepSeek R1, abrangendo desde parâmetros 1.5B até o modelo de parâmetro 671B completo. O modelo 671B é o DeepSeek-R1 original, enquanto os modelos menores são versões destiladas baseadas nas arquiteturas Qwen e Llama. Se seu hardware não suportar o modelo 671B, você pode facilmente executar uma versão menor usando o comando a seguir e substituindo o Xabaixo pelo tamanho do parâmetro que você deseja (1.5b, 7b, 8b, 14b, 32b, 70b, 671b):
Isso iniciará uma sessão interativa onde você pode inserir prompts e receber respostas do modelo.
Instalando o Open WebUI no Linux
O Open WebUI é uma interface web de código aberto para interação com modelos de linguagem, compatível com o Ollama. A instalação pode ser feita via Docker.
1. Instale o Docker (se ainda não estiver instalado)
sudo apt install -y docker.io
2. Baixe e execute o Open WebUI
docker run -d -p 3000:8080 -v ollama:/root/.ollama -v open-webui:/app/backend/data \
–name open-webui –restart always ghcr.io/open-webui/open-webui:ollama
Isso fará o download da imagem do Open WebUI e iniciará o serviço.
3. Acesse a interface
Abra o navegador e vá até:
http://localhost:3000/
No primeiro acesso, será necessário criar uma conta de administrador.
Integrando o Open WebUI com o Ollama para Rodar o DeepSeek-R1
Após instalar o Open WebUI e o Ollama, siga os passos abaixo para rodar o modelo DeepSeek-R1 na interface web.
1. Baixe o modelo no Ollama
ollama pull deepseek-r1:Xb
2. Configure o Open WebUI
No Open WebUI, vá até a seção de modelos e adicione deepseek-r1:14b à lista de modelos disponíveis.
3. Use o modelo
Na interface do Open WebUI, selecione o modelo DeepSeek-R1 e insira prompts para começar a interagir.
About author
Você pode gostar também
Compartilhando conhecimento em IA – IA que fala bonito, mas mente mais que político
Saudações, pessoal! Por muito tempo achamos que “alucinação” na I.A. era um problema inesperado, quase um bug monumental. Mas pesquisas recentes deixam claro: os modelos alucinam porque o próprio processo
Curso de Programação Shell Script com Julio Cezar Neves na 4Linux
Nem só de palestras vive o FISL: integração, bate papo e troca de experiências são partes fundamentais do Fórum de Porto Alegre, que teve sua oitava edição nos dias 12,
4Linux atualiza seus cursos na área de Big Data!
Conheça os cursos de Big Data da 4Linux A fim de atender demandas específicas do mercado por profissionais de Ciência de Dados e Engenharia de Dados, a 4Linux decidiu reformular







