Como Rodar o DeepSeek-R1 GRÁTIS no Linux
O que é o DeepSeek-R1?
O DeepSeek-R1 é um modelo de linguagem de grande escala desenvolvido pela startup chinesa DeepSeek. Ele se destaca por suas capacidades avançadas de raciocínio, com desempenho comparável ao OpenAI-o1 em matemática, codificação e lógica. Além de ser gratuito e de código aberto, pode ser executado localmente em sua máquina.
Instalando o Ollama no Linux
O Ollama é uma plataforma que permite rodar modelos de linguagem localmente, garantindo maior controle e privacidade. Para instalar no Linux, siga os passos abaixo:
1. Atualize os pacotes do sistema
sudo apt update && sudo apt upgrade -y
2. Instale as dependências necessárias
sudo apt install -y curl
3. Baixe e instale o Ollama
curl -fsSL https://ollama.com/install.sh | sh
ou acesse o site https://ollama.com/
4. Verifique a instalação
ollama –version
Se o comando retornar a versão instalada, o Ollama foi instalado com sucesso.
Executando o modelo DeepSeek-R1 de 14B no Ollama
Após a instalação, siga os passos para rodar o modelo DeepSeek-R1.
1. Baixe e Execute o modelo DeepSeek-R1
ollama run deepseek-r1
Esse comando fará o download do modelo para o seu sistema.
A Ollama oferece uma gama de modelos DeepSeek R1, abrangendo desde parâmetros 1.5B até o modelo de parâmetro 671B completo. O modelo 671B é o DeepSeek-R1 original, enquanto os modelos menores são versões destiladas baseadas nas arquiteturas Qwen e Llama. Se seu hardware não suportar o modelo 671B, você pode facilmente executar uma versão menor usando o comando a seguir e substituindo o Xabaixo pelo tamanho do parâmetro que você deseja (1.5b, 7b, 8b, 14b, 32b, 70b, 671b):
Isso iniciará uma sessão interativa onde você pode inserir prompts e receber respostas do modelo.
Instalando o Open WebUI no Linux
O Open WebUI é uma interface web de código aberto para interação com modelos de linguagem, compatível com o Ollama. A instalação pode ser feita via Docker.
1. Instale o Docker (se ainda não estiver instalado)
sudo apt install -y docker.io
2. Baixe e execute o Open WebUI
docker run -d -p 3000:8080 -v ollama:/root/.ollama -v open-webui:/app/backend/data \
–name open-webui –restart always ghcr.io/open-webui/open-webui:ollama
Isso fará o download da imagem do Open WebUI e iniciará o serviço.
3. Acesse a interface
Abra o navegador e vá até:
http://localhost:3000/
No primeiro acesso, será necessário criar uma conta de administrador.
Integrando o Open WebUI com o Ollama para Rodar o DeepSeek-R1
Após instalar o Open WebUI e o Ollama, siga os passos abaixo para rodar o modelo DeepSeek-R1 na interface web.
1. Baixe o modelo no Ollama
ollama pull deepseek-r1:Xb
2. Configure o Open WebUI
No Open WebUI, vá até a seção de modelos e adicione deepseek-r1:14b à lista de modelos disponíveis.
3. Use o modelo
Na interface do Open WebUI, selecione o modelo DeepSeek-R1 e insira prompts para começar a interagir.
About author
Você pode gostar também
Por que aprender Python? Descubra os motivos e vantagens
Dizem que se alguém quer trabalhar no Google, o caminho mais simples é aprender Python. Será este o único motivo? De fato, a linguagem Python é intensivamente usada pelo Google.
Descubra as novidades e melhorias do Symfony 4, o framework PHP
O versão 4 do Symfony, foi lançada em 30 de novembro de 2017. Com uma nova filosofia e menor número de dependências, a nova versão está muito melhor que as
Aprenda a provisionar infraestrutura como código com o novo curso da 4Linux
Neste curso o aluno aprenderá a provisionar infraestrutura como código (IaaC) em nuvens públicas, com laboratórios que utilizam a Google Cloud Platform (GCP). A 4Linux lança nesta data um novo







