Como Rodar o DeepSeek-R1 GRÁTIS no Linux

Como Rodar o DeepSeek-R1 GRÁTIS no Linux

O que é o DeepSeek-R1?

O DeepSeek-R1 é um modelo de linguagem de grande escala desenvolvido pela startup chinesa DeepSeek. Ele se destaca por suas capacidades avançadas de raciocínio, com desempenho comparável ao OpenAI-o1 em matemática, codificação e lógica. Além de ser gratuito e de código aberto, pode ser executado localmente em sua máquina.

Instalando o Ollama no Linux

O Ollama é uma plataforma que permite rodar modelos de linguagem localmente, garantindo maior controle e privacidade. Para instalar no Linux, siga os passos abaixo:

1. Atualize os pacotes do sistema

sudo apt update && sudo apt upgrade -y

2. Instale as dependências necessárias

sudo apt install -y curl

3. Baixe e instale o Ollama

curl -fsSL https://ollama.com/install.sh | sh

ou acesse o site https://ollama.com/

4. Verifique a instalação

ollama –version

Se o comando retornar a versão instalada, o Ollama foi instalado com sucesso.

Executando o modelo DeepSeek-R1 de 14B no Ollama

Após a instalação, siga os passos para rodar o modelo DeepSeek-R1.

1. Baixe e Execute o modelo DeepSeek-R1

ollama run deepseek-r1

Esse comando fará o download do modelo para o seu sistema.

A Ollama oferece uma gama de modelos DeepSeek R1, abrangendo desde parâmetros 1.5B até o modelo de parâmetro 671B completo. O modelo 671B é o DeepSeek-R1 original, enquanto os modelos menores são versões destiladas baseadas nas arquiteturas Qwen e Llama. Se seu hardware não suportar o modelo 671B, você pode facilmente executar uma versão menor usando o comando a seguir e substituindo o Xabaixo pelo tamanho do parâmetro que você deseja (1.5b, 7b, 8b, 14b, 32b, 70b, 671b):

Isso iniciará uma sessão interativa onde você pode inserir prompts e receber respostas do modelo.

Instalando o Open WebUI no Linux

O Open WebUI é uma interface web de código aberto para interação com modelos de linguagem, compatível com o Ollama. A instalação pode ser feita via Docker.

1. Instale o Docker (se ainda não estiver instalado)

sudo apt install -y docker.io

2. Baixe e execute o Open WebUI

docker run -d -p 3000:8080 -v ollama:/root/.ollama -v open-webui:/app/backend/data \

–name open-webui –restart always ghcr.io/open-webui/open-webui:ollama

Isso fará o download da imagem do Open WebUI e iniciará o serviço.

3. Acesse a interface

Abra o navegador e vá até:

http://localhost:3000/

No primeiro acesso, será necessário criar uma conta de administrador.

Integrando o Open WebUI com o Ollama para Rodar o DeepSeek-R1

Após instalar o Open WebUI e o Ollama, siga os passos abaixo para rodar o modelo DeepSeek-R1 na interface web.

1. Baixe o modelo no Ollama

ollama pull deepseek-r1:Xb

2. Configure o Open WebUI

No Open WebUI, vá até a seção de modelos e adicione deepseek-r1:14b à lista de modelos disponíveis.

3. Use o modelo

Na interface do Open WebUI, selecione o modelo DeepSeek-R1 e insira prompts para começar a interagir.

Anterior Nginx + Kubernetes: Personalizando Páginas de Erro HTTP
Próxima Sopa de Letrinhas: Decifrando os "Ops" do Mundo DevOps

About author

Você pode gostar também

Treinamentos

Descubra as melhores soluções de dashboards para Kubernetes

Dashboards para Kubernetes Como o aumento do uso do Kubernetes pelas empresas, diversos dashboards ou soluções que utilizam painéis começaram a surgir no mercado, e entre os mais utilizados podemos

Desenvolvimento

GitLab CI – Integração Contínua sem sair do repositório

Ferramentas de CI/CD hoje em dia andam de mãos dadas com os nossos projetos – dificilmente vemos um repositório no GitHub, GitLab, Bitbucket, Gitea… sem alguma configuração de integração contínua.

Notícias

Mercado de TI: Oportunidades e desafios para profissionais qualificados

Empresas disputam profissionais a “peso de ouro” e os salários no segmento de TI disparam. Em matéria de capa veiculada no domingo – dia 5/5/2019 – o jornal “O Estado