Como Rodar o DeepSeek-R1 GRÁTIS no Linux

Como Rodar o DeepSeek-R1 GRÁTIS no Linux

O que é o DeepSeek-R1?

O DeepSeek-R1 é um modelo de linguagem de grande escala desenvolvido pela startup chinesa DeepSeek. Ele se destaca por suas capacidades avançadas de raciocínio, com desempenho comparável ao OpenAI-o1 em matemática, codificação e lógica. Além de ser gratuito e de código aberto, pode ser executado localmente em sua máquina.

Instalando o Ollama no Linux

O Ollama é uma plataforma que permite rodar modelos de linguagem localmente, garantindo maior controle e privacidade. Para instalar no Linux, siga os passos abaixo:

1. Atualize os pacotes do sistema

sudo apt update && sudo apt upgrade -y

2. Instale as dependências necessárias

sudo apt install -y curl

3. Baixe e instale o Ollama

curl -fsSL https://ollama.com/install.sh | sh

ou acesse o site https://ollama.com/

4. Verifique a instalação

ollama –version

Se o comando retornar a versão instalada, o Ollama foi instalado com sucesso.

Executando o modelo DeepSeek-R1 de 14B no Ollama

Após a instalação, siga os passos para rodar o modelo DeepSeek-R1.

1. Baixe e Execute o modelo DeepSeek-R1

ollama run deepseek-r1

Esse comando fará o download do modelo para o seu sistema.

A Ollama oferece uma gama de modelos DeepSeek R1, abrangendo desde parâmetros 1.5B até o modelo de parâmetro 671B completo. O modelo 671B é o DeepSeek-R1 original, enquanto os modelos menores são versões destiladas baseadas nas arquiteturas Qwen e Llama. Se seu hardware não suportar o modelo 671B, você pode facilmente executar uma versão menor usando o comando a seguir e substituindo o Xabaixo pelo tamanho do parâmetro que você deseja (1.5b, 7b, 8b, 14b, 32b, 70b, 671b):

Isso iniciará uma sessão interativa onde você pode inserir prompts e receber respostas do modelo.

Instalando o Open WebUI no Linux

O Open WebUI é uma interface web de código aberto para interação com modelos de linguagem, compatível com o Ollama. A instalação pode ser feita via Docker.

1. Instale o Docker (se ainda não estiver instalado)

sudo apt install -y docker.io

2. Baixe e execute o Open WebUI

docker run -d -p 3000:8080 -v ollama:/root/.ollama -v open-webui:/app/backend/data \

–name open-webui –restart always ghcr.io/open-webui/open-webui:ollama

Isso fará o download da imagem do Open WebUI e iniciará o serviço.

3. Acesse a interface

Abra o navegador e vá até:

http://localhost:3000/

No primeiro acesso, será necessário criar uma conta de administrador.

Integrando o Open WebUI com o Ollama para Rodar o DeepSeek-R1

Após instalar o Open WebUI e o Ollama, siga os passos abaixo para rodar o modelo DeepSeek-R1 na interface web.

1. Baixe o modelo no Ollama

ollama pull deepseek-r1:Xb

2. Configure o Open WebUI

No Open WebUI, vá até a seção de modelos e adicione deepseek-r1:14b à lista de modelos disponíveis.

3. Use o modelo

Na interface do Open WebUI, selecione o modelo DeepSeek-R1 e insira prompts para começar a interagir.

Anterior Nginx + Kubernetes: Personalizando Páginas de Erro HTTP
Próxima Sopa de Letrinhas: Decifrando os "Ops" do Mundo DevOps

About author

Você pode gostar também

Notícias

4Linux homenageia personalidades do mundo de TI em suas salas de aula

Todas as salas de aula da 4Linux prestam uma singela homenagem a alguma personalidade de destaque no mundo de TI. No mês de Setembro a 4Linux recebeu a visita de

Infraestrutura TI

Descubra como o RabbitMQ pode otimizar o processamento de dados em seu sistema web

O RabbitMQ é um software de controle e gerenciamento de filas de mensagens. Ele recebe e armazena mensagens em filas até que alguém solicite essas mensagens. As mensagens podem ser

Notícias

A Força do Software Open Source em Tempos de Isolamento Social

O Corona vírus nos obrigou a um isolamento social sem precedentes em nossa história recente. Independente se teremos ou não recessão após este isolamento forçado, o software open source mostra