MoriWare - Desenvolvimento de Software
DeepSeek R1 - Transforme seu VS Code

Como utilizar DeepSeek Grátis no VSCode

Já imaginou ter um assistente de IA de nível GPT-4 no seu VS Code, sem gastar um centavo?

O DeepSeek R1 está revolucionando o mercado de IA open source e, neste guia, você vai aprender como dominar essa ferramenta como um expert – mesmo que seu PC não seja um supercomputador!

Por Que Todo Mundo Está Falando do DeepSeek R1? (E Você Precisa Saber Isso!)

Grátis

Esqueça assinaturas caras! Acesso ilimitado a uma IA que desbanca até Claude 3.5 e GPT-4 em lógica e código.

Rápido

Execute localmente, sem depender da nuvem – garantindo que seus dados permaneçam 100% privados.

Customizável

Escolha entre modelos leves e pesados, de acordo com o hardware do seu PC – sem sacrificar a qualidade.

Dica: Experimente o chat oficial da DeepSeek para um preview antes de instalar!

Escolha Seu Modelo O Segredo Está Nos Detalhes!

Modelo RAM Necessária Hardware Ideal Melhor Para
1.5B ~4 GB PCs modestos / notebooks Tarefas simples & scripts básicos
7B 8-10 GB GTX 1660+ / Ryzen 5 Code review & autocompletar avançado
70B 40 GB+ RTX 3090 / estações de trabalho Algoritmos complexos & big data

Dica: Utilize o LLM Calc para calcular exatamente o que seu PC aguenta!

Como rodar o DeepSeek R1 localmente Rápido e fácil

1. Utilizando LM Studio

1. Baixe e instale o LM Studio – Acesse o site do LM Studio e faça o download da versão para seu sistema.

2. Baixe o modelo DeepSeek R1 - No LM Studio, vá na aba Discover, pesquise por "DeepSeek R1", e selecione a versão compatível com seu hardware.

- Para MacBooks com processadores Apple, mantenha a opção MLX ativada. - Para Windows/Linux, escolha a opção GGUF.

3. Carregue o modelo – Após o download, vá em Local Models, selecione o DeepSeek R1 e clique em Load.

4. Inicie o servidor local – Na aba Developer, ative a opção Start Server. O modelo será executado em http://localhost:1234.

5. Siga para a integração com VSCode!

1. Utilizando o Ollama

1. Instale o Ollama – Acesse o site do Ollama e faça o download da versão para seu sistema.

2. Baixe o modelo DeepSeek R1 - No terminal, execute:

ollama pull deepseek-r1
Para modelos menores, confira a biblioteca do Ollama e faça o download da versão para seu sistema. e use o comando correspondente.

3. Inicie o servidor – No terminal, execute:

ollama serve
O modelo rodará em http://localhost:11434

4. Siga para a integração com VSCode!

Como Integrar com o VSCode A Mágica Acontece Aqui!

Usando Cline ou Roo Code com LM Studio ou Jan

1. No VSCode, abra a aba Extensões e instale Cline ou Roo Code.

2. Acesse as Configurações da extensão.

3. Em API Provider, selecione "LM Studio".

4. No campo Base URL, insira a URL configurada no LM Studio ou Jan.

5. O campo Model ID será preenchido automaticamente se houver apenas um modelo. Caso contrário, selecione o DeepSeek R1 manualmente.

6. Clique em "Done".

Usando Cline ou Roo Code com Ollama

1. No VSCode, abra a aba Extensões e instale Cline ou Roo Code.

2. Acesse as Configurações da extensão.

3. Em API Provider, selecione "Ollama".

4. No campo Base URL, insira http://localhost:11434.

5. O campo Model ID será preenchido automaticamente se houver apenas um modelo. Caso contrário, selecione o DeepSeek R1 manualmente.

6. Clique em "Done".

Conclusão Hora de Colocar a Mão na Massa!

O DeepSeek R1 é uma solução incrível para quem quer uma IA poderosa sem gastar nada. Com LM Studio, Ollama ou Jan, você pode rodá-lo localmente e integrá-lo diretamente ao Visual Studio Code.

Escolha o modelo que se encaixa no seu PC e comece a usar hoje mesmo!