
Como utilizar DeepSeek Grátis no VSCode
Já imaginou ter um assistente de IA de nível GPT-4 no seu VS Code, sem gastar um centavo?
O DeepSeek R1 está revolucionando o mercado de IA open source e, neste guia, você vai aprender como dominar essa ferramenta como um expert – mesmo que seu PC não seja um supercomputador!
Por Que Todo Mundo Está Falando do DeepSeek R1? (E Você Precisa Saber Isso!)
Grátis
Esqueça assinaturas caras! Acesso ilimitado a uma IA que desbanca até Claude 3.5 e GPT-4 em lógica e código.
Rápido
Execute localmente, sem depender da nuvem – garantindo que seus dados permaneçam 100% privados.
Customizável
Escolha entre modelos leves e pesados, de acordo com o hardware do seu PC – sem sacrificar a qualidade.
Dica: Experimente o chat oficial da DeepSeek para um preview antes de instalar!
Escolha Seu Modelo O Segredo Está Nos Detalhes!
Modelo | RAM Necessária | Hardware Ideal | Melhor Para |
---|---|---|---|
1.5B | ~4 GB | PCs modestos / notebooks | Tarefas simples & scripts básicos |
7B | 8-10 GB | GTX 1660+ / Ryzen 5 | Code review & autocompletar avançado |
70B | 40 GB+ | RTX 3090 / estações de trabalho | Algoritmos complexos & big data |
Dica: Utilize o LLM Calc para calcular exatamente o que seu PC aguenta!
Como rodar o DeepSeek R1 localmente Rápido e fácil
1. Utilizando LM Studio
1. Baixe e instale o LM Studio – Acesse o site do LM Studio e faça o download da versão para seu sistema.
2. Baixe o modelo DeepSeek R1 - No LM Studio, vá na aba Discover, pesquise por "DeepSeek R1", e selecione a versão compatível com seu hardware.
3. Carregue o modelo – Após o download, vá em Local Models, selecione o DeepSeek R1 e clique em Load.
4. Inicie o servidor local – Na aba Developer,
ative a opção Start Server. O modelo será executado em
http://localhost:1234
.
5. Siga para a integração com VSCode!
1. Utilizando o Ollama
1. Instale o Ollama – Acesse o site do Ollama e faça o download da versão para seu sistema.
2. Baixe o modelo DeepSeek R1 - No terminal, execute:
ollama pull deepseek-r1
3. Inicie o servidor – No terminal, execute:
ollama serve
4. Siga para a integração com VSCode!
Como Integrar com o VSCode A Mágica Acontece Aqui!
Usando Cline ou Roo Code com LM Studio ou Jan
1. No VSCode, abra a aba Extensões e instale Cline ou Roo Code.
2. Acesse as Configurações da extensão.
3. Em API Provider, selecione "LM Studio".
4. No campo Base URL, insira a URL configurada no LM Studio ou Jan.
5. O campo Model ID será preenchido automaticamente se houver apenas um modelo. Caso contrário, selecione o DeepSeek R1 manualmente.
6. Clique em "Done".
Usando Cline ou Roo Code com Ollama
1. No VSCode, abra a aba Extensões e instale Cline ou Roo Code.
2. Acesse as Configurações da extensão.
3. Em API Provider, selecione "Ollama".
4. No campo Base URL, insira
http://localhost:11434
.
5. O campo Model ID será preenchido automaticamente se houver apenas um modelo. Caso contrário, selecione o DeepSeek R1 manualmente.
6. Clique em "Done".
Conclusão Hora de Colocar a Mão na Massa!
O DeepSeek R1 é uma solução incrível para quem quer uma IA poderosa sem gastar nada. Com LM Studio, Ollama ou Jan, você pode rodá-lo localmente e integrá-lo diretamente ao Visual Studio Code.
Escolha o modelo que se encaixa no seu PC e comece a usar hoje mesmo!