image

Acesse bootcamps ilimitados e +650 cursos

50
%OFF
Article image
Felipe Paniago
Felipe Paniago28/01/2025 00:10
Compartilhe

Como rodar o Deepseek localmente com Ollama

  • #IA Generativa

A DeepSeek, uma empresa chinesa, está dando o que falar no mundo da IA por ter criado um modelo de linguagem tão potente quanto os gigantes do mercado, mas com um detalhe que está deixando todo mundo de queixo caído: ele custa só 6% do preço da concorrência! Isso mesmo, é 16 vezes mais barato que seu competidor mais próximo. E não para por aí: mesmo com todas as restrições que a China enfrenta para comprar chips avançados, a galera da DeepSeek conseguiu criar um modelo que não só compete de igual para igual com o o1 da OpenAI, como também é código aberto - ou seja, todo mundo pode usar, modificar e até rodar no próprio computador.

Claro que tem gente torcendo o nariz só porque o modelo é chinês, levantando questões sobre censura e privacidade de dados. Mas vamos combinar: o mais legal disso tudo é que finalmente temos uma IA poderosa Open Source para competir com o bom trabalho que a Meta esta desenvolvendo com o Llama.

Enquanto a OpenAI começou com aquele papo todo de "IA para todos" e acabou virando uma empresa super fechada, a DeepSeek está realmente democratizando o acesso à tecnologia. Mas se mesmo assim você tem receio de testar o modelo vou passar aqui uma ótima opção para você rodar localmente através do Ollama - o que garante uma privacidade para seu uso/dados;

Com o Ollama você pode rodar modelos de linguagem diretamente no seu computador, sem a necessidade de depender de servidores remotos ou infraestrutura em nuvem, o que pode ser útil para desenvolvedores, pesquisadores ou entusiastas.

1. Instalando o Ollama

Windows/MAC:

Linux:

curl -fsSL https://ollama.ai/install.sh | bash

2. Baixando e Rodando o DeepSeek

Abra o terminal e execute:

ollama run deepseek-r1

Pronto! Agora você pode interagir com o modelo direto no terminal.

Lembrando que os modelos são dependentes de um bom hardaware para rodar, então sua velocidade de resposta vai depender muito da sua máquina.

Caso queira testar com algo mais simples e visual, o LM Studio é uma ótima opção. https://lmstudio.ai/

Compartilhe
Comentários (1)
William Silva
William Silva - 28/01/2025 06:35

Muito bom! Com certeza a AI acelera muito nosso desenvolvimento 🤝