Posts com a Tag "Ollama"
Configurando um assistente IA local para programação
3 min de Leitura
Explore alternativas gratuitas ao GitHub Copilot com Ollama e a extensão Continue para Visual Studio Code (VSCode). Ollama permite executar grandes modelos de linguagem (LLMs) localmente, como Llama 3, oferecendo uma opção open source. Configure a extensão Continue no VSCode para escrever, gerar e aprender com seu codebase, proporcionando uma alternativa eficiente e privada ao Copilot sem custos adicionais.
Leia o Post