Baixa um modelo do repositório Ollama para uso local.
Permite baixar um modelo específico para que você possa utilizá-lo offline em sua máquina.
Exemplo:
$ ollama pull llama2
Pulling model: llama2
Download progress: 85% [##################----]
Model 'llama2' downloaded successfully.
Faz upload de um modelo para o repositório Ollama.
Este comando é usado para enviar modelos customizados para o repositório.
Exemplo:
$ ollama push my-custom-model
Lista todos os modelos disponíveis localmente.
Mostra os modelos que foram baixados ou instalados na máquina.
Exemplo:
$ ollama list
Local Models:
- llama2
- my-custom-model
- gpt3
Remove um modelo localmente.
Permite excluir um modelo da máquina para liberar espaço ou gerenciar versões.
Exemplo:
$ ollama rm llama2-custom
Inicia um servidor para hospedar modelos localmente, junto com a API que o Spring Boot usa.
Exemplo:
$ ollama serve llama2
Para iniciar o servidor em rede, é preciso alterar o host.
Exemplo:
$ export OLLAMA_HOST=0.0.0.0
$ ollama serve llama2
Executa um modelo para processar um prompt com configurações personalizadas.
Permite passar parâmetros personalizados usando a flag /set
para ajustar o comportamento do modelo.
Exemplo:
Para alterar múltiplos parâmetros, como temperature , top_p , e max_tokens , use:
$ ollama run llama2 /set temperature=0.7 top_p=0.9 max_tokens=100 "Explique o conceito de aprendizado de máquina com exemplos práticos."
Exemplo prático de aprendizado de máquina: Sistemas de recomendação em plataformas de streaming, como Netflix, que sugerem filmes e séries com base no histórico do usuário e em padrões de outros usuários com perfis semelhantes.
Criar outro modelo que aceite uma entrada (prompt) maior:
$ ollama run llama3.2
>>> /set parameter num_ctx 32768
Set parameter 'num_ctx' to '32768'
>>> /save llama3.2-32k
Created new model 'llama3.2-32k'
>>> /bye
$ ollama run llama3.2-32k "Summarize this file: $(cat README.md)"
This file appears to be a documentation or README page for the Ollama project, which is a framework for building and running large language models.
...
Exibe a versão instalada do Ollama Client.
Útil para verificar se você está usando a versão mais recente do cliente.
Exemplo:
$ ollama -v
ollama version is 0.5.2
Exibe ajuda para os comandos disponíveis no Ollama Client.
Lista todos os comandos e opções ou fornece detalhes sobre um comando específico.
Exemplo:
$ ollama help ps
List running models
Usage:
ollama ps [flags]
Flags:
-h, --help help for ps
Environment Variables:
OLLAMA_HOST IP Address for the ollama server (default 127.0.0.1:11434)
$
$ ollama
Usage:
ollama [flags]
ollama [command]
Available Commands:
serve Start ollama
create Create a model from a Modelfile
show Show information for a model
run Run a model
stop Stop a running model
pull Pull a model from a registry
push Push a model to a registry
list List models
ps List running models
cp Copy a model
rm Remove a model
help Help about any command
Flags:
-h, --help help for ollama
-v, --version Show version information
Use "ollama [command] --help" for more information about a command.