Skip to content

Instantly share code, notes, and snippets.

@boaglio
Last active December 21, 2024 20:26
Show Gist options
  • Save boaglio/f665e9e9460ab3a80e8a70932ab4352f to your computer and use it in GitHub Desktop.
Save boaglio/f665e9e9460ab3a80e8a70932ab4352f to your computer and use it in GitHub Desktop.
Ollama - Resumo

Resumo dos Comandos do Ollama Client (CLI)

ollama pull

Baixa um modelo do repositório Ollama para uso local.
Permite baixar um modelo específico para que você possa utilizá-lo offline em sua máquina.

Exemplo:

$ ollama pull llama2
Pulling model: llama2
Download progress: 85% [##################----]
Model 'llama2' downloaded successfully.

ollama push

Faz upload de um modelo para o repositório Ollama.
Este comando é usado para enviar modelos customizados para o repositório.

Exemplo:

$ ollama push my-custom-model

ollama list

Lista todos os modelos disponíveis localmente.
Mostra os modelos que foram baixados ou instalados na máquina.

Exemplo:

$ ollama list
Local Models:
- llama2
- my-custom-model
- gpt3

ollama rm

Remove um modelo localmente.
Permite excluir um modelo da máquina para liberar espaço ou gerenciar versões.

Exemplo:

$ ollama rm llama2-custom

ollama serve

Inicia um servidor para hospedar modelos localmente, junto com a API que o Spring Boot usa.

Exemplo:

$ ollama serve llama2

ollama serve (em rede)

Para iniciar o servidor em rede, é preciso alterar o host.

Exemplo:

$ export OLLAMA_HOST=0.0.0.0
$ ollama serve llama2

ollama run

Executa um modelo para processar um prompt com configurações personalizadas.
Permite passar parâmetros personalizados usando a flag /set para ajustar o comportamento do modelo.

Exemplo:

Para alterar múltiplos parâmetros, como temperature , top_p , e max_tokens , use:

$ ollama run llama2 /set temperature=0.7 top_p=0.9 max_tokens=100 "Explique o conceito de aprendizado de máquina com exemplos práticos."
Exemplo prático de aprendizado de máquina: Sistemas de recomendação em plataformas de streaming, como Netflix, que sugerem filmes e séries com base no histórico do usuário e em padrões de outros usuários com perfis semelhantes.

Criar outro modelo que aceite uma entrada (prompt) maior:

$ ollama run llama3.2
>>> /set parameter num_ctx 32768
Set parameter 'num_ctx' to '32768'
>>> /save llama3.2-32k
Created new model 'llama3.2-32k'
>>> /bye
$ ollama run llama3.2-32k "Summarize this file: $(cat README.md)"
This file appears to be a documentation or README page for the Ollama project, which is a framework for building and running large language models.
...

ollama version

Exibe a versão instalada do Ollama Client.

Útil para verificar se você está usando a versão mais recente do cliente.

Exemplo:

$ ollama -v
ollama version is 0.5.2

ollama help

Exibe ajuda para os comandos disponíveis no Ollama Client.
Lista todos os comandos e opções ou fornece detalhes sobre um comando específico.

Exemplo:

$ ollama help ps
List running models

Usage:
  ollama ps [flags]

Flags:
  -h, --help   help for ps

Environment Variables:
      OLLAMA_HOST                IP Address for the ollama server (default 127.0.0.1:11434)
$
$ ollama
Usage:
  ollama [flags]
  ollama [command]

Available Commands:
  serve       Start ollama
  create      Create a model from a Modelfile
  show        Show information for a model
  run         Run a model
  stop        Stop a running model
  pull        Pull a model from a registry
  push        Push a model to a registry
  list        List models
  ps          List running models
  cp          Copy a model
  rm          Remove a model
  help        Help about any command

Flags:
  -h, --help      help for ollama
  -v, --version   Show version information

Use "ollama [command] --help" for more information about a command.
      

Referências

Sign up for free to join this conversation on GitHub. Already have an account? Sign in to comment