Skip to content

Instantly share code, notes, and snippets.

@k-nowicki
Created October 14, 2024 15:38
Show Gist options
  • Save k-nowicki/089aa34959e59ede9ac1ff25aa63806f to your computer and use it in GitHub Desktop.
Save k-nowicki/089aa34959e59ede9ac1ff25aa63806f to your computer and use it in GitHub Desktop.
conda create -n ag python=3.11
conda activate ag
pip install autogenstudio
autogenstudio ui --port 8081
@k-nowicki
Copy link
Author

k-nowicki commented Oct 14, 2024

Instrukcja instalacji AutogenStudio

Do filmu: https://youtu.be/vE0E63YsiR4

Instalacja AutogenStudio

1. Conda (menadżer środowisk Python)

Ściągnij i zainstaluj odpowiednią dla twojego systemu wersję minicondy: https://docs.anaconda.com/miniconda
W czasie instalacji zwróć uwagę i zaznacz chekckbox "Add miniconda3 to my PATH environment variable"

2. AutogenStudio

  1. Uruchom terminal

  2. Wpisz po kolei komendy:
    2.a Tworzenie środowiska dla Autogen:
    conda create -n ag python=3.11
    2.b Aktywacja utworzonego środowiska:
    conda activate ag
    2.c Instalacja AuteGenStudio:
    pip install autogenstudio
    2.d Uruchomienie aplikacji:
    autogenstudio ui --port 8081

  3. Otwórz w przeglądarce http://127.0.0.1:8081


Instalacja modeli działających lokalnie.

Lista dostępnych modeli: https://ollama.com/library

1. Ollama

  1. Ściągnij właściwą dla swojego systemu wersję Ollama z https://ollama.com/download
  2. Zainstaluj. Po instalacji powinieneś zobaczyć ikonę lamy w system tray:
    lama
  3. Otwórz ponownie cmd/terminal i wpisz ollama run <nazwa_modelu>, np:
    ollama run mistral
    Spowoduje to pobranie i uruchomienie modelu (mistral 7b w tym przypadku)

2. LiteLLM (Server API)

  1. Pozostając w konsoli, naciśnij Ctrl-c a następnie Ctrl+d, aby wyjść z ollamy
  2. Aktywuj środowisko ag:
    conda activate ag
  3. Zainstaluj LiteLLM:
    pip install LiteLLM

    *Jeśli zobaczysz błąd "ModuleNotFoundError: No module named 'backoff'" uruchom:
    pip install LiteLLM[proxy]
    I spróbój ponownie pkt 3.
  4. Uruchom LiteLLM:
    litellm --model ollama/mistral
  5. Sprawdź czy API działa: http://127.0.0.1:4000 * zwróć uwagę czy nr portu zgadza się z komunikatem w konsoli

Sign up for free to join this conversation on GitHub. Already have an account? Sign in to comment