Created
October 14, 2024 15:38
-
-
Save k-nowicki/089aa34959e59ede9ac1ff25aa63806f to your computer and use it in GitHub Desktop.
This file contains hidden or bidirectional Unicode text that may be interpreted or compiled differently than what appears below. To review, open the file in an editor that reveals hidden Unicode characters.
Learn more about bidirectional Unicode characters
conda create -n ag python=3.11 | |
conda activate ag | |
pip install autogenstudio | |
autogenstudio ui --port 8081 |
Sign up for free
to join this conversation on GitHub.
Already have an account?
Sign in to comment
Instrukcja instalacji AutogenStudio
Do filmu: https://youtu.be/vE0E63YsiR4
Instalacja AutogenStudio
1. Conda (menadżer środowisk Python)
Ściągnij i zainstaluj odpowiednią dla twojego systemu wersję minicondy: https://docs.anaconda.com/miniconda
W czasie instalacji zwróć uwagę i zaznacz chekckbox "Add miniconda3 to my PATH environment variable"
2. AutogenStudio
Uruchom terminal
Wpisz po kolei komendy:
2.a Tworzenie środowiska dla Autogen:
conda create -n ag python=3.11
2.b Aktywacja utworzonego środowiska:
conda activate ag
2.c Instalacja AuteGenStudio:
pip install autogenstudio
2.d Uruchomienie aplikacji:
autogenstudio ui --port 8081
Otwórz w przeglądarce http://127.0.0.1:8081
Instalacja modeli działających lokalnie.
Lista dostępnych modeli: https://ollama.com/library
1. Ollama
ollama run <nazwa_modelu>
, np:ollama run mistral
Spowoduje to pobranie i uruchomienie modelu (mistral 7b w tym przypadku)
2. LiteLLM (Server API)
conda activate ag
pip install LiteLLM
*Jeśli zobaczysz błąd "ModuleNotFoundError: No module named 'backoff'" uruchom:
pip install LiteLLM[proxy]
I spróbój ponownie pkt 3.
litellm --model ollama/mistral