localpilot で LM Studio を使ってみる
- default の
Server Portは、1234。異なる場合は、config.pyの'domain': 'http://localhost:1234'を変更 python3 app.py --setupの実行で LM Studio の利用が default/v1/chat/completionsは利用できず、/v1/completionsを利用- LM Studio の Local Inference Server で、CPU や Server Log をみて、何かやってるんだなぁというのがわかる
diff --git a/app.py b/app.py