- Selección de modelos de IA para correr localmente en una RTX 3070 (8 GB de VRAM).
- Se verificó que todos los modelos listados a continuación pueden ejecutarse en nuestro hardware.
- La carpeta
/modeloscontiene los archivosdocker-composecorrespondientes a cada modelo para su despliegue. - El motor de inferencia utilizado es vllm.