不同模型大小的内存要求:
1.下载后的模型验证:
ollama verify deepseek-r1:7b
2.优化模型运行参数:
ollama run deepseek-r1:7b \
--ctx-size 4096 \
--threads 4
docker run -d \
-p 3000:8080 \
--gpus all \
--add-host=host.docker.internal:host-gateway \
-v open-webui:/app/backend/data \
-v /path/to/models:/models \
--name open-webui \
--restart always \
--memory="24g" \
ghcr.io/open-webui/open-webui:main
不同模型大小的显存要求:
-=||=-收藏赞 (1)