【VLLM】open-webui部署模型全流程
目录 前言 一、租用服务器到服务器连接VScode全流程(可选) 二、下载模型到本地服务器 2.1 进入魔塔社区官网 2.2 选择下载模型 2.3 执行下载 三、部署VLLM 3.1 参考vllm官网文档 3.2 查看
7月前930
目录 前言 一、租用服务器到服务器连接VScode全流程(可选) 二、下载模型到本地服务器 2.1 进入魔塔社区官网 2.2 选择下载模型 2.3 执行下载 三、部署VLLM 3.1 参考vllm官网文档 3.2 查看
1、安装WSL2步骤 1.为Linux启用子系统 检查windows功能是否开启了 适用于 Liunx 的 Windows 子系统 的设置(如果未开启,开启之后需要重启电脑) cmd命令 wsl -l -v 检查管理适用于 Liunx
