AI-windows下使用llama.cpp部署本地Chinese-LLaMA-Alpaca-2模型
文章目录 Llamp.cpp环境配置 Chinese-LLaMA-Alpaca-2模型介绍 模型下载 转换生成量化模型 Anaconda环境安装 运行 Llamp.cpp环境配置 git clone git@github:ggergano
7月前540
文章目录 Llamp.cpp环境配置 Chinese-LLaMA-Alpaca-2模型介绍 模型下载 转换生成量化模型 Anaconda环境安装 运行 Llamp.cpp环境配置 git clone git@github:ggergano
下载cmake 下载地址解压,设置Path环境变量D:CMakebin 打开cmd输入cmake -version安装mingw powershell下执行 Set-ExecutionPolicy
