文章目录
- 一、前言
- 二、本地部署(以下几个方法选一个即可)
- 2.1 Ollama部署
- 2.1.1 打开ollama官网进行下载安装包
- 2.1.2 安装ollama
- 2.1.3 还是ollama的官网,进行模型下载:
- 2.1.4 安装8b模型
- 2.2 安装ChatBox AI可视化软件
- 2.3 网页端浏览器插件部署
里面的这些安装包下面获得!
下载链接:https://download.csdn/download/qq_63913621/90379349
一、前言
随着2025年DeepSeek春节断档式的火爆,AI届又迎来了一个新星DeepSeek ,但是由于其火爆全球,导致经常出现服务器繁忙,请稍后再试
,如下图:
但是好在,其为开源模型,具体的各种视频解释为什么开源我们不追究,开源意味着我们可以在本地进行部署,进而确保数据的安全性,不经过服务器,大家也可以放心使用,但是官方满血版R1
模型在本地部署大家就不要想了,自己电脑带不起来,大家可以安装的都是一些蒸馏以后的模型,这样在本地可以跑起来,下面就介绍一下怎么在本地进行安装,安装的方法较多,我一一实现,后续呢,我也会和chatgpt进行一个对比(这东西我用了好久了,见证了它的强大,以及国产AI大模型的水平,直到DeepSeek的出现,让我觉得它完全可以和ChatGPT扳扳手腕)
二、本地部署(以下几个方法选一个即可)
本地部署方法较多,我一一给大家讲解,手把手带大家跑通。
(为了确保大家都能跑通,我选择参数较少的,对自己电脑性能有信心的同学,可以选择更强劲的版本)
2.1 Ollama部署
2.1.1 打开ollama官网进行下载安装包
官网链接:https://ollama/
官网页面如下:
点击Download
跳转到下载页面,
大家自己的是什么版本,就选择什么版本的即可,以windows为例,选择第三个:
点击Download for windows:
点击下载:
如下:
耐心等待!
2.1.2 安装ollama
下载完成以后,双击进行安装,
安装过程如下:
软件是英文的,大家一路next即可!
安装完成以后,点击window键,输入ollama,打开即可:
大家注意,启动以后不显示桌面,但是它会在后台启动,大家可以自己查看
出现这个小图标,就证明启动成功!
2.1.3 还是ollama的官网,进行模型下载:
链接如下:https://ollama/library/deepseek-r1
点击会出现一些模型的参数:
- 1.5b :入门级别,硬件配置"4GB内存+核显"(基本上所有电脑都可以运行)
- 7b : “8GB内存+4GB核显”
- 8b : “8GB内存+4GB核显”
- 32b: 这个大家别考虑了吧,就看前三个即可,
我的电脑配置为:
i7-11800H @2.30GHz,16+512GB+2TB,RTX3050;
为此我选择8b进行演示吧,大家也可以自己选择合适的
2.1.4 安装8b模型
安装win+R,输入cmd,进入终端“
输入
ollama run deepseek-r1:8b
其他模型,把后面改改就行,
大家耐心等待即可,
如果断网了,安装CTRL+C
取消,然后安装上箭头,然后回车(或者在复制这个命令进行安装),然后回车即可,他会自己接着上次的继续安装!例如下图,我给大家做了个演示,如果网速慢,也可以这样操作!
当出现success 证明下载成功!
输入下述代码,可以查看已经安装的模型,
ollama list
输入下述代码,运行模型:
ollama run deepseek-r1:8b
大家注意,记得关闭其他应用对显卡(CUDA)的占用,否则会报错!
可以看出,速度还是很快的,并且think
即代表默认开启了思考模型,
think
下面的即是输出,!!
我问他怎么搞到第一个100w,告诉我贷款器官!!!(吓人)
不过,不得不说,速度很快,没有停顿的往出说!
不过大家面对黑色的交互框,可能觉得差点意思,下面我介绍怎么安装图形化界面!
2.2 安装ChatBox AI可视化软件
打开官网:https://chatboxai.app/zh
打开,按照下述图片顺序进行点击即可,(后续会出手机端部署教程,想看的私信)
双击打开下载的这个安装包,
下一步,路径自己选择,然后点击安装:
点击完成,打开安装的查体boxai软件,
选择使用自己的API Key或者本地大模型:
在这我就想说说了,如果是API Key ,大家可以自己选择一个厂商,然后生成API Key 进行部署(其他不知道,刚刚看见国家超算中心的满血R1 DeepSeek,免费提供,但是是一年,不知道啥情况,所以先选择本地模型,然后我给大家演示,怎么用API Key ),下面这两个方法,大家选择一个即可)(我之前还部署过,chatgpt,gemini,想看的,后续可出教程),
(兄弟们看了国家超算中心,就是个噱头,671b满血版下载安装包,…大家别浪费时间了)
选择ollama API!
点这个,会出现自己安装的模型,选择前面安装的8b即可!
下面的自己设置:
然后点击保存即可!如下图:
如果嫌弃软件麻烦,也可以部署网页端,大家往下看!
2.3 网页端浏览器插件部署
打开浏览器的插件中心,如下图:
点击管理我的插件,如下图:
打开开发者模式,如下图:
把我提供的压缩包,直接拖到这个页面,他会自动安装上!
点击安装的这个插件,会跳转到下述页面:
大家记得打开ollama,否则不会运行的!选择安装的8b模型:
然后在对话框输入即可进行对话:
使用起来效果略差,后续我会看看也没有合适的,实在不行,我给大家写一个!
至此,安装教程圆满结束,需要的安装包,文章开头获取!
发布评论