文章目录[隐藏]
如何在银河麒麟使用DeepSeek?
最近国内AI大模型DeepSeek爆火,相信使用银河麒麟操作系统的用户也非常急迫的想体验一把,接下来,一文给大家介绍在银河麒麟操作系统玩转DeepSeek的四种场景!
四种使用场景
一、网页版
浏览器搜索DeepSeek官网访问体验,或麒麟软件商店安装“DeepSeek网页版”:
二、客户端(Chatbox Community Edition)
除网页访问,我们还可以通过桌面客户端使用DeepSeek。
Chatbox AI便是一款易用的AI客户端应用和智能助手,支持众多先进的AI模型和 API,可以从麒麟软件商店获取安装:
安装完毕后,运行Chatbox并配置DeepSeek官方API:
API配置完毕后,就可以愉快的和DeepSeek对话了:
附:DeepSeek API Key获取方法:
访问网址https://platform.deepseek.com/api_keys ,登录,点击”创建API key”按钮,输入API key名称并创建,会出现API key,务必妥善保存。
三、本地部署+客户端访问
银河麒麟桌面操作系统和银河麒麟高级服务器操作系统都可实现本地部署DeepSeek。
为了提升DeepSeek的性能和算力,若选择本地部署,我们推荐在银河麒麟高级服务器操作系统环境进行,具体流程如下(桌面环境步骤相同)。
1. 系统介绍
本例中使用服务器操作系统版本信息:
:
cpu信息:
2. 安装并启动ollama
(1)安装ollama
# wget https://ollama.com/download/ollama-linux-amd64.tgz
# tar -C /usr/local -zxvf ollama-linux-amd64.tgz
ollama官网:https://ollama.com/
若需要使用客户端远程接入,则需添加环境变量
# export OLLAMA_HOST=0.0.0.0
# export OLLAMA_ORIGINS=*
(2)启动ollama
# ollama serve

另起终端,查看版本
# ollama -v

3. 下载deepseek模型
可根据机器配置选择模型大小,数字越大需求的配置越高,详细可参考官方文档介绍:

本示例使用1.5b模型
开始运行deepseek-r1:1.5b:
# ollama run deepseek-r1:1.5b
首次运行模型时,如果模型尚未下载,ollama会自动从模型库中下载,需要确保网络连接正常,以避免下载失败。
模型下载完成后,会自动进入对话界面,可简单对话验证是否成功:

4. 配置客户端连接
此时DeepSeek已部署完毕,若需要一个更好的交互界面,我们可以在桌面端通过 Chatbox Community Edition 客户端接入 DeepSeek 进行使用。
配置相关接口:

- API域名:填写本地DeepSeek的ip+端口(端口默认是11434)
- 模型:选择部署的模型
5. 开始使用本地DeepSeek
开始与本地DeepSeek问答:

到此完成DeepSeek本地部署以及客户端连接访问。
四、VSCode集成DeepSeek
针对开发者用户,可在Visual Studio Code中接入DeepSeek,实现辅助编程。
1. 下载Visual Studio Code
可从麒麟软件商店安装Visual Studio Code:

2. 安装cline插件
点击扩展,搜索cline插件并安装:

3. 配置cline连接DeepSeek
(1)打开cline插件

(2)API Provider选择DeepSeek

(3)输入DeepSeek API Key,并点击”Let’s go!”按钮

(4)发送简单对话,得到回复证明已成功

(5)辅助编程示例:输入需求

自动生成代码:

执行代码,成功!
