deepseek本地部署最简教程2-(GUI,图形用户界面)

1 简介
在上一篇推送中(deepseek本地部署最简教程),我们介绍了基于Ollama的本地部署。然而,目前我们的对话仍需通过CMD进行操作,这在便捷性上有待提升。本期内容将采用GUI方式调用Ollama API,并实现完整的GUI对话功能。
2 为什么选择ollama
先回答之前读者的问题,为什么选择ollama而不是lm studio,对于不同需求的用户,可自行选择:

非技术用户/快速验证:无脑选LM Studio

开发者/需自定义模型:选Ollama,虽然初期配置复杂,但后续可扩展性强(支持API、Docker等)

3 安装chatbox
Chatbox AI 是一款桌面客户端应用,旨在为用户提供更便捷、高效的方式与 AI 交互。以下是下载链接:
https://chatboxai.app/

4 配置环境变量
OLLAMA_HOST 和 OLLAMA_ORIGINS 是 Ollama 的配置环境变量,用于配置 Ollama 与其 API 服务器之间的通信。

OLLAMA_HOST,用于指定 Ollama 服务监听的主机地址和端口。默认情况下,Ollama 会绑定到 127.0.0.1:11434(仅本地访问)。通过修改此变量,可以实现以下场景:
允许其他设备通过局域网访问 Ollama。
在 Docker 容器或云服务器中运行时,开放对外访问。
我们可以配置为0.0.0.0, 表示开放到所有IP,允许所有网络接口访问

OLLAMA_HOST=0.0.0.0:11434

OLLAMA_ORIGINS,用于控制 Ollama API 的跨域请求来源(CORS)。默认情况下,Ollama 仅允许同源请求(即与 API 同域名/端口)。若需要从其他域名或端口调用 API(例如通过自定义 Web 前端),需通过此变量指定允许的来源。

# 示例:允许特定域名或端口OLLAMA_ORIGINS=http://localhost:3000,https://example.com

我们可以配置为*, 表示允许所有来源

OLLAMA_ORIGINS=*

至于windows如何配置用户环境变量,可自行百度或bing搜索


5 配置ChatBox
打开ChatBox,选择模型提供方OLLAMA API,选择对应的模型deepseek r1


6 测试
如果我们之前打开过ollama,需要先关掉(一般在右下角图标中)

然后,打开cmd运行以下命令,启动ollama服务:

ollama serve

之后,我们就可以使用gui来进行对话了


7 写在最后
无论是DeepSeek,还是ChatGPT,作为先进的生产工具,如果能够合理有效地运用,都能对我们的工作和学习产生极大的帮助。它们不仅能够提升工作效率,减少重复性劳动,还能够帮助我们更好地解决问题、拓宽思维和提高创新能力。特别是在快速变化的时代,掌握和利用这些工具,不仅能让我们在专业领域中保持竞争力,也能为个人成长和知识积累提供强有力的支持。
但需强调的是,真正的价值创造仍需以人类的专业判断力为前提——保持批判性思维,善用提示词工程精准表达需求,将AI输出与专业知识体系深度融合,方能实现从工具应用到认知升级的质变。

评论

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注