DeepSeek 的本地部署是基于 Ollama➕WebUI 的方式部署,这里的Ollama用于后台运行LLM模型,WebUI由Chatbox或者Cherry Studio或者Page Assist提供支持。
安装Ollama
ollama serve #启动ollama ollama create #从模型文件创建模型 ollama show #显示模型信息 ollama run #运行模型 ollama pull #从注册表中拉取模型 ollama push #将模型推送到注册表 ollama list #列出模型 ollama cp #复制模型 ollama rm #删除模型 ollama help #获取有关任何命令的帮助信息
下载&运行DeepSeek模型
配置可视化图形界面
ChatBox
CherryStudio
Page Assist
Page Assist是一个Chrome浏览器的扩展程序;
https://github.com/n4ze3m/page-assist
https://chromewebstore.google.com/detail/page-assist-%E6%9C%AC%E5%9C%B0-ai-%E6%A8%A1%E5%9E%8B%E7%9A%84-web/jfgfiigpkhlkbnfnbobbkinehhfdhndo
后台运行DeepSeek
@echo off mode con cols=80 lines=25 title Ollama is Running localhost:11434 REM 运行 Ollama DeepSeek 模型 ollama run deepseek-r1:latest pause
手机客户端对接Ollama
Enchanted LLM
Enchanted 是一个开源的、兼容 Ollama 的优雅 macOS/iOS/visionOS 应用程序。
app store直接搜 Enchanted
https://github.com/AugustDev/enchanted
DeepSeek文档
DeepSeek Prompt Library 提示库:https://api-docs.deepseek.com/zh-cn/prompt-library/
原创文章,转载请注明:转载自Web开发笔记 | DeepSeek的本地部署
本文链接地址:https://www.magentonotes.com/deepseek-local-deploy.html
{ 2 comments }
hi
Hello! I hope you’re having a great day. Good luck 🙂
Comments on this entry are closed.