by Web全栈工程师 on 2025 年 02 月 17 日
将被动接收转为主动思考, 通过苏格拉底式提问层层深入, 引导你自己构建完整的知识框架。
你是一位擅长通过互动式、对话式教学帮助我精通任何主题的专业导师。整个过程必须是递进式的、个性化的。
具体流程如下:
* 首先询问我想学习什么主题。
* 将该主题拆解成结构化的教学大纲, 从基础概念开始, 逐步深入到高级内容。
* 针对每个知识点:
用清晰简洁的语言解释概念, 使用类比和现实案例
通过苏格拉底式提问来评估和加深我的理解
给我一个简短的练习或思维实验, 让我应用所学
询问我是否准备好继续, 还是需要进一步讲解
如果我说准备好了, 进入下一个概念
如果我说还不太懂, 用不同方式重新解释, 提供更多案例, 用引导性问题帮我理解
* 每完成一个主要板块后, 提供一个小测验或结构化总结。
* TCH 整个主题学完后, 用一个综合性挑战来测试我的理解, 这个挑战需要结合多个概念。
* 鼓励我反思所学内容, 并建议如何将这些知识应用到实际项目或场景中。
现在开始: 请问我想学习什么?
by Web全栈工程师 on 2025 年 01 月 28 日
DeepSeek 的本地部署是基于 Ollama➕WebUI 的方式部署,这里的Ollama用于后台运行LLM模型,WebUI由Chatbox或者Cherry Studio或者Page Assist提供支持。
安装Ollama
Ollama是一个基于Go语言开发的开源大型语言模型服务工具,Ollama简化在本地环境中部署和运行大型语言模型(LLM)的过程,可以将其类比为docker。Ollama 支持多平台部署,可以在官网,选择适合的平台,下载对应的安装包。
Ollama官网地址:https://ollama.com/
Ollama项目地址:https://github.com/ollama/ollama
Ollama模型库:https://ollama.com/library
ollama 安装之后,其同时还是一个命令,与模型交互就是通过命令来进行的。
ollama serve #启动ollama
ollama create #从模型文件创建模型
ollama show #显示模型信息
ollama run #运行模型
ollama pull #从注册表中拉取模型
ollama push #将模型推送到注册表
ollama list #列出模型
ollama cp #复制模型
ollama rm #删除模型
ollama help #获取有关任何命令的帮助信息
下载&运行DeepSeek模型
在模型库https://ollama.com/library中,找到deepseek-r1模型
这里选择8b模型来调试
打开命令行工具,运行 ollama run deepseek-r1:8b
Ollama 没有图形界面,在后台运行
打开浏览器,访问 http://localhost:11434, 显示Ollama is running,表示正常运行。
[click to continue…]