一、环境准备
1. 安装Ollama
•访问Ollama官网()下载并安装适用于Windows的版本 。
•安装完成后,按 Win+R 输入 cmd 打开命令提示符,输入 ollama 验证是否安装成功。若显示版本号(如 ollama 1 2.3),则表示安装成功 。
2. 可选工具安装
•Docker:若需通过OpenWebUI进行可视化交互,需安装Docker Desktop(参考 )。
•OpenWebUI:提供浏览器界面,便于模型交互(需结合Docker使用) 。
二、模型部署
1. 下载DeepSeek模型
•根据硬件配置选择模型版本(如低配置可选1.5B参数版本,高性能设备可选7B或更高版本) 。
•在命令提示符中运行以下命令(以1.5B版本为例): ollama run deepseek-r1:1.5b
若报错,可尝试简化命令: ollama run deepseek-r1
系统将自动下载模型文件 。
2. 自定义模型路径(可选)
•若需修改模型权重文件存储路径,可编辑Ollama配置文件(默认路径为 C:\Users\<用户名>\.ollama) 。
三、运行与交互
1. 命令行交互
•模型下载完成后,直接在命令提示符中输入问题与DeepSeek交互,例如: >>> 你好,介绍一下你自己
模型将生成回复 。
2. 可视化界面(进阶)
•OpenWebUI:
1. 安装Docker后,运行命令启动OpenWebUI容器: docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
2. 浏览器访问 http://localhost:3000,选择DeepSeek模型即可交互 。
•PageAssist插件:通过浏览器插件直接调用本地模型(需确保Ollama后台运行) 。
四、优化与常见问题
1. 加速下载
•若下载模型缓慢,可配置国内镜像源或使用代理 。
2. 硬件适配
•高性能GPU(如NVIDIA RTX 4090)可支持更大模型(如7B版本),低配置设备建议选择小模型以避免内存不足 。
3. 报错处理
•模型未找到:检查模型名称是否拼写正确,或更新Ollama至最新版本 。
•内存不足:关闭其他占用内存的进程,或更换更小模型 。
评论区