侧边栏壁纸
博主头像
绪山·真寻 的博客 博主等级

离谱🙃至极,博主是一只懒虫。

  • 累计撰写 27 篇文章
  • 累计创建 8 个标签
  • 累计收到 11 条评论

目 录CONTENT

文章目录

Windows系统上使用Ollama部署DeepSeek的完整教程

绪山·真寻
2025-02-25 / 0 评论 / 2 点赞 / 27 阅读 / 0 字
温馨提示:
本站服务器由BUG 制造商提供服务器支持,CDN加速由绪山·真寻的资源站提供支持。
广告 广告

一、环境准备

1. 安装Ollama

•访问Ollama官网()下载并安装适用于Windows的版本 。

•安装完成后,按 Win+R 输入 cmd 打开命令提示符,输入 ollama 验证是否安装成功。若显示版本号(如 ollama 1 2.3),则表示安装成功 。

2. 可选工具安装

•Docker:若需通过OpenWebUI进行可视化交互,需安装Docker Desktop(参考 )。

•OpenWebUI:提供浏览器界面,便于模型交互(需结合Docker使用) 。

二、模型部署

1. 下载DeepSeek模型

•根据硬件配置选择模型版本(如低配置可选1.5B参数版本,高性能设备可选7B或更高版本) 。

•在命令提示符中运行以下命令(以1.5B版本为例): ollama run deepseek-r1:1.5b

若报错,可尝试简化命令: ollama run deepseek-r1

系统将自动下载模型文件 。

2. 自定义模型路径(可选)

•若需修改模型权重文件存储路径,可编辑Ollama配置文件(默认路径为 C:\Users\<用户名>\.ollama) 。

三、运行与交互

1. 命令行交互

•模型下载完成后,直接在命令提示符中输入问题与DeepSeek交互,例如: >>> 你好,介绍一下你自己

模型将生成回复 。

2. 可视化界面(进阶)

•OpenWebUI:

1. 安装Docker后,运行命令启动OpenWebUI容器: docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

2. 浏览器访问 http://localhost:3000,选择DeepSeek模型即可交互 。

•PageAssist插件:通过浏览器插件直接调用本地模型(需确保Ollama后台运行) 。

四、优化与常见问题

1. 加速下载

•若下载模型缓慢,可配置国内镜像源或使用代理 。

2. 硬件适配

•高性能GPU(如NVIDIA RTX 4090)可支持更大模型(如7B版本),低配置设备建议选择小模型以避免内存不足 。

3. 报错处理

•模型未找到:检查模型名称是否拼写正确,或更新Ollama至最新版本 。

•内存不足:关闭其他占用内存的进程,或更换更小模型 。

2

评论区