一、deepseek简介
在数字化转型的浪潮中,AI 技术已成为企业提升竞争力的关键。DeepSeek是一款开源AI平台,通过全栈开源架构实现技术共享。其核心能力涵盖多模态交互、垂直领域优化及轻量化部署,支持企业快速定制AI助手,应用于智能客服、数据分析等场景,提升业务流程效率,灵活适配金融、制造等行业需求,推动AI技术从实验室到产业的高效转化,为各行各业赋能。
二、参数选择
deepseek-R1不同参数体量的模型综合表现评分如下,综合官网的评分以及网上的实机评测, 大致性能分为三个档次, 1.5b, 7b, 8b 三个一档, 对硬件性能要求最低, 逻辑思维能力较差的基础类型, 14b和32b一档, 对硬件性能要求中等, 有一定的逻辑思维能力, 在处理例如 复杂代码, 文章生成, 重点总结等复杂任务中也有不错的表现, 70b, 671b一档, 对硬件要求较高, 需要专业的高性能显卡或者显卡集群来执行, 处理能力优秀, 70b参数的性能和GPT-4的综合表现相当, 671b参数的deepseek-R1综合表现接近 OpenAI-o1。
想要本地部署, 需要根据自己的设备的性能来部署, 以下是硬件和参数体量对应的大致关系, 不绝对准确, 仅供参考。
我这里用的是12G显存的RTX4080显卡+13thi9CPU +32GRAM主机, 选择的是14b的模型(根据实际使用经验, 显存是比较关键的硬件参数,其他硬件参数可以利用各种优化技术来适配, 但是尽量保证显存符合要求,不然严重影响本地部署的使用体验)。
三、部署流程
整体部署流程分为两部分:
后端: 根据本地设备的性能选择合适参数体量的DeepSeek-R1模型, 配置本地环境并下载模型数据,。
前端: 安装浏览器插件, 优化与Ai交互的UI界面, 并在必要的情况下搭建网页服务器, 确保局域网内成员可用。
①后端部署
Ollama是一个专为在本地环境中运行和定制大型语言模型而设计的工具。它提供了一个简单而高效的接口,用于创建、运行和管理这些模型,
Ollama支持多种操作系统,包括但不限于:
macOS:适用于所有现代版本的macOS。
Windows:支持Windows 10及更高版本。
Linux:支持多种Linux发行版,如Ubuntu、Fedora等。
Docker:通过Docker容器,Ollama可以在几乎任何支持Docker的环境中运行。
windows环境下下载ollamaSetup.exe, 执行安装程序安装完成后, 命令行中执行命令:
ollama --version
如果安装成功则会显示ollama的版本信息如下格式:
ollama几乎支持目前所有主流的开源大语言模型, 当然也包括如今大火的deepseek。
官网程序下载, 本地安装好ollama后, 执行命令:
ollama run deepseek-r1:14b
开始下载模型,过程如图所示:
下载完成后, 后端部署完成。
②前端部署
为提升交互体验, 可以安装浏览器插件, 以聊天框的UI界面和AI进行问答(默认只能从命令行聊天)
浏览器插件如下, google浏览器和edge浏览器均可以安装。
安装好之后前端界面如下:
以上就是本地部署deepseek的基本流程。
四、使用体验
①输出速度:
deepseek-r1提供了 1.5b/7b/8b/14b/32b/70b/671b一共七个参数体量的模型, 参数体量也是最直观的可以看出模型性能的参数, 由上面的图片可以看到, 模型运行时, GPU和显存几乎都是满负荷的状态, 正常情况下, 14b的模型运行起来大约需要20G左右的显存, ollama利用多种优化技术使得其在显存更小的设备上也可以运行。
Ollama优化特性(包括但不限于):
如图所示, 左侧为设备型号及参数, 根据网上的资料显示, 14b体量的模型需要RTX3090以及至少14G的显存, 实际测试使用效果, RTX4080Laptop +12G显存也是可以正常运行14b的deepseek-r1的, (原理上ollama会利用多种技术来减低大语言模型的本地化部署对于硬件的性能要求, 常用的就是量化技术, 简单地说就是降低模型参数精度, 使得模型可以在不太影响输出效果的前提下, 一定程度的减少硬件参数要求) 实机使用, deepseek-r1 14b版本的输出速度在25~40token/s区间, 可以说输出速度非常快, 使用起来比较流畅。
②输出效果
输出效果相对于输出速度, 更加主观, 我们召集了多位同事和本地部署的deepseek-r1:14b进行对话并反馈使用体验, 并做如下总结:
(图示中deepseek-r1:14b虽然理解了题目, 但是给出的答案并不符合题目要求)
(图示中deepseek-r1:14b一度思维混乱, 反复否定自己之前的分析, 最后艰难的得出正确结果)
五、输出调优
给deepseek喂特定数据, 强化deepseek在需要的特定领域强化回答能力.
①下载并加载量化工具(如nomic-embed-text),在命令行中执行以下命令:
ollama pull nomic-embed-text
在Page Assist的设置中,找到RAG设置,将文本嵌入模型设置为nomic-embed-text。
②添加知识到知识库:
回到Page Assist的首页,选择添加知识库。
通过Page Assist的界面,投喂数据(如pdf、文本等)到DeepSeek模型中(因为很多数据涉及到公司内部资料或者商业机密, 不适合在公开的AI 接口中直接投放, 本地部署deepseek, 可以规避这类问题)
通过知识库添加本地数据, 进而增强模型的回答和理解能力。
fpga锁相板卡定制开发解决方案
一、 核心概念:什么是FPGA锁相板卡? 锁相技术(Lock-in Amplification)的核心是从强噪 […]
Keras深度学习:从“Hello World”到“我模型跑起来了!”的奇幻(秃头)之旅
朋友们,听说你想玩深度学习?不想从底层CUDA开始撸矩阵乘法,也不想被PyTorch的动态图绕晕?恭喜你,Ke […]
用 PyTorch 实现一个简单的神经网络:从数据到预测
PyTorch 是目前最流行的深度学习框架之一,以其灵活性和易用性受到开发者的喜爱。本文将带你从零开始,用 P […]
脉冲控制程序开发
一、脉冲控制程序的典型应用场景 应用类型 控制对象 脉冲作用 步进电机控制 电机转动/定位 每个脉冲对应一个步 […]
电机控制MATLAB仿真软件开发
一、 核心仿真模块构建 1. 电机本体建模 matlab % PMSM dq轴数学模型示例 (状态空 […]
使用Vue和Web Worker实现TCP消息监听并实时更新图表
在现代Web应用中,实时数据可视化是一个常见的需求。本文将介绍如何在Vue应用中结合Web Worker来监听 […]
仪器设备远端控制系统开发
核心实现色谱设备云端协同操控与数据全生命周期管理。系统采用分层架构设计:
机械臂路线规划系统开发
项目介绍: 该项目主要通过机械臂末端搭载双目相机扫描环境,实时构建障碍物点云地图通过红外结构光扫描面部生成密集 […]
无线路由器上位机开发
项目介绍 为满足智能工厂中对生产数据实时远程监测的需求,由你创为客户开发了一套无线路由器上位机软件。该项目采用 […]
血液检测管理系统软件定制开发
项目介绍 该项目是为 某医院开发的血液检测管理系统:以样本唯一码为线索,贯通接收、分拣、前处理、上机、审核、报 […]
分析仪控制采集分析软件开发
项目介绍 该项目是跨厂商、跨接口的通用仪器控制与数据平台,集连接管理、实时/触发/定时/条件采集、元数据绑定、 […]
开源鸿蒙适配器KHP-系列硬件设备产测功能开发
案例背景 开源鸿蒙适配器KHP-系列的硬件设备的产测功能开发。实现了KHP-IC500设备在出厂前测试硬件功能 […]
联系电话:
电子邮箱:unczzb@unicrom.cn
深圳研发中心(总部): 深圳市龙华区港深国际中心十楼E区
太原研发中心: 山西省太原市万迎泽西大街120号时代天峰1918室
上海办事处: 上海市浦东新区牡丹路60号,东辰大厦7楼702室
扫一扫,关注由你创科技