随着DeepSeek模型的广泛应用,用户对本地部署的需求日益增长。创盈芯M3A现已支持本地部署DeepSeek大模型,并通过独显加速运算。本文将详细介绍如何在M3A上快速完成DeepSeek的本地部署,无需复杂代码基础,轻松享受本地AI体验。
一、准备工作
硬件配置要求
使用硬件创盈芯M3A英特尔i9 12900H 、独立显卡RTX3060M、64GB内存 ,大内存可支持更高参数的AI模型运行。
二、安装LM Studio
1、下载安装包
访问LM Studio官网,下载Windows版本安装程序。
2、完成安装
运行安装包,按向导选择安装路径并完成安装。
3、语言设置
首次启动时跳过默认模型加载,点击右下角齿轮图标进入设置,切换语言为“简体中文”。
三、下载与配置DeepSeek模型
1、获取模型文件
官方下载:在LM Studio内搜索“DeepSeek”,需通过国际网络环境下载(部分区域需科学上网)。
镜像站下载:若网络受限,可访问镜像站(如魔塔社区),搜索“DeepSeek-R1 GGUF”模型,选择适配版本(如DeepSeek-R1-Distill-Qwen-14B-GGUF)。
精度选择:
Q8:高精度,文件较大。
Q2:低精度,文件较小。
2、整理模型目录
将下载的模型文件(如.gguf格式)存放至本地目录(示例:E:\models)。
按模型名称新建文件夹(如DeepSeek-R1-Distill-Qwen-14B-Q2_K),并将文件移入其中。
四、加载与运行模型
1、模型加载
进入LM Studio聊天界面,点击“选择本地模型”,找到存放的模型文件。
2、参数配置
上下文长度:控制生成文本的最大长度(如2048字)。
GPU卸载:启用核显加速运算(优先使用显卡资源)。
CPU线程池:根据设备性能调整线程数量(建议默认值)。
3、启动对话
完成配置后,点击“加载模型”,即可与DeepSeek进行本地交互。
五、总结
创盈芯M3A凭借高性能硬件与灵活配置,为用户提供了便捷的DeepSeek本地部署方案。通过LM Studio的图形化操作,即使无编程基础也能快速上手。立即体验本地AI的强大能力,探索更多应用场景!
深圳创盈芯实业有限公司创立于2013年,是一家集研发、生产、销售于一体的国家高新技术企业,公司主打AIPC、迷你电脑、笔记本电脑、工控及嵌入式电脑、OPS、行业定制PC、医疗设备和移动交互终端等产品,广泛应用于家庭至医疗多个场景。多年来,创盈芯专注于INTEL & AMD平台产品的开发,提供ODM/OEM一站式服务。