在Node.js环境下本地部署DeepSeek大语言模型全攻略

海上彼尚 2025-02-17 12:12:01编程技术
160

在当今数字化时代,大型语言模型已成为推动人工智能发展的重要力量。然而,由于数据隐私、网络延迟和成本考虑,许多用户和企业更倾向于在本地部署这些模型。本文将为您详细介绍如何在Node.js环境下本地部署DeepSeek大语言模型。通过本攻略,您将能够掌握从下载模型到运行服务的全过程,享受本地部署带来的高效与便捷。无论您是初学者还是经验丰富的开发者,都能从中找到适合自己的解决方案,并快速上手实践。

1.下载 Ollama

https://ollama.com/

在Node.js环境下本地部署DeepSeek大语言模型全攻略

下载之后点击安装,等待安装成功后,打开cmd窗口,输入以下指令:

ollama -v

 如果显示了版本号,则代表已经下载成功了。

2.下载DeepSeek模型

在Node.js环境下本地部署DeepSeek大语言模型全攻略

 然后选择自己对应配置的模型,在复制右侧指令到cmd窗口,就可以把模型下载到本地了。

在Node.js环境下本地部署DeepSeek大语言模型全攻略

3.下载 ollama.js 

npm下载方式:

npm i ollama

yarn下载方式:

yarn add ollama

pnpm下载方式:

pnpm i ollama

下载完成后,按照ollama.js 官方文档指示则可使用,下面是一个最简单的案例:

import { Ollama } from 'ollama'
 
const ollama = new Ollama({
    host: 'http://127.0.0.1:11434'
})
 
const response = await ollama.chat({
    model: 'deepseek-r1:1.5b',
    messages: [{ role: 'user', content: '你好' }],
})
 
console.log(response.message.content)

输出结果:

在Node.js环境下本地部署DeepSeek大语言模型全攻略

 最后,如果大家不熟悉 Ollama 的指令,可以参考下文

4.ollama基本使用教程

Ollama 是一个开源的大型语言模型服务工具,能够帮助用户在本地运行大模型。通过简单的安装指令,用户可以在本地运行开源的大型语言模型,如 Llama 21。

1. 安装 Ollama

支持 macOS、Linux 和 Windows(通过 WSL)。

macOS 或 Linux

# 一键安装脚本
curl -fsSL https://ollama.com/install.sh | sh

Windows (WSL2)

安装 WSL2 和 Ubuntu。

在 WSL 终端中运行上述安装脚本。

2. 基础命令

启动与停止

# 启动 Ollama 服务(后台运行)
ollama serve
 
# 停止服务
ollama stop

更新 Ollama

ollama upgrade

3. 模型管理

下载预训练模型

# 下载官方模型(如 llama2、mistral)
ollama pull <model-name>
# 示例
ollama pull llama2

运行模型

# 启动交互式对话
ollama run <model-name>
# 示例
ollama run llama2

查看已安装模型

ollama list

删除模型

ollama rm <model-name>

从 Modelfile 创建自定义模型

创建一个 Modelfile 文件:

FROM llama2  # 基础模型
SYSTEM """你是一个友好的助手,用中文回答。"""
PARAMETER temperature 0.7  # 控制生成随机性(0-1)

构建自定义模型:

ollama create my-model -f Modelfile

运行自定义模型:

ollama run my-model

4. 高级功能

服务器模式与 API

启动 API 服务(默认端口 11434):

ollama serve

通过 HTTP 调用 API:

curl http://localhost:11434/api/generate -d '{
  "model": "llama2",
  "prompt": "你好,请介绍一下你自己",
  "stream": false
}'

多会话管理

# 启动一个会话并命名
ollama run llama2 --name chat1
# 在另一个终端启动新会话
ollama run llama2 --name chat2

环境变量配置

# 更改默认端口
OLLAMA_HOST=0.0.0.0:8080 ollama serve
 
# 使用 GPU 加速(需 NVIDIA 驱动)
OLLAMA_GPU_METAL=1 ollama run llama2

5. 常见问题与技巧

加速模型下载

# 使用镜像源(如中国用户)
OLLAMA_MODELS=https://mirror.example.com ollama pull llama2

查看日志

tail -f ~/.ollama/logs/server.log

模型参数调整

在 Modelfile 中可设置:

  • temperature: 生成随机性(0=确定,1=随机)

  • num_ctx: 上下文长度(默认 2048)

  • num_gpu: 使用的 GPU 数量

模型导出与分享

# 导出模型
ollama export my-model > my-model.tar
 
# 导入模型
ollama import my-model.tar

总结

通过本文的详细指导,我们成功地在Node.js环境下完成了DeepSeek大语言模型的本地部署。从安装Ollama工具、下载模型文件,到利用ollama.js库运行模型,每一步都至关重要。本地部署不仅提升了数据处理的隐私性和安全性,还降低了网络延迟和成本。同时,Ollama工具提供的丰富功能和灵活配置,使得我们可以根据实际需求调整模型参数,满足多样化的应用场景。希望本攻略能为您的本地部署之路提供有力支持,让您在人工智能的征途中更加得心应手。

Nodejs DeepSeek
THE END
蜜芽
故事不长,也不难讲,四字概括,毫无意义。

相关推荐

DeepSeek+Vue:打造丝滑的点击动画(Click Animations)
点击动画作为一种常见的交互效果,能够显著提升用户体验。Vue作为一款流行的前端框架,提供了丰富的功能和便捷的开发方式。而DeepSeek作为一款强大的AI工具,能够帮助开发者们...
2025-02-21 编程技术
181

保姆级教程:在Linux服务器本地部署DeepSeek-R1大模型并远程通过Web-UI访问
DeepSeek-R1作为一款高性能的大模型,能够为用户提供强大的计算能力和丰富的功能。然而,如何在Linux服务器上本地部署DeepSeek-R1大模型,并通过远程Web-UI进行访问,成为了许...
2025-02-21 编程技术
165

义乌老板利用DeepSeek卖空小商品,AI技术助力国际贸易
2025年,在“世界小商品之都”义乌,一场由AI技术引领的商业变革正在悄然发生。众多义乌老板正利用最新的人工智能工具——DeepSeek,将自家的小商品销往全球各地,实现了销售...
2025-02-21 新闻资讯
150

腾讯理财通升级AI能力:同时接入DeepSeek和混元大模型
腾讯理财通2月20日宣布重要升级:同时接入DeepSeek-R1模型满血版和腾讯混元大模型,标志着这家服务数亿用户的财富管理平台在AI金融服务领域迈出重要一步。本次升级后,腾讯理财...
2025-02-20 新闻资讯
155

10分钟上手DeepSeek开发:SpringBoot + Vue2快速构建AI对话系统
作为国产大语言模型的新秀,DeepSeek以其出色的中文理解能力和开放的API接口,为开发者提供了构建AI应用的新选择。在本文中,我将带领大家使用SpringBoot和Vue技术栈,快速搭...
2025-02-20 编程技术
167

DeepSeek+RAGFlow本地部署指南:轻松构建个性化知识库
本文将详细介绍 DeepSeek+RAGFlow 的本地部署指南,帮助用户快速上手。无论您是技术专家还是初学者,只要按照本文的步骤操作,都能轻松构建属于自己的个性化知识库。通过这种...
2025-02-19 编程技术
183