English 简体中文 繁體中文 한국 사람 日本語 Deutsch русский بالعربية TÜRKÇE português คนไทย french
查看: 1|回复: 0

纯离线部署本地知识库LLM大模型

[复制链接]
查看: 1|回复: 0

纯离线部署本地知识库LLM大模型

[复制链接]
查看: 1|回复: 0

222

主题

0

回帖

676

积分

高级会员

积分
676
iKhBy7V

222

主题

0

回帖

676

积分

高级会员

积分
676
2025-2-26 20:45:23 | 显示全部楼层 |阅读模式
纯离线部署本地知识库LLM大模型

一、下载离线大模型

下载的网址:https://hf-mirror.com/
deepseek qwen 相关的模型,只建议使用1.5B的,GGUF后缀的模型推荐下载llama相关模型,同样是GGUF后缀的,自己笔记本电脑推荐下载8B的       
二、下载大模型管理平台 LM Studio

下载网址:https://lmstudio.ai/
安装过程只需要修改一个安装路径,后面一直下一步安装成功。
三、将离线大模型导入到 LM Studio 中

注意:默认情况下,LM Studio 所识别的大模型的目录在C盘
默认路径:C:\Users\用户名\.lmstudio\models

修改大模型的加载目录

  • 先创建一个根目录 ,例如:F:\LMStudioModels
  • 再创建一个二级目录,例如:F:\LMStudioModels\shujia_models 【必须要有一个二级目录】
  • 将模型除.gguf意外的名字拷贝出来,当作一个文件夹的名字
  • 将该模型放在这个文件夹里面
上面操作做完后,LM Studio就可以读取到我们的大模型。
四、通过LM Studio加载我们的大模型【重要,涉及GPU的能力】


  • 点击对话正上方的select a model to load ,选择该对象要使用的大模型
  • 参数解释:

    • Context Length: 该模型一次最大可以加载多少个token

      • 若是简单的问答,推荐4096
      • 若是小红书文案,推荐10000以上
      • 若是写作文,小说,推荐100000左右

    • GPU Offload: 运行时,所占用的GPU显存,建议先给一半
    • CPU Thread Pool Size: 拉满
    • Evaluation Batch Size: 512
    • 后面不动,都以推荐为准

五、调整参数,进行对话

点击右上角实验室器皿图标,show settings,设置Preset,例如添加一个:数学家
理解为:将当前对话的大模型设置成一个固定的角色
设置System Prompt,形容一下这个数学家
六、使用AnythingLLM工具使用LM Studio中的模型,加载知识库


  • 将LM Studio作为一个服务对外提供,让AnythingLLM连接上LM Studio

    • 打开LM Studio点击左边的Developer
    • 打开 Start Server按钮

  • 再AnythingLLM中,点击聊天设置,配置LM Studio,选择,模型
七、提供API服务


  • 在AnythingLLM中左下角点击open settings
  • 点击工具
  • 点击API密钥,生成密钥
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

222

主题

0

回帖

676

积分

高级会员

积分
676

QQ|智能设备 | 粤ICP备2024353841号-1

GMT+8, 2025-3-11 03:27 , Processed in 1.508299 second(s), 29 queries .

Powered by 智能设备

©2025

|网站地图