首页 > 评测 LM Studio怎么用 LM Studio本地运行大模型加载及配置教程【工具】
LM Studio怎么用 LM Studio本地运行大模型加载及配置教程【工具】
如果您希望在本地计算机上运行大型语言模型,LM Studio 提供了一个图形化界面来简化模型加载与配置过程。以下是使用 LM Studio 进行本地大模型加载及基础配置的具体操作步骤:
一、下载并安装 LM Studio
LM Studio 是一个跨平台桌面应用,支持 Windows、macOS 和 Linux 系统,需先获取官方安装包并完成本地部署。安装过程不依赖命令行,适合无编程经验的用户。
1、访问 https://lmstudio.ai 官方网站,点击首页的“Download”按钮。
2、根据您的操作系统选择对应版本(如 Windows x64、macOS ARM64 等),下载安装文件。
3、双击安装包,按提示完成安装;Windows 用户需允许系统权限弹窗,macOS 用户需在“系统设置→隐私与安全性”中允许来自“已识别开发者”的应用。
二、启动软件并切换至本地模型模式
LM Studio 默认启动后进入“Chat”界面,但首次使用需确认后端服务模式是否为本地推理,避免误连云端或未启用 GPU 加速。
1、打开 LM Studio 应用,等待左下角状态栏显示 "Ready" 字样。
2、点击左侧导航栏底部的 "Local Server" 图标(齿轮形状)。
3、在右侧设置面板中,确认 “Backend” 选项为 llama.cpp,且 “GPU Offload” 滑块处于启用状态(若显卡支持 CUDA 或 Metal)。
三、从模型库中下载并加载大模型
LM Studio 内置模型发现功能,可直接检索 Hugging Face 上的 GGUF 格式模型,无需手动下载和路径配置。
1、点击顶部菜单栏的 "Search Models"(放大镜图标)。
2、在搜索框中输入关键词,例如 "Phi-3-mini" 或 "Qwen2-0.5B",回车执行搜索。
3、在结果列表中找到目标模型,点击右侧的 "Download" 按钮,等待进度条完成。
。
责任编辑:
文章来源:http://www.jingmeijuzi.com/2025/1221/517.shtml
