通过LM Studio运行本地的LLM大语言模型

在前面的文章里面我们介绍过如果通过ollama+openwebui的方式来运行本地的大语言模型,这种方法也是我最喜欢的一种方法,它最接近ChatGPT的使用习惯!不过这种方法依然有几个技术门框和一些弊病,包括:

一、需要我们安装的程序较多,包括ollama、wsl、docker desktop、openwebui等;

二、需要我们掌握一定的Linux操作系统的知识;

三、模型的默认位置在C盘,如果要修改默认位置的话需要手动去修改环境变量;

四、模型的存放方式以缓存的形式,文件名是一堆很长的字符串,不利于分类识别;

五、通过ollama的tag的方式去下载模型,国内的网络环境下载速度较慢,等待时间太长!

对于普通的用户来说,在本地运行LLM有更加简单的方法,只需要安装一次程序就可以!这种方法就是通过LM Studio的客户端来实现!

LM Studio介绍

程序官网:https://lmstudio.ai/

通过LM Studio运行本地的LLM大语言模型

LM Studio相比较ollama来说有如下的优势:

一、支持gguf格式的LLM模型文件,gguf格式的模型文件可以直接在LM Studio中来使用,不需要进行二次转换;

二、可以很方便地设置GPU的利用率和其他参数,在界面就可以直接设置这些参数!

三、不需要安装docker,也不需要运行在wsl中,可以直接在Windows下运行;

四、本地模型可以存放在任何位置;

通过LM Studio运行本地的LLM大语言模型

安装和使用

安装客户端

打开官网,可以根据你自己的操作系统下载相应的客户端版本,Windows系统就下载Windows版本的客户端

通过LM Studio运行本地的LLM大语言模型

客户端下载完成之后,直接双击安装即可!全程就只有这一步安装的流程!

下载模型

虽然LM Studio也可以从客户端去直接下载模型,不过作为国内的用户我强烈不建议你这么做!因为通过客户端下载模型是从外网去下载,速度非常之慢!

你可以直接从国内的魔搭社区(https://modelscope.cn/)去下载gguf版本的模型,下载的速度通常在几M到几十M之间,下载速度要快很多!

模型下载下来之后,按照“\models\Publisher\Repository”的路径保存,可以保存在任何你想要的磁盘或者文件夹中!

通过LM Studio运行本地的LLM大语言模型

然后在LM Studio客户端点击左侧的“My Models”菜单,点击“Change”选择模型存放的路径,如果models文件夹保存在其他文件夹的子文件夹中,路径选择到models文件夹的上一级文件夹即可,不需要再进入models文件夹中!系统会自动识别到“\models\Publisher\Repository”文件夹中保存的gguf的模型文件!

通过LM Studio运行本地的LLM大语言模型

使用方法

点击客户端左边的“AI Chat”菜单,进入到聊天的界面,从顶部选择一个聊天的LLM模型,即可跟该模型进行聊天交流!

通过LM Studio运行本地的LLM大语言模型

在右侧,我们可以设置“Context Length”、“Temperature”、“Tokens to generate”以及GPU显存的使用量等参数,大多数情况下我们保持默认即可!只有GPU的显存可以根据我们自己的实际情况和需要来设置!

原创文章,作者:朋远方,如若转载,请注明出处:https://caovan.com/tongguolm-studioyunxingbendedellmdayuyanmoxing/.html

Like (3)
Donate 微信扫一扫 微信扫一扫
朋远方的头像朋远方
Previous 2024年4月28日 上午5:14
Next 2024年5月2日 下午6:16

相关推荐

发表回复

Please Login to Comment