如何让LM Studio支持本地(locally)的视觉大模型(Vision Model)

在上一篇文章中我们详细介绍了如何在Windows中通过LM Studio客户端来运行本地的LLM,但是如果我们要运行视觉大模型的时候我们应该怎样做呢?正常情况下我们连上传图片的按钮都找不到!

不过根据LM Studio官方在2023年12月13日发布的推文可知,从LM Studio 0.2.9 版开始,LM Studio已经是可以支持视觉大模型了的!

https://x.com/LMStudioAI/status/1734640355318944190

如何让LM Studio支持本地(locally)的视觉大模型(Vision Model)

方法其实也很简单,就是在我们下载视觉大模型的时候,还要额外下载一个“视觉适配器(vision adapter)”

如何让LM Studio支持本地(locally)的视觉大模型(Vision Model)

我们举个例子,比如我们要下载这个“llava-v1.6-34B-gguf”的模型的时候,除了选择一个合适的量化版本的.gguf大模型之外,还需要额外下载最下面的这个“mmproj-model-f16.gguf”的视觉适配器模型!

https://huggingface.co/cjpais/llava-v1.6-34B-gguf/tree/main

如何让LM Studio支持本地(locally)的视觉大模型(Vision Model)

下载完成之后将这两个模型放在同一个文件夹中!

如何让LM Studio支持本地(locally)的视觉大模型(Vision Model)

这样就可以在LM Studio中检测到该模式是视觉大模型,并且会在聊天窗口中多出一个上传图片的按钮!

如何让LM Studio支持本地(locally)的视觉大模型(Vision Model)

如何让LM Studio支持本地(locally)的视觉大模型(Vision Model)

这样我们就可以上传图片让视觉大模型来识别了!

原创文章,作者:朋远方,如若转载,请注明出处:https://caovan.com/ruheranglm-studiozhichibendelocallydeshijuedamoxingvision-model/.html

Like (3)
Donate 微信扫一扫 微信扫一扫
朋远方的头像朋远方
Previous 2024年5月2日 上午10:07
Next 2024年5月3日 下午6:27

相关推荐

发表回复

Please Login to Comment