专题介绍
-
在Ubuntu服务器部署ChatTTS的流程
我们可以搜索到很多ChatTTS的整合包,使用起来非常方便!不过这些整合包大多数都是Windows上面运行的,我们还不能直接在Ubuntu电脑上使用,今天我们就来将这些整合包迁移到…
-
paddlepaddle(TTS)本地部署流程
客户端(Windows) 安装paddlepaddle 安装可以参考 paddlepaddle 官网,根据自己机器的情况进行选择。 python -m pip install pa…
-
在ubuntu 22.04.4安装cuda和cudnn
在Ubuntu系统中,使用nvidia-smi命令可以看到当前GPU信息,在右上角可以看到CUDA Version,意思是最大支持的CUDA版本号。 拟安装:cuda 11.8cu…
-
修改iKVM/HTML5(超微系统)来连接的Ubuntu桌面的分辨率
在超微服务器系统的 iKVM/HTML5 环境中,分辨率问题可能是由于虚拟显示器的限制导致的。可以尝试以下方法来解决问题: 编辑 Grub 配置文件: 打开终端并编辑 Grub 配…
-
在Ubuntu22.04.4安装gcc-12
Ubuntu22.04.4默认的gcc版本是gcc-11,但是在安装很多程序的时候(比如在安装NVIDIA官方驱动的时候)会报错, ERROR:An error occurred …
-
Ubuntu硬盘分区、挂载、修改用户权限
使用命令查看硬盘情况 sudo fdisk -l 可以看到这里有个未分区的4T硬盘 如:sdb 这样的是硬盘 sdb1 sdb2 这样的是分区,现在还没分区 分区 sudo par…
-
MiniCPM-Llama3-V 2.5 一个可以在手机端运行的开源多模态LLM | 性能强过GPT-4V
MiniCPM-Llama3-V 2.5 是 MiniCPM-V系列的最新、性能最佳模型。总参数量8B,多模态综合性能超越 GPT-4V-1106、Gemini Pro、Claud…
-
如何让LM Studio支持本地(locally)的视觉大模型(Vision Model)
在上一篇文章中我们详细介绍了如何在Windows中通过LM Studio客户端来运行本地的LLM,但是如果我们要运行视觉大模型的时候我们应该怎样做呢?正常情况下我们连上传图片的按钮…
-
通过LM Studio运行本地的LLM大语言模型
在前面的文章里面我们介绍过如果通过ollama+openwebui的方式来运行本地的大语言模型,这种方法也是我最喜欢的一种方法,它最接近ChatGPT的使用习惯!不过这种方法依然有…
-
ollama+openwebui如何自定义模型的位置 | 减轻系统盘C盘的压力
在前面的文章里面我们讨论过ollama+openwebui组合强大功能,但是默认状况下如果通过ollama下载模型,模型会保存在“C:\Users\你的用户名\.ollama”路径…