人工智能
-
H100和A100
H100和A100是英伟达面向高性能计算(HPC)和人工智能领域的两代旗舰GPU,核心区别在于架构革新带来的性能飞跃、能效优化及场景适配性。以下是关键差异的全面对比: ⚙️1. 架…
-
系统变卡顿可能是冗余电源惹的祸
我们可以观察同一台机器的不同表现,在正常的视频中,我们打开一个应用程序的速度是非常快的,而在非正常的视频中,我们可以明显感觉到系统变得异常缓慢! 这是一台带2个冗余电源的GPU服务…
-
草凡人工智能推出“GitRock·华芃小蜜”AI勤学伴侣
草凡人工智能于近日推出“GitRock·华芃小蜜”AI勤学伴侣,根据草凡人工智能官方的产品介绍,“GitRock·华芃小蜜”可预设成各种勤学伴侣角色(如全科老师、口语对练搭子、十万…
-
搭载ASRPRO芯片可自由定义唤醒词 | 华芃小蜜开发板(v5.0.1、v5.3.1)使用教程
“华芃小蜜”是草凡人工智能公司旗下智能终端开发板品牌,“GitRock·华芃”是草凡人工智能公司的注册商标。 华芃小蜜开发板 淘宝店: 草凡·华芃小蜜v5.0.1开发板(WIFI版…
-
在Ubuntu服务器以”本地源码全模块”方式部署xiaozhi-esp32-server
安装MySQL数据库 在Ubuntu服务器上安装MySQL数据库,我在之前的文章中有专门谈过,我们本文重新复习下,依然以非docker的方式来安装MySQL数据库 安装MySQL …
-
在Ubuntu服务器4x2080ti(22G)上部署QwQ-32B + SGLang教程
在上一篇文章中,我们谈到了如何用vLLM推理框架来运行QwQ-32B模型,想了解详情的可以参考《在Ubuntu服务器4x2080ti(22G)上部署QwQ-32B + vLLM教程…
-
vLLM的参数列表及其中文说明
vLLM (Virtual Large Language Model) 是一款专为大语言模型推理加速而设计的框架,其依靠卓越的推理效率和资源优化能力在全球范围内引发广泛关注。来自加…
-
在Ubuntu服务器4x2080ti(22G)上部署QwQ-32B + vLLM教程
QwQ 是 Qwen 级数的推理模型。与传统的指令调优模型相比,能够思考和推理的 QwQ 可以在下游任务中实现显着增强的性能,尤其是难题。QwQ-32B 是中型推理模型,能够实现与…
-
在Ubuntu服务器部署Open-webui
open-webUI 是一款类似于chatgpt的webui程序, 可以私有化模型本地部署,可以实现 多模态AI聊天 , AI 翻译 , AI搜索,语音转文本, 文本转语音, 文生…
-
Ubuntu服务器Xinference的部署流程
Xorbits Inference(Xinference)是一个性能强大且功能全面的分布式推理框架。可用于大语言模型(LLM),语音识别模型,多模态模型等各种模型的推理。通过 Xo…