vLLM参数
-
Ubuntu22.04+4x2080Ti22G+vLLM+Qwen3.6-27B-AWQ-INT4 部署教程
本文记录了一次在 Ubuntu 22.04 环境下,使用 4 张 RTX 2080Ti 22G 显卡 部署 vLLM 推理服务 并运行 Qwen3.6-27B-AWQ-INT4 模…
-
vLLM的参数列表及其中文说明
vLLM (Virtual Large Language Model) 是一款专为大语言模型推理加速而设计的框架,其依靠卓越的推理效率和资源优化能力在全球范围内引发广泛关注。来自加…