AI 快讯列表关于 vLLM
| 时间 | 详情 |
|---|---|
|
2026-03-13 04:37 |
OpenClaw v2026.3.12 重磅更新:Dashboard 2.0、Fast 模式、Ollama/SGLang/vLLM 插件化与短期设备令牌
据 OpenClaw 官方推特称,v2026.3.12 发布带来全新 Dashboard 2.0 控制界面、/fast 模型加速模式,并将 Ollama、SGLang、vLLM 改为插件架构,使核心更轻量、可维护性更高(来源:OpenClaw 推特;GitHub 发布说明)。据 GitHub 发布说明,设备令牌改为短期有效,降低长期凭证风险,同时修复了 cron 与 Windows 的稳定性问题,提升定时任务和跨平台自托管环境的可用性(来源:GitHub OpenClaw Releases)。据 OpenClaw 披露,这些改进有助于更快的推理路由、更安全的认证与更灵活的后端切换,对本地大模型编排与推理服务器生产部署具有直接业务价值(来源:OpenClaw 推特)。 |
|
2026-02-25 17:04 |
Meta开放Llama 3.3:模型开放获取与许可的重磅变化与2026产业影响分析
据@soumithchintala称,这一消息“堪比OpenAI不再开放,甚至更猛”,显示AI模型开放与治理正在发生重大转向。根据Meta AI模型发布与许可证说明,Meta持续以宽松许可开放Llama权重,允许商用,与OpenAI的闭源分发形成对比,将加速开发者、推理平台与边缘生态的竞争。依据Meta的许可与发布说明,开放权重可通过自建或VPC推理降低总体成本,放大微调自主权,推动客服、编程助手、多语RAG与端侧AI等场景落地。行业分析与云端基准测试显示,这将压缩云端毛利,推动AWQ、vLLM、TensorRT‑LLM等高效推理优化,并为模型托管、评测与企业安全护栏厂商带来新机遇。根据模型社区与MLOps平台的生态数据,中小企业可缩短上市周期,受监管地区可实现数据主权合规,托管、安全与检索编排将成为主要变现方向。 |