What is 推理? 推理 news, 推理 meaning, 推理 definition - Blockchain.News

Search Results for "推理"

Hugging Face 推出面向 AI 开发者的 NVIDIA NIM 推理即服务

Hugging Face 推出面向 AI 开发者的 NVIDIA NIM 推理即服务

Hugging Face 和 NVIDIA 合作提供推理即服务,提升 AI 模型效率和可访问性。

优化大型语言模型(LLM)推理性能的策略

优化大型语言模型(LLM)推理性能的策略

NVIDIA 专家分享了优化大型语言模型(LLM)推理性能的策略,重点是硬件配置、资源优化和部署方法。

通过NVIDIA NIM和Google Kubernetes Engine增强AI推理

通过NVIDIA NIM和Google Kubernetes Engine增强AI推理

NVIDIA与Google Cloud合作,将NVIDIA NIM集成到Google Kubernetes Engine中,通过Google Cloud Marketplace提供可扩展的AI推理解决方案。

NVIDIA GH200 超级芯片2倍提升Llama模型推理性能

NVIDIA GH200 超级芯片2倍提升Llama模型推理性能

据NVIDIA称,NVIDIA GH200 Grace Hopper超级芯片将Llama模型的推理性能提高了2倍,增强了用户互动性,而不会影响系统吞吐量。

NVIDIA 的 TensorRT-LLM 多模块注意力在 HGX H200 上提升 AI 推理性能

NVIDIA 的 TensorRT-LLM 多模块注意力在 HGX H200 上提升 AI 推理性能

NVIDIA 的 TensorRT-LLM 引入多模块注意力,显著提升了 HGX H200 上的 AI 推理吞吐量,提升幅度高达 3.5 倍,解决了长序列长度的挑战。

Perplexity AI 利用 NVIDIA 推理堆栈处理每月 4.35 亿次查询

Perplexity AI 利用 NVIDIA 推理堆栈处理每月 4.35 亿次查询

Perplexity AI 使用 NVIDIA 的推理堆栈,包括 H100 Tensor Core GPU 和 Triton Inference Server,每月管理超过 4.35 亿次搜索查询,优化性能并降低成本。

AWS 扩展 NVIDIA NIM 微服务以增强 AI 推理能力

AWS 扩展 NVIDIA NIM 微服务以增强 AI 推理能力

AWS 和 NVIDIA 通过在 AWS 平台上扩展 NIM 微服务,加强了 AI 推理能力,提高了效率并减少了生成式 AI 应用的延迟。

NVIDIA的AI推理平台:推动各行业的效率和成本节约

NVIDIA的AI推理平台:推动各行业的效率和成本节约

NVIDIA的AI推理平台利用Hopper平台和Triton推理服务器等先进技术,提升性能并降低零售和电信等行业的成本。

NVIDIA通过全栈解决方案增强AI推理能力

NVIDIA通过全栈解决方案增强AI推理能力

NVIDIA推出全栈解决方案以优化AI推理,借助Triton Inference Server和TensorRT-LLM等创新技术提升性能、可扩展性和效率。

Together AI扩展DeepSeek-R1的部署,推出增强的无服务器API和推理集群

Together AI扩展DeepSeek-R1的部署,推出增强的无服务器API和推理集群

Together AI通过新的无服务器API和推理集群增强了DeepSeek-R1的部署,为大规模推理模型应用提供高速和可扩展的解决方案。

DeepSeek-R1通过推理时间缩放增强GPU内核生成

DeepSeek-R1通过推理时间缩放增强GPU内核生成

NVIDIA的DeepSeek-R1模型利用推理时间缩放来改进GPU内核生成,通过在推理过程中有效管理计算资源来优化AI模型的性能。

Together AI发布经济高效的按需专用端点

Together AI发布经济高效的按需专用端点

Together AI推出了专用端点,价格降低最多达43%,为扩展AI应用提供增强的GPU推理能力,提供高性能和成本效益。

Trending topics