12 小时on MSN
一颗芯片1800W功耗!NVIDIA下代AI服务器液冷就得40万元
快科技11月6日消息,如今的AI芯片越发强大,也越发“饥渴”,微软CEO纳德拉都感慨电力供应已经跟不上,NVIDIA可谓难辞其咎。 根据摩根士丹利的最新报告,NVIDIA Blackwell Ultra GB300 ...
在AI大模型的风潮之下,如今端侧AI已经成为行业的发展主流之一。2025年的CES上,NVIDIA首次推出个人AI超级计算机Project DIGITS,搭载Grace Blackwell的小型化集成版本GB10,最高可提供达1 ...
NVIDIA 在 AI 芯片领域的持续突破,正加速推动数据中心散热技术的革新。据最新消息,NVIDIA 下一代 Vera Rubin 系列 AI 服务器的液冷散热成本将显著增加,单机架液冷系统或将高达 40 万元人民币。这一趋势,预示着高功耗 AI 芯片对散热方案的严苛要求,以及液冷技术在数据中心中的重要性日益凸显。
至顶头条 on MSN
Nvidia GTC DC大会重磅发布:从AI工厂到量子计算机和6G网络
A:NVQLink是世界首个量子互连技术,由Nvidia与17家量子硬件公司联合开发。它旨在为混合超级计算机集成GPU和量子计算处理单元,提供能够大规模高速执行量子纠错的系统。GPU充当协调量子硬件的大脑,每台超级计算机都将依靠量子处理器扩展计算能力 ...
三星半导体今日宣布与NVIDIA携手打造人工智能 (AI)工厂,标志着三星在AI驱动制造领域迈出关键一步。通过部署超过50,000颗NVIDIA GPU,三星将在整个制造流程中全面导入AI技术,加速下一代半导体、移动设备及机器人的研发与生产。
TMTPOST -- Helsinki-listed Nokia Oyj shares finished around 20.9% higher to hit their highest close since late January 2016.
科技行者 on MSN
NVIDIA的语言模型新突破:AI对话速度提升2.5倍,让机器交流更自然流畅
A:Fast-dLLM v2是由NVIDIA等机构开发的新型AI语言模型技术。它的主要优势是将AI对话响应速度提升了2.5倍,同时保持原有的准确性和质量。相比传统的逐字生成方式,它能够同时处理多个词语,让AI对话更加自然流畅。
Check Point 首席产品官 Nataly Kremer 表示:“企业在加速构建人工智能驱动的创新时,不容有任何安全盲区。通过与英伟达合作,我们正从设计层面保障人工智能的安全,在不减缓用户创新步伐的前提下,全面保护模型、数据和基础设施。” ...
A:Fast-dLLM v2是由NVIDIA等机构开发的新型AI语言模型技术。它的主要优势是将AI对话响应速度提升了2.5倍,同时保持原有的准确性和质量。相比传统的逐字生成方式,它能够同时处理多个词语,让AI对话更加自然流畅。
近日Krafton在韩国首尔举行的 NVIDIA “GeForce Gamer Festival”上宣布,将引入NVIDIA ACE技术,率先在《绝地求生(PUBG) ...
Investing.com - Jefferies在给客户的一份报告中将 Nvidia 的目标价从220美元上调至240美元,理由是AI计算需求强于预期,以及对该公司订单管道的可见性增强。 该公司维持对该股的"买入"评级,分析师Blayne Curtis告诉投资者,Nvidia仍然是AI加速器市场的领导者。然而,该公司将这只股票从其"特许经营精选"名单中移除。
如果是企业自建数据中心,不依赖国家支持,目前仍然是可以自由选择国外或国内AI产品的,但必然会有越来越多的企业选择国产自主方案,进而极大推动国产替代的深入成熟。
当前正在显示可能无法访问的结果。
隐藏无法访问的结果