在AI大模型的风潮之下,如今端侧AI已经成为行业的发展主流之一。2025年的CES上,NVIDIA首次推出个人AI超级计算机Project DIGITS,搭载Grace Blackwell的小型化集成版本GB10,最高可提供达1 ...
根据这份报告,GB300 NVL72服务器包含18个计算托盘,每颗GPU芯片功耗1400W,每个计算托盘的功耗至少6600W,为此需要6200W的散热能力,单个液冷成本约2260美元,18个总计40680美元。
快科技5月29日消息,AI是当前的热点,现在也成了NVIDIA最受人关注的部分,今天在台北电脑展的主题演讲上,NVIDIA又发布了针对AI推出的大内存DGX GH200超算系统,配备了256个Grace Hopper芯片,总计1.8万CPU核心,144TB内存,相比之前涨了500倍。 AI运算对内存容量的要求 ...
【ZOL中关村在线原创分析】近两年,端侧AI发展速度之快超乎想像。2年前AI PC刚刚诞生,是什么、能干什么、和传统PC有何区别是摆在大众面前的灵魂三问;1年前,伴随稳定扩散模型和大语言模型的陆续爆发,人们开始对AI ...
NVIDIA 在 AI 芯片领域的持续突破,正加速推动数据中心散热技术的革新。据最新消息,NVIDIA 下一代 Vera Rubin 系列 AI 服务器的液冷散热成本将显著增加,单机架液冷系统或将高达 40 万元人民币。这一趋势,预示着高功耗 AI 芯片对散热方案的严苛要求,以及液冷技术在数据中心中的重要性日益凸显。
近日,半导体行业再次掀起波澜。 AMD 针对 Intel 与 NVIDIA 合作发表声明,承认此次合作将加剧市场竞争,并带来更大的 定价压力 。这一消息迅速引发了行业内的广泛关注,也预示着 CPU 和 GPU 市场格局的微妙变化。
今日凌晨,一年一度影响人工智能及高性能计算技术盛会NVIDIA GTC如期而至,这是GTC大会继去年后第二次在线上举行。NVIDIA(英伟达)创始人黄仁勋依然穿着拉风的皮衣,在自家厨房举办发布会。可以明显看到,老黄的头发更白了,也更长了。 去年NVIDIA重磅发布 ...
刚才的CES主题演讲中,黄仁勋发布一款与众不同的“AI PC”,但它似乎又不是个PC... 感觉现在NVIDIA在各类顶会、展会之上的产品和技术发布越来越放飞自我了:在SIGGRAPH这种图形技术顶会上谈AI;在CES消费电子展上,发布企业级技术与产品——汽车、机器人 ...
快科技5月29日消息,在刚刚召开的2023年台北电脑展上,NVIDIA首席执行官黄仁勋进行了演讲。 在演讲中,黄仁勋向传统的CPU服务器集群发起“挑战”,认为在人工智能和加速计算这一未来方向上,GPU服务器有着更为强大的优势。 根据黄仁勋在演讲上展示的范例 ...
微软表示:“单个 NVL72 机架的 Azure ND GB300 v6 虚拟机实现了总计每秒 1,100,000 个 token 的推理吞吐量。 这刷新了 AI 推理领域的新纪录 ,超越了此前在同一 NVIDIA GB200 NVL72 机架上使用 ...
Intel与NVIDIA宣布将展开业务合作,通过结合双方的处理器以及绘图处理器等技术,打造应用于数据中心的AI基础设施与运算单元,以及应用于个人计算机、笔记本的系统单芯片。 Intel与NVIDIA在2025年9月18日晚间发布新闻稿,并于9月19日凌晨举行记者会,发布双方 ...
Check Point 首席产品官 Nataly Kremer 表示:“企业在加速构建人工智能驱动的创新时,不容有任何安全盲区。通过与英伟达合作,我们正从设计层面保障人工智能的安全,在不减缓用户创新步伐的前提下,全面保护模型、数据和基础设施。” ...
一些您可能无法访问的结果已被隐去。
显示无法访问的结果