在AI大模型的风潮之下,如今端侧AI已经成为行业的发展主流之一。2025年的CES上,NVIDIA首次推出个人AI超级计算机Project DIGITS,搭载Grace Blackwell的小型化集成版本GB10,最高可提供达1 ...
根据这份报告,GB300 NVL72服务器包含18个计算托盘,每颗GPU芯片功耗1400W,每个计算托盘的功耗至少6600W,为此需要6200W的散热能力,单个液冷成本约2260美元,18个总计40680美元。
快科技5月29日消息,AI是当前的热点,现在也成了NVIDIA最受人关注的部分,今天在台北电脑展的主题演讲上,NVIDIA又发布了针对AI推出的大内存DGX GH200超算系统,配备了256个Grace Hopper芯片,总计1.8万CPU核心,144TB内存,相比之前涨了500倍。 AI运算对内存容量的要求 ...
近日,半导体行业再次掀起波澜。 AMD 针对 Intel 与 NVIDIA 合作发表声明,承认此次合作将加剧市场竞争,并带来更大的 定价压力 。这一消息迅速引发了行业内的广泛关注,也预示着 CPU 和 GPU 市场格局的微妙变化。
【ZOL中关村在线原创分析】近两年,端侧AI发展速度之快超乎想像。2年前AI PC刚刚诞生,是什么、能干什么、和传统PC有何区别是摆在大众面前的灵魂三问;1年前,伴随稳定扩散模型和大语言模型的陆续爆发,人们开始对AI ...
NVIDIA 在 AI 芯片领域的持续突破,正加速推动数据中心散热技术的革新。据最新消息,NVIDIA 下一代 Vera Rubin 系列 AI 服务器的液冷散热成本将显著增加,单机架液冷系统或将高达 40 万元人民币。这一趋势,预示着高功耗 AI 芯片对散热方案的严苛要求,以及液冷技术在数据中心中的重要性日益凸显。
今日凌晨,一年一度影响人工智能及高性能计算技术盛会NVIDIA GTC如期而至,这是GTC大会继去年后第二次在线上举行。NVIDIA(英伟达)创始人黄仁勋依然穿着拉风的皮衣,在自家厨房举办发布会。可以明显看到,老黄的头发更白了,也更长了。 去年NVIDIA重磅发布 ...
刚才的CES主题演讲中,黄仁勋发布一款与众不同的“AI PC”,但它似乎又不是个PC... 感觉现在NVIDIA在各类顶会、展会之上的产品和技术发布越来越放飞自我了:在SIGGRAPH这种图形技术顶会上谈AI;在CES消费电子展上,发布企业级技术与产品——汽车、机器人 ...
快科技5月29日消息,在刚刚召开的2023年台北电脑展上,NVIDIA首席执行官黄仁勋进行了演讲。 在演讲中,黄仁勋向传统的CPU服务器集群发起“挑战”,认为在人工智能和加速计算这一未来方向上,GPU服务器有着更为强大的优势。 根据黄仁勋在演讲上展示的范例 ...
Intel与NVIDIA宣布将展开业务合作,通过结合双方的处理器以及绘图处理器等技术,打造应用于数据中心的AI基础设施与运算单元,以及应用于个人计算机、笔记本的系统单芯片。 Intel与NVIDIA在2025年9月18日晚间发布新闻稿,并于9月19日凌晨举行记者会,发布双方 ...
Check Point 首席产品官 Nataly Kremer 表示:“企业在加速构建人工智能驱动的创新时,不容有任何安全盲区。通过与英伟达合作,我们正从设计层面保障人工智能的安全,在不减缓用户创新步伐的前提下,全面保护模型、数据和基础设施。” ...
导语:NVIDIA的Jetson AGX平台为机器人何自动驾驶平台提供了充裕的灵活性和基础性能,其最大的卖点是Xavier强大的视觉计算和机器推理性能 NVIDIA对SoC的设计并不陌生,到目前为止他们已经发布了7代Tegra系列SoC。 在过去几年中,NVIDIA逐渐从消费级的Tegra产品转换到 ...