在AI大模型的风潮之下,如今端侧AI已经成为行业的发展主流之一。2025年的CES上,NVIDIA首次推出个人AI超级计算机Project DIGITS,搭载Grace Blackwell的小型化集成版本GB10,最高可提供达1 ...
NVIDIA 在 AI 芯片领域的持续突破,正加速推动数据中心散热技术的革新。据最新消息,NVIDIA 下一代 Vera Rubin 系列 AI 服务器的液冷散热成本将显著增加,单机架液冷系统或将高达 40 万元人民币。这一趋势,预示着高功耗 AI 芯片对散热方案的严苛要求,以及液冷技术在数据中心中的重要性日益凸显。
根据这份报告,GB300 NVL72服务器包含18个计算托盘,每颗GPU芯片功耗1400W,每个计算托盘的功耗至少6600W,为此需要6200W的散热能力,单个液冷成本约2260美元,18个总计40680美元。
韩国三星(Samsung Electronics)与Nvidia上周宣布,将共同构建全新的AI工厂,计划部署超过5万颗Nvidia GPU;该工厂将成为三星数字转型的核心,让AI全面嵌入其整个制造流程,加速下一代半导体、移动设备与机器人的设计与量产。
A:Fast-dLLM v2是由NVIDIA等机构开发的新型AI语言模型技术。它的主要优势是将AI对话响应速度提升了2.5倍,同时保持原有的准确性和质量。相比传统的逐字生成方式,它能够同时处理多个词语,让AI对话更加自然流畅。
A:Fast-dLLM v2是由NVIDIA等机构开发的新型AI语言模型技术。它的主要优势是将AI对话响应速度提升了2.5倍,同时保持原有的准确性和质量。相比传统的逐字生成方式,它能够同时处理多个词语,让AI对话更加自然流畅。
微软的萨提亚·纳德拉透露了公司AI ...
NVIDIA的研究团队发现了这个问题的根源,并提出了一个巧妙的解决方案。他们开发了一个名为ChronoEdit的新系统,这个系统就像是给AI配备了一副"物理眼镜",让它在编辑图片时能够遵循现实世界的物理规律。
Investing.com - Jefferies在给客户的一份报告中将 Nvidia 的目标价从220美元上调至240美元,理由是AI计算需求强于预期,以及对该公司订单管道的可见性增强。 该公司维持对该股的"买入"评级,分析师Blayne Curtis告诉投资者,Nvidia仍然是AI加速器市场的领导者。然而,该公司将这只股票从其"特许经营精选"名单中移除。
Check Point 首席产品官 Nataly Kremer 表示:“企业在加速构建人工智能驱动的创新时,不容有任何安全盲区。通过与英伟达合作,我们正从设计层面保障人工智能的安全,在不减缓用户创新步伐的前提下,全面保护模型、数据和基础设施。” ...
据英国《金融时报》报道,微软总裁布拉德·史密斯 (Brad Smith)周一证实,该科技巨头于9月"成为特朗普政府下首家获得许可证"向阿联酋运送Nvidia AI芯片的公司。
如果是企业自建数据中心,不依赖国家支持,目前仍然是可以自由选择国外或国内AI产品的,但必然会有越来越多的企业选择国产自主方案,进而极大推动国产替代的深入成熟。