在AI大模型的风潮之下,如今端侧AI已经成为行业的发展主流之一。2025年的CES上,NVIDIA首次推出个人AI超级计算机Project DIGITS,搭载Grace Blackwell的小型化集成版本GB10,最高可提供达1 ...
NVIDIA 在 AI 芯片领域的持续突破,正加速推动数据中心散热技术的革新。据最新消息,NVIDIA 下一代 Vera Rubin 系列 AI 服务器的液冷散热成本将显著增加,单机架液冷系统或将高达 40 万元人民币。这一趋势,预示着高功耗 AI 芯片对散热方案的严苛要求,以及液冷技术在数据中心中的重要性日益凸显。
根据这份报告,GB300 NVL72服务器包含18个计算托盘,每颗GPU芯片功耗1400W,每个计算托盘的功耗至少6600W,为此需要6200W的散热能力,单个液冷成本约2260美元,18个总计40680美元。
十轮网科技资讯 on MSN
三星与Nvidia合作构建AI工厂,将部署5万颗Nvidia GPU
韩国三星(Samsung Electronics)与Nvidia上周宣布,将共同构建全新的AI工厂,计划部署超过5万颗Nvidia GPU;该工厂将成为三星数字转型的核心,让AI全面嵌入其整个制造流程,加速下一代半导体、移动设备与机器人的设计与量产。
A:Fast-dLLM v2是由NVIDIA等机构开发的新型AI语言模型技术。它的主要优势是将AI对话响应速度提升了2.5倍,同时保持原有的准确性和质量。相比传统的逐字生成方式,它能够同时处理多个词语,让AI对话更加自然流畅。
A:Fast-dLLM v2是由NVIDIA等机构开发的新型AI语言模型技术。它的主要优势是将AI对话响应速度提升了2.5倍,同时保持原有的准确性和质量。相比传统的逐字生成方式,它能够同时处理多个词语,让AI对话更加自然流畅。
十轮网科技资讯 on MSN
微软CEO不想再买NVIDIA AI GPU能源限制导致算力过剩
微软的萨提亚·纳德拉透露了公司AI ...
三星半导体今日宣布与NVIDIA携手打造人工智能(AI)工厂,标志着三星在AI驱动制造领域迈出关键一步。通过部署超过50,000颗NVIDIAGPU,三星将在整个制造流程中全面导入AI技术,加速下一代半导体、移动设备及机器人的研发与生产。
NVIDIA的研究团队发现了这个问题的根源,并提出了一个巧妙的解决方案。他们开发了一个名为ChronoEdit的新系统,这个系统就像是给AI配备了一副"物理眼镜",让它在编辑图片时能够遵循现实世界的物理规律。
Investing.com - Jefferies在给客户的一份报告中将 Nvidia 的目标价从220美元上调至240美元,理由是AI计算需求强于预期,以及对该公司订单管道的可见性增强。 该公司维持对该股的"买入"评级,分析师Blayne Curtis告诉投资者,Nvidia仍然是AI加速器市场的领导者。然而,该公司将这只股票从其"特许经营精选"名单中移除。
Investing.com -- 据 现代汽车集团 周五发布的声明,现代汽车集团与 Nvidia Corp. 正在韩国国家实体AI集群计划上展开合作。
Check Point 首席产品官 Nataly Kremer 表示:“企业在加速构建人工智能驱动的创新时,不容有任何安全盲区。通过与英伟达合作,我们正从设计层面保障人工智能的安全,在不减缓用户创新步伐的前提下,全面保护模型、数据和基础设施。” ...
一些您可能无法访问的结果已被隐去。
显示无法访问的结果