在即将到来的Hot Chips 2024会议上,NVIDIA工程师将展示旨在提升数据中心性能和能源效率的突破性创新。据NVIDIA博客介绍,这一活动定于8月25日至27日在斯坦福大学举行,届时NVIDIA的资深工程师将进行四场讲座。
NVIDIA Blackwell平台
NVIDIA的演讲将重点介绍NVIDIA Blackwell平台,该平台整合了多种芯片、系统和NVIDIA CUDA软件,推动下一代AI应用的发展。NVIDIA GB200 NVL72,这是一种多节点液冷解决方案,也将亮相,其能够连接72个Blackwell GPU和36个Grace CPU,为AI系统设计树立了新标杆。此外,还将讨论NVLink互连技术的高吞吐量和低延迟能力,这对于生成式AI至关重要。
液体冷却进展
会议的一大部分将集中在液体冷却技术上。NVIDIA数据中心冷却和基础设施总监Ali Heydari将展示混合冷却数据中心的设计。这些设计旨在通过液体冷却装置改造现有的空气冷却数据中心,提供更高效和节省空间的解决方案。Heydari的团队还与美国能源部合作,参与COOLERCHIPS计划,开发先进的冷却技术。他们利用NVIDIA Omniverse平台创建数字孪生模型,以模拟能耗和冷却效率。
AI驱动的芯片设计
NVIDIA还在利用AI增强半导体设计。NVIDIA设计自动化研究总监Mark Ren将讨论AI模型如何通过自动化耗时的任务来提高设计质量和生产力。这些模型包括预测和优化工具,帮助工程师快速分析和改进设计。由大型语言模型(LLM)驱动的AI代理正在开发中,它们能够自主完成任务,与设计师互动,并从人类和代理的经验数据库中学习。Ren将分享AI在时序报告分析、单元集群优化和代码生成中的应用实例。
这些演讲彰显了NVIDIA通过创新的AI和冷却解决方案推动数据中心计算边界的承诺。公司的努力旨在为各个领域提供无与伦比的性能、效率和优化。
Image source: Shutterstock