5G 中的 AI 驱动创新:实时神经接收器是未来的铺路石
根据NVIDIA 技术博客的详细报告,5G 新无线(5G NR)无线通信系统的进步正在由前沿的 AI 技术驱动。这些系统依靠高度优化的信号处理算法,在短短几微秒内从噪声信道观测中重建传输的消息。
算法的历史背景和再发现
几十年来,电信工程师不断改进信号处理算法,以满足无线通信的苛刻实时要求。值得注意的是,在 1960 年代由 Gallager 发现并在 1990 年代由 David MacKay 重新发现的低密度奇偶校验(LDPC)码,现在已成为 5G NR 的支柱。
AI 在无线通信中的作用
AI 在增强无线通信方面的潜力引起了学术界和工业界的极大关注。与传统的物理层算法相比,AI 驱动的解决方案承诺提供更高的可靠性和准确性。这为 AI 无线接入网络(AI-RAN)的概念铺平了道路。
NVIDIA 的研究突破
NVIDIA 开发了一种基于神经网络的无线接收器原型,将物理层信号处理的部分替换为学习组件。NVIDIA 强调实时推理,并在 GitHub 上发布了全面的研究代码,使研究人员能够设计、训练和评估这些基于神经网络的接收器。
实时推理是通过 GPU 加速硬件平台上的 NVIDIA TensorRT 实现的,提供了从概念原型到商业级部署的无缝过渡。
从传统信号处理到神经接收器
神经接收器(NRX)将信道估计、均衡和去映射组合成单一神经网络,训练以从信道观测中估计传输的比特。这种方法为现有的信号处理算法提供了即插即用的替代方案,在 NVIDIA A100 GPU 上实现了不到 1 毫秒的推理延迟。
5G NR 标准合规性和重新配置
将 NRX 集成到 5G NR 标准中提出了几个挑战。NRX 架构必须动态适应不同的调制和编码方案(MCS),而无需重新训练。它还支持任意数量的子载波和多用户 MIMO 配置。
训练在城市微小区场景中进行,使用随机化宏参数以确保在各种信道条件下的弹性。特定站点的微调在部署后进一步提高了性能。
在实时约束下的性能
在实时系统中部署 AI 算法需要满足严格的延迟要求。NRX 架构使用 NVIDIA A100 GPU 上的 TensorRT 进行优化,以确保实际延迟测量并消除性能瓶颈。
NRX 可以重新配置以适应不断变化的硬件平台或系统参数,即使在实时约束下也能保持竞争性能。
特定站点的微调
AI-RAN 组件可以进行特定站点的微调,在部署后优化神经网络权重。此过程利用 AI 基于的软件定义 RAN 提取活跃系统的训练数据。微调使较小的 NRX 架构能够达到较大、普遍预训练模型的性能水平,节省计算资源同时保持卓越的误码率性能。
迈向 6G 研究的进展
神经接收器不仅替代现有的接收器算法,还启用如无导频通信和特定站点再训练等新功能。端到端学习方法可以消除导频开销,提高数据速率和可靠性。
尽管这些创新尚未符合 5G NR 标准,但它们表明 AI 如何推动更高可靠性和吞吐量的 6G 新功能。欲了解更多详情,请访问 GitHub 上的 NVlabs/neural_rx 仓库。
Read More
Polygon (POL) Token to Replace MATIC in Major Ecosystem Upgrade
Sep 04, 2024 1 Min Read
AI-Driven Innovation in 5G: Real-Time Neural Receivers Pave the Way
Sep 04, 2024 1 Min Read
SingularityNET (AGIX) Releases Final Supervisory Council Progress Update
Sep 04, 2024 1 Min Read
Binance Unveils New Limited-Time Offers for Earn Wednesday
Sep 04, 2024 1 Min Read
Riot Platforms Urges Bitfarms Shareholders to Elect New Directors at Upcoming Meeting
Sep 04, 2024 1 Min Read