5G 中的 AI 驱动创新:实时神经接收器是未来的铺路石

realtime news  Sep 04, 2024 17:29  UTC 09:29

1 Min Read

根据NVIDIA 技术博客的详细报告,5G 新无线(5G NR)无线通信系统的进步正在由前沿的 AI 技术驱动。这些系统依靠高度优化的信号处理算法,在短短几微秒内从噪声信道观测中重建传输的消息。

算法的历史背景和再发现

几十年来,电信工程师不断改进信号处理算法,以满足无线通信的苛刻实时要求。值得注意的是,在 1960 年代由 Gallager 发现并在 1990 年代由 David MacKay 重新发现的低密度奇偶校验(LDPC)码,现在已成为 5G NR 的支柱。

AI 在无线通信中的作用

AI 在增强无线通信方面的潜力引起了学术界和工业界的极大关注。与传统的物理层算法相比,AI 驱动的解决方案承诺提供更高的可靠性和准确性。这为 AI 无线接入网络(AI-RAN)的概念铺平了道路。

NVIDIA 的研究突破

NVIDIA 开发了一种基于神经网络的无线接收器原型,将物理层信号处理的部分替换为学习组件。NVIDIA 强调实时推理,并在 GitHub 上发布了全面的研究代码,使研究人员能够设计、训练和评估这些基于神经网络的接收器。

实时推理是通过 GPU 加速硬件平台上的 NVIDIA TensorRT 实现的,提供了从概念原型到商业级部署的无缝过渡。

从传统信号处理到神经接收器

神经接收器(NRX)将信道估计、均衡和去映射组合成单一神经网络,训练以从信道观测中估计传输的比特。这种方法为现有的信号处理算法提供了即插即用的替代方案,在 NVIDIA A100 GPU 上实现了不到 1 毫秒的推理延迟。

5G NR 标准合规性和重新配置

将 NRX 集成到 5G NR 标准中提出了几个挑战。NRX 架构必须动态适应不同的调制和编码方案(MCS),而无需重新训练。它还支持任意数量的子载波和多用户 MIMO 配置。

训练在城市微小区场景中进行,使用随机化宏参数以确保在各种信道条件下的弹性。特定站点的微调在部署后进一步提高了性能。

在实时约束下的性能

在实时系统中部署 AI 算法需要满足严格的延迟要求。NRX 架构使用 NVIDIA A100 GPU 上的 TensorRT 进行优化,以确保实际延迟测量并消除性能瓶颈。

NRX 可以重新配置以适应不断变化的硬件平台或系统参数,即使在实时约束下也能保持竞争性能。

特定站点的微调

AI-RAN 组件可以进行特定站点的微调,在部署后优化神经网络权重。此过程利用 AI 基于的软件定义 RAN 提取活跃系统的训练数据。微调使较小的 NRX 架构能够达到较大、普遍预训练模型的性能水平,节省计算资源同时保持卓越的误码率性能。

迈向 6G 研究的进展

神经接收器不仅替代现有的接收器算法,还启用如无导频通信和特定站点再训练等新功能。端到端学习方法可以消除导频开销,提高数据速率和可靠性。

尽管这些创新尚未符合 5G NR 标准,但它们表明 AI 如何推动更高可靠性和吞吐量的 6G 新功能。欲了解更多详情,请访问 GitHub 上的 NVlabs/neural_rx 仓库。



Read More