您的位置 首页 > AI技术

基于AI的无线空口技术研究

摘 要

针对现有无线通信系统中空口传输性能损失等问题,分析了基于人工智能(AI)技术的无线空口技术方案,给出了空口AI典型用例的模型方案及部分算力需求,并对AI在无线空口中应用的效果和挑战进行了梳理。随着AI技术的不断发展,AI模型算法已在通信系统得到了广泛应用,空口AI的研究是实现6G网络智能内生的重要方向,将为下一代移动通信系统的设计及性能提升提供更多可能。

基于AI的无线空口技术研究

0 1

概 述

目前,人工智能(Artificial Intelligence,AI)技术已经在通信网络中被广泛应用,在核心网、网管网优、接入网等领域发挥了积极作用。其中,基于AI的空口传输技术是5G-A、6G网络研究讨论的热点,3GPP、IMT2020及 IMT2030等多个行业标准组织已经开展了数据集构建、评估准则、典型用例等重要课题的研究,为将来无线空口AI技术的实际应用打下重要基础。无线通信系统中存在大量传统方法难以精确建模或者高效率求解的技术问题,引入AI可以更好地把握复杂环境下无线信道的特征,有助于复杂数学问题的求解,从而提升系统的性能。另外,在空口某些功能模块的设计和优化过程中可能存在着性能损失问题,例如为降低设计复杂度,将某些非线性处理简化假设为线性操作,或者一些模块的设计理论仍然缺失或难以分析,只能借助于启发式算法。在上述情况下,使用AI方法替换这些模块可带来性能的提升以及处理时延的降低,这也是将AI方法用于空口设计的最直接方式。

目前,AI技术在空口方面的应用主要体现在以下几个方面。

a)无线环境建模与感知应用。基于AI算法对无线传输环境的学习和总结,帮助通信系统更加智能地完成调度、功控、波束管理、参数选择与配置等任务,建立“无线电地图”,给系统的设计和决策提供辅助信息,并降低系统的测量反馈开销。

b)信道估计、预测与反馈应用。基于AI算法对MIMO系统信道数据进行采集和训练,借助AI模型对信道状态信息进行估计及预测,在接收端根据导频序列来估计发送端和接收端之间的信道状态信息的问题。

c)联合优化发射机与接收机。在特定的信道环境下,特别是具有各种非线性效应的非典型信道,基于神经网络学习非理想的信道效应,提高发射机和接收机的性能。

d)信道编译码技术应用。基于深度学习的信道编译码技术已经有了一定的突破,基于深度学习的译码器较传统方法在性能上有显著的改善,但需解决维度爆炸带来的局限性。

e)调制与波形技术应用。AI神经网络可以被用于替代通信链路的解调模块,或者对星座图进行优化设计,并且可以用于类似正交频分复用技术(Orthogonal Frequency Division Multiplexing,OFDM)波形和低峰均功率比波形的设计。

f)信源信道联合编码技术应用。可以用深度神经网络代替传统编解码,设计端到端的信源信道联合编码结构,并且基于自编码器算法的无线编解码器无监督联合优化的特点,使用神经网络对信源压缩和信道编码进行联合设计,从而使通信系统达到端到端的最优性能。

g)多用户接入技术应用。依据各类信号检测算法的特性设计神经网络,以实现智能化的多用户检测、用户活动性(用户激活)检测、多用户MIMO检测或多用户干扰分离,在提高检测性能的同时极大地降低计算量。

h)波束管理应用。基于AI的波束管理方法主要包括空域波束预测和时域波束预测。利用波束测量结果的训练模型,输出最优波束索引或波束质量信息。

i)定位技术应用。利用神经网络的非线性优势和高效的特征提取功能,可借助所有信道测量信息,包括非直射径的信道信息进行基站到用户信道测量信息的抽象特征提取并训练,达到更高的定位精度要求。

0 2

空口典型用例的AI技术方案

无线空口AI的工作流程主要包括数据采集、AI模型的选择、训练以及推理。下面从信道状态信息压缩反馈、信道状态信息预测、智能波束管理、信道估计、一体化接收机5个方面来具体分析AI在空口传输技术中的应用方案。

2.1 信道状态信息压缩反馈

随着AI技术的不断发展与成熟,AI开始尝试与各种物理层技术进行融合,其中最典型的一个技术应用就是基于 AI 的信道状态信息(Channel State Information,CSI)反馈技术,与基于传统码本反馈方案思路不同的是,该技术在性能上寻求新的增益突破以及反馈开销的降低。

AI技术可以解决传统CSI反馈技术上的一些技术瓶颈与挑战,如解决大规模MIMO系统中的高维信道状态信息处理的高复杂度问题、解决传统的码本反馈的量化精度受限的问题等。基于AI的CSI反馈技术原理是将高维信道信息视为图像信息,利用一种类似于自编码器的网络结构实现端到端的CSI图像压缩恢复任务。如图1所示,该技术采用的是一种双边的模型结构,终端侧部署CSI生成模型,主要负责信道信息的特征提取、压缩、量化及反馈;基站侧部署CSI重构模型,接收终端侧基于AI模型压缩反馈的CSI,并进一步量化、恢复等。终端侧模型与基站侧模型需要联合起来使用,完成CSI的压缩、反馈与恢复。

图1 基于AI的CSI反馈流程

2.2 信道状态信息预测

在应用多天线技术中,基站根据所掌握的信道状态信息确定数据传输的策略,然后再传输数据。数据传输的效率与成功率取决于数据传输的策略是否与传输数据的信道状态相匹配。对于时分双工(Time Division Duplex,TDD)系统,基站可以利用终端的上行参考信号估计信道状态,利用信道的互易性把所估计的信道状态应用于下行数据的传输策略制定。对于频分双工(Frequency Division Duplex,FDD)系统,基站发射下行信道状态信息参考信号,终端测量下行信道状态信息参考信号以估计下行信道状态信息,并向基站反馈信道状态信息;基站基于终端所反馈的信道状态信息制定下行数据的传输策略。然而,基站传输数据的时间滞后于参考信号的发射时间,因为信道状态的时变性,传输数据时的信道状态相对于参考信号的发射时间的信道状态发生了变化,即传输数据时的信道状态已不同于参考信号发射时的信道状态,从而造成基站依据测量的信道状态制定的传输策略不再与传输数据时的信道状态相匹配,这样就降低了数据传输的效率与成功率。

信道状态信息预测是解决数据传输策略与传输时的信道状态失配的有效方法。基于AI信道状态信息预测就是利用当前或历史测得的信道状态信息预测未来数据传输时的信道状态信息,再将预测得到的信道状态信息用于制定数据传输时的数据传输策略,从而实现数据传输策略与数据传输时的信道状态相匹配,进而提高数据传输的性能。在基于AI的信道状态信息预测方法中,终端测量当前与历史的信道状态,利用AI模型来预测未来数据传输时的信道状态,以提高对未来信道状态预测的准确度,从而促进基站的数据传输策略与数据传输时的信道状态相匹配。

2.3 智能波束管理

在一个典型的波束管理流程中,基站或终端按照顺序发送来自整个码本或码本子集的波束,以便为数据和控制信道找到良好的收发波束对。由于波束通常是从预先确定的模拟波束码本中选择的,因此,对码本中所有发射和接收波束对进行穷尽扫描是一种最优的波束训练方案。然而,这可能会导致过高的训练开销、测量功耗和处理延时。随着人工智能技术的持续发展,无线空口波束管理与人工智能的融合可以进一步提高波束赋形增益和频谱效率,这也成为未来通信产业发展的一个重要方向。3GPP已经在R18中完成对基于AI技术的波束管理方法的性能增益和标准影响的初步评估。在基于AI的波束管理方法中,基站只需要在部分波束空间上发送波束,并利用AI模型来预测全波束空间信息和最优收发波束对,从而大幅降低训练开销、测量功耗和处理延时。

基于AI的波束管理方法主要包括空域波束预测和时域波束预测。具体而言,对于基于AI的空域波束预测,AI模型的输入为部分波束的测量结果,模型输出为所有候选波束中,每个波束成为最优波束的概率或者预测波束质量。根据模型输出,便可以在所有的候选波束中,直接确定最优的1个或多个波束索引或波束质量信息。其中,模型输入的波束数目小于所有候选波束的数目,模型输入的波束宽度和候选波束的宽度可以相同也可以不同,这取决于具体的应用场景(见图2)。

图2 基于全连接网络的空域波束预测示意

基于AI的时域波束预测通常基于终端随机初始方向、恒定速度、直线轨迹的简单运动模式假设,将过去时刻的波束测量结果作为AI模型的输入,以预测未来时刻的最优波束索引或波束质量信息。其中,模型输入的时刻数(即观测窗的时间长度)一般大于1,模型输出的时刻数(即预测窗的时间长度)可以等于1也可以大于1,相邻时刻的时间间隔一般相同。此外,同一个时刻模型输入的波束数量和候选波束的数目/宽度根据具体的应用场景可以相同也可以不同。一种可行的时域波束预测示意如图3所示,所采用的模型结构为长短时记忆网络(LSTM)。

图3 基于长短时记忆网络的时域波束预测示意

2.4 信道估计

信道估计是无线系统接收机最重要的功能之一,准确的信道估计是接收机性能的保证,如果信道估计的效果不佳,则接收机后续的处理也会受到很大的影响。传统的无线系统中信道估计通常采用基于导频的方式,先估计出导频资源位置的信道信息,然后通过时域和频域二维插值的方式得到数据资源位置的信道信息。传统信道估计算法在大时延扩展或高速信道下表现不佳,这是因为在这类信道条件下信道的时间和频率色散严重,导频位置的信道信息相关性降低,进而影响插值的精度。利用AI神经网络可以学习从正交频分复用(OFDM)解调以后的信号到原始信号的恢复过程,提升信道估计和恢复的准确性。

2.5 一体化接收机

单模块的空口AI智能化对传统设备的提升性能有限,通过多模块级联将无线设备的收发模块用AI模型统一替代,可以增强设备的整体性能。通信系统看似独立的模块之间实际并不绝对独立,人为的模块划分切断了模块之间的内在联系,基于模块的优化只能得到局部最优解。AI能感知模块之间的常规方法无法描述的潜在关联,AI的这种组合设计意味着可以在更大的空间内搜索最优解,从而获得比传统方案更大的增益。基于AI的一体化接收机是将信道估计、均衡和解调融合成一个整体的设计方案(见图4),用一个神经网络一次性完成传统无线网络3个模块的功能,网络内部功能无法切分。

图4 基于AI一体化接收机的无线系统链路结构

0 3

空口AI典型用例模型及算力需求

空口AI的算法模型为各种各样的神经网络模型,不同模型的复杂度和开销也不同,应用效果也有差异。下面对不同场景下空口的AI模型及算力进行分析,所提供数据为实验数据,实际根据使用的训练数据样本数不同、训练次数及模型大小等不同,所需算力也会有差异。

信道状态信息压缩反馈主流使用的模型是基于Transformer的自编码器结构,可以实现更强的特征提取恢复的能力以及输出更高精度的重构信道信息,但是作为代价,Transformer自编码器模型的复杂度相比于其他AI模型会有所提升。CSI生成模型的复杂度在0.1-20 M(M指106)参数量级。

信道状态信息预测模型的训练与推理放在终端侧,训练的数据由终端产生,推理的数据由终端测量获得。信道状态信息预测为生成 CSI 预测模型的输入,需要在所测量的信道上进行预处理;输入的信道状态类型可以是原始信道矩阵、原始信道矩阵的特征向量或反馈的信道状态信息。对于预测模型的输出,可采用进一步的后处理。其中,常用AI模型结构包括全连接(FCN)、循环神经网络(RNN)和卷积神经网络(CNN)。信道状态信息预测模型的复杂度参数数量最小为1 M,最大为20 M以上。

空域波束预测所采用的模型结构为全连接网络(FCN),模型参数量通常小于1 M,推理阶段的计算复杂度每秒浮点运算次数(FLOPs)通常小于1 M或几十M。时域波束预测所采用的模型结构为长短时记忆网络(LSTM),模型参数量通常小于1 M,推理阶段的计算复杂度FLOPs通常小于几M。

信道估计可以使用的网络为单层全连接的神经网络,基于AI的信道估计与传统的信道估计方案相比有明显的性能优势。信道估计模型的参数量级在2 M左右,推理所需算力在几MFLOPs量级。

基于AI的一体化接收机的主体模型是一个多层的卷积神经网络,模型以OFDM解调后的数据作为输入,以每个资源位置比特对应的0/1概率作为输出,模型的参数量级在0.05 M左右,一次前向计算的推理算力复杂度为零点几兆左右。

0 4

空口AI典型用例方案效果评估

业界已对空口技术的可行性进行了验证,如以物理层的单模块优化设计和以数据驱动的多模块联合端到端设计为主。从验证结果来看,在不同场景下AI算法带来的优化增益不同,基于AI的物理层优化设计在信道环境差的条件下有更大的增益空间;基于AI的多模块联合优化,尤其是双边部署的联合优化较传统方案性能提升明显。

为了更好地对比基于AI的CSI反馈方式与传统的码本反馈方式的性能,3GPP Release-18标准中主要采用预编码矩阵作为AI模型的输入类型,具体的性能评估指标主要通过平方余弦相似度(SGCS)和系统吞吐量来衡量。基于AI的CSI反馈方式与Release-16的码本反馈方式相比在平均用户吞吐量上有一定的增益且能进一步降低上行的反馈开销,最高可以实现10%~15%的平均吞吐量增益;偶尔也可能会出现负增益。与此同时,与Release-16的码本反馈方式相比,基于 AI 的反馈方式可以降低 58%~80% 的上行反馈开销。

3GPP标准组织在Release-18中已经完成了基于AI技术的信道状态信息预测方法的性能增益和标准影响的初步评估。在不同信道条件下平均用户吞吐量增益的中值在2%-20%。

根据 3GPP的评估,与传统的基于穷尽扫描的波束管理方法相比,基于AI的空域波束预测方法以6%-25%的波束训练开销,获得了85%-99%的终端平均吞吐量。基于AI的时域波束预测方法通过时域维度的波束预测,在将波束训练开销降低20%-80%的同时,获得了良好的波束预测准确性,并且时域波束预测方法的性能会随着预测时间的长度而发生变化,预测时间长度越长,AI方法所获得的波束预测性能增益越大。

从多厂家的原型设备测试中可以得到:在相同导频开销的前提下,AI信道估计与传统的信道估计算法相比有明显增益;在相同性能的前提下,AI信道估计所需要的导频开销与传统算法相比明显降低;基于AI的信道估计算法在低信噪比环境下有更大的性能增益。

0 5

结束语

空口AI技术已被业界广泛研究,并且已有机构对部分空口AI的用例进行了原型样机测试和评估。但目前空口AI还存在模型鲁棒性和泛化性不足、应对不同的场景需要大量模型储备、模型复杂度过高、跨设备商双边AI模型协作难度大等挑战,需产业界共同解决。此外,现有基站设备的算力有限,支持空口AI推理部分部署在基站侧,模型训练由单独服务器或网管服务器完成。未来随着技术不断演进,空口AI的微调部分也将部署在基站侧,对基站的算力需求将进一步增加,需进一步研究空口AI应用的技术方案、成本及增益,提出空口AI应用及部署演进建议。



本站涵盖的内容、图片、视频等数据,部分未能与原作者取得联系。若涉及版权问题,请及时通知我们并提供相关证明材料,我们将及时予以删除!谢谢大家的理解与支持!

Copyright © 2023