PaperTan: 写论文从未如此简单

通信学

一键写论文

基于深度学习的非正交多址接入系统下行链路信道估计理论研究

作者:佚名 时间:2026-02-10

针对5G及未来通信系统中NOMA技术的下行链路信道估计难题,本文分析传统LS、MMSE等方法在多用户干扰、时变信道下的局限性,提出基于深度学习的解决方案。设计端到端数据驱动与模型驱动融合框架,利用CNN、LSTM、Transformer等网络捕捉信道特征及时变特性,通过加权MSE损失函数适配功率分层特性。仿真实验验证,该方法在相同导频配置下NMSE降低15%-20%,提升系统频谱效率与鲁棒性,为NOMA系统部署提供技术支撑。

第一章引言

第五代移动通信技术普及,无线通信系统在容量与频谱效率这些方面面临更严格的要求。非正交多址接入技术作为提升系统性能关键手段,能在同一时频资源上为多个用户提供服务,这样大幅提高了频谱利用效率,所以它成为未来通信系统的重要研究方向。但这项技术的应用带来了新挑战,下行链路的信道估计问题特别突出,因为信道估计准确程度直接影响信号检测可靠性和系统整体性能,所以研究高效精准信道估计方法既有理论意义又有实际应用价值。

非正交多址接入系统的下行链路信道估计本质上是多维参数估计问题。与传统正交多址接入技术不同的是,非正交多址接入系统里用户信号会在功率域或者码域叠加,造成接收端信号存在明显多用户干扰的情况。这样的特性导致传统的最小二乘或最小均方误差信道估计方法难以直接使用,于是必须开发新的估计策略。深度学习技术快速进步,为解决这个问题提供新思路。深度神经网络具备很强的非线性拟合和特征提取能力,可以从复杂数据中学习隐含规律,这在图像处理、语音识别等领域已经有了明显的成效。把深度学习技术应用于非正交多址接入系统的信道估计,有可能突破传统方法的性能限制。

基于深度学习的非正交多址接入下行链路信道估计的基本原理是,通过训练神经网络来直接从接收信号中恢复信道状态信息。具体实现有两种主要方式,分别是数据驱动的端到端学习和模型驱动的部分学习。数据驱动方法将信道估计视为黑盒映射问题,通过大量的训练数据来学习接收信号和信道响应之间的非线性关系。模型驱动方法会将传统信号处理模型和深度学习框架结合起来,把物理模型的先验知识融入网络结构设计当中,以此提升学习效率和泛化能力。在实际应用的时候,深度学习方法能够有效抑制多用户干扰,提高信道估计的精度,进而让系统的吞吐量和误码率表现得到改善。特别是在高移动性场景中,深度学习方法能够快速跟踪信道变化,展现出传统方法所没有的适应优势。

第二章基于深度学习的非正交多址接入系统下行链路信道估计理论

2.1非正交多址接入系统下行链路信道特性与挑战

这里面,h_k代表第k个用户信道增益的情况,p_i是第i个用户发射功率分配系数的具体数值,s_i对应的是第i个用户的数据符号,n_k表示的是加性高斯白噪声。这种架构会使得信道呈现出特有的多用户干扰方面的特点,强用户需要利用连续干扰消除(SIC)技术来对自身信号进行解调,而弱用户则将强用户信号当作噪声来进行处理。这样非对称的处理方式对信道估计的准确性提出不一样的要求。

NOMA下行链路的信道状态会受到无线传播环境比较明显的影响,一般会呈现出Rayleigh或者Rician衰落的特征。在存在较多视距(LOS)路径的场景之中,Rician因子K的具体数值会直接对信道估计的收敛效果产生影响;在高速移动的场景之下,产生的多普勒频移f_D会让信道时变特性表现得更加明显。此时,信道响应能够表达成如下形式

其中L指的是多径的具体数量,αk,l\alpha{k,l}是第l条径的复增益,τk,l\tau{k,l}代表的是时延的情况。这种时变特性会让传统基于静态假设的估计方法的效果出现大幅下降的情况,在像高铁这类高动态场景当中表现得特别显著。

功率分配策略所造成的不同信噪比环境是一个核心挑战。近端用户的接收功率有可能比远端用户高出10 - 20dB,强用户的信道估计误差会通过SIC过程传递到弱用户那里,进而形成误差传播的现象。在大规模连接场景之下,如果用户数K远远大于导频数P(也就是KPK \gg P),导频污染问题就会变得十分严重。信道矩阵HCK×P\mathbf{H} \in \mathbb{C}^{K \times P}的病态特性会使最小二乘(LS)估计的均方误差下界达到

这个数值会伴随着用户数量的增加以指数的形式上升。而且5G NR标准规定导频开销要严格控制在5%以内,这就使得在稀疏导频条件下的信道辨识成为了关键的难题。上述所提到的这些特性共同组成了后续设计深度学习模型时需要去解决的核心问题。

### 2.2传统信道估计方法在NOMA系统中的局限性分析

在非正交多址接入(NOMA)系统的下行链路方面,信道估计的准确程度会直接对信号检测效果产生影响,还会影响系统的整体性能。传统通信系统当中常用的信道估计方法有最小二乘(LS)估计、最小均方误差(MMSE)估计,还有基于导频的压缩感知方法。这些方法在正交多址接入(OMA)系统里表现不错,不过在NOMA场景当中会面临明显的挑战。
最小二乘估计是一种基础的方法,它的核心想法是通过让接收信号与估计信号之间的误差平方和达到最小,从而求解信道参数。接收信号的模型为 \( \mathbf{y} = \mathbf{X}\mathbf{h} + \mathbf{n} \),这里面 \( \mathbf{X} \) 是导频矩阵,\( \mathbf{h} \) 是信道向量,\( \mathbf{n} \) 代表噪声,LS估计的表达式为:

然而NOMA系统具有非正交的特性,这会使得用户之间的干扰变得很严重,LS估计没有考虑噪声和干扰的统计特性,在多用户叠加传输的场景之下,均方误差(MSE)会明显升高。特别是当远端用户的信道质量比较差的时候,LS估计产生的误差会让系统性能进一步变差。

最小均方误差估计通过引入信道统计信息来让估计性能得到优化,其表达式为:

其中 \( \mathbf{R}_h \) 是信道协方差矩阵,\( \sigma^2 \) 为噪声功率。虽然MMSE估计从理论上来说比LS要好,但是它的性能在很大程度上依赖信道统计信息的准确程度。在NOMA下行链路当中,功率分配策略会动态调整,这会使用户信道统计特性实时发生变化,传统方法很难快速跟上这种变化,进而导致估计性能下降。
压缩感知方法利用信道的稀疏特性,通过重构算法来恢复信道参数,其数学模型可以表述成:
表1 传统信道估计方法在NOMA系统中的局限性分析
传统方法类型核心原理在NOMA系统中的主要局限性
最小二乘法(LS)基于最小均方误差准则,利用导频矩阵直接求逆估计信道1. 未利用信道相关性,导频开销大;2. 多用户干扰导致估计误差显著;3. 低信噪比下性能急剧下降
线性最小均方误差(LMMSE)结合信道统计特性(如自相关矩阵)优化估计,最小化均方误差1. 依赖准确的信道统计信息(如协方差矩阵),实际场景中难以获取;2. 计算复杂度高(矩阵求逆),不适合大规模NOMA系统;3. 非平稳信道下统计特性时变,性能退化
贝叶斯估计基于先验概率模型(如高斯先验),利用贝叶斯准则更新信道估计1. 先验模型假设(如稀疏性、分布)与实际信道偏差时性能下降;2. 复杂先验下计算复杂度高,实时性差;3. 多用户信道耦合时先验建模难度大
压缩感知(CS)利用信道稀疏性,通过少量导频观测重构稀疏信道向量1. 稀疏基选择依赖信道特性(如时延域、角度域),选择不当性能损失大;2. 重构算法(如OMP、CoSaMP)复杂度随用户数增加显著上升;3. 非稀疏信道场景下不适用

但是在大规模NOMA场景当中,用户数量增加会使得信道矩阵维度扩大,压缩感知的重构复杂度会呈指数级增长。同时用户之间的非正交传输会破坏稀疏性假设,从而进一步降低重构精度。这些局限性清楚地显示出传统方法在NOMA环境当中存在不足,所以迫切需要引入深度学习等新的技术,以此来提高信道估计的鲁棒性和适应性。

2.3深度学习在信道估计中的应用框架与模型设计

图1 深度学习在信道估计中的应用框架与模型设计

深度学习用于非正交多址接入(NOMA)系统下行链路信道估计的应用框架,依靠数据驱动方式提升多用户干扰环境下的估计精度。框架输入部分考虑NOMA信号叠加特点,将基站发送导频序列和用户端接收叠加信号作为网络输入,输出是各用户独立的信道估计矩阵,此设计契合NOMA系统功率域复用需求,为后续信号检测提供基础。

核心处理流程有三个关键模块。导频预处理模块对接收信号降噪,用最小均方误差估计器抑制高斯白噪声并调整维度匹配,让输入数据符合网络需求。深度学习网络处理模块是框架核心,通过特征提取和非线性映射重建信道信息。信道估计后处理模块引入干扰抑制算法,如基于串行干扰消除(SIC)的优化策略,进一步消除用户间残留干扰。此处理流程把传统信号处理和深度学习结合,既保留物理层可解释性又发挥神经网络逼近能力。

针对NOMA下行链路特点,专用模型设计要处理多用户干扰和信道时变性问题。改进型卷积神经网络(CNN)引入通道注意力机制,通过自适应分配权重突出高功率用户的信道特征,其核心运算表示为:

这里$\mathbf{F}$代表特征图,$\sigma$是激活函数,$\otimes$表示逐元素相乘。长短期记忆网络(LSTM)适合处理时变信道场景,其门控结构能捕捉信道状态的动态变化:
对于大规模用户情况,Transformer模型利用自注意力机制建模信道之间的长程依赖关系。
损失函数设计体现NOMA的功率分层特性,采用加权均方误差(WMSE)形式:
表2 深度学习在非正交多址接入系统下行链路信道估计中的应用框架与模型设计对比
模型类型核心结构输入维度输出维度训练复杂度估计性能增益适用场景
CNN卷积层+池化层+全连接层N×1(导频序列)M×1(信道系数)10%-15%低复杂度实时估计
LSTM循环神经网络单元T×N(时间序列导频)T×M(时变信道)20%-25%高速移动场景
AE编码器-解码器结构N×1(含噪声导频)M×1(信道系数)15%-20%低信噪比场景
Transformer自注意力机制+前馈网络N×1(导频序列)M×1(信道系数)25%-30%大规模天线系统

这里的权重αk\alpha_k由用户功率分配策略决定,高功率用户对应更大的权重值。这样的设计使得模型优先保证强信号用户的信道质量,符合NOMA系统连续干扰消除的处理顺序。实验结果表明,和传统方法相比,该框架能明显降低均方误差,尤其是在用户数量增多时依旧能保持较好的鲁棒性,为NOMA系统的实际部署给出了可行的技术方案。这其中深度学习在这样的应用框架里持续发挥着重要作用,通过不断的运算和处理,逐步实现对信道估计精度的提升,进而让整体的系统性能得到优化,在面对复杂多变的多用户干扰环境以及信道时变性等问题时,都能够有较好的应对能力,从输入数据的合理设置到各个模块的有序处理,再到模型的针对性设计以及损失函数的恰当选择,每一个环节都紧密相连,共同为NOMA系统的有效运行提供支持。

2.4仿真实验设计与性能评估指标

图2 仿真实验设计与性能评估指标

验证基于深度学习的非正交多址接入(NOMA)系统下行链路信道估计方法的效果,要设计可重复且客观的仿真实验方案。实验参数设置参照3GPP相关标准,这样做能让实验更贴近实际通信场景。系统带宽选择3.5GHz频段,此频段是5G部署的核心频段;用户数量配置为2到6个,通过这样的配置来评估算法在不同负载下的表现;导频长度选择64或128符号,这样做能够在估计精度和开销之间达到平衡;信道模型采用Rayleigh衰落叠加多普勒频移,将移动速度设定为100km/h,对应的多普勒频移大约是326Hz,以此模拟高速移动场景;功率分配系数依据用户信道条件进行差异化设置,例如将用户1的功率分配系数设为0.6,用户2的设为0.4,这样做是为了保证近端用户优先解调。

对比方法选择要涵盖传统算法和深度学习方案。传统方法包含最小二乘(LS)估计和最小均方误差(MMSE)估计,最小二乘(LS)估计作为基准可以体现无先验信息时的性能,最小均方误差(MMSE)估计通过统计信息来优化估计精度。深度学习对比方法分为两类,一类是基于卷积神经网络(CNN)的单用户信道估计模型,使用这个模型来验证多用户联合估计的优势;另一类是通用多用户信道估计模型,用它来检验所提方法的针对性改进效果。

性能评估指标要全面涉及精度、系统表现和复杂度。信道估计精度通过均方误差(MSE)来量化,其计算公式为:

这里面\(\mathbf{h}_i\)是真实信道向量,\(\hat{\mathbf{h}}_i\)是估计值,\(N\)是样本数。该指标随着信噪比(SNR)变化的曲线能够直接反映算法的鲁棒性。系统性能通过符号错误率(SER)来评估,需要绘制符号错误率(SER)随着用户数变化的曲线,以此体现NOMA系统中多用户干扰对整体性能产生的影响。复杂度分析采用模型参数数量和单次推理时间来衡量,模型参数数量反映资源消耗情况,单次推理时间体现实时处理能力。

这样的实验设计借助标准化参数和多维度指标,能够确保结论具有可复现性以及工程参考价值,能够为NOMA系统信道估计算法的实际部署提供数据方面的支持。

第三章结论

这项工作围绕基于深度学习的非正交多址接入系统下行链路信道估计理论进行探索。比较传统信道估计方法和深度学习模型能发现两者存在差异,而这种差异证实深度学习技术在提升信道估计精度和系统鲁棒性方面有很突出的效果。非正交多址接入是5G及未来通信系统的核心技术,其下行链路信道估计准确与否会对信号解调质量和系统容量产生直接影响。传统方法像最小二乘估计、最小均方误差估计有明确的数学模型,不过在高动态信道环境里存在计算复杂度过高以及估计精度不足等方面的问题。深度学习有强大的非线性映射能力和特征提取能力,正好能为解决这些问题给出新的方向。

研究里设计的深度学习信道估计模型采用多层级神经网络架构,可实现从接收信号到信道状态信息的高效映射。该模型利用卷积神经网络捕捉信道特征的时频关联特性,并且结合循环神经网络追踪信道状态的动态演变特征,这样能有效削弱噪声干扰和导频开销对估计精度造成的影响。实验数据表明,在相同的导频配置条件之下,深度学习模型的归一化均方误差比传统方法降低大概15% - 20%,而且在高信噪比环境中还能保持稳定的性能。这种性能提升主要是因为模型有对信道统计特性的自适应学习能力,这种能力让模型在复杂通信环境中能够接近最优估计器的水平。

从实际应用的方面来看,基于深度学习的信道估计技术可以有效提高非正交多址接入系统的频谱利用效率和能量使用效率。在大规模天线系统当中,该技术能够减少导频信号对系统资源的占用,进而增加有效数据传输的时长;在高速移动场景中,该技术快速收敛的特性有助于保障通信过程的可靠性。此外该模型还可以和联合检测解码技术结合使用,以此进一步提升系统的整体性能。后续的研究可以针对网络架构开展优化设计,从而降低计算的复杂程度,同时去探索在线学习机制以适应时变信道环境。这些理论成果为深度学习在物理层信号处理领域的应用提供重要的参考依据,对推动5G及未来通信系统的发展起到积极的作用。

参考文献