-
近年来,随着移动用户数量的爆炸式增长,多小区间的功率分配问题引起了广泛关注。此外,小区内和小区间的干扰管理对于提高蜂窝网络系统的能量效率也很重要。为了解决移动用户密度大的问题,非正交多址接入技术成为当前通信系统的研究热点之一[1-5]。
非正交多址接入(non-orthogonal multiple access,NOMA)技术的基本思想是在发送端采用非正交方式发送信号,在接收端采用串行干扰删除技术,从而实现信号的正确解调。已有很多文献研究了NOMA系统的功率分配问题。文献[1]提出一种单输入单输出情况下的优化问题,随后将单输入单输出解决方案扩展为多输入多输出场景,在满足每个用户的最小速率要求的服务质量和总功率约束条件下使总容量最大化。文献[2]将深度强化学习(deep reinforce learning, DRL)应用于无授权NOMA系统的决策中,旨在减轻冲突并提高未知网络环境中的系统吞吐量。文献[3]研究了包含任意用户的单个NOMA簇,目标是在满足每个用户所需的最小数据速率下最大化能量效率。文献[4]研究了集群中多用户多输入多输出NOMA系统中最大化能量效率的功率分配方案。
很多功率优化函数是非凸的,且优化问题是非确定性多项式(non-deterministic polynomial, NP)难题,机器学习技术被引入用于解决功率优化问题。机器学习包括监督学习、非监督学习和强化学习等。监督学习需要训练样本带有类别标签,通过训练深度神经网络逼近已给出的标签,文献[6-7]给出了关于监督学习的实现方案。无监督学习的训练样本没有标签,文献[8-9]相继提出了多种无监督学习研究方案。强化学习讨论一个智能体如何在未知环境里面最大化能获得的奖励。因为监督学习需要提前给出类别标签,非监督学习在学习过程中无反馈,强化学习在近年来成为无线通信中功率分配的热门技术[10-14]。文献[10]将Actor-critic算法应用于NOMA系统中不同认知无线电之间的功率分配,其目的是满足认知无线电最小数据速率要求的同时,最大化系统能量效率。文献[11]研究使用深度Q网络(deep Q networks, DQN)算法,旨在最大化整个网络的能量效率。文献[12]考虑动态无线网络中发射功率和信道的联合决策优化问题,通过构造DQN解决状态空间过大的复杂决策问题,提高系统能量效率。文献[13]提出基于Actor-Critic算法研究混合能源异构网络中用户调度和资源分配的最优策略,目的是最大化系统的能量效率。
本文针对单输入单输出的下行多小区NOMA系统,研究了一种DRL的功率分配算法(energy efficient power allocation-DQN,EEPA-DQN),将DQN作为动作−状态值函数,目的是优化信道功率分配,使系统能量效率最大化。将基站到用户的单个信道视为一个智能体,使用经验回放池将数据进行集中训练,分步执行时使用该智能体学习到的策略。仿真结果表明,EEPA-DQN算法与加权最小均方误差(weight minimum mean square error, WMMSE)[15]、分式规划(fractional programming, FP)[16]、最大功率(maximal power, MP)[17]和随机功率 (random power, RP)[18]等算法相比,得到的能量效率更高,收敛速度更快。
-
考虑多小区下行非正交多址接入系统,每个小区的中心设置有一个基站(BS)。基站通过信道向用户发送信号,小区和用户的索引集分别为
$ c = \left\{ {1,2, \cdots ,C} \right\} $ 和$ k = \left\{ {1,2, \cdots {\text{ }},K} \right\} $ 。小区c的第k个用户表示为$ {U_{c,k}} $ ,每个小区包含两个用户。在时隙t,小区c基站和用户k之间的信道增益描述为:$$ g_{c,k}^t = {\beta _{c,k}}{\left| {h_{c,k}^t} \right|^2} $$ (1) 式中,
$ h_{c,k}^t $ 是小尺度衰落;$ {\;\beta _{c,k}} $ 是大尺度衰落。蜂窝网络系统模型如图1所示,系统包含C个小区。假设用户$ {U_{c,1}} $ 为近端用户,用户$ {U_{c,2}} $ 为远端用户,基站到$ {U_{c,1}} $ 和$ {U_{c,2}} $ 的信道增益分别为$ {g_{c,1}} $ 和$ {g_{c,2}} $ ,则$ {\left| {{g_{c,1}}} \right|^2} > \;{\left| {{g_{c,2}}} \right|^2} $ 。小区c基站的发射功率为$ {p_c} $ ,为$ {U_{c,1}} $ 和$ {U_{c,2}} $ 分配的功率分别为$ {p}_{c,\text{1}} $ 和$ {p}_{c,\text{2}} $ ,$ {p}_{c}\text{=}{p}_{c,\text{1}}\text{+} $ $ {p}_{c,\text{2}} $ ,$ {U_{c,1}} $ 为近端用户,且$ {p_{c,{\text{1}}}} < {p_{c,2}} $ 。基站向不同用户发送消息,每个基站发送给用户的叠加信号表示为:
$$ {x_c} = \sum\limits_{k = 1}^K {\sqrt {{p_{c,k}}} } {s_{c,k}} $$ (2) 式中,
$ {p_{c,k}} $ 和$ {s_{c,k}} $ 分别为基站c中用户k的发送功率和信号。用户$ {U_{c,k}} $ 的接收信号$ {y_{c,k}} $ 表示为:$$ {y_{c,k}} = {g_{c,k}}{x_c} + {n_{c,k}} $$ (3) 式中,
$ {n_{c,k}} $ 是$ {U_{c,k}} $ 接收到的高斯白噪声,均值为0,方差为$ {\sigma ^2} $ 。在下行多小区NOMA系统中,接收机使用串行干扰消除(successive interference cancellation, SIC)技术消除用户间干扰。已知
$ {U_{c,1}} $ 是近端用户,$ {U_{c,2}} $ 是远端用户,故$ {U_{c,1}} $ 首先解调出来自$ {U_{c,2}} $ 干扰信号,并用SIC技术消除$ {U_{c,2}} $ 带来的干扰;再解调出自身的信号。$ {U_{c,2}} $ 可以直接解调出所接收的信号。在接收端,由SIC技术可得到$ {U_{c,1}} $ 和$ {U_{c,2}} $ 的信干扰比分别为:$$ {\rm{sin}}r_{c,1}^t = \frac{{g_{c,1}^tp_{c,1}^t}}{{\displaystyle\sum\limits_{{c^\prime } \in {D_c}} {g_{{c^\prime },k}^t\;} \displaystyle\sum\limits_k {p_{{c^\prime },k}^t + {\sigma ^2}} }} $$ (4) $$ {\rm{sin}}r_{c,2}^t = \frac{{g_{c,2}^tp_{c,2}^t}}{{g_{c,2}^tp_{c,1}^t + \displaystyle\sum\limits_{{c^\prime } \in {M_c}} {g_{{c^\prime },k}^t} \displaystyle\sum\limits_k {p_{{c^\prime },k}^t + {\sigma ^2}} }} $$ (5) 式中,
$ {M_c} $ 是干扰小区集;p是基站的发射功率;$ g_{c,2}^tp_{c,1}^t $ 为小区c内$ {U_{c,1}} $ 对$ {U_{c,2}} $ 的干扰;$ \displaystyle\sum\limits_{{c^\prime } \in {D_c}} {g_{{c^\prime },k}^t} \sum\limits_k {p_{{c^\prime },k}^t} $ 为小区间用户的干扰;$ {\sigma ^2} $ 表示附加噪声功率。该链路的下行链路和速率根据远、近端用户可分别表示为
$ {R_{c,1}} $ 、$ {R_{c,2}} $ :$$ R_{c,1}^t = B{{\rm{log}}_2}(1 + {\rm{sin}}r_{c,1}^t) $$ (6) $$ R_{c,2}^t = B{{\rm{log}}_2}(1 + {\rm{sin}}r_{c,2}^t) $$ (7) 式中,B为信道带宽。单个小区的和速率为两个用户和速率之和,定义为:
$$ R_c^t = R_{c,1}^t + R_{c,2}^t $$ (8) 单个小区的能量效率
$ \eta _c^t $ 定义为:$$ \eta _c^t = \frac{{R_c^t}}{{p_c^t + {N_0}}} $$ (9) 式中,
$ p_c^t $ 为小区c在时隙t的发射功率;$ {N_0} $ 为电路固定损耗。NOMA系统的能量效率定义为:
$$ {\eta ^t} = \sum\limits_{c = 1}^C {\eta _c^t} $$ (10) 优化目标是在最大发射功率约束下最大化系统的能量效率,描述如下:
$$ \mathop {\max }\limits_p {\eta ^t} $$ (11) $$ {\rm{s}}. {\rm{t}}. \;\;\; 0 \leqslant p_c^t \leqslant {P_{\max }} $$ 式中,
$ {P_{{\rm{max}}}} $ 为基站发射功率的最大值。上述优化问题是一个非凸的问题,很难用最优化的方法解决这个问题。根据强化学习的理论[19],对于一个给定的马尔可夫随机过程,尤其当系统是动态时,深度强化学习可以找到最优的决策动作,解决这个功率分配的优化问题。深度神经网络可以近似为一个函数,可以利用神经网络建立起状态${s^t}$ 到价值${Q_\pi }({s^t},{a^t})$ 的一个映射,状态值会从时隙$t$ 跳转到下一时隙($t + 1$ ),通过训练神经网络找到最大的${Q_\pi }({s^t},{a^t})$ 值对应的动作值${a^t}$ (基站的发射功率)。 -
强化学习算法讨论一个智能体如何在一个复杂不确定的环境里获得最大化的奖励。本文采用深度强化学习DQN算法,基于离散时间马尔可夫决策过程(Markov decision process, MDP),在有限的动作和状态空间中最大化获得的奖励。在时隙t,从环境中获取状态
$ {s^t} \in S $ ,智能体选择动作$ {a^t} \in A $ ,并与环境交互,获得奖励$ {r^t} \in R $ 并转换到下一个状态$ {s^{t{\text{ + 1}}}} $ ,其中 ,A是动作集合,S是状态集合,P是当前状态转移到下一个状态的状态转移概率,R是奖励集合。强化学习框图如图2所示。由于状态可以是连续的,DQN将Q-learning与神经网络相结合,用于解决无限状态空间的问题,即用神经网络代替q-table,并在q-table的基础上提出两个创新点[14]。
1) 经验回放。由于Q-learning算法得到的样本前后是相关的,为了打破数据之间的关联性,在网络训练过程中使用经验回放机制。从以往的状态转移中随机采样
$ ({s^t},{a^t},{r^t},{s^{t + 1}}) $ 进行训练。经验回放可以减少智能体所需的学习经验,解决样本关联性和效率利用的问题。2) 固定Q目标。固定Q目标主要解决算法不稳定的问题,当前值网络复制得到目标值网络,起初两个网络具有相同的参数。随着训练次数的增加,当前值网络参数θ实时更新,每隔N步,当前值网络的参数复制给目标值网络,进行目标值网络的更新,通过当前值网络和目标值网络计算当前Q值和目标
$ {Q^{{\rm{target}}}} $ 值,通过最小化当前Q值和目标$ {Q^{{\rm{target}}}} $ 值之间的均方误差优化更新网络参数。引入目标值网络后,在一段时间内目标$ {Q^{{\rm{target}}}} $ 值是保持不变的,从而降低了当前Q值和目标$ {Q^{{\rm{target}}}} $ 值之间的相关性,提升了算法的稳定性。采用
$ \;{Q_\pi }\left( {{s^t},{a^t}} \right) $ 函数作为状态−动作值函数。在时隙t,给定状态$ {s^t} $ ,选择动作$ {a^t} $ ,即时奖励为$ {r^t} $ ,Q值函数为:$$ \begin{split} \;\;\;\;\;\;{Q_\pi }( {{s^{\;t}},{a^{\;t}}\;} )\; &= {{\rm{E}}_\pi }\;[{R^{\;t}}|{s^t} = s,{a^t} = a] \\ \;\;\;\;\;\;{R^{\;t}} &= \sum\limits_{\tau = 0}^\infty {\;{\gamma ^\tau }r{\;^{t + \tau + 1}}} \\[-12pt] \end{split} $$ (12) 式中,
$ \gamma \in [0,\;1) $ 是平衡当前奖励和未来奖励的折扣因子;$ {\rm{E}}[·] $ 是期望算子。Q函数是一个度量指标,用来评估在政策π下所选动作$ {a^t} $ 对学习过程获得的预期累积折扣奖励的影响。Q函数满足贝尔曼方程:
$$ \begin{split} & {Q_\pi }\;( {{s^t},{a^t}} ) = {{\rm{E}}_\pi }\;[{r^{\;t + 1}}|{s^t} = s,\;{a^t} = a] + \hfill \\ &\;\;\gamma \sum\limits_{s' \in S} {P_{s{s'}}^{\;a}\;\left( {\sum\limits_{a' \in A} {\pi \;({s'},{a'})\;{Q^{\;\pi }}({s'},{a'})} } \right)} \\[-12pt] \end{split} $$ (13) 式中,
$ P_{s{s'}}^{\;a} = P\;[{s^{\;t + 1}} = {s'}|{s^t} = s,\;{a^t} = a] $ 表示智能体在状态s时,采取动作a到下一个状态$ {s'} $ 的转移概率。与最优策略相关的最优Q函数为:
$$ \begin{split} & Q{\;^*}\;( {{s^t},{a^t}} ) = {r^{t + 1}}\;\;({s^t} = s,\;{a^t} = a,\;\pi = {\pi ^*}) + \\ & \;\;\;\;\;\;\;\;\;\;\;\;\;\;\gamma \sum\limits_{s' \in \;S} {P_{s{s'}}^{\;a}\mathop {\;\max }\limits_{a' \in \;A} {Q^{\;\;*}}\;({s'},{a'})} \\[-12pt] \end{split} $$ (14) 式中,
$ {\pi ^*} $ 为Q-learning算法搜索最优策略。由式(14)递归求解得到最优
$ Q{\;^*}\;\left( {{s^t},{a^t}\;} \right) $ 值。对Q函数的更新为:$$ \begin{split} & \;\;\;\;\;\;Q{\;^*}\;( {{s^t},{a^t}} ) \leftarrow (1 - \alpha )\;{Q^*}( {{s^t},{a^t}} )\; + \; \hfill \\ & \;\;\;\;\;\;\;\;\;\;\alpha \;({r^{t + 1}} + \;\gamma \mathop {\max }\limits_{{a'}} {Q_\pi }({s^{t + 1}},{a'})) \\[-8pt] \end{split} $$ (15) 式中,
$ \;\alpha \; $ 是用以更新Q函数的学习率。在维度较大的状态空间和动作空间实时更新$ Q\left( {{s^t},{a^t}} \right) $ 难以实现,选用DQL与深度神经网络(deep neural network,DNN)结合,即DQN。DQN中Q值函数由参数θ决定,θ包括神经网络中的权重和偏差。与式(15)中直接更新Q函数不同,DQN的参数θ更新如下:
$$ {\theta ^{t + 1}} = {\theta ^t} + \lambda ({y^t} - Q({s^t},{a^t};{\theta ^t}))\nabla Q({s^t},{a^t};{\theta ^t}) $$ (16) 式中,λ代表学习率,用以更新网络参数,使得当前
$ Q\left( {{s^t},{a^t};{\theta ^t}} \right) $ 值逐渐朝向目标值。智能体从经验重放池中随机采样批量数据$ ({s^t},{a^t},{r^t},{s^{t + 1}}) $ 来训练DQN网络,DQN的训练流程如图3所示。本文研究在最大发射功率约束下,最大化系统的能量效率。令γ=0,式(12)可描述为
$ {\rm{max}}Q = \mathop {\;{\rm{max}}}\limits_{a \in A} $ $ {{\rm{E}}_\pi }[{r^t}|{s^t} = s,{a^t} = a] $ 。针对功率分配问题,$ a = {p^t} $ ,$ s = {g^t} $ ,奖励函数设置为$ {r^t} = {\eta ^t} $ ,最大Q值可表示为:$$ {\rm{max}}Q = \;\mathop {{\rm{max}}}\limits_{0 \leqslant p_c^t \leqslant {P_{\max }}} {{\rm{E}}_\pi }[{\eta ^t}|{g^t},{p^t}] $$ (17) 选择最优Q值,得到最佳动作
$ a^* $ :$$ a^* = {\rm{arg}}\mathop {{\rm{max}}}\limits_a Q(s,a;{\theta _q}) $$ (18) 训练过程中采用动态的ε-greedy策略控制探测概率[20],定义为:
$$ {\varepsilon _k} = \;{\varepsilon _1} - \frac{{k - 1}}{{{N_e} - 1}}({\varepsilon _1} - {\varepsilon _k})\;\;k = 1, 2,\cdots ,{N_{\rm{e}}} $$ (19) -
本文使用免模型两步训练框架,由于数据驱动算法对数据量要求较高,为了减少在线训练的压力,使用DRL算法对DQN进行离线训练;再将训练过的DQN在真实场景中进行动态微调。基站到用户的下行链路信道可视为一个智能体,环境是下行多小区NOMA系统,智能体和环境进行交互,智能体选择一个动作
$ {a^t} $ ,得到一个奖励$ {r^t} $ ,进入下一个状态$ {s^{t + 1}} $ 。下行多小区NOMA系统研究的是一个多智能体问题,训练数据及参数较单智能体更为复杂。故引入经验回放技术,经验回放池中包括状态$ {s^t} $ 、动作$ {a^t} $ 、奖励$ {r^t} $ 和下一个状态$ {s^{t + 1}} $ 等数据,利用经验回放池数据对DQN网络进行集中训练,分步执行时使用该智能体学习到的策略。本文将DQN的思想引入NOMA系统的功率分配中,即EEPA-DQN算法,旨在最大化系统的能量效率。EEPA-DQN的3个重要组成元素为状态、动作和奖励,具体如下。
状态:状态的选取很重要,为了降低输入维度,在时隙t开始时,智能体根据来自接收机处干扰源的当前接收功率对干扰源按从大到小进行排序。保留前Z个对用户k下一个动作有较强干扰的信息源,Z以外的基站到用户的下行链路及干扰信号的信道增益均视为零。最佳发射功率
$ {p^t} $ 和当前的信道增益$ {g^t} $ 相关,但这种设计使得DQN的性能变差。因此,本文基于文献[21],通过3个主要特征描述智能体的状态,即对数归一化干扰集$ I_{c,k}^t $ 、前一时隙的奖励$ {\eta ^{t - 1}} $ 和前一时隙的发射功率$ {p^{t - 1}} $ ,表示为状态$ s_{c,k}^t = \{ I_{c,k}^t,\eta _{c,k}^{t - 1},p_{c,k}^{t - 1}\} $ 。动作:基站的发射功率作为智能体的动作。NOMA系统中,基站到用户的发射功率是一个连续的变量,受最大功率的限制,而DQN只能处理离散的动作空间,所以需要将其量化,0和
$ {P_{{\rm{max}}}} $ 之间发射功率被量化为$ \left| A \right| $ 个数量级,量化后的动作为:$$ A\in \{0,{P}_{{\rm{min}}},\cdots ,{P}_{{\rm{max}}}\} $$ (20) 式中,
$ {P_{{\rm{min}}}} $ 表示非零发射功率最小值;$ {P_{{\rm{max}}}} $ 表示发射功率最大值,最大值与最小值之间的功率为等间隔增大的$ \left| {A - 3} \right| $ 个动作。在时隙t,每个智能体只允许选择一个动作$ {a^t} \in A $ 更新它的功率策略。奖励:奖励函数的设计决定强化学习算法的收敛速度和程度,智能体目的是最大化的系统的累计收益,若想要让智能体较快的达到目标,提供奖励函数应使智能体在最大化收益的同时可实现系统能量效率最大化。故本文中将系统能量效率用作奖励函数。
算法:EEPA-DQN算法
输入:状态,状态包含对数归一化干扰集
$ I_{c,k}^t $ 、前一时隙的奖励$ {\eta ^{t - 1}} $ 和前一时隙的发射功率$ {p^{t - 1}} $ 输出:动作,动作为功率
初始化:回合数为M,每个回合时隙数为T,学习率为λ,探索率为
$ \varepsilon $ ,初始化经验池D,批样本数量为N,随机初始化EEPA-DQN中参数θfor m=1: M
初始化状态
$ {s^1} $ for t=1: T
以
$ \mathrm{\varepsilon } $ 的概率随机选取动作$ {a^t} $ ,否则选择 最优的动作$ {a^t} = {\rm{arg}}\mathop {{\rm{max}}}\limits_a Q(s,a;{\theta _q}) $ ;执行动作
$ {a^t} $ ,得到奖励$ {r^t} $ 和下一个状态$ {s^{t + 1}} $ ;将
$ ({s^t},{a^t},{r^t},{s^{t + 1}}) $ 放入D中;以
$ {({y^t} - Q({s^t},{a^t};{\theta ^t}))^2} $ 为损失函数训练EEPA- DQN;$ {s^t} \leftarrow {s^{t + 1}} $ ;更新θ;
end for
end for
-
本文研究下行多小区NOMA系统,模拟一个小区数C=16的蜂窝网络,在每一个小区内配备一个中心基站,每个基站可同时为K=2个用户服务。假设某一小区的两层之内的小区设置为干扰用户,即干扰层数I=2;用户被随机分配在
$ d \in [{r_{{\rm{min}}}}, $ $ {r_{{\rm{max}}}}] $ 内,$ {r_{{\rm{min}}}}{\text{ = }}0.01\;{\rm{km}} $ 和$ {r_{{\rm{max}}} }= 1\;{\rm{km}} $ 分别为小区内基站到用户最短距离和最长距离。信道模拟小尺度衰落,小尺度衰落服从独立的瑞利分布,使用Jakes模型,路径损耗以$\; \beta = 120.9{\text{ + }}37.6{\lg }d + 10{\lg }z$ 进行模拟,d是基站与用户之间的距离,距离越大路径损耗值越大,z为对数正态随机变量,标准差为8 dB[20]。为确保智能体能快速做出决策,网络结构不宜过于复杂,EEPA-DQN算法为一个输入层、两个隐藏层和一个输出层的结构较简单的神经网络。隐藏层采用ReLU激活函数,输出层的激活函数是线性的。将前12个小区视为干扰源,功率电平数|A| = 10。为了减少在线计算的压力,采用离线训练。在前100次迭代训练中,只能随机选择动作,在探索阶段使用自适应贪婪策略[22]。训练得到的EEPA-DQN具有较强的泛化能力,每次迭代包含1 000个时隙,每10个时隙从经验回放记忆中随机抽取一批样本训练EEPA-DQN,使用Adam[23]算法作为优化器,NOMA无线通信系统参数设置见表1。
表 1 NOMA无线通信系统参数设置
参数 值 折扣因子$ \gamma $ 0 经验池大小D 50000 批样本数量N 256 学习率λ 0.0001 初始探索率$ {\varepsilon _1} $ 0.25 最终探索率$ {\varepsilon _{{\rm{Ne}}}} $ 0.0001 隐藏层 128(1), 64(2) 回合数M 20000 信道带宽B/Hz 1 每个回合时隙数T 1000 最小发射功率$ {P_{\min }} $/dBm 5 最大发射功率$ {P_{\max }} $/dBm 38 最大多普勒频率$ {f_p} $/Hz 10 电路固定损耗功率$ {N_0} $/dBm 30 加性高斯白噪声功率$ {\sigma ^2} $/dBm −114 -
在对EEPA-DQN算法进行实验仿真的同时,将本文提出的EEPA-DQN算法与FP、WMMSE、MP和RP算法进行实验比较。FP、WMMSE这两个算法是非常经典的考虑多小区间干扰的功率分配算法,均为迭代的算法,都需要全局实时的跨小区信道状态信息(channel state information, CSI),对于基站来说它的开销庞大[24] 。深度神经网络具有一定的学习本领,在进行网络的特征提取时具有一定的智能和泛化性能。另一个优点是DQN的算法复杂度较低。表2列出了不同算法的单次CPU运行时间。从表2中可以看出基于强化学习的功率分配算法复杂度较低。EEPA-DQN算法分别比FP、WMMSE、MP和RP算法快13.0倍、14.1倍、15.1倍和13.0倍左右,硬件配置为:Intel(R) Xeon(R) CPU E3-1230 v5;软件为:python 3.7,TensorFlow 1.15.0。仿真的下行多小区NOMA系统小区数目为16。
表 2 单次执行时间
算法 时间/s EEPA-DQN 9.9$ \times {10}^{-4} $ FP 1.296$ \times {10}^{-2} $ WMMSE 1.396$ \times {10}^{-2} $ MP 1.496$ \times {10}^{-2} $ RP 1.292$ \times {10}^{-2} $ 不过,EEPA-DQN算法计算复杂度与神经网络的层数呈线性关系,且随着维数的增加,计算变得复杂。图4展示了EEPA-DQN算法得到的平均能效比FP、WMMSE、MP和RP分配算法有显著提高。因此,EEPA-DQN算法可有效地最大化系统的能量效率。
NOMA是非正交多址技术,OMA 代表传统的正交多址。当多个用户的信号在相同的信道资源上传输时,NOMA可以实现更高的频谱效率[25]、更大的系统容量和低传输延迟[26]。从图5中可以看出,随着迭代次数的增加,两种多址方案的系统平均能量效率都增加了。NOMA的功率分配与接收端处SIC过程相关,将较高的功率分配给路径损耗较大的用户,提高了用户的速率,使NOMA系统比OMA系统可实现更大的系统平均能量效率,且算法更为稳定。
-
折扣因子是可选择的一个经验值,对于大多数应用而言,增加γ更有利于DQN。本文算法取
$ \gamma = {0, }{0.2}, {0.4}, {0.6}, {0.8} $ ,仿真结果表明,$ \gamma {\text{ = 0}} $ 时能效值明显高于其他值,但考虑到信号传输过程中存在路径损耗,智能体与未来回报之间的相关性相对较少,γ应选取较小的值。图6仿真了不同γ值时,EEPA-DQN训练过程中的下行多小区NOMA系统平均能量效率,随着训练次数的增加,平均能量效率逐渐增加,且在$ \gamma {\text{ = 0}} $ 时达到最高能效。图7仿真了不同γ值在不同小区数时,EEPA-DQN训练过程中的平均能效。仿真实验考虑了小区数C=9, 16, 36, 64的情况,通过图7可知,这4种情况下小区数为9时所能达到的能效最高,目标小区周围的干扰小区数目越多,外围到目标小区距离越大,干扰会越来越小,所以最外围的干扰小区的干扰功率就非常小。最后仿真了不同小区数目的NOMA系统的能效。由式(4)、式(5)可知,随着小区数的增加,如小区数为36、64时,小区间的干扰随之增强,所达到的能效随着小区数量的增加而下降,γ=0时仍能保持较高的能效,从而验证了本文算法在γ=0时有一定的泛化性能。 -
通过实验评估不同学习率对EEPA-DQN算法的影响。图8展示不同学习率下的平均能量效率与训练回合的关系,学习率Ir=0.01, 0.001, 0.000 1这3种情况,平均能效均有上升趋势。当学习率设置为0.000 1时,算法相对于其他两个取值更为稳定,且平均能效可达到最高;当学习率为0.01时,可观察到算法稳定性较差。通过以上分析,EEPA-DQN算法的学习率设置为0.000 1。
Multi-Cell NOMA Energy Efficiency Optimization Power Allocation Algorithm Based on Deep Reinforcement Learning
-
摘要: 在下行多小区非正交多址接入系统中,功率分配是决定系统性能的关键因素之一。由于多小区系统间的功率优化问题的非凸性,获得最优功率分配在求解上非常困难。为此提出了一种基于深度强化学习最大化能效的功率分配算法,将深度Q网络作为动作−状态值函数,将系统能效直接设置为奖励函数,优化信道功率分配,使系统能量效率最大化。仿真结果表明,该算法比加权最小均方误差、分式规划、最大功率和随机功率算法等能够获得更高的系统能量效率,在算法计算复杂度、收敛速度和稳定性方面也有较好表现。Abstract: In a downlink multi-cell non-orthogonal multiple access system, power allocation is one of the key factors to determine system performance. Due to the non-convexity of the power optimization problem among multi-cell systems, it is very difficult to obtain the optimal power allocation. The power allocation algorithm based on deep reinforcement learning is proposed to maximize energy efficiency in this paper, which is simple and efficient. The algorithm takes the deep Q network as the action-state value function, system energy efficiency is directly set as a reward function, which optimizes channel power allocation and maximizes system energy efficiency. The simulation results show that the algorithm of proposed scheme is more effective than the weighted minimum mean square error, fractional programming, maximum power and random power algorithms in achieving higher system energy efficiency. The scheme also has better performances in algorithm calculation complexity, convergence speed and stability.
-
表 1 NOMA无线通信系统参数设置
参数 值 折扣因子 $ \gamma $ 0 经验池大小D 50000 批样本数量N 256 学习率λ 0.0001 初始探索率 $ {\varepsilon _1} $ 0.25 最终探索率 $ {\varepsilon _{{\rm{Ne}}}} $ 0.0001 隐藏层 128(1), 64(2) 回合数M 20000 信道带宽B/Hz 1 每个回合时隙数T 1000 最小发射功率 $ {P_{\min }} $ /dBm5 最大发射功率 $ {P_{\max }} $ /dBm38 最大多普勒频率 $ {f_p} $ /Hz10 电路固定损耗功率 $ {N_0} $ /dBm30 加性高斯白噪声功率 $ {\sigma ^2} $ /dBm−114 表 2 单次执行时间
算法 时间/s EEPA-DQN 9.9 $ \times {10}^{-4} $ FP 1.296 $ \times {10}^{-2} $ WMMSE 1.396 $ \times {10}^{-2} $ MP 1.496 $ \times {10}^{-2} $ RP 1.292 $ \times {10}^{-2} $ -
[1] WANG C L, CHEN J Y, CHEN Y J. Power allocation for a downlink non-orthogonal multiple access system[J]. IEEE Wireless Communications Letters, 2016, 5(5): 532-535. doi: 10.1109/LWC.2016.2598833 [2] ZHANG J Z, TAO X F, WU H C, et al. Deep reinforcement learning for throughput improvement of the uplink grant-free NOMA system[J]. IEEE Internet of Things Journal, 2020, 7(7): 6369-6379. doi: 10.1109/JIOT.2020.2972274 [3] ZHANG Y, WANG H M, ZHENG T X, et al. Energy-efficient transmission design in non-orthogonal multiple access[J]. IEEE Transactions on Vehicular Technology, 2017, 66(3): 2852-2857. doi: 10.1109/TVT.2016.2578949 [4] ZENG M, YADAV A, DOBRE O A, et al. Energy-efficient power allocation for MIMO-NOMA with multiple users in a cluster[J]. IEEE Access, 2018, 6: 5170-5181. doi: 10.1109/ACCESS.2017.2779855 [5] 田心记, 黄玉霞, 李晓静. NOMA系统中最大化能量效率的功率分配[J]. 电子科技大学学报, 2021, 50(1): 1-7. doi: 10.12178/1001-0548.2019232 TIAN X J, HUANG Y X, LI X J. Power allocation with maximizing energy efficiency for NOMA system[J]. Journal of University of Electronic Science and Technology of China, 2021, 50(1): 1-7. doi: 10.12178/1001-0548.2019232 [6] YE H, LI G Y, JUANG B H, et al. Power of deep learning for channel estimation and signal detection in OFDM systems[J]. IEEE Wireless Communications Letters, 2018, 7(1): 114-117. doi: 10.1109/LWC.2017.2757490 [7] JEON Y S, HONG S N, LEE N. Supervised-learning-aided communication framework for MIMO systems with low-resolution ADCs[J]. IEEE Transactions on Vehicular Technology, 2018, 67(8): 7299-7313. doi: 10.1109/TVT.2018.2832845 [8] XUE S Y, MA Y, YI N, et al. Unsupervised deep learning for MU-SIMO joint transmitter and noncoherent receiver design[J]. IEEE Wireless Communications Letters, 2019, 8(1): 177-180. doi: 10.1109/LWC.2018.2865563 [9] SHE C Y, SUN C J, GU Z Y, et al. A tutorial on ultrareliable and low-latency communications in 6G: Integrating domain knowledge into deep learning[J]. Proceedings of the IEEE, 2021, 109(3): 204-246. doi: 10.1109/JPROC.2021.3053601 [10] LIANG W, NG S X, SHI J, et al. Energy efficient transmission in underlay CR-NOMA networks enabled by reinforcement learning[J]. China Communications, 2020, 17(12): 66-79. doi: 10.23919/JCC.2020.12.005 [11] SHI D P, TIAN F, WU S C. Energy efficiency optimization in heterogeneous networks based on deep reinforcement learning[C]//2020 IEEE International Conference on Communications Workshops (ICC Workshops). Dublin: IEEE, 2020: 1-6. [12] FAN H R, ZHU L, YAO C H, et al. Deep reinforcement learning for energy efficiency optimization in wireless networks[C]//2019 IEEE 4th International Conference on Cloud Computing and Big Data Analysis (ICCCBDA). Chengdu: IEEE, 2019: 465-471. [13] WEI Y F, YU F R, SONG M, et al. User scheduling and resource allocation in hetnets with hybrid energy supply: An actor-critic reinforcement learning approach[J]. IEEE Transactions on Wireless Communications, 2018, 17(1): 680-692. doi: 10.1109/TWC.2017.2769644 [14] NASIR Y S, GUO D N. Multi-agent deep reinforcement learning for dynamic power allocation in wireless networks[J]. IEEE Journal on Selected Areas in Communications, 2019, 37(10): 2239-2250. doi: 10.1109/JSAC.2019.2933973 [15] SHI Q J, RAZAVIYAYN M, LUO Z Q, et al. An iteratively weighted mmse approach to distributed sum-utility maximization for a MIMO interfering broadcast channel[J]. IEEE Transactions on Signal Processing, 2011, 59(9): 4331-4340. doi: 10.1109/TSP.2011.2147784 [16] SHEN K M, YU W. Fractional programming for communication systems —part I: Power control and beamfor-ming[J]. IEEE Transactions on Signal Processing, 2018, 66(10): 2616-2630. doi: 10.1109/TSP.2018.2812733 [17] CHIANG M, HANDE P, LAN T, et al. Power control in wireless cellular networks[J]. Foundations and Trends in Networking, 2008, 2(4): 381-533. [18] TAO L W, YANG W W, YAN S H, et al. Covert communication in downlink NOMA systems with random transmit power[J]. IEEE Wireless Communications Letters, 2020, 9(11): 2000-2004. doi: 10.1109/LWC.2020.3011191 [19] SUTTON R S. 强化学习[M]. 北京: 电子工业出版社, 2018. SUTTON R S. Reinforcement learning[M]. Beijing: Publishing House of Electronics Industry, 2018. [20] MENG F, CHEN P, WU L N, et al. Power allocation in multi-user cellular networks: Deep reinforcement learning approaches[J]. IEEE Transactions on Wireless Communications, 2020, 19(10): 6255-6267. doi: 10.1109/TWC.2020.3001736 [21] MENG F, CHEN P, WU L N. Power allocation in multi-user cellular networks with deep Q learning approach[C]//2019 IEEE International Conference on Communications (ICC). Shanghai: IEEE, 2019: 1-6. [22] SUTTON S, BARTO A G. Reinforcement learning: An introduction[M]. Cambridge: MIT Press, 1998. [23] KINGMA D P, BA J L. Adam: A method for stochastic optimization[EB/OL]. [2021-03-23]. https://arxiv.org/abs/1412.69-80. [24] HUANG C W, MO R H, YUEN C. Reconfigurable intelligent surface assisted multiuser MISO systems exploiting deep reinforcement learning[J]. IEEE Journal on Selected Areas in Communications, 2020, 38(8): 1839-1850. doi: 10.1109/JSAC.2020.3000835 [25] SAITO Y, KISHIYAMA Y, BENJEBOUR A, et al. Non-orthogonal multiple access (NOMA) for cellular future radio access[C]//2013 IEEE 77th Vehicular Technology Conference (VTC Spring). [S.l.]: IEEE, 2013: 1-5. [26] WAN D H, WEN M W, JI F, et al. Non-orthogonal multiple access for cooperative communications: challenges, opportunities, and trends[J]. IEEE Wireless Communications, 2018, 25(2): 109-117. doi: 10.1109/MWC.2018.1700134