APP下载

边缘增强H-CRAN中能耗感知的资源分配机制

2022-05-28王焰斌王汝言张普宁

西安电子科技大学学报 2022年2期
关键词:资源分配能耗边缘

吕 翊,王焰斌,张 鸿,王汝言,张普宁

(1.重庆邮电大学 通信与信息工程学院,重庆 400065;2.重庆高校市级光通信与网络重点实验室,重庆 400065;3.泛在感知与互联重庆市重点实验室,重庆 400065)

随着第五代移动通信系统(Fifth Generation Mobile Communication System,5G)正式投入商用,类似于智能手机、平板电脑和手持设备等用户终端(User Terminals,UTs)的数量呈现指数增长趋势[1-2]。在日常生活中,高清视频播放、自然语言处理和交互式游戏等计算资源密集型任务大量涌现,移动边缘计算系统[3-5]被提出用以扩展用户终端的存储和计算能力。虽然移动边缘计算系统能提高智能用户体验质量,但构建支持移动边缘计算(Mobile Edge Computing,MEC)功能的网络基础架构仍具挑战性[6]。云无线接入网(Cloud Radio Access Network,C-RAN)是一种由集中式基带单元(Base Band Units,BBUs)池、远程射频头端(Remote Radio Heads,RRHs)和光纤前传链路构成的绿色接入网[7],通过将用户终端及云中心计算任务卸载到结合MEC的C-RAN中,能有效解决移动边缘计算网络架构难题[8]。这种方式不仅有助于减少端到端时延和节省用户终端的设备能源,还能增强用户终端的隐私和安全性[9]。但是,不相匹配的传统资源分配方式使服务提供商(Service Provider,SP)的能耗成本支出压力与日俱增,而高效的节能效率能为SP带来丰厚的可持续性收益,为此,美国明确提出在2030年前将网络能耗降低25%,英国设定了在2050年前将网络能耗降低50%的目标[10]。

为了解决移动边缘计算系统资源分配失衡和网络能效(Energy Efficiency,EE)低的问题,在文献[11]中,研究者提出了多个带有移动边缘计算的基站协作策略,通过进一步将额外任务卸载到与其连接的移动边缘计算服务器来增强计算卸载服务,能提高用户终端的计算能力并延长电池使用寿命,然而文中并未涉及降低网络能耗成本问题。在文献[12]中,研究者提出了在MEC与C-RNA联合架构下,频谱效率感知的计算卸载和资源分配机制,在卸载时延、有限带宽光前传链路容量和计算资源的约束下,联合优化卸载策略、无线电资源和计算资源,以实现SP利润最大化,但移动边缘计算服务器仅部署于BBU池中,用户终端任务卸载形式单一。在文献[13]中,研究者提出了一种远近计算增强C-RAN架构,优化无线大数据处理的任务分配,部署于BBU池中的移动边缘计算服务器,为用户终端提供大量的计算资源,而部署于RRHs上的移动边缘计算服务器可以快速响应对延迟敏感的应用,但是这种移动边缘计算部署方式没有体现出不同小区的差异性服务需求,增加了移动边缘计算服务器的部署成本。在文献[14]中,研究者提出了一种结合时分复用无源光网络(Time Division Multiplexing-Passive Optical Networks,TDM-PONs)的资源分配策略,其最终目标是在物理条件、资源管理和光前传延时延约束的情况下,实现联合总传输延迟和移动边缘计算部署的成本最小化。在文献[15]中,研究者提出了一种混合云雾无线接入网(Cloud Fog RAN,CF-RAN)架构,该架构借助雾计算在更接近RRHs的本地雾节点中复制C-RAN的基带处理能力,并应用网络功能虚拟化(Network Function Virtualization,NFV)技术形成虚拟化无源光网络(Virtual PONs,VPONs),能有效地按照实际需求处理多余的前传流量负载,但在降低网络阻塞概率方面还有待进一步深入探讨。

综合以上文献可知,虽然由MEC系统与C-RAN组合的网络架构能有效地提高用户终端的带宽体验,但仍存在待解决的问题:① 大规模密集部署的RRHs之间产生的干扰信号占用大量无线资源,并造成额外的干扰信号传输能耗浪费;② 容量有限的光纤前传链路难以适应热点数据和高流量负载,并导致网络阻塞概率增加[16],从而降低用户终端的服务质量(Quality of Service,QoS);③ 移动边缘计算服务器静态部署方式削弱了网络基带处理能力,增加了网络设备部署成本。为了提高网络容量,将H-CRAN架构作为研究对象[17-19],在C-RAN架构的基础上添加了宏基站(Macro Base Station,MBS),通过带有X2/S1接口的回传链路连接MBS与BBU池,能保障与现有蜂窝系统的向后兼容性并提供更广泛的用户终端连接,MBS负责传递控制信号并支持低数据速率服务[20]。此架构能提高移动边缘计算服务器部署的灵活性,增强网络的可扩展性。

为了充分结合MEC系统与H-CRAN架构的优势,笔者提出了一种H-CRAN架构中基于移动边缘计算动态部署的能耗感知资源分配机制(Power consumption aware Resource Allocation Mechanism based on MEC Dynamic Deployment,MDD-PRAM)。根据用户关联吞吐量收益、干扰信道占用能耗成本以及用户终端任务处理能耗成本,制定了服务提供商利润模型。进而,利用稀疏矩阵算法为用户终端筛选优质通信资源,实现网络吞吐量与关联能耗间差值的最大化,再针对用户终端的不同服务请求,在MBS或BBU池中动态部署移动边缘计算服务器,优先选择将时延敏感型的任务卸载到距离RRHs较近且已动态部署移动边缘计算系统的宏基站(MEC-enable MBS,MEC-MBS)上,当用户终端的任务处理量较大时,在BBU池中按需部署移动边缘计算服务器,将任务卸载到已动态部署移动边缘计算系统的集中式基带单元(MEC-enable BBU,MEC-BBU)中,并基于协同计算卸载的启发式算法分配计算资源,以降低网络设备能耗开销。

1 结合MEC的H-CRAN模型

移动边缘计算系统能为附近的用户终端提供分布式计算资源和低时延服务,结合MEC与H-CRAN架构能极大提高用户终端体验质量。由于光前传链路的传输时延和有限的带宽制约,导致延迟敏感性任务和重流量负载应用的服务质量降低。因此,通过在距离RRHs较近的MBS或较远的BBU池中动态部署移动边缘计算服务器,利用移动边缘计算的计算及存储能力处理靠近网络边缘的用户终端任务。首先介绍了结合移动边缘计算系统的H-CRAN网络架构,然后根据用户终端接入网络后产生的用户关联收益和计算资源分配成本,制定收入模型,最后阐明原始问题分解模型。

1.1 网络架构

图1是支持移动边缘计算的H-CRAN架构模型。

在支持移动边缘计算的H-CRAN架构模型中,采用时波分复用无源光网络(Time and Wavelength Division Multiplexing Passive Optical Networks,TWDM-PONs)[21]作为RRHs与集中云的物理连接网络,BBU由集中单元(Central Unit,CU)和分布单元(Distributed Unit,DU)两部分[22]构成。所提模型中的移动边缘计算结构由虚拟化基带单元(Virtualized Based Band Unit,VBBU)和虚拟化移动克隆(Virtualized Mobile Clone,VMC)两部分组成,VBBU和VMC均可以在虚拟机中利用NFV技术实现相应功能[23]。不同于已有文献[24]集成C-RAN与MEC系统,并在移动边缘计算服务器中联合分配通信资源和计算资源,考虑在网络资源有限的情况下,该异构网络模型依据用户终端的实际需求,在MBS或BBU池内部形成移动边缘计算服务器,以此方式扩展网络为用户终端提供弹性化边缘计算服务能力。

RRHs与用户终端之间采用多输入多输出(Multiple Input Multiple Output,MIMO)天线系统。具体地,RRHs与用户终端配备多根收发天线,二者以频分复用的方式传递无线信号,用户终端将特定的编码信号传送至接收端,RRHs端的多组天线解码接收信号。传统的协作多点传输(Coordinated Multipoint Transmission,CoMP)[25-26]技术本质上也是一种MIMO系统,二者的区别在于CoMP系统依靠协作RRHs集对用户终端进行协作信号传输,相同点在于均能有效降低来自其他用户终端的同频干扰。MBS具有全局资源控制功能,用于均衡密集RRHs中的网络流量负载。在RRHs分配频谱资源时,用户终端根据RRHs的可接入范围和自身的信道质量要求确定任务卸载决策。由于传统移动边缘计算服务器固定独自占用用户终端需求最大化时的网络资源,这造成任务处理量少的移动边缘计算的计算资源和设备能耗浪费,而数据流量过载的移动边缘计算服务器得不到满足,因此,根据MEC-MBS上的流量负载和TWDM-PON波长资源的动态变化状态,适时地将用户终端的任务进一步卸载到MEC-BBUs中,从而实现所提架构的计算处理能力升级。

图1 支持移动边缘计算的H-CRAN架构模型

1.2 SP收益模型

通常情况下,计算密集型任务卸载会促使服务提供商成本增加,甚至会造成干扰信号较多的无线信道产生长传输时延,从而导致用户终端的服务质量严重恶化。在网络资源充足时,只要能保障用户终端的服务质量,且服务提供商的总吞吐量收益不小于能耗成本,则允许用户终端将自身任务卸载到移动边缘计算服务器中。因此,考虑在带有移动边缘计算的H-CRAN网络资源有限的情况下,多个用户终端竞争任务卸载,服务提供商利用有限的资源使其利润得以增长。定义由RRHk所构成的集合为K={1,2,…,K},由UTn所构成的集合为N={1,2,…,N},因为MBS具备BBU池基带处理功能,故合并MEC-MBS1和MEC-BBUb的集合,其合并集合为B={1,2,…,B},MEC-MBS1是集合B中的第一个元素,即BMBS={1},而由MEC-BBUb所构成的集合为BBBU={2,…,B}。hn,k表示UTn与RRHk间的关联信道增益,则用户关联吞吐量为

(1)

其中,Bn,k为信道带宽,σ2为噪声功率值,pn,k为UTn与RRHk间的关联传输功率。UTn发送到RRHk的计算资源请求量为

Lk=θlog(1+rn)+Lφ,

(2)

其中,θ为信道带宽参数,rn表示UTn的信号与干扰加噪声之比,由于在计算资源分配过程中,快速傅里叶变换函数具有恒定的计算需求,故引入快速傅里叶变换函数的恒定计算需求量Lφ[27]。

在网络资源能满足用户终端的资源需求时,假设网络中的剩余VPON波长资源量Cvpon等于BBU池中移动边缘计算服务器总的任务数据处理量,即

(3)

在移动边缘计算增强的H-CRAN中,大量的用户终端接入到密集部署的RRHs上,将直接导致服务提供商能耗成本的急剧增加。该部分成本主要有两个方面,其中一部分来自MBS对密集用户关联矩阵进行繁重取逆运算时所产生的能耗成本,另一部分来自处理用户终端任务数据时的设备功率成本。因此,定义服务提供商利润函数为

(4)

maxΨsp。

RRHk将计算任务卸载到MBS上构成的RRHs集合为RMBS={1,2,…,R},而卸载到BBU池中的RRHs集合为RBBU={R+1,R+2,…,K}。假设每对关联UTn与RRHk均有J根天线,其收发天线集合J={1,2,…,J},为确保有限的通信和计算资源满足UTs的QoS要求,能耗感知的资源分配约束表达式如下:

(5)

(6)

(7)

(8)

λn,k∈{0,1}, ∀n∈N, ∀k∈K,

(9)

(10)

(11)

(12)

(13)

1.3 问题分解模型

(14)

(15)

网络吞吐量和用户关联能耗联合优化子问题的目标函数为

maxψ1。

(16)

约束条件如下:

(17)

(18)

(19)

(20)

(21)

λn,k∈{0,1}, ∀n∈N, ∀k∈K,

(22)

计算资源优化子问题的目标函数为

minψ2。

(23)

约束条件如下:

(24)

(25)

(26)

μk,b∈{0,1}, ∀k∈K, ∀b∈B,

(27)

(28)

2 能耗感知的通信和计算资源分配机制

在支持移动边缘计算的H-CRAN架构中,既要满足用户终端的服务质量条件,又要合理地优化网络资源分配情况,以维持服务提供商的正常运营状态。笔者提出通信资源优化和移动边缘计算资源优化机制,其包含两个算法:通信资源分配算法和计算资源分配算法,使更多的用户终端接入到网络,以促进服务提供商获得吞吐量收益,并通过降低基带处理和网络设备能耗方式节省服务提供商成本支出。

2.1 通信资源分配算法

现实情境中,城市环境里的信号传输具有大规模衰落特性,对于一些UTs与RRHs之间产生不影响用户服务质量的小干扰信号,忽略不计。笔者所提网络系统,基带处理能力的提升将直接影响系统的整体功耗,这使提高EE成为刻不容缓的问题。RRHs与UTs之间采用MIMO技术连接,信道矩阵的非零元素数量取决于活跃RRHs和用户终端的数量,集中式BBU池在波束成形时需进行大量的矩阵逆运算,这导致能耗成本增加。与此同时,大量的用户终端接入到密集部署的RRHs上,这使计算复杂度较高。因此,笔者提出基于优质无线资源保留的用户关联算法,它将原始信道矩阵从MBS和RRHs的地理分布特征转换为稀疏矩阵,降低了矩阵求逆运算的复杂度,进而降低关联能耗成本。

(29)

(30)

信道矩阵H取逆后,由得到的波束成形矩阵G,可知实际的用户传输矩阵为

X=GU,

(31)

其中,U为用户矩阵。在满足基本约束条件下,最大化目标函数式(16),笔者所提稀疏矩阵用户关联算法的伪代码如算法1所示。

算法1稀疏矩阵用户关联算法。

输入:用户终端的任务及其速率等要求,RRHs的服务半径dk。

① 首先初始化无线资源最低SINR阈值ω,信道矩阵H

② forn∈Ndo

③ fork∈Kdo

④ if约束式(17)、(18)、(19)和(20)成立then

⑥ end if

⑨ end if

在上述过程中,尽管关闭干扰信号较大的传输信道会导致小区域RRHs吞吐量降低,但从整个网络来看,保留了优质的无线传输信道,RRHs密集部署会产生接入能力增强的效果[10],所以网络的总吞吐量是增加的,又因减少了干扰信号所产生的能耗,故所提机制在节省能耗方面是可观的,且能为用户终端提供高质量的网络服务。

2.2 计算资源分配算法

在MEC-MBS1或MEC-BBUb处理任务时,需要UTn的配置文件,主要用于计算和缓存UTn的任务数据。假设位于同一MEC服务范围内的若干用户终端均具有类似的任务卸载能力,这些用户终端在执行完全相同的应用程序或类似的计算任务时,能有效地提高缓存效率,并节省存储空间。一般而言,UTn从互联网中获取任务,这些数据经回传链路从核心网络传输到BBU池或MBS中,然后通过RRHk发送给UTn。为了最小化子问题二的目标函数,提出了一种协同计算卸载的启发式算法,以降低网络设备能耗。

(32)

同理,每个MEC-BBUb计算资源处理量为

(33)

又由于b∈B-{1}={2,…,B},故有MEC-BBUs全部计算资源处理量为

(34)

因此,所提架构中MEC总基带处理量为

(35)

根据用户终端的实际计算任务请求量,动态地在MBS或BBU池中生成移动边缘计算。采用充分利用移动边缘计算服务器计算能力的方式,降低网络设备能耗。因此,设计了如下计算资源分配算法。

算法2基于协同计算卸载的启发式算法。

② fork∈Kdo

③ for MEC-MBS1do

⑤ 将RRHk任务卸载至MEC-MBS1,RRHk添加到集合RMBS={1,2,…,R}中

⑥ end if

⑦ end for

⑧ if约束式(24)成立 then

⑨β1=1; elseβ1=0

3 仿真分析

使用Matlab R2016a仿真平台对所提MDD-PRAM算法进行性能评估,并与文献[11]提出的协同计算卸载(Cooperations Computing Offloading,CCO)算法、文献[15]提出的云优先雾最少波长维数启发式(Cloud First Fog Least Wavelength Dimensioning Heuristic,CF-FL WDH)算法以及文献[21]提出的联合计算资源分配(Joint Computing Resource Allocation,JCRA)算法作对比。CCO算法将用户任务调度到多个静态部署的移动边缘计算服务器中,以减轻原始移动边缘计算服务器的重任务负荷。CF-FL WDH算法优先考虑将用户任务卸载到集中云中处理,再分配雾节点支持流量传输所需的波长资源,进而降低网络流量负载压力。JCRA算法将用户计算敏感型任务卸载至移动云无线接入网络中,以保障服务质量并降低网络能耗。主要仿真参数设置如表1所示。

表1 仿真参数设置

3.1 不同用户数量下的性能分析

图2为不同UTs数量下4种算法的网络能耗变化趋势图。随着用户终端数量逐渐从20个递增到110个的过程中,网络能耗逐渐升高。JCRA算法能满足用户终端的服务质量,但网络设备利用率不足,CF-FL WDH算法的用户任务协作处理能力弱,致使设备能耗较高,此两种算法的网络能耗相近。CCO算法在分配频谱资源时损失较多能耗,但移动边缘计算协同计算卸载策略使网络能耗在一定程度上降低。与上述3种算法相比,笔者所提MDD-PRAM算法在用户关联阶段和任务卸载阶段均采取节能措施,所以MDD-PRAM算法具有最节省能耗的特点,并且接入UTs数量越多时,MDD-PRAM算法的节能效果越显著。

图3为不同UTs数量下4种算法的网络吞吐量变化趋势图。显然,网络吞吐量随着用户终端任务卸载量增加而呈现出单调递减趋势,当移动边缘计算服务器接近饱和时,吞吐量变化趋势逐渐平稳。在网络设备利用率达到80%以上时,MDD-PRAM算法与CCO算法相比,吞吐量提升了大约13.5%,而与CF-FL WDH算法和JCRA算法相比,网络吞吐量分别提高了24.96%和32.32%左右,可知MDD-PRAM算法具有最高的网络吞吐量性能,其主要原因为:该算法在分配频谱资源时,剔除了信道干扰噪声较大的信号传输信道,仅保留符合UTs的服务质量要求的优质信号传输信道。

图2 不同UTs数量下的网络能耗

3.2 不同时刻下的性能分析

为了清晰地观察4种算法在小规模网络场景中的对比情况,给出了12个时刻下的变化趋势图。从图4可知,从9时到15时,随着业务流量逐渐增多,网络能耗逐渐增加;从15时到21时,随着业务流量逐渐减少,网络能耗逐渐减小,业务流量与网络能耗呈正相关关系。CF-FL WDH算法仅考虑当云中资源耗尽时,在距离用户终端近的雾节点中处理任务数据,造成了设备资源浪费,故4种算法中,CF-FL WDH算法的节能效果最劣,其次是JCRA算法。在不同时刻,随机任务从用户终端端传递到网络端,由于MDD-PRAM算法节省了处理干扰信号时产生的能耗浪费,并提高MEC服务器的设备资源利用率,与CCO算法相比平均节省了大约35%的能耗,具有最优的节能效果。

图4 不同时刻下的网络能耗图

图5反映了网络吞吐量在12个时刻下的变化情况。不同时刻,100个用户终端的业务流量随机到达,但显然可知,从9时到21时,所提MDD-PRAM算法具有最优的网络吞吐量性能,主要原因是,当用户终端的服务质量要求较高时,MDD-PRAM算法能有效节省传输干扰信号时的频谱资源浪费,保证更多的频谱资源用于传输用户终端的业务流量。CCO算法具有次优的网络吞吐量传输性能,而CF-FL WDH算法和JCRA算法的吞吐量性能相近且较劣。

3.3 不同算法的阻塞概率比较

不同业务流量对前传链路阻塞概率的影响如图6所示。

图6 不同业务流量对阻塞概率的影响

随着用户终端上传至网络的业务流量增多,光网络阻塞概率逐渐递增。由于CCO算法和JCRA算法并无有效的前传链路流量控制机制,所以这两种算法没有体现出良好的降低光网络阻塞概率的效果。而CF-FL算法,考虑了在离用户终端近的RRH上形成MEC功能,能在一定程度上减轻前传负载,然而该算法是优先考虑将任务卸载至云中处理,故降低阻塞概率效果不是最佳的。

笔者所提MDD-PRAM算法优先考虑将任务卸载至MEC-MBS中处理,再进一步考虑将任务卸载至MEC-BBU中处理,这种策略能有效减轻光前传链路的流量负载。对于大流量任务而言,网络阻塞概率一定程度地影响着用户终端请求网络资源的意愿,MDD-PRAM算法能使光网络的阻塞概率处于合理范围,当网络阻塞概率不影响用户服务质量时,服务提供商能够获得相对恒定的用户终端接入量,使服务提供商收益稳定性更佳。

4 结束语

笔者提出了一种带有移动边缘计算的能耗感知H-CRAN架构,通过建立服务提供商收益模型,在满足各约束条件下,以牺牲局部用户终端收益为代价,从整体上获得最大化运营商利润。为了降低收益函数的计算复杂度,将原始问题分解为两个子问题。一方面,提出了一种基于稀疏矩阵波束成形算法,以节省用户关联能耗,并通过通信资源分配提高网络吞吐量;另一方面,基于协同计算卸载的计算资源分配算法确定卸载决策,减少计算设备能耗。仿真结果表明,所提方案不仅能增加运营商利润,还能降低光纤前传链路的阻塞概率,以提高用户服务质量。

猜你喜欢

资源分配能耗边缘
EnMS在航空发动机试验能耗控制中的应用实践
探讨如何设计零能耗住宅
水下飞起滑翔机
日本先进的“零能耗住宅”
基于动态规划理论的特种设备检验资源分配研究
基于动态规划理论的特种设备检验资源分配研究
云环境下公平性优化的资源分配方法
一张图看懂边缘计算
TDMA无线网络中视频动态传输方法
在边缘寻找自我