APP下载

异构蜂窝网络中分层任务卸载:建模与优化

2020-05-11赵临东庄文芹陈建新周亮

通信学报 2020年4期
关键词:计算资源时延边缘

赵临东,庄文芹,陈建新,周亮

(1.南京邮电大学通信与网络技术国家工程研究中心,江苏 南京 210003;2.南京邮电大学宽带无线通信与传感网技术教育部重点实验室,江苏 南京 210003)

1 引言

随着第五代移动通信技术(5G,the fifth generation)的应用,触觉互联网等新型多媒体服务和自动驾驶等人工智能应用将成为移动用户的热门选择[1-2]。这些应用无一例外地需要庞大的计算资源来对数据进行实时处理,且往往对时延有着十分苛刻的要求。然而,在物理尺寸受限的情况下,仅具备有限计算能力和电池容量的移动设备如何承载这些计算密集型任务是一个不小的挑战[3]。为了解决计算密集型应用和资源受限的移动设备之间的矛盾,任务卸载作为一种极具前景的解决方案应运而生。通过将任务卸载给计算能力更强大和电量更充足的节点处理,移动用户可以在现有硬件条件下享受更多新兴服务[4]。

在任务卸载这一研究方向下,移动边缘计算(MEC,mobile edge computing)这一5G 新兴卸载模式因进一步减少了卸载时延而得到业界的广泛关注[5]。与传统云计算将计算资源配置在远离用户的远端云不同,MEC 在更加靠近用户的基站侧即可实时处理数据,可以避免核心网传输的额外时延以及高峰期网络拥塞等不利影响[6]。然而,尽管MEC通过将计算资源下沉获得了时延方面的优势,该技术仍不可避免地受到上行通信带来的额外时延和能耗的制约[7]。尤其是考虑到任务卸载时上行流量远大于下行流量这一显著特点,如何设计高效的卸载调度方案以提升能量效率[8-10]或削减端到端时延[12-14]或实现二者的联合优化[15-19],已成为MEC 研究的一大热点。

为了进一步提高任务卸载的效率,有研究者提出引入基于终端直通(D2D,device-to-device)技术的卸载模式作为MEC 的有效补充[20]。该类方案又可称为D2D 计算卸载,其基本原理是利用移动设备间可用计算资源的强度异构性和运行时间异步性,将计算任务通过传输效率更高的D2D 链路传送给当前计算资源闲置的邻近设备处理[21]。得益于设备间计算资源的合作共享和D2D 通信的复用增益等优势,MEC 和D2D 的结合带给移动用户更多符合自身需求的卸载选择,并进一步提高了任务卸载的能量效率和网络资源利用率[22]。

目前,围绕MEC 结合D2D 的任务卸载方案已得到了一定研究[23-26]。文献[23]将任务分割为3 份,分别交给边缘节点、D2D 合作设备和本机同时处理,并以系统承载人数为目标优化任务分割。文献[24]考虑设备移动性,为车联网设计了D2D-MEC任务卸载系统,并借助增强学习的手段实现卸载时延和能耗的联合优化。文献[25]则针对无线网络的随机性为D2D-MEC 任务卸载系统设计了一种基于李雅普诺夫优化的能量效率优化方案。文献[26]提出了一种本地计算、D2D 卸载和边缘计算三选一的任务卸载系统,并重点研究了蜂窝上行通信拥塞和D2D 复用干扰对卸载决策的影响。

尽管现有的MEC 结合D2D 计算卸载的方案已取得不俗成效,但其仍在以下三方面存在着不足。第一,设备间通信资源的强度异构性和运行时间异步性没有得到利用。第二,现有方案往往假设边缘服务器给每个用户提供固定的计算资源而不设接入数量上限,忽略了用户对有限边缘计算资源的竞争带给任务卸载性能的影响。第三,现有方案往往忽略云计算在任务卸载系统中的作用,或假设边缘服务器具有和远端云对等的计算能力[23-26]。在实际边缘计算资源受限的情况下,存在额外往返时延但计算资源更充足的云计算仍然可以起到分流卸载用户和缓解边缘负担的作用。

针对上述问题,本文提出了一种基于D2D 通信、MEC 和云计算的三层任务卸载框架。在所提框架下,用户自低到高依次具有设备层(本地设备和D2D 合作设备)、边缘层(边缘服务器)和云层(云计算中心)3 个卸载层级可选。层级越高的卸载模式具有越丰富的计算资源,而将任务卸载到更高层级处理所付出的传输成本也更高。除了构建上述分层卸载理念之外,所提框架还引入了D2D 协作中继技术用于辅助用户接入更高卸载层级,以使设备间通信资源的强度异构性和运行时间异步性得到开发。本文通过考虑资源受限、复用干扰和回程时延等实际因素的影响,对所提框架中具有异构设备能力和需求的用户的卸载决策进行合理调度,任务卸载效率和网络资源利用率得到显著提高。

本文主要贡献概括如下。

1)为了最大化任务卸载可用的计算和通信资源并提高任务卸载的效率,本文提出了一种基于D2D通信、MEC 和云计算的三层任务卸载框架,并引入D2D 协作中继技术辅助用户接入远端计算资源。

2)针对所提出的三层任务卸载框架,本文兼顾上行通信拥塞、D2D 复用干扰、边缘计算资源受限和云计算回程时延等实际因素的影响,为多用户场景设计了一种基于博弈论的卸载调度和负载均衡方案。

3)通过设置仿真实验与其他计算卸载方案对比,所提方案可以有效降低端到端时延和卸载能耗,并在面对边缘计算资源减少和接入用户增多的不利情况下也保持良好的稳定性能。

2 系统模型

本节将给出结合D2D 通信、MEC 和云计算所设计的三层任务卸载框架的系统模型,并借助多用户任务卸载示意(如图1 所示)和单用户各卸载模式示意(如图2 所示),详细说明所提框架的工作原理和各环节技术细节。

图1 三层框架下多用户任务卸载示意

假设在一个基站覆盖范围下有若干移动设备同时配有蜂窝接口和D2D 接口,其中具有计算密集型任务亟待处理的移动设备是所提框架的目标用户(如图1 中的终端1、终端2、终端4 和终端6),而CPU 负载较低或信道质量较好的设备(如图1中的终端3 和终端5)则是目标用户潜在的D2D 合作设备。假设每个目标用户都有一个不重复的备选合作设备,能够为其提供中继和计算卸载服务。基站侧配有计算资源有限的边缘服务器,可以处理移动设备通过蜂窝上行传来的任务,同时可以通过核心网将用户任务卸载到计算资源充足的远端云。

每个用户可自由选择任务卸载的模式,共有6种模式,分别介绍如下。模式1 为本地计算,即用本机CPU 处理任务(如图1 终端6);模式2 为边缘计算,即通过蜂窝上行将任务卸载给基站侧边缘服务器(如图1 终端1);模式3 为云计算,即通过蜂窝上行和核心网将任务卸载给远端云(如图1终端1);模式4 为D2D 卸载,即通过D2D 链路将任务交由合作设备处理(如图1 终端4);模式5 为 D2D 辅助边缘计算,即通过合作设备的D2D中继接入基站,再将任务卸载给基站侧边缘服务器(如图1 终端2);模式6 为D2D 辅助云计算,即通过合作设备的D2D 中继接入基站,再将任务卸载给远端云(如图1 终端2)。定义N={1,2,…,N}为N个目标用户的集合,i∈N 表示集合中某一用户,di为与用户i配对的D2D 合作设备,集合S={1,2,3,4,5,6}为所有用户备选的策略集,ai∈S为用户i所选决策,ai的值对应用户i选择的卸载模式编号。用户i选择不同卸载模式对应的任务卸载路径、时延来源和能耗来源等,如图2 所示。接下来将给出具体的参数设定,并结合图2 详细阐述这6 种卸载模式的技术细节。

2.1 本地计算模式

图2 三层框架下单用户各卸载模式示意

当ai=1时,用户i在本地独立处理计算任务。从图2 可以看出,模式1 对应的时延为本地CPU计算耗时,能耗为本地CPU 计算耗电。用户i的计算任务可由三元组描述,其中,λi表示任务卸载时本地设备需向外传输的数据量,μi表示任务处理完成后由外部节点传回的数据量,ψi表示处理该任务所需的机器语言指令数,表示用户i本机CPU 的计算速度,ωi表示用户i当前可用计算资源的总占比,则用户i在本地计算模式下的总时延可以表示为

用户i在本地计算模式下的总能耗表示为

考虑到时延和能耗都是任务卸载所重点关注的指标,并且不同用户对二者的重视程度和要求会有所不同,本文定义任一卸载模式下任务处理时延和能耗的加权和为用户选择该模式的开销。用户i本地计算模式下的开销为

2.2 边缘计算模式

当ai=2时,用户i经蜂窝上行将任务卸载给基站侧边缘服务器。在时延方面,参照文献[23]的假设,本文考虑所有用户处在准静态信道状态下,即所有蜂窝链路和D2D 链路的信道增益在一个计算任务周期内保持不变,仅在进入下一个周期时发生变化;假设蜂窝通信和D2D 通信使用不同的频段,因此不考虑彼此干扰对传播时延的影响;由于任务处理后的计算结果相对输入数据规模较小而蜂窝下行速率较高,因此忽略计算结果传回的时延;由于边缘服务器就近部署在基站侧并与基站以有线方式连接,因此忽略任务从基站接入边缘服务器的耗时;但考虑到边缘服务器的计算资源有限,其计算耗时不可忽略。在能耗方面,由于蜂窝下行时延可忽略且移动设备接收功率较小,因此忽略用户接收计算结果的能耗。

从图2 可以看出,模式2 对应的时延为蜂窝上行的无线传播时延和边缘服务器计算耗时,能耗为用户设备无线接口发射耗电。用户i的蜂窝上行传输速率Ri,cell(a)可以表示为

其中,a=(a1,a2,…,aN)为集合N 中每个用户所选决策组成的决策向量;Y(A)为一指示函数,当A为真时函数值为1,反之为0;ϖ0为传输背景噪声功率;B1为蜂窝上行带宽;Hi,cell为用户i与基站间蜂窝上行信道增益;Pi,cell为用户i的蜂窝上行发射功率。需要说明的是,本文主要研究资源受限条件下的多用户接入竞争问题,并着重考虑过量用户无序竞争带来的网络拥塞效应对卸载性能的影响。因此参考文献[28]的假设,在频谱分配处额外引入参与用户数的非线性项,以反映通信拥塞的边际效应递增这一特性,β1为控制蜂窝上行网络拥塞效应强弱的系数。该模型可用于对基于时分多址(TDMA,time division multiple access)或正交频分多址(OFDMA,orthogonal frequency division multiple access)的带宽共享机制进行建模。

考虑到边缘服务器的计算能力有限,根据文献[11],定义多用户参与下边缘服务器的计算耗时为

其中,F表示边缘服务器可用CPU 转速。需要说明的是,描述边缘服务器计算能力受限的主流模型共有2 种,一种是硬性设置边缘云的任务负载上限;另一种是假设计算资源均分给用户,边缘服务器计算时延将随过量接入增大[11]。本文为反映多用户对计算资源的竞争而使用了后一种假设。

综上,用户i在边缘计算模式下的总时延表示为

用户i在边缘计算模式下的总能耗表示为

用户i边缘计算模式下的开销为

2.3 云计算模式

当ai=3时,用户i经蜂窝上行将计算任务传给基站,再经核心网卸载给远端云。如图2 所示,模式3 的时延除了上行无线传播时延外,主要为回程时延、排队时延、核心网传输时延等核心网相关参数。为了简化分析,本文假设每个用户的计算任务和计算结果通过核心网带来的时延总和均为定值tcore,这一参数可以由当前时段历史平均时延表示或通过分析近期网络时延动态预测得到。考虑到远端云的计算资源较充足,故忽略其计算耗时。

由此,用户i在云计算模式下的总时延可以表示为

用户i在云计算模式下的总能耗与边缘计算模式能耗相同,即,其在云计算模式下的开销为

2.4 D2D 卸载模式

当ai=4时,用户i将任务卸载给D2D 合作设备。如图2 所示,模式4 对应的时延为D2D 链路无线传播时延以及合作设备CPU 计算耗时。由于D2D 回传链路也受拥塞影响,传输速率较蜂窝下行更低,因此尽管计算结果数据量较小,仍不可忽略其回传时延。

由此,用户i与其合作设备的D2D 链路传输速率为

其中,B2是模式4 下D2D 链路的可用带宽,是用户i与其合作设备间D2D 信道增益,是用户i进行D2D 通信的功率。为了简化分析,这里假设用户i的合作设备di的D2D 发射功率也为,故既是用户i进行D2D 通信的发送速率,也是接收速率。本文出于公平性的考虑,假设模式4 中D2D 链路与模式5 和模式6 中D2D 协作通信使用不同的频段。这是由于D2D 协作通信时用户及其合作设备均处于发射状态,较模式4 带来的网络拥塞效应更强。此外,为研究过量用户无序竞争带来的网络拥塞效应对卸载性能的影响,本文同样参考文献[28]在频谱分配时额外加入参与用户数的非线性项,β2为反映D2D 通信网络拥塞效应强弱的系数。

用户i的合作设备di的CPU 计算速度用表示,则用户i在D2D 卸载模式下的总时延可以表示为

合作设备di的CPU 每执行一机器语言指令所消耗能量用表示,用户i在D2D 卸载模式下的总能耗为

此处合作设备的能耗也被计入用户在模式4 下的总能耗。这是因为合作设备通常也是能量受限的,其能耗往往以报酬形式在激励机制中有所体现,使用户在请求D2D 协作时不得不计入这一成本。为了简化分析,本文不再展开相关议价细则,而是以一比一的转化关系将合作设备能耗计入用户总能耗。

综上,用户i在D2D 卸载模式下的总开销为

2.5 D2D 辅助边缘计算模式

当ai=5时,用户i经合作设备中继与基站连接,再将任务卸载给基站侧边缘服务器。如图2 所示,模式5 的时延包括中继链路时延和边缘服务器计算耗时,能耗为用户及其合作设备无线接口通信耗电。为了简化分析,本文考虑模式5 和模式6 的D2D 中继采用译码重传(DF,decode-and-forward)模式。参考文献[29],协作通信可实现的传输速率表示为

其中,B3表示DF 中继的可用带宽,ξi,di表示合作设备di在DF 中继模式下收到用户i信号的信干噪比,ξi,cell和ξdi,cell分别表示基站在DF 中继模式下收到用户i及其合作设备信号的信干噪比,和分别表示用户i及其合作设备在DF 中继模式下的发射功率,β3为D2D 中继网络拥塞效应强弱的系数。

由此,用户i在D2D 辅助边缘计算模式下的总时延表示为

用户i在D2D 辅助边缘计算模式下的总能耗表示为

用户i在D2D 辅助边缘计算模式下的总开销为

2.6 D2D 辅助云计算模式

当ai=6时,用户i经合作设备中继与基站连接,再经核心网将任务卸载给远端云。如图2 所示,模式6 的时延包括D2D 协作中继链路时延和核心网传输相关时延,能耗为用户及其合作设备无线接口通信耗电。

用户i在D2D 辅助云计算模式下的总时延表示为

用户i在D2D 辅助边缘计算模式下的总能耗与模式5 能耗相同,即,其在D2D 辅助云计算模式下的开销为

由上述分析可以看出,本文框架下不同用户的决策之间存在耦合关系,过多用户选择相同的卸载路径不利于提高任务卸载性能。因此,网络运营者有必要为多用户参与的情况设计卸载调度方案,以起到优化系统效率和实现负载均衡的效果。

3 三层框架下多用户任务卸载方案

本节基于上述系统模型为所提框架设计了一个基于博弈论的多用户任务卸载方案。考虑到所提框架下所有用户均希望最小化自身开销,而不同用户设备性能、所运行应用和对时延能耗的敏感程度不同,基于最优化的方案得到的全局最优或次优调度结果往往建立在牺牲部分用户的基础上。本节旨在寻求一个兼具公平性和效率的帕累托最优调度结果,因此使用博弈论设计卸载方案。

这里首先给出博弈论中最优决策的定义。假设a-i=(a1,…,ai-1,ai+1,…,aN)为用户i以外的其他用户所选决策组成的向量。约定俗成地,给定向量a-i,用户i的最优决策将最大化自身收益。考虑到所提框架下的理性决策人以最小化自身开销为目标,故将用户的收益函数定义为开销值的相反数,进而可将最优决策表示为

其中,Ui(ai,a-i)是用户i的收益函数。根据式(3)、式(8)、式(10)、式(14)、式(18)、式(20),可得Ui(ai,a-i)表达式为

用户能否取得最优策略对于本文所提计算卸载框架具有重要意义。从用户角度来看,最优策略保证了决策的个人理性,即用户不会主动选择有损计算卸载效果的模式;从网络运营者角度来看,最优策略保证了空闲网络资源能够得到充分使用,提高了用户购买云/边缘计算服务的积极性。因此,有别于传统的计算卸载或无线接入方案(如文献[11,23]),所提方案需要保证用户选择最优决策,从而不会拒绝调度结果(如拒绝使用云/边缘计算服务,而选择本地计算)。

基于上述分析,三层框架下各用户有关计算卸载模式的决策问题可以建模为博弈Ω={N,ΦN,Ui},相关要素描述如下。

3)当污水流速为0.15 m/s,堵塞换热系数约685 W/m2·K,当污水流速增大到0.2 m/s,换热系数约850 W/m2·K,增大了约24%.而污水速度增大到0.25 m/s时,堵塞换热系数仅提高7%.

1)集合N 为博弈Ω的玩家集合,即三层框架下的用户集合。

2)ΦN={(ai)i∈N:ai∈S,∀i∈N}为博弈Ω中每个玩家可选的策略空间。

3)博弈Ω中玩家i的收益函数Ui如式(22)所示。

4)博弈Ω中玩家i的最优反应策略如式(21)所示。

首先,假设博弈过程在基站控制下进行,而基站可以通过反馈的方式了解到各用户及其合作设备的信道状况、CPU 性能、任务属性、当前决策等相关信息。因此,可以认为在博弈Ω中的玩家将依次做出决策(即每一步有且仅有一个玩家行动),且任一玩家可以知道之前每一步何玩家做出了何种决策,即博弈Ω为一完美信息序贯博弈。本节将说明博弈Ω不在基站集中求解时,如何保证其为完美信息序贯博弈。

下面给出博弈论中纳什均衡的定义,通过求解博弈Ω的纳什均衡,可以得到符合上述要求的调度结果。

定义1博弈Ω的纳什均衡是一个决策向量aNE,当博弈中的各玩家决策按此分布时,没有玩家可以通过单方面改变自身决策来提高自身收益。或者说,aNE满足对每一玩家i,是i针对其他N-1 个玩家所选策略a-i的最优反应策略,即

考虑到策略空间离散且有限的完美信息序贯博弈必然存在纳什均衡,因此博弈Ω的纳什均衡存在且能够由本地搜索算法迭代有限步逼近得到[26,30]。接下来具体分析当单个用户的6 种卸载模式之一分别作为最优决策时需要满足的条件。

其中,定常数c1由式(3)得到,其余定常数表示如下:

由于博弈Ω为一策略空间有限且离散的完美信息序贯博弈,在确定某玩家的最优决策时,其他玩家的决策可被视为定常值(完备的全局信息已知)。比较该玩家不同决策对应的收益函数值大小,便可通过有限次排序得到结果。由此整理式(21)、式(22)、式(24),可得到如下结论。

1)ai=6是玩家i当前最优决策的条件表示为

2)ai=5是玩家i当前最佳决策的条件表示为

3)ai=4是玩家i当前最佳决策的条件表示为

4)ai=3是玩家i当前最佳决策的条件表示为

5)ai=2是玩家i当前最佳决策的条件表示为

由此,可以改写博弈Ω中玩家的最优决策式(21)为

通过上述分析可以看出,单个玩家在任一次决策更新时用到的定常数只在系统初始化时计算一次并存储即可。该玩家只需知道当前公开的决策向量便可由式(30)更新得到该步最优策略。通过使用最优决策响应求解式(23)所示的纳什均衡,为本文框架设计了一种多用户任务卸载方案,如算法1 所示。

算法1三层框架下多用户任务卸载方案

输入背景噪声ϖ0,边缘计算能力F,核心网时延tcore,各用户计算任务Ti,权重;本地设备计算相关参数;D2D 合作设备计算相关参数;蜂窝通信相关参数B1,Hi,cell,Pi,cell;D2D 通信相关参数;协作中继相关参数

输出达到纳什均衡的决策向量

算法1 可分为系统初始化和纳什均衡拟合2 个阶段。拟合阶段中,系统决策向量通过迭代更新,该过程又可分为两步,第一步为玩家根据当前公开的决策向量计算传输速率和计算耗时,第二步则根据第一步计算结果判断是否需要更新卸载模式。当没有玩家更新自身决策时,系统达到稳态,即取得纳什均衡。

4 仿真结果

本节通过仿真分析评估所提出的任务卸载框架和多用户卸载方案的性能。具体仿真环境设置如下。

假设有N个用户随机分布在边长为200 m的正方形小区中,基站部署在小区的中心位置,用户的合作设备在距其1~50 m 随机均匀分布。用户计算任务输入数据大小λi在50~500 KB 随机均匀分布,输出数据规模μi为输入的,平均每比特所需机器语言指令数在[50,1 000]随机均匀分布,用户设备计算能力在{1.0,1.1,…,2.0}等概率取值,单位为GIPS(giga instruction per second)。用户及其合作设备CPU 每指令耗电在[0,20]×10-11J/指令随机均匀分布[11]。用户可用计算资源占比ωi在[0.75,1]随机均匀分布,用户决策时对时延的敏感程度在{0,0.5,1}等概率取值。合作设备计算能力为2 GIPS,默认边缘服务器可用计算能力F为40 GIPS,核心网往返时延为500 ms。设置蜂窝链路和D2D 链路的信道增益为,其中li,j为节点i到节点j间距离,α=4为路径损耗因子,取拥塞效应系数β1=β3=0.01,β2=0.001,其他相关参数如表1所示[19]。

为了更好地评估所提框架和所提方案的性能,本文选择在同等网络资源条件下,所有用户分别采取本地计算、边缘计算、D2D 卸载、云-边缘计算的方案进行对比,其中云-边缘计算表示用户同时具有云计算和边缘计算2 种模式可供任务卸载。不失一般性地,用户总数N={5,10,…,50}情况下的各仿真结果均为各仿真实验重复1 000 次并取平均的结果。

表1 蜂窝链路和D2D 链路的相关参数

不同用户总数条件下参与所提方案中本地计算模式、边缘计算模式(不限接入方式)、云计算模式(不限接入方式)和D2D 卸载模式参与用户数如图3所示。可以看出,随着用户总数的增加,选择边缘计算模式的用户数呈增长放缓趋势,选择云计算模式的用户数近似呈线性增长,而选择本地计算和D2D 卸载模式的用户数呈增长加快趋势。这是因为,随着用户总数的增加,受限的上行通信资源和边缘计算资源渐渐不能满足用户需求,带给用户更大的开销,进而更多用户分流到计算资源稳定、通信质量更好的本地计算模式和D2D 卸载模式。

图3 不同用户总数条件下所提方案中各卸载模式参与用户数

不同用户总数条件下所提方案和对照方案的平均计算卸载开销对比如图4 所示。随着用户总数的增加,边缘计算方案开销很快超过其他方案,本地计算方案开销近似不变,D2D 卸载方案开销呈近似线性增长趋势并最后超过本地计算方案开销,云-边缘计算方案开销则稳定保持增长,所提方案开销增速较缓慢。这表明边缘计算在竞争较缓和时表现占优,而D2D 卸载方案和云-边缘计算方案得益于稳定供给的计算资源不会随系统用户数增加而迅速增长,但同样会受通信资源制约。所提方案因充分利用了空闲网络资源,在不同用户数条件下性能均明显占优,开销相比云-边缘计算方案平均减少了61%。

图4 不同用户总数条件下所提方案和对照方案的平均计算卸载开销

本节分别设定用户仅考虑能耗或时延进行决策的情况,以分析调度方案对这2 个指标的影响,平均卸载能耗和时延性能曲线分别如图5 和图6 所示。可以看出,随着用户总数逐渐增多,所提方案较云-边缘计算方案的能耗差逐渐增大。这是由于所提方案具备更丰富的接入手段,在上行带宽占用不断饱和时,部分用户可智能分流到负载较小的其他模式,从而避免加重网络拥塞效应。所提方案的平均时延相较云-边缘计算方案平均减少了近68%。

图5 不同用户总数条件下平均卸载能耗

图6 不同用户总数条件下平均卸载时延

本节在默认系统参与用户数为30 个的条件下,针对边缘节点计算能力不同的情况对所提方案性能进行了仿真。选择所有用户均采用不受边缘节点影响的本地计算模式和均采用直接受边缘计算资源影响的边缘计算模式进行对比。不失一般性地,边缘计算资源F={20,25,…,60}GIPS 情况下各仿真结果均为仿真实验重复1 000 次并取平均的结果。不同边缘计算资源条件下所提方案中各卸载模式参与用户数如图7 所示,不同边缘计算资源条件下所提方案和对照方案的平均计算卸载开销如图8 所示。从图7可以看出,随着边缘计算资源增多,本地计算模式参与用户数总体保持不变,用户主要由计算资源供给稳定的云计算和D2D 卸载模式向边缘计算模式迁移。图8 则展示了所提方案的稳健性和稳定性,即通过整合网络中所有可用的计算和通信资源,在边缘计算资源较少时依然保持性能平稳占优。

图7 不同边缘计算资源条件下所提方案中各卸载模式参与用户数

图8 不同边缘计算资源条件下所提方案和对照方案的平均计算卸载开销

5 结束语

本文提出了一种基于D2D 通信、移动边缘计算和云计算的分层任务卸载框架。所提框架通过自低到高提供设备层、边缘层和云层3 种卸载层级,并引入D2D 协作中继技术辅助用户接入更高层级的卸载模式,实现了对设备间计算和通信资源的能力异构性和运行时间异步性的充分开发,发挥了云计算分流卸载用户和减轻边缘计算负担的作用。借助博弈论的设计理念,本文针对所提框架设计的多用户任务卸载调度方案,实现了兼具公平性的效率提升和负载均衡效果,从而提升了空闲网络资源的利用率和用户购买云-边缘计算服务的积极性。仿真结果证实了所提方案在减少端到端时延与卸载能耗方面和面对边缘计算资源受限等不利条件时的优越性。未来研究将着眼于所提分层任务卸载框架中,不同业务属性带来的固定时延限制或安全性要求对卸载决策和性能的影响。

猜你喜欢

计算资源时延边缘
基于模糊规划理论的云计算资源调度研究
5G承载网部署满足uRLLC业务时延要求的研究
改进快速稀疏算法的云计算资源负载均衡
《舍不得星星》特辑:摘颗星星给你呀
基于GCC-nearest时延估计的室内声源定位
基于移动站的转发式地面站设备时延标校方法
基于Wi-Fi与Web的云计算资源调度算法研究
耦合分布式系统多任务动态调度算法
一张图看懂边缘计算
在边缘寻找自我