本章构建的随机移动模型如图1.1所示,其中包含一组边缘服务器 ={1,2,…, K }和用户 ={1,2,…, N }。每个边缘服务器都通过高速光纤连接到路侧单元(Road Side Unit,RSU)。为了建模用户的移动性,本章设定卸载服务以离散时隙的形式调度,时隙集合表示为 ={0,1,…, T −1}。根据完成任务所需要的时隙数来区分高速场景和低速场景。如果一项任务能够在一个时隙内由一台服务器独立完成,则该场景被视为低速场景,其中用户移动相对较慢,并且计算卸载过程消耗的时间较短;如果任务需要多个服务器在多个时隙内通过服务迁移来协作完成任务,则该场景被视为高速场景,其中用户在多个服务器的覆盖范围内高速移动,并且用于计算卸载的通信连接可维持相对较长的时间。本章研究主要关注高速移动场景,MU 通过正交频分多址(Orthogonal Frequency-Division Multiple Access, OFDMA)技术与边缘服务器通信。当多个MU同时访问一台边缘服务器时,通信信道划分出多个子信道。每个通信用户分别占用一个子信道,且用户之间不产生干扰。
图1.1 随机移动模型
本章设定服务请求的生成服从伯努利过程。MU i 的服务请求由三个变量定义,即 。其中 d i 表示MU i 服务请求的数据大小; C i 表示完成该服务所需的CPU周期数; 表示该服务请求的最大容忍时延。服务器状态信息(Server State Information,SSI)由三个变量定义,如服务器 k 的状态信息为{ F k , B k , D k }。其中 F k 表示服务器 k 的计算能力; B k 表示服务器 k 的通信带宽; D k 表示服务器 k 的最大存储容量。边缘服务器可能耗费多个时隙(用Δ t 表示)来完成每个请求,本模型假设数据上传和输出回传过程不会中断,即服务迁移仅在任务处理过程中发生。变量 ξ ′表示 t 时隙的服务部署决策,则二元矩阵形式如下:
其中,若在时隙 t 时由服务器 k 向用户 i 提供MEC服务, ;否则, 。
传统服务请求需要缓存在队列中并按顺序处理,该方式在限制边缘服务器的CPU 利用率的同时,还会产生排队等待时延。而将多任务并行计算则可提高 CPU利用率从而降低服务执行时延。在本章构建的计算卸载模型中,MU均等地共享资源。通过为用户分配不同的优先级,可以将此模型扩展为通用模型。服务器在某一时隙所服务的用户均等地共享该服务器的计算资源。在时隙 t ,服务器 k 所服务的用户数量为
则服务器 k 的CPU利用率可以由式(1-3)计算。
其中,参数 a k ∈(0.9,1.0)。运营商的效用定义为所有服务器的CPU利用率之和。提高CPU利用率能够使服务器向更多的MU提供服务,因此, h k ( ξ )可以随共享服务器 k 所服务的用户数量的增加而增加。但是,随着变量 n k ( ξ )的持续增加,CPU利用率会收敛到某个值。考虑到边缘服务器计算和存储资源的限制,将每个服务器的最大存储容量设置为 D k 。
用户 i 的服务请求的完成过程可以分为三个阶段: 为上传阶段, 为处理阶段, 为回传阶段,其中, 分别表示服务请求生成并上传、上传完成开始处理、处理完成开始回传、回传完成的时隙。对于上传过程,任务数据大小 d i 应满足以下公式:
其中, g i, k ( t )表示信道增益,计算公式如下:
其中, 表示MU i 与服务器 k 在 t 时刻的距离。用户与服务器基于OFDMA进行通信,则信号噪声比(Signal to Noise Ratio,SNR)的计算公式如下:
其中, p i 和 σ 2 分别表示用户 i 的传输功率和噪声,二者均不随时间变化,在通信期间相对固定。因此,SNR在数值上与信道增益成正比,即SNR i, k ( t )∝ g i, k ( t )。
上传时延 取决于传输的数据大小、边缘服务器分配的带宽以及用户与服务器之间的距离。MU i 的任务上传开销可以通过式(1-7)计算。
在时隙 完成数据传输后,边缘服务器 k 开始处理服务请求。边缘服务器 k 在时隙 t 为用户 i 完成的计算任务量可以通过式(1-8)计算。
表示未来时隙中要完成的剩余任务。给定在时隙 完成的用户 i 的服务请求,则以下等式成立。
当MU i 脱离了服务器 k 的无线覆盖范围时,PEC服务器 且 k ′≠ k 。相应地,边缘服务器 的处理成本可以通过式(1-10)计算。
如果边缘服务器 在时隙 完成了用户 i 的请求,则在时隙 到 内将服务结果发送回用户 i 。如果输出结果的数据大小或等于输入数据大小 d i ,则式(1-11)所示的回程传输约束成立。
相应地,服务器 k − 回程传输的开销如下:
本地计算存在以下两种情况:在部分卸载中,需要本地计算和边缘计算协同完成整个任务;在全部卸载中,每个任务被卸载到边缘服务器处理或在本地处理。本章构建的模型主要面向时延敏感的应用程序,如手机和笔记本电脑等难以及时处理的复杂任务,这样可以充分利用泛在边缘计算资源,节省本地资源,提高用户的服务质量。此外,也可以部署无人机为原子性的紧急任务提供敏捷的计算服务,如无人机网络可以为感染了COVID-19的患者提供远程健康监测服务,医学分析任务计算过程复杂且对时延敏感。此外,医疗数据具有原子性,任务需要整体传输不可划分。因此,本章构建的模型将服务部署的重点放到边缘服务器上,忽略了本地计算。
在任务处理过程中,用户在边缘服务器的覆盖范围内不规则地移动。通过跨服务器动态服务迁移以保证通信的稳定性、降低服务执行时延,进而增强卸载框架的鲁棒性。在时隙 t +1中,MU i 的服务迁移成本可以通过式(1-13)计算。
其中, 和 分别表示时隙 t 和时隙 t +1处理用户 i 的任务请求的服务器。从服务器 k 迁移到服务器 k' 的开销表示如下:
其中, 表示服务器 k 到服务器 k' 的欧几里得距离, ρ 表示系数。