O-RAN中的无蜂窝大规模MIMO:云、前传和无线电资源的能量感知联合编排

O-RAN 中的无蜂窝大规模 MIMO:云、前传和无线电资源的能量感知联合编排

  • 标题原文:
  • Cell-Free Massive MIMO in O-RAN: Energy-Aware Joint Orchestration of Cloud, Fronthaul, and Radio Resources

作者

摘要

  • 无蜂窝大规模 MIMO 的物理层基础现已完善。端到端网络(从无线电站点到云端)分析和节能运行是在实际无线网络架构中部署无蜂窝大规模 MIMO 功能时需要考虑的两个关键因素。与开放无线接入网络 (O-RAN) 中的云化和虚拟化相一致,毫无疑问,在 O-RAN 架构之上设想未来的无蜂窝基础设施。O-RAN 是无蜂窝大规模 MIMO 端到端管理的关键推动者。
  • 在本文中,我们从端到端的角度探讨了虚拟化 O-RAN 架构中不同无线电技术(即无蜂窝大规模MIMO传统小蜂窝系统)的性能和功耗。
  • 我们比较了两种不同的功能拆分选项和不同的资源编排机制,包括完全虚拟化的端到端基于本地云协调纯无线电资源分配
  • 在端到端编排方案中,我们的目标是通过联合分配无线电、光前传和虚拟化云处理资源来最小化端到端功耗。
  • 我们将端到端编排与其他两种方案进行比较:
  • i)“仅无线电”,其中无线电资源独立于云进行优化;
  • ii)“本地云协调”,其中仅允许在本地无线电单元集群之间进行编排。
  • 频谱效率(SE)要么被视为每个用户设备的优化约束,要么被视为目标函数中的 SE 总和。
  • 我们开发了多种算法来解决各自的端到端优化问题。数值结果表明,与基于本地协调和仅无线电的节能机制相比,具有完全虚拟化前传和云资源的端到端资源分配可提供大量额外的节能效果。

关键词

  • 无蜂窝大规模 MIMO、虚拟化 O-RAN、联合传输、端到端资源分配、联合网络编排。

序言

  • 预计移动用户设备 (UE) 的数量及其容量请求将在未来十年持续增加 [1]。因此,无线网络的峰值流量需求也可能会继续增长。预计到 2030 年,各地都将需要无处不在且无限的连接 [2]。新的网络和新的空中接口解决方案是下一代无线系统愿景的两个关键推动因素 [1]
  • 网络技术包括软件化、虚拟化和开放式无线接入网络(O-RAN)。
  • 而大规模 MIMO(多输入多输出)、可重构智能表面和无蜂窝大规模 MIMO 是主要的空中接口技术
  • 本文研究了 O-RAN 架构中的无蜂窝大规模 MIMO,该架构汇集了超越 5G 网络的两个本质上兼容的网络和空中接口实体。我们将详细阐述这些技术如下:

RAN 架构向 O-RAN 的演进

  • 移动网络基础设施将成为无处不在、无限连接愿景的关键和重要组成部分。过去几年,移动网络标准化在移动网络架构方面取得了多项进展,以实现这一目标。部署最广泛的网络架构是分布式 RAN (D-RAN)。在 D-RAN 架构中,每个基站(BS)的所有处理功能都与 BS 位置的无线电单元(RU)共置 [3]。这种架构不可扩展、不经济,而且最重要的是,在能耗和吞吐量方面无法有效支持异构服务 [4]。集中式 RAN(C-RAN)架构的开发是为了提高网络的能源效率和资源利用率。在传统的 C-RAN 中,分布式数字单元和相关冷却被移至中央云 (CC) 的集中式资源池中,而将 RU 留在不同的蜂窝站点。在此架构中,不同的 RU 共享相同的冷却和站点位置。虽然这种架构比 D-RAN 更节能,但每个 RU 都有其专用的处理单元,当高峰时段小区之间流量不平衡时,导致处理资源利用率不足。
  • 尽管 C-RAN 架构的进步前景广阔,但实际上仍有一些挑战需要与新兴技术一起解决。与之前的 D-RAN 架构相比,物理层处理的完全集中化显着提升了前传信号容量,尤其是在采用大规模 MIMO 等技术时。因此,需要进一步研究一种更方便且潜在灵活的架构,以保持 C-RAN 的可扩展性优势,同时解决带宽拥塞并允许小区边缘 UEs 进行有效的多点协作传输 (CoMP) 协调。虚拟化 C-RAN 是一种通过虚拟化网络功能来解耦硬件和软件的架构 [3][5] - [10]。在此架构中,部署的处理单元不再专用于某个特定的 RU,而是以软件形式实现网络功能并在通用处理器 (GPP) 上运行 [11]。这样,可以在各个负载小区之间共享处理资源,进一步提高资源利用率,降低网络能耗。实施虚拟化 C-RAN 的优点是 i) 简化网络管理; ii) 启用资源池; iii) 改进无线电资源的协调。
  • 最近,网络供应商和运营商之间达成了支持 O-RAN 架构和标准的共识 [12]。O-RAN 联盟 [13] 是 RAN 接口的全行业标准化,它补充了 3 GPP 标准,涵盖 RAN 分解、RAN 自动化和 RAN 虚拟化。 O-RAN 架构由 O-RAN 联盟提出,是一种虚拟化 C-RAN,具有开放、可互操作的接口和虚拟化功能,允许多个供应商产品在一个网络中协同工作。O-RAN 和后续标准化工作使得能够在开放硬件和云上构建虚拟化 C-RAN,并允许虚拟化 C-RAN 中虚拟化和共享的充分利用。O-RAN 的三个关键要素是 i) 云化; ii) 智能化和自动化; iii) 开放内部 RAN 接口。 O-RAN 的主要使命是重塑 RAN 行业,走向开放、虚拟化和完全可互操作的移动网络 [14]

O-RAN 架构中的无蜂窝大规模 MIMO

  • 为了应对不断增长的移动数据流量,一种有前景的方法是利用联合发送/接收(JT)方法,通过相干地组合发送/接收信号并抑制干扰,使多个 RU 能够为用户(UE)提供服务。最近,无小区大规模 MIMO 被提出作为一种物理层技术,将超密集网络与 JT 以及大规模 MIMO 的低复杂度线性处理方案相结合 [15] - [17]。通过利用联合处理和宏分集,无小区大规模 MIMO 减少了覆盖区域内的大数据速率变化,从而解决了当前蜂窝网络的主要缺点之一。对于 UE 信号的联合处理,需要集中部分基带处理,这构建了无小区大规模 MIMO 和 C-RAN 架构之间的内在联系 [18]。软件与硬件的分离不仅允许在无蜂窝操作中进行联合处理,而且还通过绿色和敏捷虚拟化创造了新的节能机会 [19]。为了满足设想的无蜂窝大规模 MIMO 网络的协调和信令要求,O-RAN 通过提供强大的适应性而被认为是一种有前景的架构 [20]。端到端网络处理(从无线电站点到云中心)以及通过考虑虚拟化方面对无线电、前传和云计算资源进行联合编排,对于充分利用基于 O-RAN 架构的无蜂窝网络中的节能机制至关重要。事实上,O-RAN 支持实时和近实时软件化控制器的联合资源分配 [21]

以往的工作

  • 在以前的工作中,大多数已经研究了无蜂窝大规模 MIMO 的物理层方面,并且只考虑了无线电站点的功耗 [22]。在 [23] 中,还考虑了前传传输的功耗,但作者假设所有 RU 都服务于所有 UE,这并不节能。在文献 [3] 中,通过优化以用户为中心的软基站的形成,提出了一种无信元网络架构,软基站定义为频谱、光波长和云处理资源的联合分配,以及一组考虑 JT 的 RUs。端到端功耗 [3] 和网络吞吐量 [5] 在考虑无线电、光前传和云处理资源的情况下得到优化。然而,在这些无蜂窝网络中不考虑大规模 MIMO。在文献 [24] 中,研究了前传约束下 JT 的 RU 选择,但将云处理功耗简化为一个固定参数。在文献 [25] 中,考虑了云中的处理要求,但仅将无线电站点的功耗降至最低。最近,[26] 的作者根据 O-RAN 架构细化了无蜂窝大规模 MIMO 术语,并讨论了当前或未来几代 O-RAN 中无蜂窝功能的几种实现选项。文献 [20][27] 还研究了 O-RAN 架构之上的无蜂窝大规模 MIMO 的性能。在文献 [28] 中,从吞吐量的角度研究了中心处理单元的放置和无线电带宽的分配。据作者所知,所有相关工作要么考虑了 O-RAN 中无蜂窝大规模 MIMO 的架构高级视图,要么专注于 SE 或吞吐量性能。据作者所知,所有相关工作要么考虑了 O-RAN 中无蜂窝大规模 MIMO 的架构高级视图,要么专注于 SE 或吞吐量性能。文献中缺少端到端功耗建模和相应的端到端资源分配。

贡献

  • 在本文中,我们遵循整体方法,研究了 O-RAN 架构中无蜂窝大规模 MIMO 和小基站系统的不同资源编排方案。为此,我们通过完全集中式和物理层内功能拆分选项,对无蜂窝大规模 MIMO 的端到端网络功耗进行建模,包括无线电、光前传和云处理资源。在给定所需的系统性能的情况下,我们推导出无蜂窝大规模 MIMO OFDM 系统的云处理要求。基于我们开发的端到端功耗模型,我们提出了两个优化问题来联合分配无线电、前传和云资源。第一个问题是通过联合分配发射功率、光前传资源、云处理资源以及服务于 UE 的 O-RU 集(符合 O-RAN 术语)来满足其服务质量 (QoS) 要求,从而最大限度地降低端到端功耗。我们将问题转化为混合二阶锥规划形式,可以得到最优解。为了进一步了解更大的无蜂窝设置,通过 l0l_0 范数获得了原始功率最小化问题的近似版本,并提出了基于凹凸规划 (CCP) 的算法,以更易于管理的形式解决该问题。随后,提出了联合和 SE(频谱效率) 最大化和总网络功率最小化问题。经过新颖的变换后,通过相同的基于 CCP 的算法解决了该问题的适当近似形式。使用找到的解决方案,我们比较了完全虚拟化的端到端、基于本地云协调和仅无线电资源分配的性能。通过数值仿真,我们展示了虚拟化的端到端资源分配与云中的固定前传资源和部分资源共享(本地协调)以及云无感知无线电方案相比,实现了多少节能。此外,在传统小基站网络(每个 UE 仅由一个 O-RU 提供服务)上,无蜂窝大规模 MIMO 提供的 SE(频谱效率)改进在不同场景下得到了量化。也讨论了不同功能拆分的影响。

用于无蜂窝大规模 MIMO 的 O-RAN 架构概述

  • 我们考虑了一个无蜂窝大规模 MIMO 系统,该系统建立在 O-RAN 架构的顶部,符合下一代虚拟化 C-RAN 生态系统,如图 1 所示 [12]

  • 图 1 O-RAN 架构,用于无蜂窝大规模 MIMO,在上行链路和下行链路中具有功能分离选项 8 和 7.2。
  • 覆盖区域内有 LL 个 O-RU 和 KK 个 UE 任意分布。所有 UE 都有一个天线,而每个 O-RU 都配备了 NN 个天线。OFDM 被认为可以管理频率选择性衰落。所有 O-RU 都通过前传连接连接到具有虚拟化和处理资源共享功能的 O-Cloud [3]。O-Cloud 由两个主要单元组成,即 O-CU 和 O-DU。根据 O-RAN 规范,O-DU 负责下层网络操作(RCL、MAC 和 PHY),而 O-CU 则负责上层操作,如图 1 所示。O-RAN 还具有逻辑节点,称为近实时 RAN 智能控制器(near-RT RIC)和非实时 RAN 智能控制器 non-RT RIC。O-Cloud 中的近 RT-RIC 负责对 RAN 资源进行近乎实时的智能优化。另一方面,非 RT RIC 位于服务管理和编排(SMO)单元中,负责非实时智能编排。这两个逻辑节点实现了完全虚拟化的端到端资源优化,本文对此进行了研究。O-RAN 有多种部署选项,其中一些 O-DU 和 O-CU 位于同一位置,而在其中一些部署选项中,它们在逻辑上和地理上是分开的。在本文的研究中,我们将场景 A 视为 O-RAN 部署设置,即场景 A,其中 O-CU、O-DU 和 near-RT RIC 与虚拟化处理资源位于 O-Cloud 中。通过对架构设计进行小幅修改,本研究适用于其他 O-RAN 部署场景。一组 O-RU 以连贯的方式服务于每个 UE,以提高频谱效率 (SE)。设 xk,l{0,1}x_{k,l}\in\left\{0,1\right\} 是表示 UE kk 是否由 O-RU ll 提供服务的二进制变量。如果 UE kk 由 O-RU ll 提供服务,则为 1,否则为 0。例如,在图 1 中,每个 UE 的彩色圆形区域表示为它们提供服务的 O-RU。在本文中,我们将优化这些子集,以满足几个优化指标,这些指标考虑了每个 UE 的 SE 和端到端网络功耗。
  • 在 O-Cloud 中,有 WW 个符合 O-RAN 云化框架的通用处理器(GPP)堆栈 [12]。这些池化 GPP 由于其处理能力和可编程性(允许虚拟化)而用于基带处理。架构中,该调度器是 near-RT RIC。为了执行无蜂窝联合处理,特定 UE 的相应数据和控制信号应首先存在于同一个 GPP 中,即使本地预编码的信号可以计算并从不同的 GPP 发送到 O-RU(这要归功于多个 GPP 之间的分布式操作和计算共享以及虚拟化)。在图 1 中,相同的颜色用于表示哪些 O-RU 连接到哪个 GPP。UE 1 由 O-RU 1 和 O-RU 2 提供服务,它们都连接到 GPP 1。在这种情况下,可以仅使用 GPP 1 来服务 UE 1,而不需要 GPP 之间的数据交换。然而,由于服务 UE 3 的 O-RU 连接到不同的 GPP,因此应当激活 GPP 1 和 GPP 2 之间的连接以共享 UE 3 数据和控制信号。这些都是由 near-RT RIC 策划的。
  • 我们考虑最近发布的前传/中传传输演进 CPRI (eCPRI) 规范。采用时分和波分复用无源光网络(TWDM-PON)作为前传传输网络来承载 eCPRI 数据包,以满足无小区网络中前传传输的高容量要求 [3][6]。如图 1 所示,每个 O-RU 连接到一个光网络单元 (ONU),该 ONU 被分配给光纤通信中的多个波长之一。每个波长可以通过时分复用由多个 O-RU 共享。
  • 在 O-Cloud 中,存在一个带有 WDM 复用器(WDM MUX)和多个线路卡(LC)的光线路终端(OLT),每个线路卡连接到一个 GPP。每个 LC 仅服务一个波长,因此,每个 O-RU 的信号在使用相同波长的 GPP 处接收或发送。例如,GPP 1 负责前四个 O-RU 数据的前传传输,而 O-RU 5 连接到 GPP 2。
  • 在所考虑的 O-RAN 架构中,考虑了 3 GPP 规范 [29] 中的两种不同的功能拆分选项。
  • 第一个方案称为选项 8,如图 1 所示,是物理层 (PHY)-射频 (RF) 功能拆分,以充分受益于 O-Cloud 的高效处理资源和存储资源。根据这种拆分,O-RU 仅执行射频处理,并通过前传链路将纯采样和量化的基带信号发送(接收)到 O-Cloud。所有剩余的处理都在 O-Cloud 中完成。因此,选项 8 具有 RU 复杂度最低的优点 [31]。特别是,在上行链路训练中使用功能拆分选项 8,图 1 中紫色虚线下方的所有操作都在 O-RU 上实现,而其余的物理层、MAC 和 RLC 操作在 O-DU 中执行。然后,在 O-CU 中实现更高层的功能。同样,绿色虚线确定下行链路操作的相同功能拆分。使用 PHY-RF 功能拆分选项 8 时,每个 AP (无线访问接入点) 所需的前传数据速率为 [32]

Rtronthaul(8)=2fsNbitsN,R_{tronthaul}^{(8)}=2f_{s}N_{bits}N ,

  • 其中 fsf_sNbitsN_{bits} 分别是采样频率和量化信号样本的位数。由于 TWDM-PON 中每个波长的容量有限,用 RmaxR_{max} 表示,我们最多可以将 Wmax[Rmax\Rfronthaul(8)]W_{\max}≡\left[R_{\max}\backslash R_{fronthaul}^{(8)}\right] 前传 O-RU 分配给每个波长,因此,当 w=1...Ww = 1, . . . , W 时,为每个 GPP ww 分配。
  • 另一个功能拆分是选项 7.2,在 O-RAN 中更具体地考虑了 [31][33]。此选项拆分了端到端网络功能,以便一些接近射频处理的 PHY 操作(低 PHY 功能)在 O-RU 中实现,而其余的 PHY(高 PHY)和更高层操作则移动到 O-Cloud,如图 1 中的紫色和绿色实线所示。与选项 8 相比,此功能拆分选项通常降低了前传数据速率,因为仍允许无蜂窝 JT 处理和低 O-RU 复杂性。O-Cloud 考虑了上行链路接收组合和发送预编码,以实现相干 JT。相应的前传数据速率要求为 [32]

Rfronthaul(7.2)=2NbitsNuscdNTs,R_{fronthaul}^{(7.2)}=\frac{2N_{bits}N_{uscd}N}{T_{s}},

  • 其中 NuscdN_{uscd} 是已使用的子载波的数量,TsT_s 是 OFDM 符号持续时间。我们预计选项 7.2 更有利,因为它通常认为 Rfronthaul(8)<Rfronthaul(7.2)R_{fronthaul}^{(8)}<R_{fronthaul}^{(7.2)},这样我们就可以为每个 GPP 分配更多的 O-RU,即 Wmax[Rmax\Rfronthaul(7.2)]W_{\max}≡\left[R_{\max}\backslash R_{fronthaul}^{(7.2)}\right] O-RU 到每个波长。为了量化这一点,我们考虑 Rmax=10GBpsR_{max} = 10 GBpsNbits=12N_{bits} = 12,常规 LTE 参数 fs=30.72MHzf_s = 30.72 MHzTs=71.4μsT_s = 71.4 μsNuscd=1200N_{uscd} = 1200 的设置。进一步假设 N=4N = 4,每个 GPP 以及每个波长可以使用选项 8 支持 Wmax=3W_{max} = 3 个 O-RU,而 Wmax=6W_{max} = 6 个 O-RU 可以使用选项 7.2 连接到每个 GPP。当 O-RU 天线数量大于 13 时,每个 TWDM-PON 波长的最大容量不足以在 O-RU 和 O-Cloud 之间提供选项 8 的前传连接。但是,在选项 7.2 中,由于降低了前传速率要求,每个波长最多可支持 24 个天线的 O-RU。
  • 除了前传传输限制外,O-Cloud 中的处理要求以及 GPP 如何根据其有限的能力处理这些要求的关系决定了活动 GPP 的数量。关闭未使用的有源 GPP 和相应的 LC,我们可以通过最小化网络的有源空闲功率来节省功耗 [9]。但是,在最小化活动 GPP 的数量和 UE 的 SE 性能之间需要权衡。在本文中,我们将推导出无蜂窝大规模 MIMO OFDM 系统在 O-Cloud 中每个操作的相关处理要求。在介绍我们的优化问题之前,我们将在下一节中介绍无单元大规模 MIMO 系统的物理层基础。

无蜂窝大规模 MIMO OFDM

  • 考虑了一种具有时分双工和频率选择信道的无小区大规模 MIMO 系统。当采样频率为 fsf_s,总带宽为 BB 时,使用 OFDM。子载波的总数是 NDFTN_{DFT},这也是离散傅里叶变换(DFT)的维度,而使用的子载波数是 NuscdNDFTN_{uscd}≤N_{DFT}。每个 OFDM 符号的持续时间为 TsT_s 秒。我们假设一个块衰落信道模型。通道是恒定的,并在由 NslotN_{slot} OFDM 符号组成的每个相干块中独立实现。我们用 NsmoothN_{smooth} 表示每个相干块中连续子载波的数量,以便每个相干块中的通道具有近似恒定(平滑)的频率响应。每个相干块中的有用样本数(通道使用)为 τc=NsmoothNslot\tau_{c} = N_{smooth}N_{slot}
  • 无蜂窝网络操作主要有两种类型。第一种是集中操作,其中所有关于信道估计和有效载荷数据检测/预编码的处理都在中央处理单元(所考虑的架构中的 O-Cloud)中执行 [17,第 5.1 和 6.1 节]。另一种,在分布式操作中 [17,第 5.2 和 6.2 节],每个 O-RU 首先估计本地信道,这些估计用于数据传输期间的本地组合/预编码。在本文中,我们考虑分布式下行链路操作,其中对应于每个 O-RU 的信道估计值用于分布式每个 O-RU 预编码 [17,第 6.2 节]。通过这种方式,我们可以将与 UE 相关的处理任务划分为可以在 O-Cloud 中虚拟化的小独立块,以最大程度地减少活动 GPP 的数量。通过这种方式,我们可以将与 UE 相关的处理任务划分为可以在 O-Cloud 中虚拟化的小独立块,以最大程度地减少活动 GPP 的数量 3。此外,如果采用选项 7.2,则与使用的子载波数量成正比。在这两个选项中,它们不依赖于 O-RU 可以提供的 UE 数量。
  • 由于我们专注于下行链路操作,因此每个相干模块分为两个阶段:i) 使用 τp\tau_{p} 样本进行上行链路训练,ii) 使用 τd=τcτp\tau_{d}=\tau_{c}−\tau_{p} 样本进行下行有效载荷数据传输。所有 UE 都使用空间多路复用在相同的时频资源上提供服务。为了使符号更简单,我们将重点关注任意时频资源块,如 [17] 所示。

A.信道模型

  • 我们让 hklCNh_{kl} \in C^{N} 表示在任意相干块中从 UE kk 到 O-RU ll 的信道。信道使用相关的瑞利衰落(即 hklNC(0N,Rkl)h_{kl} \sim N_{C}(0_{N}, R_{kl}))进行建模,并且对于不同的 UE 和 O-RU 它们是独立的。相关矩阵 RklCN×NR_{kl} \in C^{N \times N} 由信道 hklh_{kl} 的空间相关性和 O-RU ll 的天线相应的平均信道增益 βkl=tr(Rkl)/N\beta_{kl}=tr(R_{kl})/N 决定。信道增益取决于几何衰减和阴影等大规模效应。空间相关矩阵在整个通信过程中是固定的,并且根据相关文献 [17][34] 是已知的。

B.上行链路训练:信道估计

  • 为了执行相干传输处理,需要估计每个相干块中的信道。在具有许多 UE 的大型无蜂窝网络中,将没有足够的导频资源来为所有 UE 分配正交序列。因此,我们考虑一组互相正交的导频序列 φ1,,ϕτpCTp\varphi_{1},\ldots,\phi_{\tau_{p}}\in C^{T_{p}},这些序列被分配给多个用户并被多个用户重复使用。
  • 序列满足:

ϕt1Hϕt2={τp,t1=t20,t1t2 \phi_{t_{1}}^{H} \phi_{t_{2}}= \left\{ \begin{matrix} \tau_{p}, t_{1}=t_{2} \\0,t_{1}\neq t_{2} \end{matrix} \right.


O-RAN中的无蜂窝大规模MIMO:云、前传和无线电资源的能量感知联合编排
http://example.com/2024/01/09/translation_1/
作者
Mr.CHUI
发布于
2024年1月9日
许可协议