APP下载

5G通导融合高精度定位技术进展及仿真验证平台

2022-09-03贾兴华刘鹏齐望东刘升恒黄永明李佳璐徐佳

电信科学 2022年8期
关键词:定位精度信道基站

贾兴华,刘鹏,齐望东,4,刘升恒,4,黄永明,4,李佳璐,徐佳

(1.网络通信与安全紫金山实验室,江苏 南京 211111;2.南京航空航天大学,江苏 南京 211106;3.中国人民解放军陆军工程大学,江苏 南京 210023;4.东南大学,江苏 南京 211134)

0 引言

位置服务首先随着移动互联网的普及进入发展快车道,2019年,高德、谷歌、百度等主流导航应用的日均服务请求均超过千亿次。工业互联网、车联网等新兴数字应用的不断涌现,使得对智能网联终端提供实时高精度定位服务成了新一代信息基础设施的关键服务能力。伴随工业领域数字化转型进程,定位基础设施带来的经济收益预计在2025年达到近130亿美元[1]。为推进我国数字经济发展,国家“十四五”规划和2035年远景目标纲要已将高精度定位技术作为数字经济重点发展的产业,建设以北斗系统为核心的定位、导航、授时(positioning,navigation,timing,PNT)体系。北斗等卫星导航系统只能在室外开阔区域提供精确导航定位,而在垂直行业中常见的室内环境(如工厂、楼宇、隧道、地下空间等)如何提供普适高精度位置服务仍然是亟待解决的重大技术难题[2]。尽管 Wi-Fi、蓝牙、超宽带(ultra wideband,UWB)等多种技术手段都可用于室内定位并有成功应用案例[3],但是额外部署定位专用基础设施带来的高昂建设成本以及技术碎片化导致的维护成本阻碍了上述定位技术的规模化应用。根据美国技术情报机构(Allied BusinessIntelligence Inc.,ABI Research)的调查,在定位垂直行业中,有超过 87%的用户虽然对室内定位有迫切需求,但目前仍未部署定位系统[1]。

利用泛在的 5G网络为智能终端提供通导融合的高精度位置服务可避免基础设施重复建设,充分发挥5G新基建赋能垂直行业的作用,而5G网络的大带宽、多天线、密集部署等新特征也为实现高精度定位带来新契机。同时,增强高精度定位能力是 5G国际标准演进中持续关注的新特性,5G定位标准演进如图1所示。2020年7月冻结的Release 16(Rel-16)标准引入了两个专门用于定位增强的信号,即下行的定位参考信号(positioning reference signal,PRS)和上行的定位探测参考信号(sounding reference signal for positioning,SRS-Pos),将室内定位精度目标设定为3 m[4]。Rel-17标准则进一步将室内定位精度目标提升至1 m[5]。2021年年底,第三代合作伙伴计划(3rd Generation Partnership Project,3GPP)将人工智能/机器学习定位增强、直连链路定位等新技术列为Rel-18标准的研究立项,以持续改进定位精度和效率[6]。未来,6G也将致力于为车联网(vehicle to everything,V2X)等物联网应用提供三维厘米级精度的位置服务[7]。

图1 5G定位标准演进

从技术手段看,5G经典定位方法主要通过测量信号传播时间测距进而定位,包括到达时间差(time difference of arrival,TDOA)测距、往返时间(round-trip time,RTT)测距等[8]。受限于时间同步精度1例如,GPS的同步精度通常为10~30 ns,北斗系统的同步精度通常为20~50 ns,测距误差通常大于米级,这使得定位精度很难突破米级,在室内环境中尤其如此。在学术界,很多机构致力于提高测距定位的精度。例如,北京邮电大学邓中亮团队[9]开展的基于5G共频带信号的理论与实测研究,武汉大学陈亮团队[10]应用载波相位技术实现高精度测距,美国纽约大学无线中心以及德国莱布尼茨创新研究所[11-12]开展毫米波频段测距定位技术研究,最高定位精度达到厘米级。然而相关研究仍未成熟,当前5G设施以及商用部署条件不能满足高精度测距的基本需求。在产业界,华为联合中国移动等在苏州地铁部署了首个 5G室内定位系统,采用 TDOA定位方法达到了90%概率的3~5 m的定位精度,这是当前 5G定位在实际商用部署中所报告的最佳性能[1]。

除了传统的测距定位方法,Rel-16 5G标准中首次引入测向定位方法,包括上行到达角(uplink angle-of-arrival,UL-AOA)与下行离开角(downlink angle-of-departure,DL-AOD)方法。测向定位方法不依赖基站间的精准时间同步,且得益于5G信号带宽大、天线数量多、布设密度大等优势,具备实现更高定位精度的潜力。目前,对5G测向定位方法的研究工作主要包括以下几个。

• 2019年,华为芬兰研发中心[13]利用软件无线电平台开展基于到达角(angle-of-arrival,AOA)的定位研究,在室外开放环境的实验结果表明AOA定位方法在超密集部署的5G网络中有望达到亚米级定位精度。

• 2021年,上海交通大学何迪课题组[14]首次报告了基于商用5G基站进行测向定位的实验结果,利用4个密集部署的5G宏基站联合定位,在室内环境下达到了亚米级精度。

• 2021年,中兴、高通联合中国移动[15]开展UL-AOA与多基站RTT(multi-RTT)测距联合定位技术验证,利用宏基站在室外无遮挡环境下达到了单基站2.1 m、多基站1 m的定位精度。

由于测向定位方法要求基站天线数量较多、基站位置和阵列天线的方位需要精准标定,施工要求严格,通常被认为只适用于室外的宏基站定位[16]。目前尚未见到基于室内部署的5G微(皮)基站和标准通信信号实现测向定位的研究报道。除了微(皮)基站天线数量受限、部署标定代价高,在室内环境中普遍存在的多径、非视距(non-line-of-sight,NLOS)传播效应对测向精度的影响也比测距定位方法更为显著[17]。

另一方面,5G行业应用中室内定位需求强烈,亟须完整的定位解决方案,因此突破现有限制因素,探索基于室内基站的高精度定位方法势在必行。虽然目前已有先进的面向 5G/B5G的试验测试平台[18],但由于室内定位精度受部署环境、设备硬件损伤、基站位置和密度等多种因素影响,这些物理层面的限制并不能在现有试验平台上得到有效分析。为实现亚米级定位能力,5G定位技术仍存在诸多关键技术挑战。

1 5G高精度定位技术挑战

5G标准在Rel-16进行了定位增强,除了保留4G原有的7种定位方法,为了支持更高定位精度,引入了6种新的定位参数测量方法[19]。其中,上行 TDOA(UL-TDOA)、下行 TDOA(DL-TDOA)、multi-RTT 3种方法同属基于测距的定位方法,而UL-AOA和DL-AOD两种方法属于基于测向的定位方法,新空口(new radio,NR)E-CID(enhanced cell-identity)方法则是结合测距和测向的定位方法。虽然这些方法理论上具有高精度测量的潜力,但5G设备的硬件非线性、有限多径分辨能力以及基站部署与施工带来的基线校准误差等问题,严重改变了接收信号模型,使得上述定位技术难以直接获得高精度结果。而各种定位技术又依赖不同的测量方法,误差模型也相应改变,因而面临着不同方面的技术挑战,本节将具体分析这些测量方法面临的技术挑战。

1.1 TDOA技术挑战

DL-TDOA是4G/5G常用的测距定位方法,算法简单且运算量小,也因此在5G标准中特别增加了专用的定位参考信号(PRS)。该定位方法中,终端测量从多个发射/接收点(transmit/receive point,TRP)发送下行 PRS的相对信号时间差(relative signal time difference measurement,RSTD),再利用双曲线交叉的数学模型来实现三边或者多边定位,DL-TDOA定位原理如图2所示。特别的是,PRS的静音模式可有效规避不同TRP发送的PRS之间的干扰问题。此外,相比4G的定位方法,5G定位增加了波束成形设计,可寻找到最佳发送接收波束对,并以此增加定位精度。

图2 DL-TDOA定位原理

DL-TDOA定位方法的具体描述如下:首先假设ti(i= 1,… ,N)表示从基站i到终端的达到时间,bi表示基站i坐标,xUE表示终端坐标,ω表示公共时间偏差。假定每个 服从独立高斯分布,且方差为σi2、均值为ω+ | |bi−xUE||,则概率密度函数为:

式(1)的最大似然估计等价于最小二乘估计(least squares estimation,LS),该终端位置xUE为:

假定iΔ是基站i相对于TRP1的时间差,其中TRP1是参考小区,iΔ定义为:

结合式(2)与式(3),最终可得到:

此时,可以利用泰勒扩展或者加权最小二乘解计算终端位置。

UL-TDOA是5G Rel-16新增的上行测距定位方法,该方法类似于DL-TDOA,不同点在于终端发送上行探测参考信号(sounding reference signal,SRS),基站多个TRP同时接收该信号并测量相对到达时间(relative time of arrival,RTOA),最终由核心网位置管理功能(location management function,LMF)计算终端位置。该方法因终端发送功率受限,基站侧可监听性会受到影响。

在实际应用中,由于 5G系统的非理想性,TDOA测距精度会明显受制于同步、时钟漂移、系统带宽、器件延迟等硬件因素。具体来说,基站间的同步误差是限制TDOA精度的首要因素,任意两个基站测量的TDOA都包含这两个基站间的同步误差,而4G/5G通信网络的实际站间同步精度要求为±1.5 μs,对应的测距误差可达上百米。虽然在同一基站的多 TRP站间或者直连多 TRP站间的同步误差相对低,但对TDOA测距精度影响依然明显,与此同时,基站本身的晶振漂移同样会影响TDOA精度,例如一般基站的晶振漂移约为±20 ppb,即每秒存在20 ns的时钟误差,而这对应了6 m的测距误差。

除了时钟同步问题,5G收发机链路中各硬件模块的延迟补偿精度也会影响TDOA测量精度。以接收机链路为例,主要的时延误差体现在接收阵列天线端时延、射频处理时延与数字前端时延3个部分,接收机链路时延误差示例如图3所示。虽然 5G系统会对链路各模块时延有相应的补偿机制,但当前时延抖动问题严重,仍难以满足亚米级测量精度的需要。另外,环境温度也是不可忽视的因素,晶振抖动与硬件时延变化都会受到环境温度影响。

由于5G网络处于无线多径环境中,存在相对时延很短的强反射径,这需要系统具备较高的路径分辨率,然而5G系统sub-6 GHz频段的最大信号带宽为100 MHz,对应的时间分辨率为10 ns,这意味着反射径与直达径时延差在10 ns以内时,无法区分两者,因而无法准确测量直达径的到达时间差。

1.2 RTT技术挑战

RTT定位方法同时利用了下行 PRS和上行SRS,终端与基站分别测量天线端口收发参考信号时间,进而计算二者之间的TDOA,RTT测量值误差分析原理如图4所示。与TDOA测量方法不同的是,RTT方法可以有效消除基站间的同步误差,但代价是需要对参考信号往返时间进行精确测量。理想情况下终端在接收PRS的同时立刻发送 SRS,以避免晶振漂移带来的影响,其测距精度主要取决于终端或基站设备中基带到天线端口链路的时延测量精度,可通过降低链路延迟抖动,对时延补偿以进一步提高测量精度。然而实际系统中不可避免存在等待间隔,所以RTT测量精度仍受时钟漂移影响。在多站差分RTT方法中,对用户到不同基站的RTT进行差分处理,可以消除终端发送和接收的时延误差影响。

综上,测距定位方法的测量精度影响因素见表1。

表1 测距定位方法的测量精度影响因素

1.3 UL-AOA技术挑战

UL-AOA方法是利用终端发送SRS,基站测量信号达到阵列天线的到达角,再通过多基站的角度交叉计算进行定位的一种方法。在仅有AOA定位方法的情况下,两个基站即可完成终端定位。常用的 AOA角度估计算法有数字波束成形(digital beam forming,DBF)算法和多重信号分类(multiple signal classification,MUSIC)算法。

波束成形算法需要计算方向矢量和信道系数矩阵之间的相关性,需要遍历所有到达角获取最大的相关值,即:

其中,H为二维M×D矩阵,D是冲击响应样点数量,M是接收天线数量。a()θ是M维方向矢量,如式(6)所示。

超分辨算法是利用噪声子空间和方向矢量的非相关性获取最小相关值的算法,最优角度可通过谱峰搜索获得,如式(7)所示。该算法计算量较大,需要进行奇异值分解矩阵分解。为了减少遍历角度带来的运算量问题,可以利用快速傅里叶变换等方法降低搜索复杂度。

其中,UL是相关矩阵R=E{HHH}中L维的噪声子空间。

在实际应用中,测向算法对器件非线性、无线环境、基站部署等因素非常敏感,必须对各类误差进行有效补偿,并设计高分辨测向算法等以提高测向精度。

5G系统的硬件损伤是影响测向精度的首要因素。AOA估计算法是利用阵列天线接收信号的相位差信息,而该相位差极容易受到阵元方向图与位置误差、阵元间互耦效应以及射频通道的相位偏移等硬件损伤因素影响。特别地,阵列天线间的相位偏移随入射角度明显变化,且在大角度时尤为明显。虽然已有大量相关文献致力于不同硬件损伤下的相位偏差建模与补偿技术研究,阵列天线相位偏移等因素仍然是制约测向定位精度的棘手难题。另外,测向方法对基站部署密度、位置、基线精度等因素要求也非常高,需要基站天线精确部署,这将带来巨大的部署与维护成本。毫米波频段的系统是基于波束的通信链路,通过多天线信号的加权合并形成模拟波束,这使得阵元间的特殊相位偏移关系不再满足。

无线多径效应是制约角度估计分辨率的关键因素。在实际环境中,特别是城市、室内环境中的多径效应会对AOA的估计造成严重的影响。例如,对于仅有4阵元的小孔径阵列天线而言,当阵列为阵元间距半波长的等距线阵时,其法向的半功率波束宽度约为25°,这时与直达信号方向同属于 25°内的短时延多径信号分量容易与直达信号混叠,导致较大的AOA估计偏差。此外,当终端与基站之间的直达径完全被遮挡,即呈现NLOS场景时,测向算法将无法估计直达径的AOA值,因此需要应用有效的NLOS识别算法剔除连续定位过程中的NLOS点,以消除NLOS点对AOA定位的不利影响。

高计算复杂度阻碍了超分辨率测向算法的应用。超分辨角度估计算法需要利用接收信号协方差矩阵做特征分解等复杂矩阵运算,其计算复杂度非常大。当阵元数较少,对实际环境中的多径分辨能力不足时,常需要结合信号的频域信息进行角度-时延域二维超分辨解算,这使得参数估计的运算量进一步增加。此外,对于多基站、多终端定位场景,多终端需要实时角度估计,此时超分辨算法的运算量更难以估计。

1.4 DL-AOD技术挑战

DL-AOD技术主要是利用基站发送带有波束的下行 PRS,终端遍历各个波束的参考信号接收功率(reference signal receiving power,RSRP)值以确定最优波束,再利用多基站的波束角融合解算位置的方法。当基站阵元数有限时,波束宽度大,且波束存在一定的抖动误差与步进精度限制,这时基于波束的定位精度很差。在 5G系统演进中,基站支持大规模阵列将是一个重要的新特性,其实现的极窄波束宽度具有很强的方向性,可实现高精度定位。与UL-AOA技术类似,DL-AOD技术的定位精度同样受系统硬件损伤、无线多径环境以及基站部署等因素影响。

2 5G定位仿真平台

为了突破5G定位的亚米级定位精度,亟须解决上述5G定位的技术挑战。由于5G的首要目标是无线通信服务,其射频接入技术的设计与更新主要考虑通信性能与成本的权衡,虽然高精度定位得到了3GPP的关注,但当前5G商业设备不会因为增强定位能力而做出重大调整。因此设计针对各类影响因素的补偿方法是更可行的途径。目前在相关的文献中已有一些针对上述制约因素的补偿方法设计,并且已经通过仿真器、软件无线电以及Wi-Fi等设备验证了有效性。5G设备的损伤行为与非标准或非5G设备不同,一些关键硬件损伤问题至今也没能有效解决方案。尽管目前有一些先进的5G测试平台可以用于验证5G先进技术,但这些平台仍然忽略了物理层面的限制问题。例如,不同的基站部署方式、应用场景以及收发机硬件损伤等问题。5G标准与系统研发仍在演进中,为了验证多种 5G应用场景下的定位方法性能,使用5G仿真器来设计与验证定位算法是更合理的选择。

为了支持与推进5G技术的研发,在学术界或产业界已有大量公开的5G仿真器软件,然而并没有针对5G设备硬件损伤细节与5G定位信号模型细节的链路仿真器,而这些细节又是制约 5G定位精度的关键。为此,本文提出了针对上述影响因素的5G定位链路仿真平台框架,如图5所示。该平台主要由参数配置、物理层仿真、无线信道模型组成。

图5 5G定位链路仿真平台框架

2.1 关键技术点

链路仿真平台的基本目标是针对 5G实际应用场景,通过物理层传输过程的细粒度建模,有效模拟接收到的信道估计系数矩阵。进而可根据得到的信道估计系数矩阵以及相应的细粒度建模参数,设计与分析5G定位参数估计算法。具体可分为如下关键技术点。

(1)分析5G设备的天线相位偏移、波束成形误差等物理损伤行为,应用经典统计方法建模或者对受损伤影响的信号相位与幅度进行测量与建模,从而构建相应的硬件损伤模型,使接收端的信道估计系数中包含各类硬件损伤行为带来的误差,以解决5G设备的各类硬件损伤对参数估计算法带来的影响问题。

(2)设置支持细粒度的系统布局参数,以分析阵列天线构型与数量、基站部署密度以及基线误差等系统部署因素对算法的影响。

(3)定位参数估计算法对无线多径环境尤其敏感,传统链路仿真使用的抽头延迟线或者簇延迟线信道模型不足以模拟复杂的多径效应,针对5G系统的复杂无线多径环境,应用最新NR物理层规范中的几何统计信道模型作为仿真平台无线信道的输入。

(4)对于5G各类典型室内外环境,可选取其已确定的信道建模参数,也可针对额外应用场景(如地下车库),通过信道探测过程对该场景进行细致信道测量,再经过超分辨算法处理得到该场景下的信道建模参数,该参数可调入平台信道模型中用于仿真评估。

(5)为了支持毫米波频段测向功能并遵循NR波束管理标准,通过分析模拟波束扫描与测向机制,设计模拟波束扫描与测向框架,用以支持各类基于波束算法的设计与分析。

2.2 新增能力

与用于物理层通信算法分析的仿真器不同,5G定位仿真平台新增如下仿真能力。

(1)相比已有的链路级算法仿真器,增加了支持多基站/多用户传输、毫米波传输与大规模阵列、多场景与空间一致性以及上下行双向传输等能力。

(2)在通信物理层算法仿真时,通常使用单链路单向传输的链路级仿真器,而对于定位参数估计算法,需要通过支持多基站、多用户传输来分析多站定位算法、分布式定位、用户协同定位等算法性能。

(3)5G体制引入了毫米波频段,该频段基于波束成形的测向方法亦是支持高精度定位的富有潜力的方法,因此仿真平台需要支持毫米波频段传输以及大规模阵列,通过设计的模拟波束成形框架可进行毫米波频段的测向算法分析。

(4)动态定位方法依赖无线信道的空间连续性,建模无线信道环境时需要考虑动态仿真中移动轨迹邻近点的空间一致性以及邻近用户间的信道相似性。

(5)为了能分析所有5G定位方法,需要对支持这些上下行定位方法的所有定位参考信号进行细粒度建模,可通过配置资源集的方式区分不同传输链路,在信号解调时可通过参考信号ID与资源集的时频图案识别,因此仿真平台具体需要支持SRS、PRS、信道状态信息参考信号(channel-stateinformation-reference-signal,CSIRS)、同步信号块(synchronization signal block,SSB)这4类定位信号的传输,在建模时信令机制严格兼容NR时间帧格式,以满足上下行定位仿真需要。

(6)建模的硬件损伤模型也可支持 NR系统的载波频率范围,如对于毫米波频段可应用基于该频段的硬件损伤模型。

2.3 模块设计

(1)参数配置设计

参数配置部分是仿真平台的重要组成部分。仿真器需要具备灵活配置、模块化等特征,并且支持多场景下多基站、多用户的复杂系统布局,以及细粒度的建模需求,仿真平台需要极其复杂的参数配置过程,依据仿真平台功能需求具体可分为系统参数、载波参数、参考信号参数、信道参数、硬件损伤参数、波束成形参数等6个初始化参数配置模块。这些参数需要既存在默认的参数配置,又可依据不同仿真需求对各类参数进行定制化配置,因此各模块参数配置以面向对象的编程方式实现。

(2)物理层传输建模

该部分旨在模拟定位用信号从信号生成到信道参数估计的物理层传输过程。为了模拟真实的物理行为并兼容最新的 NR标准,可将这部分划分为5个主要功能模块,即定位信号生成、基带调制、接收信号生成、基带解调和信道参数估计。特别地,下采样和上下行链路载波转换都无法在数值软件中进行有效模拟,通常在链路仿真器中不被建模,但在载波频段的一些物理效应如相位噪声仍可以在基带传输中有效模拟。

(3)无线信道模型

无线信道建模研究已有20多年的历史,至今已有很多综合性的建模方法如几何统计信道模型、射线追踪信道模型等。仿真平台使用支持NR标准技术规范(technical specification,TS)38.901中的几何统计信道模型,该模型更为有效地模拟了5G典型应用的无线信道环境。仿真平台需要针对定位算法的轻量化无线信道模型,因此主要考虑对参数估计算法更为敏感的信道建模功能。此外为了便于算法分析,可定制化输出详细的多径建模参数信息。

3 数值仿真结果

为了分析5G系统硬件损伤与无线环境的特征及其对参数估计的影响,本节使用构建的 5G定位仿真平台对5G UL-AOA定位算法进行性能分析。在系统布局设置中,多个基站等间距部署在室内开阔空间,终端位置生成则服从均匀随机分布。另假设基站均配置垂直极化的方向性均匀线阵(uniform linear array,ULA)并统一朝向,终端则配置全向单天线。UL-AOA定位仿真参数设置见表2。

表2 UL-AOA定位仿真参数设置

天线相位偏移是影响测向算法精度的首要因素,这里首先给出针对天线相位偏移的测试结果。天线相位偏移测试与仿真结果如图6所示。图6(a)为基站某两个天线间的相位偏移误差,可见在随着入射角变化时,相位偏移呈现不规律波动,这种误差对于阵元数受限下的测向精度影响非常大。图6(b)是通过实测与仿真分析天线相位偏移误差对角度估计精度的影响,可见在天线相位偏移误差的影响下,角度估计误差明显增大,入射角在大角度区间时角度估计误差已达10°。

图6 天线相位偏移测试与仿真结果

存在强反射径且直达径入射角为0°时的角度估计谱如图7所示,强反射径与直达径时延过近,无法应用超分辨算法区分,进而和信号改变了直达径的相位关系,形成了角度偏移以及缓峰现象。

图7 存在强反射径且直达径入射角为0°时的角度估计谱

不同损伤模型下定位误差曲线对比如图8所示,存在损伤模型时,定位CDF曲线明显向下偏离,定位精度也明显变差,而无典型损伤模型下的定位精度可达 67%亚米级,该现象表明如果能够对这些损伤进行有效补偿,则UL-AOA定位技术是具备高精度定位部署潜力的。图8中CDF曲线最终稳定在 80%左右且无损伤时并没有稳定的高精度定位结果,是因为基站配置了方向性天线阵列,在当前的部署场景下存在一定的覆盖盲区;另算法假设基站与终端同高,入射角被近似为方位角,则必定存在位置解算误差,且当终端靠近基站时,误差更为明显。这种现象则可通过优化基站布局、基站天线阵列选型以及定位算法来有效提升定位精度。

图8 不同损伤模型下定位误差曲线对比

4 结束语

本文在梳理5G标准定位技术演进路线的基础上分析了各类定位方法实现室内亚米级定位精度所面临的挑战,尽管终端定位服务一直是移动通信网的基本功能,但是相比于4G及之前的定位服务,5G网络不但引入了全新的定位方法,而且定位精度指标提升了 1~2个数量级。从确立标准到产业化落地,需要经历技术研究、设备研发、部署测试、示范应用等多个阶段,尤其是新引入的测向定位方法在5G网络中能否实现更高的定位精度还有待进一步验证。针对5G系统实现亚米级定位的强烈需求,本文重点分析了当前5G定位技术实现高精度定位的潜力与面临的关键挑战。另外,为了有效支持分析与设计 5G定位算法,提出了5G定位专用仿真平台框架,基于该平台可模拟5G系统硬件损伤、无线环境等因素对参数估计算法的影响,并可以此设计有效的补偿方法,加速5G定位算法突破亚米级定位精度。

猜你喜欢

定位精度信道基站
信号/数据处理数字信道接收机中同时双信道选择与处理方法
5G IAB基站接入网络方案研究*
5G基站辐射对人体有害?
GPS定位精度研究
GPS定位精度研究
一种无人机数据链信道选择和功率控制方法
基于移动通信基站建设自动化探讨
高分三号SAR卫星系统级几何定位精度初探
可恶的“伪基站”
基于导频的OFDM信道估计技术