射频信号(射频信号是模拟还是数字)
我们常见的射频指标很多,很多参数由于业内人士经常使用,经常用简称,但对普通电子爱好者来说就显得有些晦涩,甚至有些专有名词网上去查来查去依然是云里雾里,不知所云。
首先,我们了解下,什么是射频信号。射频,Radio Frequency,简称RF。那么什么样的信号叫做射频信号呢?首先射频信号指的是模拟信号,而不是数字信号。也就是说数字信号频率再高也不能叫射频信号。数字信号的传输速度单位是bps(bits per second,比特每秒),Mbps(Mega bits per second,兆比特每秒),Gbps(Giga bits per second,吉比特每秒),而模拟信号或者说交流信号的频率单位为Hz、MHz、GHz。我们假设射频信号频率下限为10MHz,数字信号可以分为低速数字信号和高速数字信号。
低速数字信号:R ≪fRF
高速数字信号:R≥fRF
这样低速数字信号就可以定义为R<10Mbps,高速数字信号定义为R≥10Mbps。
由此,我们定义频率高于10MHz的交流信号为射频信号;
远小于10Mbps的数字信号为低速数字信号;
大于等于10Mbps的数字信号为高速数字信号。
1、Rx Sensitivity(接收灵敏度)
接收灵敏度,应该是射频领域中最基本的概念之一,是表示接收机能够在不超过一定误码率的情况下识别的最低信号强度。这里说误码率,是沿用GSM和WCDMA CS(Circuit Switched,电路域交换)时代的定义作一个通称。在多数情况下,BER (Bit Error Rate,误比特率)或PER (Packet Error Rate,误包率)用来考察灵敏度。而LTE用Throughput(吞吐量)来表征灵敏度,用吞吐量不低于95%的最小信号表征LTE的灵敏度。
先来看下灵敏度的计算公式:
Sensitivity = 10log10(KT0) + 10log10(BW)+NF+CNRmin
其中10log10(KT0)表示的是室温25℃的底噪-174dBm,在绝对零度-273℃时我们认为电子是不运动的,这个时候的底噪是-174dBm,室温下电子有活动了,但底噪增加的非常有限,为了计算方便,室温下的底噪还记做-174dBm。
BW:Band Width,带宽;
NF:Noise Figure,系统的噪声系数,一般指第一个低噪放的噪声系数;
CNRmin:Minimum Carrier Noise Ratio Allowed,系统解调所允许的最小载波噪声比;
以LTE 20MHz业务为例,讲解下LTE灵敏度的由来。
Sensitivity(LTE) = 10log10(KT0) + 10log10(BW)+NF+CNRmin
= -174dbm + 10log10(18*10^6)+ 6db + (-1)dB
= -174dBm+72.55+6dB+(-1)dB
=-96.45dBm
BW = 18MHz for LTE 20MHz(100 RB = 100*180kHz = 18MHz)
NF = 6db(这里的NF对系统来说就是第一级LNA之前的插损加上该LNA自身的噪声系数NF)
CNRmin : -1db
互联网小常识:可变长子网掩码地址规划。子网长度不同,根据需求分析应该为每个子网分配的子网号长度、主机号长度,计算子网掩码,列出ip地址段。
2、SNR(信噪比)
第一部分讲灵敏度的时候我们多次提到过SNR,SNR就是信噪比,我们把接收机的解调信噪比定义为不超过一定误码率的情况下解调器能够解调的最低信噪比门限,S即信号Signal,或者称为有用信号;N即噪声Noise,泛指一切非有用信号的信号。有用信号是通信系统的发射机发射出来,对手机来说就是基站的发射机发出来并且通过PA放大的;而噪声的来源则是非常广泛的,最典型的就是那个著名的-174dBm/Hz——自然噪声底,要记住它是一个与通信系统类型无关的量,从某种意义上讲是从热力学推算出来的(所以它跟温度有关);另外要注意的是它实际上是个噪声功率密度(所以有dBm/Hz这个量纲),我们接收多大带宽的信号,就会接受多大带宽的噪声——所以最终的噪声功率是用噪声功率密度对带宽积分得来。
3、Tx Power(发射功率)
发射功率的重要性,在于发射机的信号需要经过空间的衰落之后才能到达接收机,那么越高的发射功率意味着越远的通信距离。那么自由空间的损耗大约是个什么数值呢?
基站下行链路预算计算
接收器的信号接收强度为 :Si = Pout - Ct + Gt - PL + Gr – Cr,其中Pout表示基站发射的功率,Ct基站发射信号的链路损耗,Gt表示发射天线增益,PL表示空间损耗,Gr表示接收天线增益,Cr表示接收信号的链路损耗,Si表示接收机收到的信号。
自由空间损耗,指的是电磁波在空气中传播时候的能量损耗,电磁波在穿透任何介质的时候都会有损耗。自由空间损耗公式:空间损耗PL=20log(F)+20log(D)+32.4;F为频率,单位为MHz;D为距离,单位为Km。
互联网小常识:入侵检测技术可以分为异常检测、误用检测及两种方式的结合。
由PL=20log(F)+20log(D)+32.4,算出来:
在2.4 GHz : 空间损耗PL=32.4+20log(2400)+20logD[km]=100 +20logD[km]
在3.5 GHz : 空间损耗PL=32.4+20log(3500)+20logD[km]=103.3 +20logD[km]
在5.8. GHz : 空间损耗PL=32.4+20log(5800)+20logD[km]=107.7 + 20 Log D[km]
2.4GHz信号的自由空间衰减值
3.5GHz信号的自由空间衰减值
LTE基站的普遍功率为40W,46dBm,假设基站部署的频率是2.4GHz,那么20公里外的信号大小只有46-126=-80dBm,依然足够手机使用;但如果是5G基站,部署在n78频段,频率是3.5GHz,那20公里以外的信号大小是多少呢?46-129.3=-83.3dBm,如果要保持和LTE基站同样的覆盖率,相应的功率就要提高3.3dB,差不多是加大一倍。
因此功率对于基站提高网络覆盖率是非常重要的,同理,保证手机端的上行功率对提高上行网络接入能力也有重要意义。
附常见的介质的衰减值参考表:
常见的介质的衰减值参考表
4、ACLR/ACPR
我们把这些项目放在一起,是因为它们表征的实际上是发射机噪声的一部分,只是这些噪声不是在发射信道之内,而是发射机泄漏到临近信道中去的部分,可以统称为邻道泄漏。其中ACLR和ACPR(其实是一个东西,不过一个是在终端测试中的叫法,一个是在基站测试中的叫法罢了,终端中的CDMA指标中也叫ACPR),都是以Adjacent Channel命名,顾名思义,都是描述本机对本系统本频段其他设备的干扰。而且它们有个共同点,对干扰信号的功率计算也是以一个信道带宽为计。这种计量方法表明,这一指标的设计目的,是考量发射机泄漏的信号,对相同或相似制式的设备接收机的干扰——干扰信号以同频同带宽的模式落到接收机带内,形成对接收机接收信号的同频干扰。
ACLR的定义
在LTE中,ACLR的测试有两种设置,EUTRA和UTRA,前者是描述LTE系统对LTE系统的干扰,后者是考虑LTE系统对UMTS(实际上就是WCDMA和TD-SCDMA)系统的干扰。所以我们可以看到EUTRA ACLR的测量带宽是LTE RB的占用带宽,如果不好区分,看到E就是LTE。UTRA ACLR的测量带宽是UMTS信号的占用带宽(FDD系统3.84MHz,TDD系统1.28MHz)。换句话说,ACLR/ACPR描述的是一种对等的干扰:发射信号的泄漏对同样或者类似的通信系统发生的干扰。实际网络中同小区邻小区、附近小区经常会有信号泄漏过来,所以网规网优的过程实际上就是容量最大化和干扰最小化的过程,而系统本身的邻道泄漏对于邻近小区就是典型的干扰信号;基站的不同信道或者基站与基站之间有干扰,同样的,在手机端,也会互相干扰。在通信系统的演化中,从运营商的投资角度来说,从来都是平滑过渡的,2G-->3G-->4G-->5G,即使现在都到5G时代了,2G的GSM依然在运营,LTE引入UTRA即是考虑了LTE在与UMTS共存的情形下对前代系统的射频干扰。B1频段有WCDMA,有LTE,未来也有5G,因此5G系统同样也要考虑5G对自身系统相邻信道和LTE和UMTS的影响;
LTE系统测试的UTRA和E-UTRA ACLR
待续......
互联网小常识:无线局域网主要包括如下硬件设备:无线网卡、无线接入点AP、天线、无线网桥、无线路由器和无线网关。其中AP一般可连接30台左右的无线网络终端。
免责声明:本站所有信息均搜集自互联网,并不代表本站观点,本站不对其真实合法性负责。如有信息侵犯了您的权益,请告知,本站将立刻处理。联系QQ:1640731186