第1章 时间频率校准方法概述
时间频率校准的目的是测量信号源输出时间频率与标准时间频率的偏差,涉及准确度的概念。为了完成时间频率校准,需要可溯源至国家标准的时间频率参考信号、待测设备和测量比对系统三部分。本章主要介绍时间频率校准的基本概念和基本过程。
1.1 时间频率校准的基本概念
校准就是采用某些特定的测量设备,测量待校准信号与公认的参考信号之间偏差的过程。本节将介绍时间频率校准的基本概念。
1.1.1 时间与频率
时间同长度、质量和温度等物理量相比,主要区别在于它的力学性质与其他不同,时间不可能保持不变,也就是说,时间永不停息,绝无终止。
一台钟停掉时,可以指示出时间尺度上的一点或瞬间,即停掉的时刻,但时间将继续流逝。如果停掉的钟恰巧是唯一的钟表,那么将会失去由这个钟所提供的时间尺度。倘若重新启动这个钟,则它必然要滞后一段时间,但究竟滞后多少只能靠在它停掉期间一直保持运转的其他钟的帮助才能确定。
此处,使用了时间的两种含义,即在一个具有确定原点的时间坐标轴上某一点的时刻以及钟被停掉的时间间隔。在日常生活中,时间的双重含义可以用下面两句话加以说明:
(1)“是上班的时间了”——指的是时刻;
(2)“上班的时间很长”——指的是时间间隔。
与时间有关的一个量是周期,生活中的周期现象早已为人们熟悉,如地球的自转或日出日落是一种周期现象,单摆或平衡轮的摆动、电子学中的电磁振荡都是周期现象。自然界中类似上述周而复始出现的实物或时间还有很多,周期过程重复出现一次所需要的时间称为周期,记为T。在数学中,将此类具有周期性的现象概括为一种函数关系,即
式中,m为整实数;t为描述周期过程的时间变量;T为周期过程的周期。
频率是单位时间内周期性过程重复、循环或振动的次数,记为f。周期和频率之间互为倒数关系:
在国际单位制(International System of Units, SI)中,时间的单位是秒(s),即周期的单位是秒(s),频率的单位是赫兹(Hz)。在电信号的频率测量中一般使用千赫兹(kHz)或兆赫兹(MHz)。1kHz相当于每秒出现一千个周期,1MHz相当于每秒出现一百万个周期。
单位时间内的频率平均值可以被精确测量。时间是计量学中的七个基本量之一,同时也是测量分辨率和准确度昀高的物理量,计量学中其他基本量测量的准确度一般为10-6,而时间测量的准确度可以达到10-9,甚至可以达到10-13。
时间频率信号源是指用于产生与标准时间、标准频率一致的时间频率信号的设备。用户使用时,需要先校准设备,使其保持在允许的误差范围内。
1.1.2 时间校准的基准
为了更精确地校准时间,必须采用一种公认的有权威性的参考作为时间频率校准的基准,这种基准一般应从两方面来选择(P.卡特肖夫,1982):
(1)周期运动的稳定性。在不同时期内,该基准运动周期必须一样,不能因为外界条件的变化而有过大的变化,但绝对没有变化是不可能的。
(2)周期运动的复现性。周期过程在地球上任何地方、任何时候,都可以通过一定的实验或观测予以复现,并付诸应用。
稳定性和复现性同其他任何物理参数一样,不是绝对的标准化,而是针对一定的精度指标而言的。也就是说,在某一历史阶段内,它只是人类科学技术水平所能达到的昀高值,并以此作为当时选择的依据。随着科学技术的发展,新仪器、新方法不断涌现,人类又依据这两个条件去寻找新的时间测量基准。时间测量基准主要有三种:地球的自转,表现为世界时;地球的公转,表现为历书时;原子跃迁频率,表现为原子时(吴守贤等,1983;P.卡特肖夫,1982)。
地球自转的周期是1d,世界时(universal time,UT)的秒以一天的1/86400给出,地球公转的周期是1年,历书时的秒以1年的1/31536000给出,这两种时间不属于本书介绍的内容,本书主要说明原子时产生过程中的时间频率测量与校准。
1967年 10月举行的第十三届国际度量衡大会上通过原子时秒长定义,即位于海平面上的铯 133(133Cs)原子基态的两个超精细能级在零磁场中跃迁振荡9192631770周所持续的时间为一个原子时秒。值得注意的是,在这个定义中,测量的不是时间而是频率。在天文学领域中,秒的定义是以一个长周期的分数形式给出的,此处是由大量快速振荡周期的累加给出的。
需要明确的是,时间中秒的定义是铯133原子基态的两个超精细能级在零磁场中跃迁振荡 9192631770周所持续的时间,虽然产生的机理比较复杂,但可以理解为将频率进行计数,计数9192631770个周期就是1s。此处,强调了时间标准和频率标准的同一性,既可以由时间标准导出频率标准,也可以由频率标准导出时间标准。一般情况下不再区分时间标准和频率标准,而统称为时频标准。
在原子时中,时间测量是基于正弦波信号完成的。为测量方便,一般由原子钟产生 1MHz、5MHz、10MHz三种正弦波,对正弦波进行分频或倍频,产生不同频率。其中,时间信号一般是通过对正弦波分频产生,如对10MHz进行107分频,产生秒脉冲(1 pulsar per second,1PPS),秒脉冲的上升沿代表某一时刻。
1.1.3 时间频率校准的定义
时间频率校准是指对时间频率标准性能的测量,即比较待测信号与参考信号差值的测量过程。被校准的时间频率标准被称为待测设备(device under test, DUT)。通常需要校准频率的待测设备有石英振荡器、铷原子振荡器和铯原子振荡器,需要校准时间的待测设备主要是各种原子钟。为了完成校准,待测设备必须与时间频率参考(时间频率基准或时频标准)进行比对。时间频率参考的准确度要比待测设备高一定比例才能实现校准,将该比例称为测试不确定度,比例一般为10∶1。实际测量中,也可以选择较小的测试不确定度,如比例为5∶1,其完成校准将花费更长的时间(Itano et al.,1993)。
当时间频率校准完成后,可以得到待测设备的输出频率与其频率标称值的相似程度。频率标称值是指振荡器标注的输出频率。例如,一个待测设备的频率标称值为 5MHz,表明该设备可以产生 5MHz的频率。时间频率校准的目标是测量该设备实际产生的频率与频率标称值的差值,该差值被称为频率偏差。一般情况下,频率偏差保持在一个特定范围之内,这个范围被称为频率的准确度,也称为不确定度。待测设备需要达到的频率准确度是由用户的需求决定。在某些情况下,用户使用设备制造商公布的参数作为是否满足使用要求的判断依据。如果一个设备校准后,其准确度满足使用要求,则可以正常使用;如果准确度不能满足使用要求,这个设备就不能继续使用,需要从工作场所撤换掉(Itano et al.,1993;Allan et al.,1988;Howe et al.,1981)。
用于校准的时间频率参考必须具有可溯源性。国际标准化组织( International Organization for Standardization, ISO)定义了溯源的含义(ISO,1999),即测量结果或标准频率必须通过一系列完整的且满足给定准确度的比对后溯源至规定参考,通常为国际或国家频率基准。
在我国,完整的时间对比昀终需要溯源到中国科学院国家授时中心(National Time Service Center,Chinese Academy of Science, NTSC)(以下简称“国家授时中心”)保持的协调时(NTSC)[coordinate universal time, National Time Service Center, UTC(NTSC)]。在时间频率校准中,溯源是通过向 NTSC发送待校准的时间信号或由 NTSC发送标准时间信号到用户来实现的,如用于校准大量频率标准。两种方法在时间频率校准中都是可实现的。
振荡器对于环境的变化非常敏感,对设备的启动和关闭更加敏感。例如,一个已经校准的振荡器重启后,设备的校准可能失效。除此之外,搬运过程中振动和温度的改变都有可能使校准失效。基于以上原因,校准实验室需要在设备使用地进行校准。
一般来说,可以使用标准传递将时间频率参考标准从国家授时中心传递到当地校准实验室。标准传递是指能通过接收和处理无线电信号来提供可溯源至国家授时中心的参考时间和频率的信号,这些无线电信号均可溯源至国家时频基准。可用的无线电信号主要有国家授时中心发播的短波授时系统,呼号为 BPM;低频时码授时台,呼号为 BPC;长波授时系统,呼号为 BPL;或者是北斗卫星导航系统的授时信号,其时间溯源至 UTC(NTSC)。每一种无线电信号中广播的溯源信号均有其特定的准确度级别。使用标准传递是时间频率校准领域的一个巨大进步,不但能使任何拥有无线电接收设备的地点同时得到可溯源的校准,还能有效地消除时间频率标准在搬移过程中产生的偏差。时间频率标准传递昀突出的特点是可以实现直接传递,这是与其他基本物理量分级传递显著不同的地方。
可溯源的标准传递完成后,通过一系列技术程序进行校准,这种程序称为校准方法。承担校准任务的校准实验室需要用书面形式详细说明这些方法,还要建立一套能完成整个校准程序的测量系统。ISO 17025 号文件对于校准和测试实验室的基本要求:实验室必须使用适当的方法和步骤在确定的误差范围内实现时频标准的测试和校准,包括使用适当的统计学方法分析通过测量准备、采样、处理、传输和储存等各种测试项目所得到的测试数据。
此外,ISO 17025 号文件要求,实验室所使用的测试和校准方法还要包括能适合于客户端测试和校准需求的部分。当客户端不能指定时,就需要校准实验室从国际或国家地区标准、国际知名组织、相关的国际期刊与文献、设备生产厂家的规格说明中为其选择恰当的校准方法。
因此,校准实验室必须使用一套科学的、准确的方法自动地完成校准工作,这样才能保证实验室高质量校准工作的连续性,有助于满足 ISO标准或实验室标准鉴定条件的要求。
1.1.4 时间频率校准的过程
根据上面描述,时间频率校准的一般过程如图 1.1所示。校准的参考信号源来自于国家标准时间或协调世界时,通过标准传递,在校准实验室复现出参考时
间和频率,比较待测设备输出与参考信号的偏差,根据需要对待测设备进行调整,完成校准过程。
图1.1 时间频率校准的一般过程
本节介绍了时间频率校准的基本概念。接下来,在对时间频率校准中涉及的两个时间频率信号主要指标进行分析的基础上,说明时间频率校准的一般方法,然后以美国国家标准技术研究院(National Institute of Standards and Technology, NIST)的时间频率校准系统为例,说明时间频率的校准。
1.2 时间频率信号的指标
频率偏差和频率稳定度是时间频率信号的两个主要指标,本节将给出频率偏差和频率稳定度的定义并说明测量方法。频率偏差与频率准确度相关,频率稳定度与频率随机变化相关。
1.2.1 频率偏差
在实际工作中,待测设备并不能精确输出其频率标称值的频率信号,需要通过校准,获得它与频率标称值的偏差,使得待测设备输出频率接近频率标称值。
为了测量待测设备的频率偏差,需要将其与参考频率标准相比较,通常是将待测设备产生的频率与参考频率标准产生的频率进行相位比较。相位比较方法将在后面章节中详细介绍。通过相位变化量和测量时间,可以估算待测设备的频率偏差,用频率准确度表示。测量时间是指测量相位差变化所使用的时间长度。频率准确度可由式(1.3)得出(Allan et al.,1988;Howe et al., 1981):
式中,.t为相位差变化量;T为测量时间。假如在 24h的时间间隔上测得相位差变化量为1.s(百万分之一秒),在计算中采样时间的单位应该从小时化为秒,则式(1.3)就变为式(1.4)
频率偏差越小,待测设备产生的频率也就越接近标准频率。通过与参考频率标准进行比对,
温馨提示:请使用浙江工贸职业技术学院的读者帐号和密码进行登录