第一章绪论
1.1工程结构可靠性研究的缘起
有目的地建造工程结构,是人类文明走向繁荣的标志之一。对于土木工程结构,虽然建筑的目的是它的使用价值,但在建造之初,*重要的考量是结构的安全性,否则,便无使用价值可言。
图1.1受均布荷载的简支梁
结构的安全性,不妨用*简单的一根梁做例子加以说明。
对于图1.1所示的简支梁,考虑其上受均布荷载q的作用,根据材料力学的知识,可知梁中的*大弯矩为
(1.1)
在另一方面,根据梁的材料性质及几何尺寸,可知梁正截面的极限承载能力(极限弯矩)为
(1.2)
式中,f( )表示一般的函数关系;σu为材料的极限应力(强度);b、h分别为梁截面的宽度与高度。
为了保证梁的安全性,要求梁中的*大弯矩小于梁的极限弯矩,即
(1.3)
如果上述问题所涉及的物理量都可以精确控制,即梁上的荷载可以精确给定、梁的尺寸可以准确制造、梁中材料的极限强度不发生变化,一句话,各个物理量都是确定性变量,则上述梁的安全性可以通过式(1.3)完全保证。
可惜的是,我们生活在一个充满不确定性的世界之中。即使对上述简支梁,在实际工程中,其上的荷载、梁中材料的极限强度都是难以完全控制的。根据工程实践的统计,这些物理量大多属于随机变量、服从某种概率分布。例如,图1.2是建筑结构中典型的活荷载的概率分布;图1.3则给出了混凝土材料受压极限强度的概率分布。
图1.2典型活荷载的概率分布
图1.3混凝土单轴受压强度的概率分布
人们可能会问:既然结构荷载与材料强度具有随机性,那么用*大可能的荷载与*小可能的强度设计结构,不就可以保证结构的安全了吗?确实如此。但是,这样设计的结构却不是经济的,甚至在经济上是不可承受的。例如地震作用,对于一个具体的工程场址,地震发生的概率很小,但由于随机性,地震作用力的大小可以差别很大。许多实例表明,这种差别可以达到数倍甚至数十倍之多。因此,如果不能科学地反映随机性的影响而采用上述简单化的“*大可能荷载+*小可能强度”的方式设计结构,“人类所有财富可能都是不够的。大量的一般结构将成为碉堡。”[1]
为了考虑客观存在的随机性的影响,人们在结构安全性的基础上,引入了结构可靠性的概念,并用概率对这一概念做出定量刻划。例如,对于上述简支梁,结构安全性在概率意义上是可以保证的。这一概念可以用“结构安全的概率”Ps(通常称为结构可靠度)加以科学描述,即
(1.4)
式中,Pr{ }表示概率测度。
显然,这种概率意义上的保证是具有一定条件的,*基本的条件是结构的制造(施工)条件、使用条件和结构的使用年限,因此,工程结构可靠度的一般定义是[2,3]: 在规定的条件下和规定的时间内,结构完成预定功能的概率。
在这里,规定的条件是指正常的设计、施工与使用条件,规定的时间则一般指结构的设计使用年限。事实上,结构荷载与结构性质都随时间的增长而改变,因此,结构可靠度与结构使用年限密切相关。预定的功能,通常以工程结构的各种性能指标(如强度、变形、使用过程中的各种功能限制条件)来刻画。
显然,在上述定义中,既包括了结构的安全性要求,也包括了结构的适用性要求和耐久性要求。所以,一般认为,工程结构可靠性包括了安全性、适用性与耐久性三方面的内涵。
采用概率的方式衡量与设计结构的安全性、适用性与耐久性,较之经典的确定性设计观念,是一个革命性的变化。由此,引发了丰富多彩、方兴未艾的研究发展史。
1.2工程结构可靠度研究的发展史
前已阐明,结构可靠性研究的核心是解决存在随机性的条件下结构安全性的科学度量问题。早在1911年,匈牙利学者卡钦奇(Качинчи)就提出用统计数学分别研究结构荷载与材料强度的概率分布的思想[3]。1926年,德国学者Mayer出版了以“结构安全性”为主题命名的专著[4,5],第一次较为系统地论述了采用概率论研究结构安全性的学术设想。20世纪40年代后期,在美国学者Freudenthal与苏联学者斯特列津斯基(H. C. Стрелецкий)、尔然尼钦(A. P. Ржаницын)等的倡导下,工程结构可靠性问题开始得到学术界与工程界的普遍重视,并逐步成为结构工程研究中的核心和热点问题[6,7]。到20世纪60年代末,基于概率论与统计学的结构可靠性理论初具雏形。20世纪60年代末、70年代初,工程结构可靠性领域的三大学术组织——国际结构安全性与可靠性协会(International Association for Structural Safety and Reliability, IASSAR, 1969)、国际土木工程风险与可靠性协会(Civil Engineering Risk and Reliability Association, CERRA,1971)和国际结构安全性联合委员会(Joint Committee on Structural Safety, JCSS,1971)相继成立。经过有组织地系统推动,以一次二阶矩理论为核心的结构可靠度分析理论在20世纪70年代中期趋于成熟,并逐步被欧洲、美国和中国等采用为工程结构设计规范的基础。与此同时,工程可靠性理论也开始以一个独立分支学科的形态进入大学的课堂。
由于早期的研究者倾向于从概率分析的角度研究结构可靠度问题,所以形成了经典结构可靠度分析的数学分析传统。在一般意义上,结构可靠度定义为结构功能函数大于零的概率。由于功能函数可以一般地表示为结构作用和结构参数中基本随机变量的函数,因而结构可靠度可以表达为基本随机变量的联合概率密度函数在安全域内的多维积分,即
(1.5)
式中,Z=g(x1, x2, , xn)为结构功能函数;X=(x1, x2, , xn)为结构作用和结构参数中的基本随机变量;fX(x1, x2, , xn)为基本随机变量的联合概率密度函数。
对这一多维积分的近似求解,构成了经典结构可靠度理论研究的出发点与归宿点。而针对不同的研究对象与目的,又分别形成了结构构件层次、结构整体层次的静力可靠度分析及结构动力可靠度分析的研究分枝。
为了清晰起见,以下对构件层次的可靠度分析、整体结构的可靠度分析与结构动力可靠度分析的研究历史分别展开论述。
1.2.1构件层次的可靠度分析
为了获得结构可靠度的科学度量方法,研究者进行了大量的探索[8-11]。在早期,由于文化上的隔阂,这些研究是在苏联和西方世界分别独立进行的。一般认为,苏联的尔然尼钦于1947年*早提出了利用荷载效应与强度的均值及方差计算结构可靠度的二阶矩法,同年,苏联学者斯特列津斯基提出了将结构安全系数分别考虑的方法[3,7]。在西方,美国学者Freudenthal于20世纪40年代中期提出了类似于式(1.5)的结构可靠度分析方法[6]。Cornell于20世纪60年代末从抗力效应综合变量的线性正态模型出发提出了一次二阶矩基本方法和可靠性指标的概念[12],从而形成了在西方世界被普遍接受的结构可靠度分析中心点法在欧洲,一般认为以功能函数二阶矩定义的可靠性指标由德国科学家Basler于1961年*早提出。。在试图将中心点法推广到非线性功能函数和非正态变量时,Ditlevsen等多位研究者发现: 中心点法不能保证可靠性指标β的不变性,即当功能函数采用力学本质等价的不同数学表达形式时,可靠性指标不唯一[13]。由此,引发了一系列研究,*终发现了可靠性指标的几何意义。1974年,Hasofer 和 Lind将标准正态空间中的原点到一般非线性功能函数的*短距离定义为几何可靠性指标[14]。利用这一概念,可以将结构可靠度分析问题近似转化为在标准正态空间中寻找非线性曲面上距原点*近点(验算点)的优化问题。通过在*近点对功能函数采用线性或非线性展开,可以给出失效概率的近似值。在线性展开条件下, Rackwitz和Fiessler提出了基于Newton Raphson迭代的可靠性指标求解算法[15]。对于一般的概率分布,通过引入反函数变换(其一般形式为Rosenblatt变换),可将实际工程中大量出现的非正态分布随机变量转化为标准正态分布的随机变量[16],从而可以近似应用上述算法。经JCSS的进一步完善,这一算法于1977年被作为标准算法向工程界推荐,并逐渐被国际上公认为JC法(或验算点法)。例如,1978年美国颁布的《美国钢结构设计规范》和1984年中国颁布的《建筑结构设计统一标准》,均采用JC法作为确立工程结构构件可靠度的理论基础。
中心点法和验算点法,均属于一次可靠度分析方法(first order reliability method, FORM)。这类方法的基本思想,是将功能函数在基本随机变量的均值点或验算点附近进行线性展开从而获得近似的可靠性指标。进而,通过假定功能函数的概率分布为正态分布,在可靠性指标与失效概率之间建立一一对应关系。但令人遗憾的是,一般的结构功能函数往往是高度非线性函数,采用线性展开往往具有较大误差。为此,人们试图在验算点附近对功能函数作二次展开逼近,并据此给出可靠性指标的二次近似表达,从而发展了二次可靠度分析方法(second order reliability method, SORM)[17,18]。然而,利用这一方法求取可靠性指标的复杂程度大大增加,且关于结构失效概率计算精度的改进程度并不明显,因而,未能在工程中得到广泛的应用。
早在1952年,苏联学者莫列(P. A. Муллер)就提出了采用三阶矩计算结构失效概率的方法[3],但由于计算方法复杂,没有引起后人的注意。21世纪初,留日中国学者赵衍刚和他的导师小野澈郎一起,将Rosenblueth提出的点估计方法[19,20]推广到较为一般的结构功能函数的高阶矩估计中,发展了计算结构可靠度的高阶矩法[21,22]。由于直接利用功能函数的前三阶矩或前四阶矩计算结构可靠性指标而不需要迭代计算,这类算法体现出了较好的计算精度与计算效率[23]。
1.2.2整体结构的可靠度分析
上述分析在本质上均属于结构构件层次、单一失效模式的静力可靠度分析(一些文献称之为截面层次的可靠度分析)。利用这种分析方法设计工程结构,是难以保证工程结构的整体安全性与可靠性的。事实上,在复杂的外部与内部作用下,实际结构存在多种可能的失效模式。按照经典的功能函数分析思路,整体结构的失效概率由多种可能失效模式对应的多个功能函数共同决定。由于各个功能函数的失效域往往交叉重叠,便构成了所谓失效模式相关问题,从而造成概率计算的高度复杂性。在经典的结构体系可靠度理论研究中,失效模式相关问题构成了几乎不可逾越的难关。
借鉴系统可靠性分析理论,早期学者具有想象力地将工程结构整体的失效问题等效为串联系统或并联系统的失效问题,并据此利用概率论估计系统的可靠度(因此,在经典可靠度分析理论中,结构整体可靠度被称为结构系统可靠度或结构体系可靠度)。1966年,Freudenthal等率先将结构系统等效为串联系统,并给出了系统失效概率的上界[24]。1968年,洪华生等提出了结构体系可靠度分析的上、下界估计公式[25]。1975年,洪华生等发展了概率网络评估技术,初步提出了失效相关问题的解决方案,发展了结构可靠度评估近似算法[26]。1979年,Ditlevsen研究了结构体系可靠度的窄界限问题,在Kounias[27] 、Hounter[28]等提出的结构体系可靠度窄界限估计公式基础上,针对高斯正态随机变量、提出了利用验算点法计算结构体系可靠度的上、下界计算方法[29]。至此,采用串、并联系统分析工程结构整体可靠度的方法有了一个初步可行的雏形。但是,如何构造这些串、并联系统?问题并未得到解决。引用结构塑性分析的机
展开