高等数学(四)一元函数积分1
五、一元积分
5.1 不定积分与定积分
简单来说,不定积分就是微分的逆运算,注意不是求导的逆运算,两者差了一个\(dx\)。比如函数\(F(x)\),它的导数是\(f(x)\),那么对\(F(x)\)求微分就是\(f(x)dx\),而不定积分就是将微分变回原函数。 \[ \int f(x)dx=F(x)+C \] 不定积分表示的是所有导数为\(f(x)\)的函数的集合,所以在后面加任意常数也是可以的。
而定积分的概念来源于求曲边梯形的面积,分割、近似、求和、取极限的过程各种教材都讲得很清楚,这里不必多说,总之定积分的定义是如下的式子。 \[ \int^b_af(x)dx=\lim\limits_{\lambda\to0}\sum^n_{i=1}f(\xi_i)\Delta x_i \] 由不定积分与定积分的定义不难看出它们的一些性质,比如线性性质(先加减后积分等于先积分后加减,常数可以提出来)、区间可加性(曲边梯形的面积可以拆成两份再加起来),它们都符合我们的直观感受。
这里稍微再提一下积分中值定理:设\(f(x)\)在\([a,b]\)上连续,则至少存在一点\(\xi\in[a,b]\),使 \[ \int^b_af(x)dx=f(\xi)(b-a) \] 成立,其中\(\xi\in[a,b]\)还可以加强为\(\xi\in(a,b)\)。
用图像来理解就是在\((a,b)\)上至少存在一点\(\xi\),使得以\(f(\xi)\)为高的矩形与曲边梯形的面积相等,如下图。
如果是\(\xi\in[a,b]\),用介值定理可以证明,将\(b-a\)除到左边,那么左边的值是介于函数最大值和最小值之间的;如果是加强后的\(\xi\in(a,b)\),则用罗尔定理证明,构造辅助函数\(F(x)=\int^x_af(t)dt\),读者可以自行证明。
当然我还是希望给出直观的解释为什么条件可以强化为开区间:如果函数为常值函数,显然成立;否则设\(\xi=a\)恰好为端点,则必有曲线位于\(f(\xi)\)的上下,因为\(f(\xi)\)是平均值,所以开区间内必然还有一个点的函数值等于\(f(\xi)\),令\(\xi\)为那个点即可。
5.2 微积分基本定理
我一直觉得牛顿-莱布尼茨公式是微积分的灵魂,它将定积分与原函数联系到了一起,从而建立了不定积分与定积分的关系。而称之为微积分基本定理,其基本也说明了它的重要性。
设\(f(x)\)在\([a,b]\)上连续,\(F(x)\)是\(f(x)\)的一个原函数,则 \[ \int_a^bf(x)dx=F(b)-F(a) \] 最容易理解这个公式的例子是速度与距离的问题,已知距离函数,可以通过求导得到每个时刻的速度,那如果知道了速度,如何求每个时刻的距离呢?显然这两个问题是互逆的,也就是说要找到一个距离函数,使得它的导数是已知的速度函数,那这不就是找原函数、求不定积分吗?
假如速度函数为\(v(t)=8t-t^2\),通过不定积分与微分的逆运算关系,我们可以求得它的原函数为\(s(t)=4t^2-\frac{1}{3}t^3+C\),可以对它求导验证一下,这样我们就求出了距离函数。当然原函数中还有一个常数\(C\),这可以通过初始条件得出,如果初始距离为\(0\),即\(s(0)=0\),那么\(C=0\)。现在距离函数的表达式有了,那么任意时刻的距离也就能代入求得了。
现在我们知道了公式右边\(F(b)-F(a)\),也就是上面例子中的\(s(t)-s(0)\),那么它又是怎么和定积分关联起来的呢?学过高中物理都知道,速度函数下方的面积就是距离,因为横轴是时间,纵轴是速度,两者相乘自然就是距离。如果速度是变化的而不是匀速,你就可以把横轴无限分割成很多个小的时间片,在每一个时间片里都是近似匀速的,这不就是定积分的定义吗?所以公式左边就是\(\int_0^tv(t)dt\)。
当然上面说的都是物理上的解释,它可以帮助我们轻松理解函数和它原函数的关系。但我们还是得从数学上来说明这一点,事实上,这种理解方式更加精彩。现在我们抛开上面物理的意义,就把\(v(t)\)当成一个普通的函数,来考察它下方的面积,即定积分。这里我们引入一个变上限积分函数\(s(T)\)。 \[ s(T)=\int_0^Tv(t)dt \] 其中积分上限\(T\)是它的自变量,它的意义是横轴从\(0\)到\(T\),函数\(v(t)\)下方的面积。这个函数的有趣之处在于,它的微分\(ds\),即面积的增量(上图黄色矩形),等于\(v(T)\cdot dt\),所以在这一点\(s(T)\)的导数就是\(v(T)\),对于其它的点也是如此。也就是说我们找到了\(v(t)\)的一个原函数\(s(T)\),且这个原函数的意义就表示从初始位置到该点曲线下方的面积,而这一部分面积即\(\int_0^Tv(t)dt\)就等于面积函数的差值\(s(T)-s(0)\)。好好思考以上思维过程,对理解微积分帮助巨大。
5.3 定积分与原函数存在定理
首先必须清楚一点,函数可积和函数有原函数是两回事。函数可积是指定积分存在,即曲边梯形的面积是可以求出来的(不能是无穷)。而函数有原函数是指存在一个函数使得它的导数等于这个函数。
这两者概念是不同的,可积是与定积分有关的概念,要联想到定积分的定义,看一个函数是否可积就是看围成的曲边梯形的面积是否可求。而原函数是与不定积分有关的概念,求原函数就利用积分与微分的互逆去找函数就可以了。之所以会混淆这两种说法可能是因为受牛顿-莱布尼茨公式的影响了,认为定积分和不定积分两者几乎等同,但其实这是不对的,还是应该从定义出发。毕竟牛顿-莱布尼茨公式也只适用于闭区间上的连续函数。
举两个简单的例子来帮助理解一下可积与有原函数的不同:
可积但没有原函数 \[ f(x)= \begin{cases} 1&-1\le x\lt0\\ 2&0\le x\le1 \end{cases} \] 这个函数显然是可积的,围成的面积就是两个矩形,面积可求。但它的原函数在\(x=0\)这个点是不可导的,因为左导数为\(1\),右导数为\(2\),两者不相等,所以没有原函数。
有原函数但不可积 \[ f(x)= \begin{cases} 2x\sin\frac{1}{x^2}-\frac{2}{x}\cos\frac{1}{x^2}&0<x\le1\\ 0&x=0 \end{cases} \] 可以验证该函数的原函数如下,但\(f(x)\)在\(x\to0^+\)时无界,所以不存在定积分。 \[ F(x)= \begin{cases} x^2\sin\frac{1}{x^2}&0<x\le1\\ 0&x=0 \end{cases} \]
5.3.1 可积的充要条件
这一部分普通高数教材不会讲,但十分有助于理解定积分,也为下节讲定积分存在定理作铺垫。
在定积分的分割中,每一个小区间的函数值都有上确界\(M_i\)和下确界\(m_i\),如下图不同颜色标出。
记所有上确界的和(达布上和)为 \[ S(T)=\sum^n_{i=1}M_i\Delta x_i \] 所有下确界的和(达布下和)为 \[ s(T)=\sum^n_{i=1}m_i\Delta x_i \] 其中\(\Delta x_i\)为区间宽度,\(T\)代表分割的细度,\(T=max\{\Delta x_i\}\)。不难看出\(T\)越小,图像分割得越细,用上下界来表示定积分的误差越小。并且显然有如下关系,定积分的值介于达布上下和之间。 \[ s(T)\le\int_a^bf(x)dx\le S(T) \] 而达布上和随着划分变细,其值不增;达布下和随着划分的变细,其值不减(这一点结合图像想一下就明白了)。又由于二者是有下界和上界的,由单调有界定理可得二者的极限存在,称达布上和的极限为上积分,达布下和的极限为下积分。
如果上积分和下积分相等,那么由夹逼准则,定积分的值就是它们的极限。所以可积的充要条件为上积分等于下积分(达布定理)。用\(\varepsilon-\delta\)语言来描述就是,\(\forall\varepsilon>0\),\(\exists\delta>0\),使得只要\(T<\delta\),就有 \[ S(T)-s(T)<\varepsilon \]
或者将每一小段的\(M_i-m_i\)描述为振幅\(\omega_i\),则还可以表述为 \[ \sum^n_{i=1}\omega_i\Delta x_i<\varepsilon \]
5.3.2 定积分存在定理
定积分存在定理叙述如下:
- 设\(f(x)\)在\([a,b]\)上连续,则\(\int_a^bf(x)dx\)存在。
- 设\(f(x)\)在\([a,b]\)上有界,且只有有限个间断点,则\(\int_a^bf(x)dx\)存在。
第一条,闭区间上函数连续则定积分存在,读一遍觉得好像应该是这样,但为什么定积分存在还是有点想不清楚。下面就利用刚刚的达布定理来说明,达布定理最核心的一点就是每一小段的振幅之和可以趋于无穷小(\(\sum^n_{i=1}\omega_i\Delta x_i<\varepsilon\)),拿连续的函数来说,只要分得足够细,是可以使每一小段的振幅无限小,并且使所有段加起来的振幅和无限小,从而使之小于\(\varepsilon\)。详细的证明可以参考如下。
因为闭区间上连续则一致连续,所以\(\forall\varepsilon>0\),\(\exists\delta>0\),对于任意两点,只要\(|x_1-x_2|<\delta\),就有 \[ |f(x_1)-f(x_2)|<\frac{\varepsilon}{b-a} \] 而只要取\(T<\delta\)就能满足上式,所以有 \[ \omega_i<\frac{\varepsilon}{b-a}\\ \sum^n_{i=1}\omega_i\Delta x_i<\frac{\varepsilon}{b-a}\sum^n_{i=1}\Delta x_i=\varepsilon \]
第二条与第一条不同的是允许有限个点间断,但前提是有界。不妨设函数有一个间断点(哪种间断点都无所谓,只要有界),那么整个函数可以分为三段,如下图。
其中左右两段都是连续函数,可以使其振幅和分别小于\(\frac{\varepsilon}{3}\)。中间绿框中的这一段,由于高度是有界的,只要左右宽度取的足够小就可以使这一段的\(\omega_i\Delta x_i\)小于\(\frac{\varepsilon}{3}\)。从而三段振幅加起来小于\(\varepsilon\),满足达布定理。
从这个例子也可以看出为什么要求是有界的,那如果无界会发生什么情况呢?比如函数 \[ f(x)= \begin{cases} \frac{1}{x}&0<x\le1\\ 0&x=0 \end{cases} \] 在\([0,1]\)上是无界的,不论将这个区间划分得多么细,最左边的那个区间\([0,\xi]\)都没有上界,从而这一段振幅无法表示,振幅和无法小于\(\varepsilon\)。事实上,只要有一个点是无界的,函数都不可积。函数可积的必要条件为函数有界(可积必有界)。
5.3.3 原函数存在定理
原函数存在定理叙述如下:
- 设\(f(x)\)在\([a,b]\)上连续,则在\([a,b]\)上必存在原函数。
- 设\(f(x)\)在\([a,b]\)上有第一类间断点或无穷间断点,则在\([a,b]\)上必无原函数。
- 设\(f(x)\)在\([a,b]\)上有振荡间断点,在\([a,b]\)上是否有原函数与函数形式有关。
对于第一条,变上限积分函数就是它的原函数。对于第二条,其原函数不存在的根本原因是在间断点导数不存在或左右导数不相等(可去间断点上导数不存在,跳跃间断点上左右导数不相等,无穷间断点上导数不存在),所以其原函数在间断点不可能有导数,正是这一点导致原函数不存在。对于第三条,其是否存在原函数的原因还是和第二条一样,关键是看间断点的导数,比如 \[ f(x)= \begin{cases} 2x\sin\frac{1}{x}-\cos\frac{1}{x}&x\ne0\\ 0或1&x=0 \end{cases} \] \(x\ne0\)时的原函数为\(F(x)=x^2\sin\frac{1}{x}\),如果\(f(0)=0\),那么在\(x=0\)处补充定义\(F(x)=0\),则\(F(x)\)是它的一个原函数;但如果\(f(0)=1\),则原函数不存在,因为由导数定义,原函数在\(x=0\)这一点的导数\(\lim\limits_{x\to 0}\frac{x^2\sin(1/x)-F(0)}{x}\)不可能等于\(1\)。
定积分存在定理和原函数存在定理确实有些容易混淆,相同的是【连续既可积又有原函数】,不同的是【是否可积得看面积能否表示(振幅和能否无穷小),是否有原函数得看原函数在间断点的导数】。
5.4 变限积分函数
在之前讲牛顿-莱布尼茨公式的时候就提到了变上限积分函数\(\int_a^xf(t)dt\),它的意义是函数\(f(t)\)下方从\(a\)到\(x\)的面积,它的导数就是\(f(t)\)。下面更详细地讨论一下这类变限积分函数。
变限积分本质上还是定积分,而定积分就要往曲边梯形的面积上想,而所谓变限,无非就是这个定积分的上限或下限是一个变量。就拿变上限积分函数来说,定积分的积分上限是一个变量,这个积分表示的就是从积分下限到这个变量之间曲边梯形的面积,用定积分的定义来写就是 \[ \int_a^xf(t)dt=\lim\limits_{n\to +\infty}\sum_{i=1}^nf(a+\frac{x-a}{n}\cdot i)\cdot\frac{x-a}{n} \] 这样写很奇妙的一点就是右边的表达式中没有\(t\),将\(t\)换成任何变量都不影响这个积分的值,甚至把\(t\)替换成\(x\)也是可以的,\(\int_a^xf(x)dx=\int_a^xf(t)dt\),为什么会这样呢?从上面的等式来解释是因为右边没有\(t\),所以不管\(t\)是什么都不会影响最终结果;从变限积分函数的意义来解释是因为它表示的是函数\(f\)下方的面积,只要函数确定了,积分的值就确定了,与自变量本身是用\(x\)代表还是用\(t\)代表没有关系。这就是常说的定积分只与积分限和函数有关,与积分变量无关。之所以我们通常都写作\(t\)是为了与积分上限\(x\)区分罢了。
然后来看一些变限积分的性质,参考书上几乎都有,但我还是想好好讲讲其中的道理。
\[ \int_a^xg(x)f(t)dt=g(x)\int_a^xf(t)dt \]
一般的书都会说因为\(t\)是积分变量,所以\(x\)可以看作常数,那为什么非积分变量的项就可以看作常数呢?这就需要对\(x\)和\(t\)这两个变量有深刻的理解,\(x\)是变限积分函数的自变量,而\(t\)只是一个积分变量,在这个定积分中,\(t\)的值会从\(a\)取到\(x\),也就是说,\(t\)的值是一个范围,不管\(x\)是多少,\(t\)都是变化的。那当这个函数的\(x\)取定,\(g(x)\)也就定下来了,剩下的就是求一个定积分,这时\(g(x)\)当然作为一个常数可以提出来。或者从上面的定积分定义来理解,\(g(x)\)是可以提到极限外面的,因为这个极限是对\(n\)的,\(x\)和\(a\)在其中就是常数。
\[ \int_a^xf(与x和t有关的表达式)dt=\int_{下限}^{上限}f(u)du \]
这种情况就是\(x\)跑到\(f\)的自变量里了,这时这个变限积分函数的意义就很不明确了,并不是表示曲边梯形的面积,你可以去想它是什么意思,但是我实在想不出来,太抽象了。所以我们把它转化为能理解的方式,将自变量直接用一个新的变量\(u\)来表示,微分和上下限也随之改变,这样它就又是表示曲边梯形的面积了。
之前我还有一点也想了很久,为什么\(\int_a^xg(x)f(t)dt\ne\int_a^xg(x)f(x)dx\),不是说\(f\)的自变量可以随便替换吗?建议先好好想想再接着看。没错,自变量虽然可以换,但这里的函数却改变了。当变限函数的自变量\(x\)确定时,左式的\(g(x)\)是一个常量,但右式的\(g(x)f(x)\)却是函数,右式可以替换为\(\int_a^xg(t)f(t)dt\),从这里就可以看出右式的函数变成了\(g(t)f(t)\),而不是原来的\(f(t)\)。
当然参考书肯定会讲变限积分函数的求导,我就直接给出最全的这条(如果不是这种标准的形式需要用上面的代换使得被积表达式是\(f(t)dt\)的形式): \[ (\int_{v(x)}^{u(x)}f(t)dt)'=f(u(x))u'(x)-f(v(x))v'(x) \] 其实真的很容易理解,之前说的变限积分都是上限或下限是\(x\),而现在的上下限都是\(x\)的函数,那么先将它拆成两份\(\int_a^{u(x)}f(t)dt-\int_a^{v(x)}f(t)dt\)。再分别看,这不就是复合函数求导吗,回想前面讲复合函数求导时的三根数轴,\(x\)影响\(u(x)\)再影响变限积分,所以直接用复合函数求导的做法就可以了。
下面还有一点啰嗦的话,与上一小节有关,姑且说一下,想清楚这个也有助于巩固上一小节。设\(\Phi(x)=\int_a^xf(t)dt\),则有以下结论:
- \(f(x)\)连续,则\(\Phi(x)\)连续可导;
- \(f(x)\)有可去间断点,则\(\Phi(x)\)连续可导;
- \(f(x)\)有跳跃间断点,则\(\Phi(x)\)连续不可导;
- \(f(x)\)有无穷间断点,则\(\Phi(x)\)不存在;
- \(f(x)\)有振荡间断点,则\(\Phi(x)\)是否存在不确定。
变限积分函数本质上还是定积分,所以好好回想一下可积的相关概念。之所以第一类间断点不影响\(\Phi(x)\)的连续性,是因为只要间断点附近的区间无限窄,面积也能无限小,即满足连续性的条件\(\Delta x\to0,\Delta y\to0\)。至于这点是否可导直接看\(f(x)\)在间断点左右的值就可以了,如果不相等(就是跳跃间断点的情况),那么变限积分函数在这点的左右导数就不相等,当然不可导。
这里我更想问的是在可去间断点这一点的变限积分的导数值是多少,是等于\(f(间断点)\)的值,还是等于\(f(间断点左右极限)\)的值。答案是后者,因为只有这一个点的值和附近的点不同,用导数的定义来看变限函数在这一点的增量是\(f(间断点左右极限)\cdot dx\),而不是\(f(间断点)\cdot dx\)。最通俗的解释就是一个点的函数值变化无法影响面积,至少得一个区间的所有函数值都改变。