目录

漫话机器学习系列121.偏导数Partial-Derivative

【漫话机器学习系列】121.偏导数(Partial Derivative)

https://i-blog.csdnimg.cn/direct/d6ecf007920a49b78b21f26636ca40c0.png

偏导数(Partial Derivative)详解

1. 引言

在数学分析、机器学习、物理学和工程学中,我们经常会遇到多个变量的函数。这些函数的输出不仅取决于一个变量,而是由多个变量共同决定的。那么,当其中 某一个变量发生变化 时,函数的输出如何变化呢?这就涉及到了 偏导数(Partial Derivative) 的概念。

偏导数是多变量微积分的重要工具,它描述了一个多变量函数对其中某一个变量的变化率。在最优化问题、梯度计算、物理模拟等多个领域,偏导数都扮演着关键角色。

本文将详细介绍:

  • 偏导数的定义
  • 计算方法
  • 几何意义
  • 在机器学习等领域的应用

2. 偏导数的定义

https://latex.csdn.net/eq?f%28x_1%2C%20x_2%2C%20...%2C%20x_n%29 是一个由多个变量 https://latex.csdn.net/eq?x_1%2C%20x_2%2C%20...%2C%20x_n ​ 组成的函数,我们希望研究函数在某个变量 xix_ixi​ 上的变化趋势,而 保持其他变量不变 ,则偏导数的定义如下:

https://latex.csdn.net/eq?%5Cfrac%7B%5Cpartial%20f%7D%7B%5Cpartial%20x_i%7D%20%3D%20%5Clim_%7B%5CDelta%20x_i%20%5Cto%200%7D%20%5Cfrac%7Bf%28x_1%2C%20...%2C%20x_i%20+%20%5CDelta%20x_i%2C%20...%2C%20x_n%29%20-%20f%28x_1%2C%20...%2C%20x_i%2C%20...%2C%20x_n%29%7D%7B%5CDelta%20x_i%7D

其中:

  • https://latex.csdn.net/eq?%5Cfrac%7B%5Cpartial%7D%7B%5Cpartial%20x_i%7D ​ 表示 https://latex.csdn.net/eq?x_i 进行偏导 ,即计算函数在该变量上的变化率。
  • 其他变量 https://latex.csdn.net/eq?x_1%2C%20...%2C%20x_%7Bi-1%7D%2C%20x_%7Bi+1%7D%2C%20...%2C%20x_n保持不变
  • 这个极限表示当 https://latex.csdn.net/eq?x_i ​ 发生微小变化时,函数 f 的变化速率。

2.1. 与普通导数的区别

普通导数(单变量函数的导数)是研究 一个变量的函数 y = f(x) 随着 x 变化的变化率:

https://latex.csdn.net/eq?f%27%28x%29%20%3D%20%5Clim_%7B%5CDelta%20x%20%5Cto%200%7D%20%5Cfrac%7Bf%28x+%5CDelta%20x%29%20-%20f%28x%29%7D%7B%5CDelta%20x%7D

偏导数 适用于 多个变量的函数 ,它只关注 某一个变量的变化率 ,其他变量保持不变。


3. 偏导数的计算方法

3.1. 基本计算规则

计算偏导数时,我们假设所有变量 除了要求偏导的变量外 都是常数,然后按照普通导数的方法求导。

示例 1:二元函数

给定函数:

https://latex.csdn.net/eq?f%28x%2C%20y%29%20%3D%20x%5E2%20+%203xy%20+%20y%5E2

求 fff 对 x 和 y 的偏导数。

(1)对 x 求偏导

https://latex.csdn.net/eq?%5Cfrac%7B%5Cpartial%20f%7D%7B%5Cpartial%20x%7D%20%3D%20%5Cfrac%7B%5Cpartial%7D%7B%5Cpartial%20x%7D%20%28x%5E2%20+%203xy%20+%20y%5E2%29

  • https://latex.csdn.net/eq?x%5E2 对 x 的导数是 2x。
  • 3xy 对 x 的导数是 3y(因为 y 被视为常数)。
  • https://latex.csdn.net/eq?y%5E2 对 x 的导数是 0(因为它不含 x)。

所以:

https://latex.csdn.net/eq?%5Cfrac%7B%5Cpartial%20f%7D%7B%5Cpartial%20x%7D%20%3D%202x%20+%203y

(2)对 y 求偏导

https://latex.csdn.net/eq?%5Cfrac%7B%5Cpartial%20f%7D%7B%5Cpartial%20y%7D%20%3D%20%5Cfrac%7B%5Cpartial%7D%7B%5Cpartial%20y%7D%20%28x%5E2%20+%203xy%20+%20y%5E2%29

  • https://latex.csdn.net/eq?x%5E2 对 y 的导数是 0(因为它不含 y)。
  • 3xy 对 y 的导数是 3x(因为 x 被视为常数)。
  • https://latex.csdn.net/eq?y%5E2 对 y 的导数是 2y。

所以:

https://latex.csdn.net/eq?%5Cfrac%7B%5Cpartial%20f%7D%7B%5Cpartial%20y%7D%20%3D%203x%20+%202y


3.2. 高阶偏导数

偏导数可以继续求导,形成 二阶偏导数 ,甚至更高阶的偏导数。二阶偏导数有两种情况:

  1. 同一个变量求两次导数 (纯二阶偏导): https://latex.csdn.net/eq?%5Cfrac%7B%5Cpartial%5E2%20f%7D%7B%5Cpartial%20x%5E2%7D
  2. 对不同变量求两次导数 (混合二阶偏导): https://latex.csdn.net/eq?%5Cfrac%7B%5Cpartial%5E2%20f%7D%7B%5Cpartial%20x%20%5Cpartial%20y%7D
示例 2:求二阶偏导

继续对 示例 1https://latex.csdn.net/eq?f%28x%2C%20y%29%20%3D%20x%5E2%20+%203xy%20+%20y%5E2 计算二阶偏导数:

  • 纯二阶偏导:

    https://latex.csdn.net/eq?%5Cfrac%7B%5Cpartial%5E2%20f%7D%7B%5Cpartial%20x%5E2%7D%20%3D%20%5Cfrac%7B%5Cpartial%7D%7B%5Cpartial%20x%7D%20%282x%20+%203y%29%20%3D%202

    https://latex.csdn.net/eq?%5Cfrac%7B%5Cpartial%5E2%20f%7D%7B%5Cpartial%20y%5E2%7D%20%3D%20%5Cfrac%7B%5Cpartial%7D%7B%5Cpartial%20y%7D%20%283x%20+%202y%29%20%3D%202

  • 混合二阶偏导:

    https://latex.csdn.net/eq?%5Cfrac%7B%5Cpartial%5E2%20f%7D%7B%5Cpartial%20x%20%5Cpartial%20y%7D%20%3D%20%5Cfrac%7B%5Cpartial%7D%7B%5Cpartial%20y%7D

    https://latex.csdn.net/eq?%5Cfrac%7B%5Cpartial%5E2%20f%7D%7B%5Cpartial%20y%20%5Cpartial%20x%7D%20%3D%20%5Cfrac%7B%5Cpartial%7D%7B%5Cpartial%20x%7D%20%283x%20+%202y%29%20%3D%203


4. 几何意义

偏导数的几何意义可以用 曲面切线的斜率 来理解:

  • https://latex.csdn.net/eq?%5Cfrac%7B%5Cpartial%20f%7D%7B%5Cpartial%20x%7D 代表在 固定 y 的情况下 ,曲面沿 x 轴方向 的变化率。
  • https://latex.csdn.net/eq?%5Cfrac%7B%5Cpartial%20f%7D%7B%5Cpartial%20y%7D 代表在 固定 x 的情况下 ,曲面沿 y 轴方向 的变化率。

可以想象,一个多变量函数 f(x, y) 是一个三维曲面,而偏导数就是在某个方向上的斜率。


5. 偏导数在机器学习中的应用

5.1. 梯度下降(Gradient Descent)

在机器学习和深度学习中,偏导数用于计算 损失函数的梯度 ,指导模型参数的优化。梯度下降算法的核心思想是:

https://latex.csdn.net/eq?%5Ctheta%20%3D%20%5Ctheta%20-%20%5Calpha%20%5Cfrac%7B%5Cpartial%20J%7D%7B%5Cpartial%20%5Ctheta%7D

其中:

  • https://latex.csdn.net/eq?%5Cfrac%7B%5Cpartial%20J%7D%7B%5Cpartial%20%5Ctheta%7D 是损失函数 J 对参数 θ 的偏导数。
  • α 是学习率。

5.2. 计算神经网络的权重更新

神经网络中的 反向传播(Backpropagation) 算法依赖于偏导数来计算梯度,从而调整权重。


6. 结论

偏导数是研究 多变量函数的变化率 的重要工具,它在数学、物理、工程和机器学习等领域都有广泛应用。通过计算偏导数,我们可以:

  • 了解函数在某个方向上的变化趋势。
  • 优化机器学习模型(如梯度下降)。
  • 分析三维曲面的形状和斜率。

掌握偏导数是进一步学习多元微积分、优化方法和机器学习的基础!