程序员

注册

 

发新话题 回复该主题

微积分线性代数概率论,这里有份超详细 [复制链接]

1#
北京哪家的白癜风比较好         http://pf.39.net/bdfyy/bdfjc/

本文经机器之心()授权转载,禁止二次转载

选自towardsdatascience,作者:TivadarDanka,编辑:小舟、陈萍

机器之心编译

大学时期学的数学现在可能派上用场了,机器学习背后的原理涉及许多数学知识。深入挖掘一下,你会发现,线性代数、微积分和概率论等都和机器学习背后的算法息息相关。

机器学习算法背后的数学知识你了解吗?在构建模型的过程中,如果想超越其基准性能,那么熟悉基本细节可能会大有帮助,尤其是在想要打破SOTA性能时,尤其如此。机器学习背后的原理往往涉及高等数学。例如,随机梯度下降算法建立在多变量微积分和概率论的基础上。因此掌握基础的数学理论对于理解机器学习模型很重要。但如果你是没有数学基础的初学者,这里有一份学习路线图,带你从零开始深入理解神经网络的数学原理。大多数机器学习都建立在三种数学理论的基础上:线性代数、微积分和概率论,其中概率论的理论又基于线性代数和微积分。微积分微积分包括函数的微分和积分。神经网络本质上是一个可微函数,因此微积分是训练神经网络的基本工具。首先,函数的导数定义如下在极限定理中,这也是点x处切线的斜率。下图说明了这个概念:将函数的导数可视化。微分可以用来优化函数:导数在局部极大值和极小值处为零。(也有例外,例如:f(x)=x3,x=0),导数为零的点称为临界点。临界点是最小值还是最大值可以通过查看二阶导数来确定:求导存在一些基本法则,其中最重要的可能是链式求导法则:上式告诉我们如何计算复合函数的导数。微分和积分互为逆运算,这是因为:它适用于任何可积函数f(x)。函数的积分也可以看作是曲线下的有符号面积。例如:因为当函数是负的时候,这里的面积也有一个负号:在-π到π的区间内,正弦函数曲线下的有符号面积。推荐一些比较好的学习资源,麻省理工学院的单变量微积分课程和GilbertStrang的教科书。

MIT课程链接:

分享 转发
TOP
发新话题 回复该主题