- 第一章:高等数学基础 1-函数
- 2-极限
- 3-无穷小与无穷大
- 4-连续性与导数
- 5-偏导数
- 6-方向导数
- 7-梯度
- 第二章:微积分 1-微积分基本想法
- 2-微积分的解释
- 3-定积分
- 4-定积分性质
- 5-牛顿-莱布尼茨公式
- 第三章:泰勒公式与拉格朗日 1-泰勒公式出发点
- 2-一点一世界
- 3-阶数的作用
- 4-阶乘的作用
- 5-拉格朗日乘子法
- 6-求解拉格朗日乘子法
- 第四章:线性代数基础 1-行列式概述
- 2-矩阵与数据的关系
- 3-矩阵基本操作
- 4-矩阵的几种变换
- 5-矩阵的秩
- 6-内积与正交
- 第五章:特征值与矩阵分解 1-特征值与特征向量
- 2-特征空间与应用
- 3-SVD要解决的问题
- 4-特征值分解
- 5-SVD矩阵分解
- 第六章:随机变量 1-离散型随机变量
- 2-连续型随机变量
- 3-简单随机抽样
- 4-似然函数
- 5-极大似然估计
- 第七章:概率论基础 1-概率与频率
- 2-古典概型
- 3-条件概率
- 4-条件概率小例子
- 5-独立性
- 6-二维离散型随机变量
- 7-二维连续型随机变量
- 8-边缘分布
- 9-期望
- 10-期望求解
- 11-马尔科夫不等式
- 12-切比雪夫不等式
- 13-后验概率估计
- 14-贝叶斯拼写纠错实例
- 15-垃圾邮件过滤实例
- 第八章:数据科学你得知道的几种分布 1-正太分布
- 2-二项式分布
- 3-泊松分布
- 4-均匀分布
- 5-卡方分布
- 6-beta分布
- 第九章:核函数变换 1-核函数的目的
- 2-线性核函数
- 3-多项式核函数
- 4-核函数实例
- 5-高斯核函数
- 6-参数的影响
- 第十章:熵与激活函数 1-熵的概念
- 2-熵的大小意味着什么
- 3-激活函数
- 4-激活函数的问题
- 第十一章:回归分析 1-回归分析概述
- 2-回归方程定义
- 3-误差项的定义
- 4-最小二乘法推导与求解
- 5-回归方程求解小例子
- 6-回归直线拟合优度
- 7-多元与曲线回归问题
- 8-Python工具包介绍
- 9-statsmodels回归分析
- 10-高阶与分类变量实例
- 11-案例:汽车价格预测任务概述
- 12-案例:缺失值填充
- 13-案例:特征相关性
- 14-案例:预处理问题
- 15-案例:回归求解
- 第十二章:假设检验 1-假设检验基本思想
- 2-左右侧检验与双侧检验
- 3-Z检验基本原理
- 4-Z检验实例
- 5-T检验基本原理
- 6-T检验实例
- 7-T检验应用条件
- 8-卡方检验
- 9-假设检验中的两类错误
- 10-Python假设检验实例
- 11-Python卡方检验实例
- 第十三章:相关分析 1-相关分析概述
- 2-皮尔森相关系数
- 3-计算与检验
- 4-斯皮尔曼等级相关
- 5-肯德尔系数
- 6-质量相关分析
- 7-偏相关与复相关
- 第十四章:方差分析 1-方差分析概述
- 2-方差的比较
- 3-方差分析计算方法
- 4-方差分析中的多重比较
- 5-多因素方差分析
- 6-Python方差分析实例
- 第十五章:聚类分析 1-层次聚类概述
- 2-层次聚类流程
- 3-层次聚类实例
- 1-KMEANS算法概述
- 2-KMEANS工作流程
- 3-KMEANS迭代可视化展示
- 1-DBSCAN聚类算法
- 2-DBSCAN工作流程
- 3-DBSCAN可视化展示
- 1-多种聚类算法概述
- 2-聚类案例实战
- 第十六章:贝叶斯分析 1-贝叶斯分析概述
- 2-概率的解释
- 3-贝叶斯学派与经典统计学派的争论
- 4-贝叶斯算法概述
- 5-贝叶斯推导实例
- 6-贝叶斯拼写纠错实例
- 7-垃圾邮件过滤实例
- 8-贝叶斯解释
- 9-经典求解思路
- 10-MCMC概述
- 11-PYMC3概述
- 12-模型诊断
- 13-模型决策
人工智能(Artificial Intelligence,简称AI)正以惊人的速度改变着我们的生活。然而,要实现智能的机器,离不开数学的支持。本文将带你深入探索人工智能的数学基础,揭示AI背后的数学奥秘。
一、线性代数(Linear Algebra)
线性代数是人工智能的数学基础之一,它涉及向量、矩阵、线性变换等概念。在机器学习和深度学习中,线性代数被广泛应用于数据处理、特征提取和模型训练等方面。
二、微积分(Calculus)
微积分是研究变化和积分的数学分支,对于理解和优化机器学习算法至关重要。梯度下降、反向传播等核心算法都依赖于微积分的基本原理。
三、概率论与统计学(Probability and Statistics)
概率论与统计学是人工智能中不可或缺的数学基础。它们用于建模和分析不确定性,帮助我们理解和处理数据中的随机性,为人工智能算法提供可靠的推断和决策依据。
四、信息论(Information Theory)
信息论是研究信息量和信息传输的数学理论。在机器学习中,信息论被广泛应用于特征选择、数据压缩和模型评估等方面,为模型的学习和泛化能力提供基础。
五、优化理论(Optimization Theory)
优化理论是研究如何找到最优解的数学分支。在人工智能中,优化理论被广泛应用于模型训练、参数调优和决策制定等方面,帮助我们找到最佳的解决方案。
六、图论(Graph Theory)
图论是研究图和网络结构的数学分支。在人工智能中,图论被广泛应用于推荐系统、社交网络分析和路径规划等方面,帮助我们理解和分析复杂的关系和连接。
人工智能必备高等数学知识点清单
AI 技术岗所要求的高等数学知识,大致可以分为四个方面:微积分、概率统计、线性代数,和最优化理论。
每个分领域都至少是一本书(也可以是一摞书)。我们在这里暂且抽取和机器学习、深度学习相关的最基础部分,给大家做一下聚焦:
【微积分】
基础概念(极限、可微与可导、全导数与偏导数):只要学微积分,就必须要明白的概念,否则后面什么都无法继续学习。
函数求导:求导是梯度的基础,而梯度是 AI 算法的基础,因此求导非常重要!必须要搞清楚概念,并学会常见函数的导函数求法。
链式法则:符合函数求导法则,反向传播算法的理论基础。
泰勒公式和费马引理:这两者也是梯度下降法的基础组成,重要程度与求导相同。
微分方程及其求解:很重要,是部分机器学习模型求解的必备知识。
拉格朗日乘子法和对偶学习:理解 SVM/SVR 的理论基础。SVM/SVR 作为机器学习模型的常用“中坚力量”,其重要程度不言而喻。
【概率统计】
简单统计量(个数、最大值、最小值、中位数、均值、方差)及其物理意义:概率统计的概念基础。
随机和抽样:随机——概率统计成立的基础;抽样——统计的方法。
频率和概率,以及概率的基本概念:搞清什么是概率,它和频率的区别与联系。
几种常见的概率分布及公式(平均分布、二项分布、正态分布……)
参数估计:只知道大致的分布,不知道具体的参数怎么办?没关系,我们可以根据估计一下。其中最重要的是极大似然估计。
中心极限定理:如果不知道某事物的概率分布该怎么办?没关系,就当它符合正态分布好了。可是为什么能这样近似呢?因为我们有中心极限定理呀。
假设验证:到底假设得对不对呢?我们根据样本来验证一下。
贝叶斯公式:太重要啦!是它使得我们可以根据先验概率来预测后验概率。而朴素贝叶斯公式自己就是朴素贝叶斯模型本身啊。
回归分析:想想那么多名字里有“回归”的模型吧!
状态转移网络:概率链、隐马尔可夫模型和条件随机场。
【线性代数】
向量与标量:用向量和标量表示事物特征的差别是什么?
向量空间,向量性质及向量的几何意义:所谓高维低维指的是什么?同一个向量能否存在于不同的向量空间里?向量的移动、转向和拉伸是如何做到的?
线性函数:什么是线性函数,它具备怎样的性质?
矩阵和矩阵运算:矩阵出现的目的是什么?掌握矩阵的基础运算(与常数/向量/矩阵的加法和乘法)。
特殊矩阵(方阵、实对称矩阵、(半)正定/负定矩阵等)及其性质:根据不同的性质,我们可以划分出哪些特殊矩阵,它们都有哪些特殊性质?
特征值和特征向量:定义、性质,以及特征值求解。
用矩阵求解微分方程。
正交:什么是正交?函数的正交,向量的正交,和超平面的正交分别是如何形式化表达的,又具备怎样的物理意义。
【最优化方法】
凸函数与极值:搞清楚什么是凸函数,凸函数与极值的关系,极值和最值的关系等。
注意:国内不同教科书对于“凸”的定义存在不一致的情况,有些书上把其他书上说的“凸函数”叫做“凹函数”。
直观而言,我们一向说的“凸函数”是那类一维自变量情况下看起来像个“U”,二维自变量下像个碗的那种函数。
最优化:什么是最优化问题?什么是最优化方法?无限制条件和有限制条件下的最优化方法基本原理分别是什么?
梯度下降法:最基础最常用的最优化方法,以及其他若干最优化方法的基础,务必全面掌握。
其他最优化算法:了解其他一些常用最优化方法,例如,牛顿法、共轭梯度法、线性搜索算法、模拟退火算法、遗传算法等。
人工智能背后的数学大神们
上述知识点,看起来好像有点吓人哦,不像是“我能记得住”的样子。
有没有办法能够轻松愉快不累且高效地掌握人工智能(机器学习/深度学习)领域要用到的数学知识呢?
这里推荐一种笔者在探索中逐步发现的,简单直接又有些趣味的方法:以数学家为主线学习高等数学知识 —— 也就是,“以人为轴”学AI数学。
我们先来看看下面这些画像吧:
图片
你能认出几个?
他们分别是(从左到右从上到下依次):牛顿、高斯、贝叶斯、费马、泰勒、拉格朗日、拉普拉斯、傅立叶,和伯努利。
说实话,现在全球数以千万计的 AI 技术人员真应该把这些大佬供起来,说咱们的饭碗都是他们赏的也不为过。
牛顿大神发明了微积分;
辅之以费马引理、泰勒公式,奠定了如今一切 AI 最优化算法工程实现的理论基础。
拉格朗日乘子法为限定条件下多元函数的最优化问题提供了解法。
数学王子高斯在概率论和线性代数领域的非凡贡献不胜枚举,仅仅高斯分布一项就堪称概率论之抗鼎模型。
贝叶斯让我们可以用既往经验预测未来。
伯努利家族不仅在概率论领域贡献颇丰,就连他家二弟卖给洛必达的“洛必达法则”亦是求解具有不定型的极限的不二法门。
拉普拉斯算子于微积分和线性代数而言都是非常重要的基石。
傅立叶变换在时域信号和频域信号之间的桥梁作用成就了整个语音领域。
当然,还有下面这位:
莱布尼茨与牛顿分别独立发明了微积分,他提出的符号系统一直沿用至今。他同样是西方二进制算数体系的提出者和线性代数的重要奠基人。
当然,无论微积分、概率统计还是线性代数,都不是在一日之内形成的学科,都经历了数百年乃至上千年大量人类顶级头脑的思考和探索,对其做出贡献的数学家灿若繁星。
对照我们亟待掌握的知识点,以这些理论的提出者为基点,沿着数学史学习之,并同步了解数学发展的进程。顺便还可以以大神们之间的交往和恩怨等八卦作为润滑剂。
如此一路学来,既多了许多趣味,又能追本溯源,了解到这些理论提出的现实背景(例如:物理学的发展及其对数学工具的需求)。
在学理论的同时了解这一理论最初的作用域和当时解决的实际问题,对于我们理解其中各类概念的物理意义有着极大的帮助。