- 【预备章节】1-1.机器学习背景知识介绍
- 【预备章节】1-2.python安装
- 【预备章节】1-3.机器学习基础概念
- 【线性回归以及非线性回归】2-1.一元线性回归
- 【线性回归以及非线性回归】2-2.代价函数
- 【线性回归以及非线性回归】2-3.梯度下降法
- 【线性回归以及非线性回归】2-4.(实战)梯度下降法-一元线性回归
- 【线性回归以及非线性回归】2-5.(实战)sklearn-一元线性回归
- 【线性回归以及非线性回归】2-6.线性代数复习
- 【线性回归以及非线性回归】2-7.多元线性回归
- 【线性回归以及非线性回归】2-8.(实战)梯度下降法-多元线性回归
- 【线性回归以及非线性回归】2-9.(实战)sklearn-多元线性回归
- 【线性回归以及非线性回归】2-10.(实战)sklearn-多项式回归
- 【线性回归以及非线性回归】2-11.标准方程法
- 【线性回归以及非线性回归】2-12.(实战)标准方程法
- 【线性回归以及非线性回归】2-13.特征缩放,交叉验证法
- 【线性回归以及非线性回归】2-14.过拟合,正则化
- 【线性回归以及非线性回归】2-15.岭回归
- 【线性回归以及非线性回归】2-16.(实战)sklearn-岭回归
- 【线性回归以及非线性回归】2-17.(实战)标准方程法-岭回归
- 【线性回归以及非线性回归】2-18.LASSO算法
- 【线性回归以及非线性回归】2-19.(实战)sklearn-LASSO算法
- 【线性回归以及非线性回归】2-20.(实战)sklearn-弹性网
- 【逻辑回归】3-1.逻辑回归
- 【逻辑回归】3-2.正确率,召回率,F1指标
- 【逻辑回归】3-3.(实战)梯度下降法-逻辑回归
- 【逻辑回归】3-4.(实战)sklearn-逻辑回归
- 【逻辑回归】3-5.(实战)梯度下降法-非线性逻辑回归
- 【逻辑回归】3-6.(实战)sklearn-非线性逻辑回归
- 【神经网络】4-1.神经网络背景概述
- 【神经网络】4-2.单层感知器介绍
- 【神经网络】4-3.(实践)单层感知器程序
- 【神经网络】4-4.(实践)单层感知器-异或问题
- 【神经网络】4-5.(实践)线性神经网,Delta学习规则
- 【神经网络】4-6.(实践)线性神经网络解决异或问题
- 【神经网络】4-7.BP神经网络介绍
- 【神经网络】4-8.BP算法推导
- 【神经网络】4-9.(实践)BP神经网络-异或问题
- 【神经网络】4-10.深入理解BP神经网络(论文讲解)
- 【神经网络】4-11.Google神经网络演示平台介绍
- 【KNN算法】5-1.KNN算法介绍
- 【KNN算法】5-2.(实践)KNN算法实现
- 【KNN算法】5-3.(实践)使用KNN完成Iris数据集分类
- 【决策树】6-1.决策树-信息熵,ID3,C4.5算法介绍
- 【决策树】6-2.(实践)决策树-例子
- 【决策树】6-3.(实践)决策树-画图
- 【决策树】6-4.决策树-CART算法
- 【决策树】6-5.(实践)决策树-CART算法
- 【决策树】6-6.(实践)决策树-线性二分类
- 【决策树】6-7.(实践)决策树-非线性二分类
- 【集成学习】7-1.(实践)Bagging介绍与使用
- 【集成学习】7-2.(实践)随机森林RF介绍与使用
- 【集成学习】7-3.(实践)Adaboost介绍与使用
- 【集成学习】7-4.(实践)Stacking和Voting介绍与使用
- 【集成学习】7-5.Kaggle介绍,数据分析
- 【贝叶斯算法】8-1.贝叶斯算法背景
- 【贝叶斯算法】8-2.贝叶斯算法介绍
- 【贝叶斯算法】8-3.(实践)贝叶斯-iris
- 【贝叶斯算法】8-4.(实践)词袋模型介绍
- 【贝叶斯算法】8-5.(实践)TF-IDF算法介绍
- 【聚类算法】9-1.K-MEANS算法介绍
- 【聚类算法】9-2.(实践)python实现K-MEANS算法
- 【聚类算法】9-3.(实践)sklearn-K-MEANS
- 【聚类算法】9-4.(实践)sklearn-Mini-Batch-K-Means
- 【聚类算法】9-5.K-MEANS算法存在的4个问题
- 【聚类算法】9-6.(实践)K-MEANS代价函数应用
- 【聚类算法】9-7.(实践)K-MEANS肘部法则
- 【聚类算法】9-8.K-MEANS算法可视化
- 【聚类算法】9-9.DBSCAN算法讲解
- 【聚类算法】9-10.DBSCAN算法可视化
- 【聚类算法】9-11.(实践)sklearn-DBSCAN算法
- 【主成分分析PCA】10-1.PCA算法讲解
- 【主成分分析PCA】10-2.(实践)python实现PCA降维
- 【主成分分析PCA】10-3.(实践)手写数字降维可视化
- 【支持向量机SVM】11-1.SVM简介
- 【支持向量机SVM】11-2.(实践)SVM简单例子
- 【支持向量机SVM】11-3.SVM算法推导
- 【支持向量机SVM】11-4.松弛变量与惩罚函数
- 【支持向量机SVM】11-5.SVM简单实例
- 【支持向量机SVM】11-6.SVM低维映射到高维
- 【支持向量机SVM】11-7.核函数
机器学习是人工智能的基础,本课程将学习到大多数机器学习中的经典算法。
机器学习(machine learning)形象的来说,就是使用机器(计算机)利用数据,自行对数据特征进行学习(与手工编写程序直接解决问题区分),来解决现实生活中的问题(如手写数字识别、实例分割等等)。
机器学习算法已经对人们对数据的利用方式造成了重大改变。例如医院开始将诊疗数据保存下来,包括病人的基本信息、医生的诊断结果、CT图像等等。使用学习型算法对这些数据进行分析,就可以得到一段时间内的病例发展趋势,或者尝试利用CT数据对病人的病灶进行自动检测等等。
分类
机器学习可以简单的认为是基于数据的学习。依据学习时是否有数据标签,分为监督学习、无监督学习和半监督学习
监督学习指不仅把训练数据丢给计算机,而且还把分类的结果(数据具有的标签)也一并丢给计算机分析。 计算机进行学习之后,再丢给它新的未知的数据,它也能计算出该数据导致各种结果的概率,给你一个最接近正确的结果。 由于计算机在学习的过程中不仅有训练数据,而且有训练结果(标签),因此训练的效果通常不错。监督学习的结果可分为两类:分类或回归。
非监督学习指的是只给计算机训练数据,不给结果(标签),因此计算机无法准确地知道哪些数据具有哪些标签,只能通过发现数据内部的一些相似特征,把数据划分为若干类。非监督学习一般表示为聚类算法。