- Introduction - Probabilistic and Statistical Machine Learning 2020
- Lecture 1 - Introduction
- Lecture 2 - Reasoning under Uncertainty
- Lecture 3 - Continuous Variables
- Lecture 4 - Sampling
- Lecture 5 - Markov Chain Monte Carlo
- Lecture 6 - Gaussian Distributions
- Lecture 7 - Gaussian Parametric Regression
- Lecture 8 - Learning Representations
- Lecture 9 - Gaussian Processes
- Lecture 10 - Understanding Kernels
- Lecture 11 - Example of GP Regression
- Lecture 12 - Gauss-Markov Models
- Lecture 13 - Gaussian Process Classification
- Lecture 14 - Generalized Linear Models
- Lecture 15 - Exponential Families
- Lecture 16 - Gaussian Process Classification
- Lecture 17 - Factor Graphs
- Lecture 18 - The Sum-Product Algorithm
- Lecture 19 — Extended Example- Topic Modelling
- Lecture 20 — Latent Dirichlet Allocation
- Lecture 21 — Expectation Maximization (EM)
- Lecture 22 — Variational Inference
- Lecture 23 — Tuning Inference Algorithms
- Lecture 24 — Customizing Probabilistic Models
- Lecture 25 — Making Decisions
- Lecture 26 — Revision
概率推理系统地应用于所有的推理问题,包括统计模型的推理参数,有时被称为贝叶斯方法。然而,这个词往往会引起非常强烈的反应(积极或消极,取决于你问谁),所以我们更喜欢中性的术语“概率方法”。此外,我们将经常使用最大似然估计等技术,它们不是贝叶斯方法,但肯定属于概率范式。
一、EM算法的基础和贝叶斯基础
1)EM算法的基本原理和推导
2)EM算法的基本应用,k-means和高斯混合模型
二、隐马可夫和条件随机场
1)隐马(HMM)的基于原理和对应的三个问题及其解法
2)最大熵模型
3)条件随机场
三、话题模型
话题
四、其它
1)采样
2)变化
3) 卡尔曼滤波器
4) 粒子滤波
5)非参数贝叶斯