贝叶斯定理是贝叶斯学派的基石,描述了在获得新证据后如何更新我们的信念:
贝叶斯定理:
P(c|x)
后验概率
P(x|c)
似然
P(c)
先验概率
P(x)
证据因子
核心思想: 后验概率 = (似然 × 先验) / 证据。通过观察数据x,更新对类别c的认知。
为最小化总体风险,贝叶斯判定准则选择使后验概率最大的类别:
判定规则:
可视化贝叶斯分类器的决策边界和后验概率分布(开发中)
交互式演示开发中
敬请期待!
极大似然估计(MLE)是频率学派估计参数的标准方法:选择使观测数据出现概率最大的参数。
似然函数:
为什么用对数: 将连乘变为求和,便于计算和优化,且不改变最优解。
朴素贝叶斯分类器基于一个强假设:属性条件独立性假设。 虽然这个假设在现实中往往不成立,但朴素贝叶斯在实践中表现出奇地好!
完整的类条件概率:
参数数量随维度指数增长!
简化后:
参数数量线性增长!
当训练集中某个属性值在某个类别下从未出现时,会导致零概率问题: 整个后验概率都会变成0!
如果某个P(xi|c) = 0:
一个零值毁掉整个结果!
拉普拉斯修正(加1平滑):
确保所有概率都非零
经典的"打网球"问题:根据天气条件预测是否适合打网球,理解贝叶斯公式的计算过程
| 天气 | 温度 | 湿度 | 风力 | 打球 |
|---|---|---|---|---|
| 晴 | 高 | 高 | 弱 | 否 |
| 晴 | 高 | 高 | 强 | 否 |
| 阴 | 高 | 高 | 弱 | 是 |
| 雨 | 适中 | 高 | 弱 | 是 |
| 雨 | 低 | 正常 | 弱 | 是 |
| 雨 | 低 | 正常 | 强 | 否 |
| 阴 | 低 | 正常 | 强 | 是 |
| 晴 | 适中 | 高 | 弱 | 否 |
| 晴 | 低 | 正常 | 弱 | 是 |
| 雨 | 适中 | 正常 | 弱 | 是 |
| 晴 | 适中 | 正常 | 强 | 是 |
| 阴 | 适中 | 高 | 强 | 是 |
| 阴 | 高 | 正常 | 弱 | 是 |
| 雨 | 适中 | 高 | 强 | 否 |
半朴素贝叶斯分类器适当考虑一部分属性间的相互依赖信息, 在模型复杂度和分类性能之间寻求平衡。
Super-Parent ODE
所有属性依赖于同一个超父属性
Tree Augmented Naive Bayes
属性间形成树状依赖结构
Averaged ODE
集成多个SPODE模型
核心思想: 在朴素贝叶斯(完全独立)和贝叶斯网(任意依赖)之间找到平衡点。
贝叶斯网(Bayesian Network) 借助有向无环图(DAG)来刻画属性之间的依赖关系, 并使用条件概率表(CPT)来描述属性的联合概率分布。
联合概率分解: P(x₁,...,xn) = ∏P(xi|Parents(xi))
给定证据变量的观测值,计算查询变量的后验概率分布
从数据中学习贝叶斯网的结构和参数
✓贝叶斯定理提供了从先验概率和似然得到后验概率的原理性框架
✓贝叶斯判定准则在理论上是最优的,最小化期望风险
✓朴素贝叶斯通过属性条件独立性假设大幅简化计算,虽然假设强但实际效果好
✓拉普拉斯修正是处理零概率问题的标准方法,确保所有概率非零
✓半朴素贝叶斯和贝叶斯网在模型复杂度和性能之间寻求更好的平衡
✓贝叶斯方法特别适合小样本场景和需要融合先验知识的情况