# Background
泛化误差的上界可以表示为:
其中 是模型复杂度,比如正则项或者 dropout 等,可以是显式的也可以是隐式的。
机器学习的理论分析几乎都源于这个公式。
目前最新的机器学习算法大多都会关注 OOD (Out-of-Distribution) 问题,即训练数据(即 source domain)与应用数据(即 target domain)的范围不一致的情况。虽然在不同领域的称呼不一样,如上下文学习、小样本学习、迁移学习、元学习等。
那么,在 OOD 问题上,泛化误差如何得到限制?即如何得到 和 的关系?
迁移学习的基本情况可以包括:
- Covariate shift: 最基本
- Prior shift:
- Conditional shift: 最困难
目前对第一种情况研究较多。
研究的方法主要包括:
- 核方法 (kernel embedding):希望在高维空间中, 和 更接近
- 对抗学习 (adversarial learning)
# 统计学习流程
训练误差: