Table of Contents

第一讲 引言与点估计方法

0. 引言

提要

当今计算机科学最大的现状和挑战

计算机是高效运行的机器

完全过程化合成VS完全数据化

贝叶斯推理

但是,当前它通常被当做一个黑盒来使用

确定性 VS 机率性

数据驱动模型

81.jpg

数据驱动相关技术

82.jpg 机器学习 != 人工智能

学习问题的主要分类

更多

为什么学习数据驱动有用?

对计算机科学和技术有用吗?

怎样才是一个成功的学习算法?

一些实际应用

总结

作业

参考文献

1. 点估计

最大似然, 最大化后验估计, 贝叶斯估计, 回归方法与过拟合问题

你将要学习

你的第一个咨询工作

一个北京的IT亿万富翁咨询你如下问题:
  * 富:我有一些图钉,我将其抛出,那么它尾部朝上的概率是多少?
  * 你:那么扔几次看看吧...
  * (图待上传)
  * 你:概率是3/5
  * 富:这是为什么呢?
  * 你:这是因为...

二值分布

P(D|θ)=θαH(1-θ)αT

最大似然估计

\begin{aligned} \hat{\theta} & = \arg\max_\theta P(D|\theta) \\
& = \arg\max_\theta \ln P(D|\theta) \\
& = \arg\max_\theta \ln (\theta^{\alpha_H} (1-\theta)^{\alpha_T}) \\
& = \arg\max_\theta \alpha_H\ln\theta + \alpha_T\ln(1-\theta) \end{aligned}

\hat{\theta} = \frac{\alpha_T}{\alpha_H+\alpha_T} = \frac{3}{2+3}

我需要抛多少次?

θ^ = αT / (αH + αT)

对话片段
  * 富:我抛了两个头朝上和三个尾朝上
  * 你:θ是3/5,我可以证明
  * 富:如果我抛了20个头朝上和30个尾朝上呢
  * 你:答案依然一样,我可以证明
  * 富:能多解释一下吗
  * 你:越多约好吗
  * 富:所以我才会给你这么多报酬啊

简单边界(基于Höffding不等式)

P(|θ^ - θ*|≥ε)≤2e-2Nε^2

COPYRIGHT, 2013