目录
一、希腊字母表
Α α:阿尔法 Alpha
Β β:贝塔 Beta
Γ γ:伽玛 Gamma
Δ δ:德尔塔 Delte
Ε ε:艾普西龙 Epsilon
Ζ ζ :捷塔 Zeta
Ε η:依塔 Eta
Θ θ:西塔 Theta
Ι ι:艾欧塔 Iota
Κ κ:喀帕 Kappa
∧ λ:拉姆达 Lambda
Μ μ:缪 Mu
Ν ν:拗 Nu
Ξ ξ:克西 Xi
Ο ο:欧麦克轮 Omicron
∏ π:派 Pi
Ρ ρ:柔 Rho
∑ σ:西格玛 Sigma
Τ τ:套 Tau
Υ υ:宇普西龙 Upsilon
Φ φ:fai Phi
Χ χ:器 Chi
Ψ ψ:普赛 Psi
Ω ω:欧米伽 Omega
二、方向(在某个空间的某个方向)
- 方向可以定义为从初位置指向末位置的指向
- 矢量的指向
- 在某个空间和绝对参考系某一个轴的一个夹角
三、信号卷积为什么后面是g(t-τ),为什么要倒过来
图来自Zhu Alex
对于一个系统,输入是f(x),冲击响应是h(x)
第0时刻,系统的输出是f(0)*h(0)
第1时刻,系统的输出是f(1)*h(0)+f(0)*h(1)
第2时刻,系统的输出是f(2)*h(0)+f(1)*h(1)+f(0)*h(2)
第n时刻,系统的输出是f(n)*h(0)+f(n-1)*h(1)+...+f(0)*h(n)
这个其实就是离散时间的卷积公式
站在当前的时间点,系统的对我们的回应都是h(0),而前一时刻回应是h(1),再前是h(2),直到h(n)。
没有翻转前,从h(0)向右看,看到的是h(1),h(2)...,他们都是对未来的影响,翻转后,再从h(0)向左看,看到的是过去对现在的影响,所以这样乘起来,影响的时间就正确了。
参考:
四、证明中心极限定理
- 中心极限定理,是指概率论中讨论随机变量序列部分和分布渐近于正态分布的一类定理。这组定理是数理统计学和误差分析的理论基础,指出了大量随机变量近似服从正态分布的条件。它是概率论中最重要的一类定理,有广泛的实际应用背景。在自然界与生产中,一些现象受到许多相互独立的随机因素的影响,如果每个因素所产生的影响都很微小时,总的影响可以看作是服从正态分布的。
- 中心极限定理的证明
五、阅读朱军(清华计算机) 的论文
- 朱军副研究员简介及学术成果
- “贝叶斯机器学习前沿进展综述” 论文地址
笔记:
摘要:
本文总结了贝叶斯方法在机器学习中的最新进展,具体内容包括贝叶斯机器学习的基础理论与方法,非参数贝叶斯方法及常用的推理方法、正则化贝叶斯方法等。最后还针对大规模贝叶斯学习问题进行了简要的介绍和展望,对其发展趋势作了总结和展望。
1.贝叶斯学习的基础
贝叶斯定理:
2.贝叶斯机器学习:
贝叶斯方法在机器学习领域有诸多应用。从单一变量的分类与回归到多变量的结构化输出预测,从有监督学习,到无监督学习及半监督学习等,贝叶斯方法几乎用于任何一种学习任务。
共性任务:预测、模型选择
3.非参数贝叶斯方法
- 狄利克雷过程
- 印度自助餐过程
- 应用及扩展
4.贝叶斯模型的推理方法
- 变分推理方法
- 蒙特卡洛方法
5.正则化贝叶斯理论及应用举例
6.大数据贝叶斯学习
- 随机梯度及在线学习方法
- 分布式推理算法
- 基于硬件的加速
六、卷积是线性的吗?
- 卷积有很多种,如循环卷积,周期卷积以及线性卷积
卷积是一个双线性运算符,即结合了向量空间的两个元素,以产生同一空间的第三个元素,这个元素在每个参数中都是线性的。
所以卷积也是线性的。