1.尝试从极大似然估计的角度推导出最小二乘法。
中心极限定理说明大量的随机变量共同作用的结果会倾向于趋近一个正态分布,即记$\epsilon_i=y-x_i^Tw$满足$N(\mu, \sigma^2)$。
而其中的均值可以通过bias调整到零。可得到如下的联合分布
2.当记输入数据为$X \in R^{N\times (p+1)}$,$Y \in R^N$,使用最小二乘法时,试给出相关参数的闭式解。
3。上式存在什么问题,有什么改进方式
4.使用L2正则项时,是否包含偏置项,需要对输入进行怎样的处理。 不包含。 需要对数据进行中心化处理。
5.预测得到的
1在深度学习中,主要采用的是一阶优化还是二阶优化方法,为什么。 主要采用一阶优化方法。 二阶方法的计算量过大,且对于数据有较大的敏感性。
2优化方法中的动量有什么效果,试画图说明 这是一种对于信息求取滑动平均的方式。可以帮助模型更快的到达优值点,减小震荡 图的话就画一个减小震荡快速通过峡谷的就可以了。
3优化中使用的BN算法有什么优点,原因是什么,还有什么类似方法 优点
- 加速收敛
- 可以不用使用L2或是dropout
- 对于学习率的要求降低
原因
- 过去一般认为其可以减少ICS
- 现在也可以从增强L-连续性的角度进行说明
此外还有 IN GN等
4正负样本特别不均衡可以如何处理,cv中有哪些策略是与此相关的。 focal loss ohem rpn中的top N策略