线性回归(Linear Regression)

线性回归, 最简单的机器学习算法, 当你看完这篇文章, 你就会发现, 线性回归是多么的简单. 首先, 什么是线性回归. 简单的说, 就是在坐标系中有很多点, 线性回归的目的就是找到一条线使得这些点都在这条直线上或者直线的周围, 这就是线性回归(Linear Regression). 是不是有画面感了? 那么我们上图片: 那么接下来, 就让我们来看看具体的线性回归吧 首先, 我们以二维数据为例

- 阅读全文 -

随机梯度下降和小批量梯度下降详解

所谓随机梯度下降, 顾名思义, 就是随机选取数据来做随机梯度下降. 普通梯度下降 普通的梯度下降的计算公式为: \omega = \omega - \lambda\frac{\partial J}{\omega} 其中, J为损失函数, 而\omega就是我们需要求的参数, \lambda为步长, 也就是我们所说的学习率. 也就是说, 梯度下降法其实就是将相应的参数按照梯度下降的方向前进一点点

- 阅读全文 -

各种梯度下降及其特点

全量梯度下降/批梯度下降(BGD, Batch Gradient Descent) 就是正常的梯度下降 \omega = \omega-\lambda\frac{\partial J}{\partial\omega} 特点 每次更新都会朝着正确的方向进行, 最后收敛于极值点, 凸函数收敛于全局极值点, 非凸函数可能会收敛于局部极值点 缺点: 学习时间长, 消耗内存大 随机梯度下降(SGD,

- 阅读全文 -