线性回归
1.一个简化模型
-
假设 1: 多因素同时存在时相互独立且对结果有正向影响,且每个因素,如 x1,x2,x3
-
假设 2: 成交价格是关于这些因素的加权和
y=w1x1+w2x2+w3x3+b
权重和偏差的实际值在后面决定
2.线性模型
-
给定 n 维输入 x=[x1,x2,…,xn]T
-
线性模型又一个n维权重和一个标量化偏差
w=[w1,w2,…,wn]T,b
y=w1x1+w2x2+⋯+wnxn+b
y=⟨w,x⟩+b

3.神经网络源于神经科学

4.衡量预估质量
这个叫做平方损失函数
5.训练数据集
- 收集一些数据来决定参数值,例如过去6个月卖出的房子
- 训练数据
- 通常越多越好
假设我们有 n 个样本,记
X=[x1,x2,…,xn]T
Y=[y1,y2,…,yn]T
6.参数学习
-
训练损失定义
L(X,y,w,b)=2n1i=1∑n(yi−⟨xi,w⟩−b)2=2n1∥y−Xw−b∥2
-
最小化损失来学习参数
w∗,b∗=argw,bminL(X,y,w,b)
7.显式解
-
将偏置项加入模型
X←[X,1]w←[wb]
L(X,y,w)=2n1∥y−Xw∥2
∂w∂L(X,y,w)=−n1(y−Xw)TX
-
找最低点来求解,所以导数设置为0
−n1(y−Xw)TX=0
w∗=(XTX)−1XTy
总结
- 线性回归是对n维输入的加权,外加偏差
- 使用平方损失来衡量预测值和真实值的差异
- 线性回归有显式解
- 线性回归可以看作是单层神经网络