当前位置: 首页>编程语言>正文

最新吴恩达深度学习笔记 吴恩达deeplearning 笔记


文章目录

  • 1. 监督学习和无监督学习
  • 2. 线性回归模型
  • 3. 代价函数
  • 4. 梯度下降
  • 5. 多维特征
  • 6. 多元线性回归的梯度下降
  • 7. 特征缩放
  • 8. 判断梯度下降是否收敛
  • 9. 学习率
  • 10. 正规方程
  • 11. 逻辑回归
  • 12. 决策边界
  • 13. 逻辑回归的代价函数
  • 14. 实现逻辑回归梯度下降
  • 15. 过拟合问题
  • 16. 正则化
  • 17. 神经网络
  • 17.1 需求预测
  • 17.2 神经网络中的网络层
  • 17.3 复杂的神经网络
  • 17.4 神经网络前向传播(手写识别案例)
  • 17.5 TensorFlow实现代码推理
  • 17.6 TensorFlow中的数据格式
  • 17.7 搭建神经网络
  • 17.8 单个网络层的前向传播
  • 17.9 前向传播的一般实现


本章主要回顾吴恩达老师机器学习快速入门视频,以便夯实基础,适合零基础小白~

1. 监督学习和无监督学习

监督学习(Supervised Learning):对于数据集中每一个样本都有对应的标签,包括回归(regression)和分类(classification);

无监督学习(Unsupervised Learning):数据集中没有任何的标签,包括聚类(clustering)

2. 线性回归模型

[见机器学习入门笔记—周志华. 《机器学习》–线性模型]

3. 代价函数

代价函数(cost function)J(θ),通常使用平方误差函数,如下:

最新吴恩达深度学习笔记 吴恩达deeplearning 笔记,最新吴恩达深度学习笔记 吴恩达deeplearning 笔记_梯度下降,第1张

4. 梯度下降

最新吴恩达深度学习笔记 吴恩达deeplearning 笔记,最新吴恩达深度学习笔记 吴恩达deeplearning 笔记_回归_02,第2张

如果α太小,梯度下降会变得缓慢;如果α太大,梯度下降可能无法收敛甚至发散。

最新吴恩达深度学习笔记 吴恩达deeplearning 笔记,最新吴恩达深度学习笔记 吴恩达deeplearning 笔记_人工智能_03,第3张

线性回归中的梯度下降

最新吴恩达深度学习笔记 吴恩达deeplearning 笔记,最新吴恩达深度学习笔记 吴恩达deeplearning 笔记_梯度下降_04,第4张

最新吴恩达深度学习笔记 吴恩达deeplearning 笔记,最新吴恩达深度学习笔记 吴恩达deeplearning 笔记_人工智能_05,第5张

5. 多维特征

最新吴恩达深度学习笔记 吴恩达deeplearning 笔记,最新吴恩达深度学习笔记 吴恩达deeplearning 笔记_梯度下降_06,第6张

矢量化

最新吴恩达深度学习笔记 吴恩达deeplearning 笔记,最新吴恩达深度学习笔记 吴恩达deeplearning 笔记_人工智能_07,第7张

6. 多元线性回归的梯度下降

最新吴恩达深度学习笔记 吴恩达deeplearning 笔记,最新吴恩达深度学习笔记 吴恩达deeplearning 笔记_机器学习_08,第8张

最新吴恩达深度学习笔记 吴恩达deeplearning 笔记,最新吴恩达深度学习笔记 吴恩达deeplearning 笔记_机器学习_09,第9张

7. 特征缩放

定义

特征缩放是用来标准化数据特征的范围。

  • 数量级的差异将导致量级较大的属性占据主导地位
  • 数量级的差异将导致迭代收敛速度减慢
  • 依赖于样本距离的算法对于数据的数量级非常敏感

作用与原理

特征缩放是针对多特征情况的。当有多个特征向量的时候,如果其中一个变化范围比较大,根据上次所说的多特征梯度下降法算法,该特征向量的参数可能会变化范围很大,从而主导整个梯度下降的过程,使得整个收敛轨迹变得复杂,让收敛的时间更长

优点

  • 提升模型的精度:在机器学习算法的目标函数中使用的许多元素,都是假设所有的特征都是零均值并且具有同一阶级上的方差。如果某个特征的方差比其他特征大几个数量级,那么它就会在学习算法中占据主导位置,导致学习器并不能像我们期望的那样,从其他特征中学习
  • 提升收敛速度:对于线性模型来说,数据归一化后,寻找最优解的过程明显会变得平缓,更容易正确地收敛到最优解

Standardization (Z-score normalization)

通过减去均值然后除以标准差,将数据按比例缩放,使之落入一个小的特定区间,处理后的数据均值为0,标准差为1

最新吴恩达深度学习笔记 吴恩达deeplearning 笔记,最新吴恩达深度学习笔记 吴恩达deeplearning 笔记_最新吴恩达深度学习笔记_10,第10张

  • 数据本身的分布就服从正态分布
  • 最大值和最小值未知的情况,或有超出取值范围的离群数据的情况
  • 在分类、聚类算法中需要使用距离来度量相似性、或者使用PCA(协方差分析)技术进行降维时,使用该方法表现更好

Rescaling (min-max normalization)

将原始数据线性变换到用户指定的最大-最小值之间,处理后的数据会被压缩到 [0,1] 区间上
最新吴恩达深度学习笔记 吴恩达deeplearning 笔记,最新吴恩达深度学习笔记 吴恩达deeplearning 笔记_最新吴恩达深度学习笔记_11,第11张

  • 对输出范围有要求
  • 数据较为稳定,不存在极端的最大最小值
  • 在不涉及距离度量、协方差计算、数据不符合正太分布的时候,可以使用该方法

Mean normalization

最新吴恩达深度学习笔记 吴恩达deeplearning 笔记,最新吴恩达深度学习笔记 吴恩达deeplearning 笔记_人工智能_12,第12张

8. 判断梯度下降是否收敛

最新吴恩达深度学习笔记 吴恩达deeplearning 笔记,最新吴恩达深度学习笔记 吴恩达deeplearning 笔记_人工智能_13,第13张

最新吴恩达深度学习笔记 吴恩达deeplearning 笔记,最新吴恩达深度学习笔记 吴恩达deeplearning 笔记_机器学习_14,第14张

最新吴恩达深度学习笔记 吴恩达deeplearning 笔记,最新吴恩达深度学习笔记 吴恩达deeplearning 笔记_机器学习_15,第15张

9. 学习率

最新吴恩达深度学习笔记 吴恩达deeplearning 笔记,最新吴恩达深度学习笔记 吴恩达deeplearning 笔记_最新吴恩达深度学习笔记_16,第16张

如何正确选择学习率。

  • 如果α太小:收敛慢
  • 如果α太大:每一次迭代过程中J(θ)将会不断的越过最小值,无法收敛
  • choose α:0.001,0.003,0.01,0.03,0.1,0.3,1,…
  • 寻找一个合适的较小值和较大值,保证结果和速度的同时选取较大的值,或者稍小的合理值。

10. 正规方程

最新吴恩达深度学习笔记 吴恩达deeplearning 笔记,最新吴恩达深度学习笔记 吴恩达deeplearning 笔记_回归_17,第17张

正规方程存在条件:

  • XTX是可逆矩阵,若不可逆,可计算广义可逆矩阵。

    梯度下降算法:需要选择学习速率α ; 需要许多次迭代;当特征数量n较大时也能够运转正常;
    正规方程: 无需选择参数;无需迭代;需要计算( XTX )−1;当n较大时计算缓慢

11. 逻辑回归

最新吴恩达深度学习笔记 吴恩达deeplearning 笔记,最新吴恩达深度学习笔记 吴恩达deeplearning 笔记_回归_18,第18张

最新吴恩达深度学习笔记 吴恩达deeplearning 笔记,最新吴恩达深度学习笔记 吴恩达deeplearning 笔记_机器学习_19,第19张

最新吴恩达深度学习笔记 吴恩达deeplearning 笔记,最新吴恩达深度学习笔记 吴恩达deeplearning 笔记_最新吴恩达深度学习笔记_20,第20张

最新吴恩达深度学习笔记 吴恩达deeplearning 笔记,最新吴恩达深度学习笔记 吴恩达deeplearning 笔记_人工智能_21,第21张

12. 决策边界

最新吴恩达深度学习笔记 吴恩达deeplearning 笔记,最新吴恩达深度学习笔记 吴恩达deeplearning 笔记_人工智能_22,第22张

最新吴恩达深度学习笔记 吴恩达deeplearning 笔记,最新吴恩达深度学习笔记 吴恩达deeplearning 笔记_梯度下降_23,第23张

最新吴恩达深度学习笔记 吴恩达deeplearning 笔记,最新吴恩达深度学习笔记 吴恩达deeplearning 笔记_梯度下降_24,第24张

最新吴恩达深度学习笔记 吴恩达deeplearning 笔记,最新吴恩达深度学习笔记 吴恩达deeplearning 笔记_最新吴恩达深度学习笔记_25,第25张

13. 逻辑回归的代价函数

最新吴恩达深度学习笔记 吴恩达deeplearning 笔记,最新吴恩达深度学习笔记 吴恩达deeplearning 笔记_梯度下降_26,第26张

最新吴恩达深度学习笔记 吴恩达deeplearning 笔记,最新吴恩达深度学习笔记 吴恩达deeplearning 笔记_回归_27,第27张

最新吴恩达深度学习笔记 吴恩达deeplearning 笔记,最新吴恩达深度学习笔记 吴恩达deeplearning 笔记_人工智能_28,第28张

最新吴恩达深度学习笔记 吴恩达deeplearning 笔记,最新吴恩达深度学习笔记 吴恩达deeplearning 笔记_回归_29,第29张

简化逻辑回归的代价函数

最新吴恩达深度学习笔记 吴恩达deeplearning 笔记,最新吴恩达深度学习笔记 吴恩达deeplearning 笔记_最新吴恩达深度学习笔记_30,第30张

最新吴恩达深度学习笔记 吴恩达deeplearning 笔记,最新吴恩达深度学习笔记 吴恩达deeplearning 笔记_机器学习_31,第31张

最新吴恩达深度学习笔记 吴恩达deeplearning 笔记,最新吴恩达深度学习笔记 吴恩达deeplearning 笔记_机器学习_32,第32张

14. 实现逻辑回归梯度下降

最新吴恩达深度学习笔记 吴恩达deeplearning 笔记,最新吴恩达深度学习笔记 吴恩达deeplearning 笔记_人工智能_33,第33张

  • X(i)j 意味着训练样例i的j特征
  • 同步更新:means compute the right-hand side for all of these updates and then simultaneously overwrite all the values on the left at the same time.
  • 最新吴恩达深度学习笔记 吴恩达deeplearning 笔记,最新吴恩达深度学习笔记 吴恩达deeplearning 笔记_最新吴恩达深度学习笔记_34,第34张

15. 过拟合问题

相关概念

欠拟合,高偏差:说明没有很好的拟合训练数据
解决办法:增加特征,如增加多项式

过拟合,高方差:拟合训练数据过于完美,J ( θ ) ≈ 0 ,导致模型的泛化能力很差,对于新样本不能准确预测;
解决办法

  • 减少特征个数
    a)人工保留合适的特征
    b)采用模型选择算法
  • 正则化
    a)保留所有特征,减小参数θj的维度

解决过拟合

最新吴恩达深度学习笔记 吴恩达deeplearning 笔记,最新吴恩达深度学习笔记 吴恩达deeplearning 笔记_梯度下降_35,第35张

最新吴恩达深度学习笔记 吴恩达deeplearning 笔记,最新吴恩达深度学习笔记 吴恩达deeplearning 笔记_梯度下降_36,第36张

16. 正则化

最新吴恩达深度学习笔记 吴恩达deeplearning 笔记,最新吴恩达深度学习笔记 吴恩达deeplearning 笔记_人工智能_37,第37张

最新吴恩达深度学习笔记 吴恩达deeplearning 笔记,最新吴恩达深度学习笔记 吴恩达deeplearning 笔记_梯度下降_38,第38张

最新吴恩达深度学习笔记 吴恩达deeplearning 笔记,最新吴恩达深度学习笔记 吴恩达deeplearning 笔记_梯度下降_39,第39张

最新吴恩达深度学习笔记 吴恩达deeplearning 笔记,最新吴恩达深度学习笔记 吴恩达deeplearning 笔记_人工智能_40,第40张

线性回归的正则方法

对θj 加入惩罚项:

最新吴恩达深度学习笔记 吴恩达deeplearning 笔记,最新吴恩达深度学习笔记 吴恩达deeplearning 笔记_人工智能_41,第41张

最新吴恩达深度学习笔记 吴恩达deeplearning 笔记,最新吴恩达深度学习笔记 吴恩达deeplearning 笔记_人工智能_42,第42张

最新吴恩达深度学习笔记 吴恩达deeplearning 笔记,最新吴恩达深度学习笔记 吴恩达deeplearning 笔记_梯度下降_43,第43张

最新吴恩达深度学习笔记 吴恩达deeplearning 笔记,最新吴恩达深度学习笔记 吴恩达deeplearning 笔记_人工智能_44,第44张

最新吴恩达深度学习笔记 吴恩达deeplearning 笔记,最新吴恩达深度学习笔记 吴恩达deeplearning 笔记_梯度下降_45,第45张

最新吴恩达深度学习笔记 吴恩达deeplearning 笔记,最新吴恩达深度学习笔记 吴恩达deeplearning 笔记_最新吴恩达深度学习笔记_46,第46张

逻辑回归的正则方法

对θj 加入惩罚项:

最新吴恩达深度学习笔记 吴恩达deeplearning 笔记,最新吴恩达深度学习笔记 吴恩达deeplearning 笔记_最新吴恩达深度学习笔记_47,第47张

最新吴恩达深度学习笔记 吴恩达deeplearning 笔记,最新吴恩达深度学习笔记 吴恩达deeplearning 笔记_机器学习_48,第48张

最新吴恩达深度学习笔记 吴恩达deeplearning 笔记,最新吴恩达深度学习笔记 吴恩达deeplearning 笔记_最新吴恩达深度学习笔记_49,第49张

17. 神经网络

17.1 需求预测

最新吴恩达深度学习笔记 吴恩达deeplearning 笔记,最新吴恩达深度学习笔记 吴恩达deeplearning 笔记_梯度下降_50,第50张

最新吴恩达深度学习笔记 吴恩达deeplearning 笔记,最新吴恩达深度学习笔记 吴恩达deeplearning 笔记_回归_51,第51张

17.2 神经网络中的网络层

最新吴恩达深度学习笔记 吴恩达deeplearning 笔记,最新吴恩达深度学习笔记 吴恩达deeplearning 笔记_机器学习_52,第52张

最新吴恩达深度学习笔记 吴恩达deeplearning 笔记,最新吴恩达深度学习笔记 吴恩达deeplearning 笔记_最新吴恩达深度学习笔记_53,第53张

最新吴恩达深度学习笔记 吴恩达deeplearning 笔记,最新吴恩达深度学习笔记 吴恩达deeplearning 笔记_人工智能_54,第54张

17.3 复杂的神经网络

最新吴恩达深度学习笔记 吴恩达deeplearning 笔记,最新吴恩达深度学习笔记 吴恩达deeplearning 笔记_机器学习_55,第55张

17.4 神经网络前向传播(手写识别案例)

手写识别案例

最新吴恩达深度学习笔记 吴恩达deeplearning 笔记,最新吴恩达深度学习笔记 吴恩达deeplearning 笔记_人工智能_56,第56张

最新吴恩达深度学习笔记 吴恩达deeplearning 笔记,最新吴恩达深度学习笔记 吴恩达deeplearning 笔记_人工智能_57,第57张

17.5 TensorFlow实现代码推理

最新吴恩达深度学习笔记 吴恩达deeplearning 笔记,最新吴恩达深度学习笔记 吴恩达deeplearning 笔记_回归_58,第58张

最新吴恩达深度学习笔记 吴恩达deeplearning 笔记,最新吴恩达深度学习笔记 吴恩达deeplearning 笔记_回归_59,第59张

最新吴恩达深度学习笔记 吴恩达deeplearning 笔记,最新吴恩达深度学习笔记 吴恩达deeplearning 笔记_人工智能_60,第60张

17.6 TensorFlow中的数据格式

最新吴恩达深度学习笔记 吴恩达deeplearning 笔记,最新吴恩达深度学习笔记 吴恩达deeplearning 笔记_机器学习_61,第61张

最新吴恩达深度学习笔记 吴恩达deeplearning 笔记,最新吴恩达深度学习笔记 吴恩达deeplearning 笔记_梯度下降_62,第62张

17.7 搭建神经网络

最新吴恩达深度学习笔记 吴恩达deeplearning 笔记,最新吴恩达深度学习笔记 吴恩达deeplearning 笔记_回归_63,第63张

最新吴恩达深度学习笔记 吴恩达deeplearning 笔记,最新吴恩达深度学习笔记 吴恩达deeplearning 笔记_最新吴恩达深度学习笔记_64,第64张

17.8 单个网络层的前向传播

最新吴恩达深度学习笔记 吴恩达deeplearning 笔记,最新吴恩达深度学习笔记 吴恩达deeplearning 笔记_机器学习_65,第65张

17.9 前向传播的一般实现

最新吴恩达深度学习笔记 吴恩达deeplearning 笔记,最新吴恩达深度学习笔记 吴恩达deeplearning 笔记_人工智能_66,第66张



https://www.xamrdz.com/lan/5wg1928686.html

相关文章: