- 深度学习基本概念
- 反向传播算法
- NumPy 基本运算
- 神经网络的应用
神经网络是人工智能的一种具体实现方法,本课程将手把手教你使用 Python 实现一个深度神经网络,帮助你理解深度学习的基本原理。
知识点: 1.如何让机器“学习” 2.神经网络的概念 3.有监督与无监督学习的区别 4.回归与分类的区别 5.损失函数的概念 6.梯度下降算法介绍 7.超参数的概念
知识点: 1.导数、偏导、梯度、链式法则 2.矩阵运算基本法则 3.NumPy基本运算介绍
知识点: 1.链式法则与“计算图”的概念 2.反向传播算法
知识点: 1.“浅层”与“深度”的区别 2.泛化性能 3.随机梯度下降算法 4.如何对矩阵求导 5.编写我们的损失层
知识点: 1.梯度消失问题 2.交叉熵损失函数
wz 共发布过 2 门课程
查看老师的所有课程 >
clear
clear
clear
clear
math acknowledge
可以认为向量是矩阵的一种特殊形式。 矩阵乘法与线性方程组关系密切。 NumPy 库中的 ndarray 可以很方便的用来进行矩阵运算。
1、损失函数用来描述一个神经网络模型的性能,损失函数值越小模型性能越好。
2、梯度下降算法可以通过多次迭代更新模型参数值来使损失函数值减小。梯度下降算法的关键是求损失函数对于网络参数的梯度。
3、超参数是在训练模型的过程中,为了得到最优模型参数而手工设置的一类参数。设置合理的超参数值,对模型参数的优化十分重要。
步骤很详细
很基础
讲得浅显易懂
知识点有点太多了
epochs: 67 loss: 0.04576548216851229 accuracy: 0.9668 epochs: 199 loss: 0.022613216213228503 accuracy: 0.9684
第一次接触图像处理,很多地方都不懂,注释也不清不楚,好不容易看完第四节,我又不搞图像处理,浪费时间在图像上了,第五节实在看不下去了
程序等于数据结构+算法。而机器学习是给定输入和输出值,让机器学习推导出算法。 神经网络分为线性运算和非线性运算,可以理解为基础的运算符,为了最后生成算法。 损失函数用来评估算法的性能。 梯度下降算法用来修正损失函数值。 超参数是训练中人为设置的一个参数,用来人为干预结果。
挺好的