你将学到的
  • 掌握神经网络的基本原理
  • 掌握梯度下降算法的基本求解过程
  • 掌握卷积神经网络的实现过程
  • 掌握反向传播算法的基本原理
  • 掌握卷积神经网络的基本原理
  • 掌握卷积神经网络的加速计算方法
实验 1 从线性分类到深度学习

知识点: 1.线性拟合 2.线性分类器 3.softmax和交叉熵损失函数 4.如何选取最优权重 5.随机选取权重 6.梯度下降法 7.学习率衰减策略 8.权重初始化 9.softmax和交叉熵损失函数求导 10.实现线性分类器

挑战 1 随机梯度下降法求解函数极值

知识点: 1.梯度下降法 2.函数极值

实验 2 反向传播和多层神经网络实现

知识点: 1.计算图 2.反向传播 3.随机梯度下降 4.线性层实现 5.随机梯度下降实现线性分类 6.激活函数及其实现 7.多层神经网络实现 8.PyTorch实现MNIST数据集分类

挑战 2 PyTorch 求导和 Sigmoid 激活层实现

知识点: 1.反向传播 2.梯度下降 3.PyTorch自动求导 4.激活函数

实验 3 实现卷积神经网络

知识点: 1.梯度检验 2.卷积层的前向和后向传播 3.池化层的前向和后向传播 4.实现LeNet5

挑战 3 实现平均池化的前向传播过程

知识点: 1.池化层 2.前向传播实现

实验 4 卷积神经网络加速计算

知识点: 1.卷积加速方法 2.Caffe的优化方法实现 3.并行加速 4.GPU加速和CPU对比 5.依据Caffe,重新实现卷积层 6.PyTorch实现CIFAR10分类

挑战 4 实现一个简单卷积神经网络

知识点: 1.卷积神经网络 2.后向传播、前向传播

课程介绍

如今,深度学习的热度不断攀升,许多新人都通过开源框架完成了入门。但遗憾的是,大部分都仅停留在调用 API 的层面,却无法理解深度学习的本质。本课程将从线性分类器出发,通过学习人工神经网络,从而完成 0 到 1 实现卷积神经网络的过程。你将真正理解什么是深度学习,以及背后的工作机制,并在动手的过程中完成从入门到进阶。

实验将从简单的线性函数公式讲起,然后使用 Python 实现一个线性分类器,并最终完成经典的 MNIST 手写字符分类任务。在这个过程中,你将学习到深度学习中常用的概念和方法,例如:Softmax 和交叉熵损失函数,梯度下降法等。

接下来,从线性分类器延伸到人工神经网络,你讲了解神经网络的组成以及工作机制,对反向传播算法进行实现,最终训练多层神经网络并对比和线性分类的结果。

掌握神经网络的原理之后,正式开始学习卷积神经网络。此时,你会了解到经典卷积神经网络的组成,卷积层、池化层的实现和作用机理。并最终从 0 到 1 搭建一个基础的卷积神经网络。当然,实验同时与 PyTorch 实现做了对比,帮助全面理解。

课程的最后,我们将学习到神经网络加速计算的技巧,了解并行加速、算法加速、GPU 加速等不同方法。这对于深度学习是至关重要的。

最后,为了帮助大家更加全面了解本课程的特点,我们总结课程包含的知识点如下:

  • 深度学习的基本概念讲解及实现,例如:损失函数,激活函数等。
  • 人工神经网络讲解及实现,包括反向传播算法等完整的理论。
  • 卷积神经网络概念,结构及实现。
  • 内容均使用 Python 实现,神经网络部分与 PyTorch 实现做对比。
  • 课程主要使用到的库有:NumPy,PyTorch。
  • 部分理论推导及理解需要基础的高等数学和线性代数知识。

课程信息

  • 学习周期:课程有效期 2 个月,2 个月后无法进行在线实验,但可查看文档内容。高级会员有效期内可一直学习,到期后课程失效,且无法查看文档。部分云主机实验环境因成本较高,存在开启次数限制。关于课程退款等相关注意事项说明,请阅读 用户付费协议
  • 版权说明:课程内容为实验楼原创或实验楼在原作者授权下制作。未经书面同意,擅自爬取、转载和再分发课程内容,均将受到严肃追责。
  • 企业团报:企业购买,请点击 企业用户咨询
课程教师

Tech93 共发布过 1 门课程

查看老师的所有课程 >
蓝桥楼+
蓝桥会员
会员
开通会员,即刻开始学习