图像识别理论与实战:快速掌握热门图像识别技术

本资源为图像识别理论与实战:快速掌握热门图像识别技术[9.62GB]百度网盘下载,包含了124节视频课程,可在线播放无需下载。

图像识别理论与实战:快速掌握热门图像识别技术[9.62GB]百度网盘下载

课程不需要学习复杂的图像和图形领域的算法和原理公式,而是从深度学习中的卷积神经网络出发,使用图像处理框架Tensorflow进行操作,最后动手实践,完成人脸识别、图像识别等视觉领域比较容易入手的项目。

你将获得

掌握机器学习基本流程、卷积网络,学习关于池化、多层卷积等知识

具备TensorFlow框架开发能力,能够熟练使用核心API,并能

掌握人脸识别、物体识别等相关网络模型、开源训练集和算法的应用

资源目录

第 1 讲开篇

1.1课程与讲师介绍 时长 08:45

1.2为什么要学习人工智能 时长 16:09

第 2 讲TensorFlow初体验

2.1监督学习 时长 11:33

2.2为什么使用TensorFlow 时长 06:48

2.3安装Python 时长 08:53

2.4安装Virtualenv 时长 06:13

2.5安装Tenserflow(非GPU版本) 时长 09:09

2.6Hello world 时长 10:12

2.7MNIST手写数据集 时长 21:19

2.8读取MNIST手写数据(一) 时长 11:37

2.9读取MNIST手写数据(二) 时长 16:42

2.10读取MNIST手写数据(三) 时长 10:06

2.11线性回归模型 时长 07:14

2.12深度神经网络模型 时长 04:48

第 3 讲深度机器学习(上)

3.1转型算法工程师:知识体系(一) 时长 08:27

3.2转型算法工程师:知识体系(二) 时长 06:15

3.3转型算法工程师:知识体系(三) 时长 08:10

3.4转型算法工程师:知识体系(四) 时长 03:25

3.5转型算法工程师:实战经验 时长 11:26

3.6转型算法工程师:认知水平 时长 05:04

3.7为什么学习图像识别(一) 时长 09:24

3.8为什么学习图像识别(二) 时长 10:54

3.9课程大纲 时长 06:09

3.10第一次人工智能浪潮(一) 时长 08:14

3.11第一次人工智能浪潮(二) 时长 07:38

3.12第一次人工智能浪潮(三) 时长 07:13

3.13第二次人工智能浪潮 时长 10:00

3.14第三次人工智能浪潮 时长 06:37

3.15深度学习知识点 时长 04:39

3.16神经元 时长 10:54

3.17感知器 时长 11:37

3.18人工神经网络 时长 03:50

3.19参数的计算 时长 05:33

第 4 讲深度机器学习(下)

4.1监督学习与前向运算 时长 08:32

4.2前向运算举例 时长 22:37

4.3神经网络如何解决二分问题 时长 16:24

4.4矩阵乘法的几何意义(一) 时长 11:03

4.5矩阵乘法的几何意义(二) 时长 16:24

4.6隐层神经元数量的作用 时长 11:34

4.7反向传播 时长 07:01

4.8梯度下降(一) 时长 08:45

4.9梯度下降(二) 时长 11:31

4.10冲量梯度下降 时长 08:10

4.11牛顿:拉普森算法 时长 05:34

4.12牛顿法 时长 03:16

4.13链式求导(一) 时长 14:35

4.14链式求导(二) 时长 09:30

4.15链式求导练习 时长 20:10

4.16学习率 时长 05:13

4.17梯度消失与梯度爆炸 时长 11:15

4.18凸函数和凸优化 时长 07:25

4.19总结 时长 05:31

第 5 讲卷积神经网络(上)

5.1大纲 时长 08:08

5.2卷积层(一) 时长 14:23

5.3卷积层(二) 时长 12:17

5.4卷积运算 时长 04:51

5.5卷积核(一) 时长 10:25

5.6卷积核(二) 时长 15:17

5.7多通道神经网络输入 时长 03:26

5.8卷积核的重要参数 时长 11:03

5.9权值共享 时长 05:08

5.10为什么使用卷积 时长 08:44

5.11步长 时长 06:22

5.12考虑步长后的计算量估计(一) 时长 10:39

5.13考虑步长后的计算量估计(二) 时长 05:24

5.14Padding 时长 08:00

5.15减少参数增大感受野的方法 时长 03:54

5.16TensorFlow定义卷积 时长 05:42

5.17池化层 时长 11:25

5.18激活函数(一) 时长 06:04

5.19激活函数(二) 时长 12:12

第 6 讲卷积神经网络(下)

6.1BatchNorm层 时长 07:47

6.2全连接层 时长 05:12

6.3Dropout层 时长 07:58

6.4损失层(一) 时长 05:26

6.5损失层(二) 时长 10:29

6.6损失层(三) 时长 13:38

6.7损失层(四) 时长 03:31

6.8LeNet 时长 07:58

6.9AlexNet 时长 13:20

6.10ZFNet 时长 08:09

6.11VGGNet 时长 06:02

6.12GoogLeNet-Inception(一) 时长 06:44

6.13GoogLeNet-Inception(二) 时长 19:12

6.14GoogLeNet-Inception(三) 时长 04:37

6.15GoogLeNet-Inception(四) 时长 02:32

6.16如何减少网络计算量 时长 01:48

6.17ResNet(一) 时长 06:18

6.18ResNet(二) 时长 08:44

6.19轻量级神经网络 时长 05:02

6.20SqueezeNet 时长 03:02

6.21MobileNet(一) 时长 16:59

6.22MobileNet(二) 时长 04:29

6.23ShuffleNet 时长 09:56

6.24Xception 时长 02:13

6.25从学院派到工程派 时长 06:57

第 7 讲TensorFlow基础

7.1安装GPU版本的TensorFlow 时长 14:05

7.2TensorFlow1.0讲解(一) 时长 13:47

7.3TensorFlow1.0讲解(二) 时长 15:54

7.4TensorFlow1.0讲解(三) 时长 12:51

7.5TensorFlow1.0讲解(四) 时长 20:09

7.6安装GPU版本的TensorFlow2.0 时长 04:46

7.7TensorFlow2.0讲解(一) 时长 16:29

7.8TensorFlow2.0讲解(二) 时长 17:20

第 8 讲图像分类实战

8.1Slim 时长 14:23

8.2Slim准备Cifar10数据 时长 11:14

8.3Cifarnet训练 时长 14:34

8.4Cifarnet测试 时长 02:28

8.5Resnet_v1_50训练Cifar10(一) 时长 12:15

8.6Resnet_v1_50训练Cifar10(二) 时长 06:40

第 9 讲人脸识别实战

9.1业务场景(一) 时长 12:02

9.2业务场景(二) 时长 06:40

9.3人脸识别流程 时长 09:20

9.4人脸的标注方法 时长 02:19

9.5评价指标(一) 时长 13:23

9.6评价指标(二) 时长 14:46

9.7人脸检测算法 时长 02:55

9.8SSD(一) 时长 14:18

9.9SSD(二) 时长 16:23

9.10SSD环境准备 时长 13:42

9.11WIDERFACE数据准备(一) 时长 11:55

9.12WIDERFACE数据准备(二) 时长 08:29

9.13训练(一) 时长 09:32

9.14训练(二) 时长 09:29

9.15评估与使用 时长 05:37

发表回复

您的电子邮箱地址不会被公开。 必填项已用*标注