└─ 【万门】人工智能特训营 ->
├─ 第 9 讲 Resnet残差网络 ->
├─ 9.9-如何实例化深度残差网络.mp4 - 114.69 MB
├─ 9.8-残差网络的维度变换.mp4 - 86.98 MB
├─ 9.7-在网络中引入残差层.mp4 - 85.37 MB
├─ 9.6-构建残差网络的每个子模块.mp4 - 108.81 MB
├─ 9.5-11卷积的含义和效果(二).mp4 - 973.6 KB
├─ 9.4-11卷积的含义和效果(一).mp4 - 2.74 MB
├─ 9.3-批标准化的效果展示.mp4 - 95.2 MB
└─ 9.2-在pytorch中引入批量正则化.mp4 - 79.39 MB
├─ 第 8 讲 BatchNormalization ->
├─ 8.4-批量标准化的操作是怎么进行的.mp4 - 58.79 MB
├─ 8.3-阈值变换如何应对过拟合.mp4 - 53.49 MB
├─ 8.2-为什么批量标准化比标准化好.mp4 - 56.11 MB
└─ 8.1-批量标准化怎么做.mp4 - 43.77 MB
├─ 第 7 讲 CNN进化 ->
├─ 7.5-残差网络的数学原理.mp4 - 96.44 MB
├─ 7.4-残差网络的定义.mp4 - 86.47 MB
├─ 7.3-深度网络中的梯度消失问题.mp4 - 109.37 MB
├─ 7.2-VGG19.mp4 - 64.15 MB
└─ 7.1-AlexNet的技术细节.mp4 - 137.47 MB
├─ 第 6 讲 PyTorch(下) ->
├─ 6.9-CNN要调节的主要参数(二).mp4 - 42.54 MB
├─ 6.8-CNN要调节的主要参数(一).mp4 - 33.96 MB
├─ 6.7-PyTorch里的图像预处理与可视化.mp4 - 86.15 MB
├─ 6.6-PyTorch中的优化器选择.mp4 - 86.91 MB
├─ 6.5-Adam算法.mp4 - 55.35 MB
├─ 6.4-自适应的梯度下降及流平均改进法.mp4 - 105.26 MB
├─ 6.3-两个参数问题下的优化面临的问题.mp4 - 45.49 MB
└─ 6.2-动量化梯度下降的原理和实现.mp4 - 90.82 MB
├─ 第 5 讲 PyTorch(上) ->
├─ 5.8-Drop out在神经网络中的应用和实现.mp4 - 115.03 MB
├─ 5.7-多层网络的模型构建流程、神经网络的参数初始化.mp4 - 123.73 MB
├─ 5.6-用类的方法实现逻辑斯蒂回归.mp4 - 75.66 MB
├─ 5.5-逻辑回归的问题介绍.mp4 - 59.9 MB
├─ 5.4-PyTorch中的优化器和损失函数.mp4 - 86.26 MB
├─ 5.3-网络视角下的线性模型、PyTorch对神经网络的支持包.mp4 - 105.6 MB
├─ 5.2-PyTorch中的反向求导.mp4 - 78.08 MB
└─ 5.1-PyTorch中的基本概念—变量.mp4 - 111.07 MB
声明:本站所有文章,如无特殊说明或标注,均为本站原创发布。任何个人或组织,在未征得本站同意时,禁止复制、盗用、采集、发布本站内容到任何网站、书籍等各类媒体平台。如若本站内容侵犯了原著者的合法权益,可联系我们进行处理。
评论(0)