Skip to content

Commit

Permalink
feat: add contents for file
Browse files Browse the repository at this point in the history
  • Loading branch information
HarleysZhang committed Oct 25, 2022
1 parent 5e04e0f commit d45b6b3
Showing 1 changed file with 89 additions and 1 deletion.
90 changes: 89 additions & 1 deletion 5-deep_learning/0-深度学习面试题.md
Original file line number Diff line number Diff line change
@@ -1,5 +1,93 @@
## 目录
[toc]

- [目录](#目录)
- [一,滤波器与卷积核](#一滤波器与卷积核)
- [二,卷积层和池化输出大小计算](#二卷积层和池化输出大小计算)
- [2.1,CNN 中术语解释](#21cnn-中术语解释)
- [2.2,卷积输出大小计算(简化型)](#22卷积输出大小计算简化型)
- [2.3,理解边界效应与填充 padding](#23理解边界效应与填充-padding)
- [参考资料](#参考资料)
- [三,深度学习框架的张量形状格式](#三深度学习框架的张量形状格式)
- [四,Pytorch 、Keras 的池化层函数理解](#四pytorch-keras-的池化层函数理解)
- [4.1,torch.nn.MaxPool2d](#41torchnnmaxpool2d)
- [4.2,keras.layers.MaxPooling2D](#42keraslayersmaxpooling2d)
- [五,Pytorch 和 Keras 的卷积层函数理解](#五pytorch-和-keras-的卷积层函数理解)
- [5.1,torch.nn.Conv2d](#51torchnnconv2d)
- [5.2,keras.layers.Conv2D](#52keraslayersconv2d)
- [5.3,总结](#53总结)
- [六,softmax 回归](#六softmax-回归)
- [七,交叉熵损失函数](#七交叉熵损失函数)
- [7.1,为什么交叉熵可以用作代价函数](#71为什么交叉熵可以用作代价函数)
- [7.2,优化算法理解](#72优化算法理解)
- [八,感受野理解](#八感受野理解)
- [8.1,感受野大小计算](#81感受野大小计算)
- [九,卷积和池化操作的作用](#九卷积和池化操作的作用)
- [参考资料](#参考资料-1)
- [十,卷积层与全连接层的区别](#十卷积层与全连接层的区别)
- [十一,CNN 权值共享问题](#十一cnn-权值共享问题)
- [十二,CNN 结构特点](#十二cnn-结构特点)
- [Reference](#reference)
- [十三,深度特征的层次性](#十三深度特征的层次性)
- [十四,什么样的数据集不适合深度学习](#十四什么样的数据集不适合深度学习)
- [十五,什么造成梯度消失问题](#十五什么造成梯度消失问题)
- [十六,Overfitting 和 Underfitting 问题](#十六overfitting-和-underfitting-问题)
- [16.1,过拟合问题怎么解决](#161过拟合问题怎么解决)
- [16.2,如何判断深度学习模型是否过拟合](#162如何判断深度学习模型是否过拟合)
- [16.3,欠拟合怎么解决](#163欠拟合怎么解决)
- [16.4,如何判断模型是否欠拟合](#164如何判断模型是否欠拟合)
- [十七,L1 和 L2 区别](#十七l1-和-l2-区别)
- [十八,TensorFlow计算图概念](#十八tensorflow计算图概念)
- [十九,BN(批归一化)的作用](#十九bn批归一化的作用)
- [二十,什么是梯度消失和爆炸](#二十什么是梯度消失和爆炸)
- [梯度消失和梯度爆炸产生的原因](#梯度消失和梯度爆炸产生的原因)
- [如何解决梯度消失和梯度爆炸问题](#如何解决梯度消失和梯度爆炸问题)
- [二十一,RNN循环神经网络理解](#二十一rnn循环神经网络理解)
- [二十二,训练过程中模型不收敛,是否说明这个模型无效,导致模型不收敛的原因](#二十二训练过程中模型不收敛是否说明这个模型无效导致模型不收敛的原因)
- [二十三,VGG 使用 2 个 3*3 卷积的优势](#二十三vgg-使用-2-个-33-卷积的优势)
- [23.1,1*1 卷积的主要作用](#23111-卷积的主要作用)
- [二十四,Relu比Sigmoid效果好在哪里?](#二十四relu比sigmoid效果好在哪里)
- [参考链接](#参考链接)
- [二十五,神经网络中权值共享的理解](#二十五神经网络中权值共享的理解)
- [参考资料](#参考资料-2)
- [二十六,对 fine-tuning(微调模型的理解),为什么要修改最后几层神经网络权值?](#二十六对-fine-tuning微调模型的理解为什么要修改最后几层神经网络权值)
- [参考资料](#参考资料-3)
- [二十七,什么是 dropout?](#二十七什么是-dropout)
- [27.1,dropout具体工作流程](#271dropout具体工作流程)
- [27.2,dropout在神经网络中的应用](#272dropout在神经网络中的应用)
- [27.3,如何选择dropout 的概率](#273如何选择dropout-的概率)
- [参考资料](#参考资料-4)
- [二十八,HOG 算法原理描述](#二十八hog-算法原理描述)
- [HOG特征原理](#hog特征原理)
- [HOG特征检测步骤](#hog特征检测步骤)
- [参考资料](#参考资料-5)
- [二十九,激活函数](#二十九激活函数)
- [29.1,激活函数的作用](#291激活函数的作用)
- [29.2,常见的激活函数](#292常见的激活函数)
- [29.3,激活函数理解及函数梯度图](#293激活函数理解及函数梯度图)
- [三十,卷积层和池化层有什么区别](#三十卷积层和池化层有什么区别)
- [三十一,卷积层和池化层参数量计算](#三十一卷积层和池化层参数量计算)
- [三十二,神经网络为什么用交叉熵损失函数](#三十二神经网络为什么用交叉熵损失函数)
- [三十三,数据增强方法有哪些](#三十三数据增强方法有哪些)
- [33.1,离线数据增强和在线数据增强有什么区别?](#331离线数据增强和在线数据增强有什么区别)
- [Reference](#reference-1)
- [三十四,ROI Pooling替换为ROI Align的效果,及各自原理](#三十四roi-pooling替换为roi-align的效果及各自原理)
- [ROI Pooling原理](#roi-pooling原理)
- [ROI Align原理](#roi-align原理)
- [RoiPooling 和 RoiAlign 总结](#roipooling-和-roialign-总结)
- [Reference](#reference-2)
- [三十五,CNN的反向传播算法推导](#三十五cnn的反向传播算法推导)
- [三十六,Focal Loss 公式](#三十六focal-loss-公式)
- [三十七,快速回答](#三十七快速回答)
- [37.1,为什么 Faster RCNN、Mask RCNN 需要使用 ROI Pooling、ROI Align?](#371为什么-faster-rcnnmask-rcnn-需要使用-roi-poolingroi-align)
- [37.2,softmax公式](#372softmax公式)
- [37.3,上采样方法总结](#373上采样方法总结)
- [37.4,移动端深度学习框架知道哪些,用过哪些?](#374移动端深度学习框架知道哪些用过哪些)
- [37.5,如何提升网络的泛化能力](#375如何提升网络的泛化能力)
- [37.6,BN算法,为什么要在后面加伽马和贝塔,不加可以吗?](#376bn算法为什么要在后面加伽马和贝塔不加可以吗)
- [37.7,验证集和测试集的作用](#377验证集和测试集的作用)
- [三十八,交叉验证的理解和作用](#三十八交叉验证的理解和作用)
- [三十九,介绍一下NMS和IOU的原理](#三十九介绍一下nms和iou的原理)
- [Reference](#reference-3)

## 一,滤波器与卷积核

Expand Down

0 comments on commit d45b6b3

Please sign in to comment.