关于卷积神经网络CNN,以下说法错误的是:()
A.CNN中的全连接层常用softmax作为激活函数。
B.CNN中的池化层用于降低特征图维数,以避免过拟合。
C.CNN由卷积层、池化层和全连接层组成,常用于处理与图像有关的问题。
D.由于卷积核的大小一般是3*3或更大,因此卷积层得到的特征图像一定比原图像小。
A.CNN中的全连接层常用softmax作为激活函数。
B.CNN中的池化层用于降低特征图维数,以避免过拟合。
C.CNN由卷积层、池化层和全连接层组成,常用于处理与图像有关的问题。
D.由于卷积核的大小一般是3*3或更大,因此卷积层得到的特征图像一定比原图像小。
A.卷积神经网络、图形、实例分割
B.卷积神经、网络、图像语义分割
C.CNN图像、语义分割
D.卷积神经网络、图像、语义分割
A.局部感知使网络可以提取图像的局部特征,而权值共享大大降低了网络的训练难度
B.通道数量越多,获得的特征图(Featuremap)就越多
C.卷积是指对图像的窗口数据和滤波矩阵做内积的操作,在训练过程中滤波矩阵的大小和值不变
D.SAME填充和VALID填充的主要区别是前者向图像边缘添加0值,而后者可能会忽略来自图像边缘的值
A.全连接层的作用就是分类,全连接层的每一个节点都与上一层的所有节点相连接,将前一层的特征进行进一步组合
B.损失函数的作用是用来估算模型的预测值与实际值的差距的函数
C.卷积神经网络中的池化层又称为下采样层,该层的目的是降低特征图的维度,进而降低卷积神经网络的参数量,减少过拟合
D.卷积神经网络前面的各层是将图像的低维特征映射到抽象特征空间,全连接层则将抽象特征映射到样本标记空间中
A.在卷积神经网络中,采用平均池化可减小误差,适用于需要突出纹理等特征的场景中
B.ResNet通过增加恒等映射,增加参数从而减少模型优化的难度,实现性能提升
C.空间金字塔池化(SPP)通过把图像的卷积特征转化成相同维度的特征向量,使模型可以处理任意尺寸的图像
D.批规范化(batchnormalization)是在不引入新参数的情况下保证每一层网络的输入具有相同的分布