下面关于经典的卷积神经网络说法错误的是()。
A.AlexNet的网络结构和LeNet非常类似,但更深更大,并且使用了层叠的卷积层来获取特征
B.GoogLeNet的主要贡献是实现了一个bottleneck模块,能够显著地减少网络中参数的数量
C.ResNet使用了特殊的跳跃链接,大量使用了批量归一化,并在最后使用了全连接层
D.VGGNet的主要贡献是展示出网络的深度是算法优良性能的关键部分
A.AlexNet的网络结构和LeNet非常类似,但更深更大,并且使用了层叠的卷积层来获取特征
B.GoogLeNet的主要贡献是实现了一个bottleneck模块,能够显著地减少网络中参数的数量
C.ResNet使用了特殊的跳跃链接,大量使用了批量归一化,并在最后使用了全连接层
D.VGGNet的主要贡献是展示出网络的深度是算法优良性能的关键部分
A.递归神经网络不允许网络中出现环形结构
B.减少神经网络层数,可能会降低测试集分类错误率
C.循环神经网络适合处理序列数据
D.卷积神经网络可以应用于图像分类
A.CNN和RNN都属于神经网络,因此二者的训练方式完全一致,均采用BP算法。
B.CNN和RNN都采用了权值共享机制以减少网络中的参数量。
C.在同一个网络中,CNN结构和RNN结构不能同时使用。
D.CNN适用于图像处理,而RNN适用于序列数据处理。
A.在卷积神经网络中,采用平均池化可减小误差,适用于需要突出纹理等特征的场景中
B.ResNet通过增加恒等映射,增加参数从而减少模型优化的难度,实现性能提升
C.空间金字塔池化(SPP)通过把图像的卷积特征转化成相同维度的特征向量,使模型可以处理任意尺寸的图像
D.批规范化(batchnormalization)是在不引入新参数的情况下保证每一层网络的输入具有相同的分布
A.CNN中的全连接层常用softmax作为激活函数。
B.CNN中的池化层用于降低特征图维数,以避免过拟合。
C.CNN由卷积层、池化层和全连接层组成,常用于处理与图像有关的问题。
D.由于卷积核的大小一般是3*3或更大,因此卷积层得到的特征图像一定比原图像小。
A.非监督学习的样本数据是要求带标签的
B.监督学习和非监督学习的区别在于是否要求样本数据带标签
C.强化学习以输入数据作为对模型的反馈
D.卷积神经网络一般用于图像处理等局部特征相关的数据
A.同样模式的内容(如鸟嘴)在图像不同位置可能出现
B.池化之后的图像主体内容基本不变
C.不同种类鸟的相同部位(如鸟嘴)形状相似
D.池化作用能使不同种类鸟变得相似
A.BP神经网络是前馈神经网络
B.BP神经网络的参数权重值是由反向传播学习算法进行调整的
C.BP神经网络模型拓扑结构包括输入层、隐层和输出层
D.BP神经网络利用激活函数来实现从输出到输入的非线性映射
A.卷积神经网络、图形、实例分割
B.卷积神经、网络、图像语义分割
C.CNN图像、语义分割
D.卷积神经网络、图像、语义分割
A.循环神经网络
B.全连接神经网络
C.受限波尔兹曼机
D.卷积神经网络