关于神经网络中经典使用的优化器,以下说法正确的是?()
A.Adam的收敛速度比RMSprop慢
B.相比于SGD或RMSprop等优化器,Adam的收敛效果是最好的
C.对于轻量级神经网络,使用Adam比使用RMSprop更合适
D.相比于Adam或RMSprop等优化器,SGD的收敛效果是最好的
A.Adam的收敛速度比RMSprop慢
B.相比于SGD或RMSprop等优化器,Adam的收敛效果是最好的
C.对于轻量级神经网络,使用Adam比使用RMSprop更合适
D.相比于Adam或RMSprop等优化器,SGD的收敛效果是最好的
A.是一门涉及统计学、系统辨识、逼近理论、神经网络、优化理论、计算机科学、脑科学等诸多领域的交叉学科
B.研究计算机怎样模拟或实现人类的学习行为,以获取新的知识或技能
C.机器学习强调三个关键词:算法、模型、训练
D.基于数据的机器学习是现代智能技术中的重要方法之一
A.递归神经网络不允许网络中出现环形结构
B.减少神经网络层数,可能会降低测试集分类错误率
C.循环神经网络适合处理序列数据
D.卷积神经网络可以应用于图像分类
A.Adagrad优化器学习率不是自动更新的
B.SGD,MBGD和动量优化器的共同特点是每次迭代都用相同学习率进行更新。
C.Adam优化器与Adagrad优化器之间没有联系。
D.动量优化器的学习率不需要手动设置。
A.它主要应用于计算机视觉,实现深度神经网络模型优化和推理计算加速
B.拥有预置的计算机视觉功能库和预优化的内核
C.支持来自流行的框架Caffe、TensorFlow和MXNet的模型
D.只能在Linux平台运行的机器视觉软件工具包
A.在卷积神经网络中,采用平均池化可减小误差,适用于需要突出纹理等特征的场景中
B.ResNet通过增加恒等映射,增加参数从而减少模型优化的难度,实现性能提升
C.空间金字塔池化(SPP)通过把图像的卷积特征转化成相同维度的特征向量,使模型可以处理任意尺寸的图像
D.批规范化(batchnormalization)是在不引入新参数的情况下保证每一层网络的输入具有相同的分布
A.CNN和RNN都属于神经网络,因此二者的训练方式完全一致,均采用BP算法。
B.CNN和RNN都采用了权值共享机制以减少网络中的参数量。
C.在同一个网络中,CNN结构和RNN结构不能同时使用。
D.CNN适用于图像处理,而RNN适用于序列数据处理。
A.定义算法公式,也就是神经网络的前向算法
B.定义loss,选择优化器,来让loss最小
C.对数据进行迭代训练,使loss到达最小
D.在测试集或者验证集上对准确率进行评估
A.将数据分组部署在不同GPU上进行训练能提高深度神经网络的训练速度。
B.TensorFlow使用GPU训练好的模型,在执行推断任务时,也必须在GPU上运行。
C.将模型中的浮点数精度降低,例如使用float16代替float32,可以压缩训练好的模型的大小。
D.GPU所配置的显存的大小,对于在该GPU上训练的深度神经网络的复杂度、训练数据的批次规模等,都是一个无法忽视的影响因素
A.CNN中的全连接层常用softmax作为激活函数。
B.CNN中的池化层用于降低特征图维数,以避免过拟合。
C.CNN由卷积层、池化层和全连接层组成,常用于处理与图像有关的问题。
D.由于卷积核的大小一般是3*3或更大,因此卷积层得到的特征图像一定比原图像小。