()可以使神经网络模型拟合复杂函数的能力增加。
A.隐藏层层数增加
B.Dropout比例增加
C.增大学习率
D.增加训练轮数
A.隐藏层层数增加
B.Dropout比例增加
C.增大学习率
D.增加训练轮数
A.隐藏层层数增加,模型能力增加
B.Dropout的比例增加,模型能力增加
C.学习率增加,模型能力增加
D.都不正确
A.加入更多层,使神经网络的深度增加
B.有维度更高的数据
C.当这是一个图形识别的问题时
D.以上都不正确
A.根据人工经验随机赋值
B.搜索所有权重和偏差的组合,直到得到最佳值
C.赋予一个初始值,然后迭代更新权重,直至损失函数取得极小
D.下一层神经元继承上一层神经元的权重和偏差
A.L1范数:为x向量各个元素绝对值之和。
B.L2范数:为x向量各个元素平方和的1/2次方,L2范数又称Euclidean范数或Frobenius范数
C.L1范数可以使权值稀疏,方便特征提取
D.L2范数可以防止过拟合,提升模型的泛化能力。
A.全连接层的作用就是分类,全连接层的每一个节点都与上一层的所有节点相连接,将前一层的特征进行进一步组合
B.损失函数的作用是用来估算模型的预测值与实际值的差距的函数
C.卷积神经网络中的池化层又称为下采样层,该层的目的是降低特征图的维度,进而降低卷积神经网络的参数量,减少过拟合
D.卷积神经网络前面的各层是将图像的低维特征映射到抽象特征空间,全连接层则将抽象特征映射到样本标记空间中
A.感知机网络没有隐藏层
B.感知机网络是一种特殊的前馈神经网络
C.感知机网络具有一层隐藏层
D.感知机网络不能拟合复杂数据
A.BN主要解决深度神经网络各层输入的分布一致,增加训练过程的平衡
B.BN可以减少每个隐层神经元梯度的变化幅度
C.BN起到了减少过拟合的作用
D.BN一般位于隐层神经元的激活函数输出之后
A.标准BP算法每次仅针对一个训练样例更新连接权和阈值
B.BP神经网络经常遭遇过拟合
C.早停策略可用来缓解BP网络的过拟合问题
D.晚停策略可用来缓解BP网络的欠拟合问题
A.CNN中的全连接层常用softmax作为激活函数。
B.CNN中的池化层用于降低特征图维数,以避免过拟合。
C.CNN由卷积层、池化层和全连接层组成,常用于处理与图像有关的问题。
D.由于卷积核的大小一般是3*3或更大,因此卷积层得到的特征图像一定比原图像小。