题目内容
(请给出正确答案)
[单选题]
假设在训练一个模型的时候,发现靠近输入层的网络层参数基本不更新,请问是什么原因?()
A.梯度消失
B.梯度爆炸
C.过拟合
D.以上都不是
查看答案
如果结果不匹配,请 联系老师 获取答案
A.梯度消失
B.梯度爆炸
C.过拟合
D.以上都不是
A.降低学习率,减少迭代次数
B.降低学习率,增加迭代次数
C.提高学习率,增加迭代次数
D.增加学习率,减少迭代次数
A.在数据集比较大的时候,训练M个模型的计算开销可能是难以忍受的
B.改变了初始数据集的分布,引入估计偏差
C.样本利用率低
D.只能得到一个评估值
A.除去神经网络中的最后一层,冻结所有层然后重新训练
B.对神经网络中的最后几层进行微调,同时将最后一层(分类层)更改为回归层
C.使用新的数据集重新训练模型
D.所有答案均不对
A.除去神经网络中的最后一层,冻结所有层然后重新训练
B.对神经网络中的最后几层进行微调,同时将最后一层(分类层)更改为回归层
C.使用新的数据集重新训练模型
D.所有答案均不对
A.Dropout背后的思想其实就是把DNN当做一个集成模型来训练,之后取所有值的平均值,而不只是训练单个DNN
B.DNN网络将Dropout率设置为p,也就是说,一个神经元被保留的概率是1-p。当一个神经元被丢弃时,无论输入或者相关的参数是什么,它的输出值就会被设置为0
C.丢弃的神经元在训练阶段,对BP算法的前向和后向阶段都没有贡献。因为这个原因,所以每一次训练,它都像是在训练一个新的网络
D.Dropout方法通常和L2正则化或者其他参数约束技术(比如MaxNorm)一起使用,来防止神经网络的过拟合