• 位置:管理数量方法与分析 >> 浏览试题

神经网络中的激活函数ReLU(Rectified Linear Unit)相比Sigmoid,主要优势是:

2024/10/21

神经网络中的激活函数ReLU(Rectified Linear Unit)相比Sigmoid,主要优势是:
A. 避免了梯度消失问题
B. 提高了模型复杂度
C. 增强了模型可解释性
D. 减少了计算量

查看答案

关于网站 - 联系我们 - 网站地图
版权所有:湖北自考服务中心网