神经网络中的激活函数ReLU(Rectified Linear Unit)相比Sigmoid,主要优势是:

2024年10月21日

神经网络中的激活函数ReLU(Rectified Linear Unit)相比Sigmoid,主要优势是:
A. 避免了梯度消失问题
B. 提高了模型复杂度
C. 增强了模型可解释性
D. 减少了计算量

查看答案

标签:
关于网站 - 联系我们 - 网站地图
版权所有:湖北自考服务中心网