| ReLU 函数在 x> 0 的时候也是线性的,套 ReLU 函数是怎么实现激活作用的? 机器学习 • lisisi • 2024 年 12 月 23 日 • 最后回复来自 sanebow | 4 |
| Pytorch 中正确的使用 softmax 的方法是什么? Python • LeeReamond • 2021 年 11 月 19 日 • 最后回复来自 linbo0518 | 7 |
| AlexNET 训练准确率奇差,可能是什么原因导致的? 问与答 • Richard14 • 2021 年 11 月 15 日 • 最后回复来自 kilasuelika | 1 |
| 请问深度学习在初学阶段,经典的几个模型的训练准确率,正常应该是多少? 问与答 • Richard14 • 2021 年 11 月 14 日 • 最后回复来自 Richard14 | 2 |
| 在神经网络中容易出现梯度爆炸的问题,有的地方说是可以用 relu 激活函数来解决,用起来也确实有效果,有点想不通这里面的原理是什么呢? 机器学习 • alixali • 2018 年 10 月 23 日 • 最后回复来自 alixali | 2 |
| [机器学习]常用激活函数的总结与比较
2 程序员 • livc • 2017 年 2 月 13 日 • 最后回复来自 bestswifter
|
14 |