原文:
Gredient decent 梯度下降优化算法
梯度下降优化算法综述
无名小卒917 阅1736 转12
PyTorch 学习笔记(七):PyTorch的十个优化器
极市平台 阅1074 转2
深度学习
Rainbow_Heaven 阅120
梯度下降方法的视觉解释(动量,AdaGrad,RMSProp,Adam)
taotao_2016 阅1297 转6
深度学习最全优化方法总结比较(SGD,Adagrad,Adadelta,Adam,Adamax,Nadam)
michael1314520 阅476 转3
模型优化算法
Clay*more 阅280
stochastic
htxu91 阅81
优化器Optimizer
田杰4 阅765
梯度下降算法综述
非著名问天 阅469 转10
深度学习中优化技术总结
天承办公室 阅9 转2
Caffe中的SGD的变种优化算法(1)
高教帮 阅92
【深度学习】常见优化算法
黑尘子 阅691
使用Numpy进行深度学习中5大反向传播优化算法的性能比较
风声之家 阅37
深度学习框架TensorFlow系列之(五)优化器1
清凉茶 阅10
各种优化方法总结比较(sgd/momentum/Nesterov/adagrad/adadelta)
奔跑的瓦力 阅5372 转7
一文看懂各种神经网络优化算法:从梯度下降到Adam方法
中粒子 阅684 转4
Adam 那么棒,为什么还对 SGD 念念不忘?一个框架看懂深度学习优化算法
x_box361 阅631 转3
数学公式、可视化图齐齐上阵,神经网络如何一步步走向最优化
阿里山图书馆 阅87 转2
Paper:《Adam: A Method for Stochastic Optimization》的翻译与解读
处女座的程序猿 阅178 转2
Stanford机器学习
百科图书馆291 阅55
干货|通俗易懂讲解Deep Learning 最优化方法之AdaGrad
小王8rweu66yyc 阅50
机器学习笔记 Week3 逻辑回归
向向个人图书馆 阅4713 转17
批/梯度下降与随机梯度下降算法 | 附论文下载及代码示例 | 丹方 | 解读技术
Y忍冬草 阅985 转10
随机梯度下降(Stochastic gradient descent)和 批量梯度下降(Batch gradient descent )的公式对比、实现对比
mscdj 阅687 转5
Stanford机器学习Neural Networks 神经网络的表示
lzqkean 阅201 转2
首页
留言交流
联系我们
回顶部