English
全部
搜索
图片
视频
短视频
地图
资讯
更多
购物
航班
旅游
笔记本
报告不当内容
请选择下列任一选项。
无关
低俗内容
成人
儿童性侵犯
时长
全部
短(小于 5 分钟)
中(5-20 分钟)
长(大于 20 分钟)
日期
全部
过去 24 小时
过去一周
过去一个月
去年
清晰度
全部
低于 360p
360p 或更高
480p 或更高
720p 或更高
1080p 或更高
源
全部
Dailymotion
Vimeo
Metacafe
Hulu
VEVO
Myspace
MTV
CBS
Fox
CNN
MSN
价格
全部
免费
付费
清除筛选条件
安全搜索:
中等
严格
中等(默认)
关闭
筛选器
1:19
Stochastic Gradient Descent (SGD) is an optimization technique used to reduce a model’s loss and improve its performance. A good way to imagine it is like walking down a hill to reach the lowest point. The gradient tells you the slope and the direction to move downward. But instead of looking at the entire landscape (the full dataset), SGD looks at small random batches of data to estimate the slope at each step. Because it works with smaller samples, the updates are quicker and more frequent, al
已浏览 1.8万 次
4 个月之前
Facebook
Mohit Rathod
3:49
Simplified Gradient Descent Optimization
2012年3月11日
mathworks.com
18:48
Deep learning optimization: Major optimizers simplified
3 个月之前
MSN
Learn With Jay
1:03
Why SGD is Faster than BGD (One Epoch, Thousands of Steps) #GradientDescent#BGD#SGD#LinearRegress...
已浏览 331 次
1 个月前
YouTube
AI 고등학교
1:22
The Math Behind AI: How Gradients Teach Machines to See #Shorts
已浏览 3 次
3 周前
YouTube
CollapsedLatents
1:53
stochastic gradient descent #maths #statistics #datascience #machinelearning #dataanlysis
已浏览 3999 次
2 个月之前
YouTube
DataMListic
7:21
Deep Learning Optimization Explained | SGD vs Adam vs RMSProp
已浏览 5 次
1 个月前
YouTube
My Assignment Solution
21:49
4. Optimization - How Neural Network Learn? | Gradient Descent & SGD | RMSProp | ADAM & Code Example
已浏览 22 次
2 个月之前
YouTube
HallOfNN
6:17
Deep Learning Optimizers Explained Simply: What They Are and How They Work
5 个月之前
MSN
Deep Learning with Yacine
Adam Optimization Algorithm | Towards Data Science
2020年5月31日
towardsdatascience.com
A Visual Explanation of Gradient Descent Methods (Momentum, AdaGrad, RMSProp, Adam) | Towards Data Science
2020年6月7日
towardsdatascience.com
7:08
Adam Optimization Algorithm (C2W2L08)
已浏览 26.5万 次
2017年8月25日
YouTube
DeepLearningAI
53:03
25. Stochastic Gradient Descent
已浏览 9.8万 次
2019年5月16日
YouTube
MIT OpenCourseWare
48:04
2. Optimization Problems
已浏览 25万 次
2017年5月19日
YouTube
MIT OpenCourseWare
27:49
The Stochastic Gradient Descent Algorithm
已浏览 1.3万 次
2020年5月7日
YouTube
Nathan Kutz
5:05
Adam Optimizer Explained in Detail | Deep Learning
已浏览 7.9万 次
2021年8月31日
YouTube
Learn With Jay
58:48
机器学习中的一阶算法 1: Acelerated First Order Optimization Methods
已浏览 2970 次
2024年12月27日
bilibili
深圳市大数据研究院
1:23:03
机器学习中的一阶算法 3: Stochastic Gradient Descent Methods in Machine Learning
已浏览 1686 次
2025年1月2日
bilibili
深圳市大数据研究院
9:21
Gradient Descent With Momentum (C2W2L06)
已浏览 19.8万 次
2017年8月25日
YouTube
DeepLearningAI
1:22:10
12. Greedy Algorithms: Minimum Spanning Tree
已浏览 25万 次
2016年3月4日
YouTube
MIT OpenCourseWare
10:53
Stochastic Gradient Descent, Clearly Explained!!!
已浏览 57.7万 次
2019年5月13日
YouTube
StatQuest with Josh Starmer
7:36
RMSProp vs SGD vs Adam optimizer
已浏览 8522 次
2019年12月19日
YouTube
bababoss
23:54
Gradient Descent, Step-by-Step
已浏览 176.4万 次
2019年2月5日
YouTube
StatQuest with Josh Starmer
13:10
Tutorial 14- Stochastic Gradient Descent with Momentum
已浏览 13.7万 次
2019年7月30日
YouTube
Krish Naik
18:42
Lecture 2 - Optimization Techniques | Linear Programming Problem | Graphical Method | Study Hour
已浏览 4.5万 次
2018年6月29日
YouTube
SukantaNayak edu
1:27:55
机器学习中的一阶优化算法 2: Nonlinear Saddle Point Systems
已浏览 786 次
2024年12月30日
bilibili
深圳市大数据研究院
25:41
Stochastic Gradient Descent | Why and How it Works?
已浏览 7096 次
2019年9月10日
YouTube
Normalized Nerd
7:59
Multiple Variable Optimization with Equality Constraints (Direct Substitution Method)
已浏览 6966 次
2021年2月20日
YouTube
Reindolf Boadu
8:36
134 - What are Optimizers in deep learning? (Keras & TensorFlow)
已浏览 5.9万 次
2020年6月18日
YouTube
DigitalSreeni
27:57
深度学习中的优化器原理(SGD,SGD Momentum,Adagrad,RMSProp,Adam)
已浏览 2.8万 次
2022年1月23日
bilibili
煮蛋203
展开
更多类似内容
反馈