English
全部
搜索
图片
视频
短视频
地图
资讯
更多
购物
航班
旅游
笔记本
报告不当内容
请选择下列任一选项。
无关
低俗内容
成人
儿童性侵犯
时长
全部
短(小于 5 分钟)
中(5-20 分钟)
长(大于 20 分钟)
日期
全部
过去 24 小时
过去一周
过去一个月
去年
清晰度
全部
低于 360p
360p 或更高
480p 或更高
720p 或更高
1080p 或更高
源
全部
Dailymotion
Vimeo
Metacafe
Hulu
VEVO
Myspace
MTV
CBS
Fox
CNN
MSN
价格
全部
免费
付费
清除筛选条件
安全搜索:
中等
严格
中等(默认)
关闭
筛选器
[PDF] Distilling the Knowledge in a Neural Network | Semantic Scholar
2015年3月9日
semanticscholar.org
1:17
Mixture-of-Experts Knowledge Distillation for Robust and High-Performing Compressed Code Models (...
已浏览 1 次
1 个月前
YouTube
Brave New World AI
AdaHet-MKD: An Adaptive Heterogeneous Multi-teacher Knowledge Distillation for Medical Image Analysis | Proceedings of the 34th ACM International Conference on Information and Knowledge Management
6 个月之前
acm.org
PLIKD: Prompt Learning with Instance-aware Knowledge Distillation for Web-scale Semantic Image Classification | Proceedings of the ACM Web Conference 2026
1 周前
acm.org
Disentangled-Multimodal Privileged Knowledge Distillation for Depression Recognition with Incomplete Multimodal Data | Proceedings of the 32nd ACM International Conference on Multimedia
2024年10月26日
acm.org
Prototype-based Selective Knowledge Distillation for Zero-Shot Sketch Based Image Retrieval | Proceedings of the 30th ACM International Conference on Multimedia
2022年10月17日
acm.org
Artificial Intelligence | AI on Instagram: "Knowledge distillation is a deep learning technique where a compact “student” model learns to replicate the performance of a larger, more complex “teacher” model. Introduced in the paper “Distilling the Knowledge in a Neural Network” by Hinton, Vinyals, and Dean (2015), the process goes beyond simply training the student on labeled data, which they refer to as “hard labels”. Instead, the teacher provides “soft labels,” which are its full output probabi
已浏览 9218 次
6 个月之前
Instagram
getintoai
Old and New algorithm for Blind Deconvolution
已浏览 1.2万 次
2012年1月23日
videolectures.net
Mutual Distillation Extracting Spatial-temporal Knowledge for Lightweight Multi-channel Sleep Stage Classification | Proceedings of the 30th ACM SIGKDD Conference on Knowledge Discovery and Data Mining
2024年8月25日
acm.org
Robust image watermarking using local invariant features and independent component analysis, Wuhan University Journal of Natural Sciences | DeepDyve
2014年12月16日
deepdyve.com
34:46
神经网络知识蒸馏 Knowledge Distillation
已浏览 3.1万 次
2020年2月6日
bilibili
不相识不打
1:09:38
Zero-Shot Detection via Vision and Language Knowledge Distillation
已浏览 702 次
2021年11月2日
bilibili
微软科技
29:14
Decoulped Knowledge Distillation
已浏览 502 次
2022年7月22日
bilibili
假装科研
23:45
知识蒸馏 |Distilling the Knowledge in a Neural Network
已浏览 1.5万 次
2023年11月20日
bilibili
Enzo_Mi
4:22
Evaluation Oriented Knowledge Distillation for Deep Face Recognition | CVPR 2022
已浏览 49 次
2022年7月6日
bilibili
人工智能基地2
1:22
Distil-Whisper: Robust Knowledge Distillation via Large-Scale Pseudo Labelling
已浏览 710 次
2023年11月2日
bilibili
PaperWeekly
45:40
DIP Lecture 1: Digital Image Modalities and Processing
已浏览 21.8万 次
2015年1月26日
YouTube
Rich Radke
1:02:15
Lecture 2: Image Classification
已浏览 9.9万 次
2020年8月10日
YouTube
Michigan Online
59:32
Lecture 2 | Image Classification
已浏览 100万 次
2017年8月11日
YouTube
Stanford University School of Engineering
1:37
DistillBEV: 用跨模态知识蒸馏提升多摄像头3D目标检测
已浏览 637 次
2023年9月27日
bilibili
PaperWeekly
19:05
Distilling the Knowledge in a Neural Network
已浏览 2.4万 次
2020年6月28日
YouTube
Kapil Sachdeva
24:00
Knowledge Distillation Explained with Keras Example | #MLConcepts
已浏览 4649 次
2021年6月22日
YouTube
AI WITH Rithesh
42:36
Deep Learning - Image Classification Tutorial step by step (for Beginners) (python / TensorFlow)
已浏览 17.1万 次
2020年9月21日
YouTube
DeepLearning_by_PhDScholar
3:04
多层次知识自蒸馏联合多步骤训练的细粒度图像识别
已浏览 297 次
2023年8月22日
bilibili
计算机研究与发展J-CRAD
23:12
Knowledge Distillation
已浏览 1.2万 次
2019年7月18日
YouTube
NLP Breakfast
51:52
Advanced 3. Image Classification via Deep Learning
已浏览 9255 次
2018年10月26日
YouTube
MIT OpenCourseWare
4:13
Distilled-3DGS: Efficient 3D Gaussian Splatting
已浏览 86 次
8 个月之前
YouTube
AI Research Roundup
5:35
KNOWLEDGE DISTILLATION ultimate GUIDE
已浏览 3746 次
2023年6月25日
YouTube
Datafuse Analytics
16:54
Knowledge Distillation - Keras Code Examples
已浏览 8673 次
2021年2月28日
YouTube
Connor Shorten
38:56
LLM Knowledge Distillation Crash Course
已浏览 2934 次
8 个月之前
YouTube
AI Anytime
展开
更多类似内容
反馈