前言:
当前咱们对“神经网络 优化设计”大约比较看重,姐妹们都需要剖析一些“神经网络 优化设计”的相关文章。那么小编同时在网上汇集了一些对于“神经网络 优化设计””的相关资讯,希望小伙伴们能喜欢,咱们快快来了解一下吧!作为计算机视觉领域的三大国际顶会之一,CVPR 每年都会吸引全球领域众多专业人士参与。如 2019 年,CVPR 注册参会人数高达 9227 人,创造了历届最高记录。其中,来自国内的参会人数就达到 1044 位,仅次于大会举办地美国(4743 位)。
CVPR 2020 原定于 6 月 16 日至 20 日在华盛顿州西雅图的华盛顿州会议中心举行,但是当前全球疫情势态严峻,越来越多的国际 AI 顶会开始转向线上,CVPR 也不例外。
虽然无法去现场交流,但这无法阻挡我们学习的热情。
为向读者们分享更多 CVPR 优质内容,在 CVPR 2020 开幕之前,机器之心将策划多期线上分享。这是机器之心 CVPR 2020 线上分享的第三期,我们邀请到腾讯优图实验室高级研究员 Louis 为我们进行主题为《带噪学习和协作学习:不完美场景下的神经网络优化策略》的分享。他将结合 CVPR 2020 及其他顶会相关论文,为大家细致地讲解数据和模型缺陷情况下神经网络的有效训练方法。
分享主题:带噪学习和协作学习:不完美场景下的神经网络优化策略
内容简介:深度学习的成功得益于大量的数据和很深的网络模型。然而数据和模型往往不会特别理想,比如数据里存在着很多标签噪音或者考虑到模型的推理速度,神经网络的层数不能够特别深。针对这些情况如何有效的训练神经网络是深度学习领域的热点话题。特别是对于业务场景,数据往往存在很多缺陷,让模型能够自适应的从缺陷数据里学习是业务成功的保障。本次讲座将细致地讲解数据和模型缺陷情况下神经网络的有效训练方法。相关技术已经在腾讯的众多业务场景上(行人重识别,内容审核等)落地。
直播时间:北京时间 5 月 13 日 19:00-20:00
在直播开始之前,我们提供了相关论文列表,方便读者们提前备课。
带噪学习文章列表:
Robust Loss Functions under Label Noise for Deep Neural Networks, AAAI2017
Generalized Cross Entropy Loss for Training Deep Neural Networks with Noisy Labels, NeurlPS 2018
LDMI: A Novel Information-theoretic Loss Function for Training Deep Nets Robust to Label Noise, NeurlPS 2019
Peer Loss Functions: Learning from Noisy Labels without Knowing Noise Rates (under review)
Co-teaching: Robust Training of Deep Neural Networks with Extremely Noisy Labels, NeurlPS 2018
Deep Self-Learning from Noisy Labels, ICCV 2019
Asymmetric Co-Teaching for Unsupervised Cross-Domain Person Re-Identification, AAAI 2020
协作学习文章列表:
Combining labeled and unlabeled data with co-training, ACM 1998
Deep Mutual Learning, CVPR2018
Filter Grafting for Deep Neural Networks, CVPR 2020
DGD: Densifying the Knowledge of Neural Networks with Filter Grafting and Knowledge Distillation (under review)