• 发文
  • 评论
  • 微博
  • 空间
  • 微信

ECCV 2020 | Workshop第一弹: 视觉研讨会, 最新研究成果一网打尽!

将门创投 2020-08-05 09:02 发文

From: ECCV; 编辑: T.R

ECCV精彩放送继续进行!Workshop是研究人员们交流最新的研究成果、科研经验、新兴研究方向的主要途径之一。在本次的ECCV中,一共将举办45场覆盖各个领域的研讨会,包括视觉理论研究和涵盖了自动驾驶、三维视觉、人体检测感知等等各方面的应用实践交流。
由于研讨会的数量较多,workshop部分的内容介绍将分为三次陆续推送,希望小伙伴们不要错过哦!下面让我们一起开始预习视觉研讨会的内容吧~

另外,将门「ECCV 2020鲜声夺人云际会」火热进行中,点击这里抢先报名!戳此复习:【ECCV 2020云端参会攻略之Oral篇】

【ECCV 2020云端参会攻略之教程篇】

01

真实世界中的对抗鲁棒性

虽然计算机视觉系统取得了巨大的成功,但对抗样本的攻击也会让强大的模型顿时失效,这也说明了模型与强大人类视觉的差距。在真实世界中创建对抗样本,包括像部分遮挡和先前未见过的环境等场景,可以为人们对于计算机视觉系统的深入理解和改进提升提供了新的机会和研究方向。这一研讨会将主要探讨以下方面的对抗鲁棒性:

- 探索和发现真实世界中的对抗样本;
- 提出针对遮挡、视点变换和其他真实世界中变换具有鲁棒性的新架构;
- 研究为真实世界中的计算机视觉系统提供鲁棒性的域自适应系统;
- 开发具有能够评估模型稳定性的数据集;
- 用于诊断和理解视觉系统局限性的对抗性机器学习方法;
- 针对域外分布提升视觉系统的泛化性;
- 结构化深度学习模型;
- 可解释性AI。

研讨会邀请了很多著名的研究人员作为演讲嘉宾,值得期待:

02

鲁棒视觉挑战赛

为了解决模型在数据集间表现不一致甚至退化的问题,提升视觉系统的性能,使其在不同特征的各个数据集上都实现良好的表现,本次竞赛将在多个具有不同视觉特征(室内/室外、真实/合成、晴天/雨天、不同传感器等等)的数据集上对多项任务(重建、光流、分割、深度估计等等)进行综合测评。具体的七个挑战和测试基准数据集如下表所示:

03

3D视觉整体场景结构感知

对于场景中有序、规则、对称和重复模式及其关系的整体结构感知在人类视觉中具有关键的作用。在人造环境中,人类可以轻松地识别出平行线、矩形、长方体,以及旋转对称、重复图案等几何结构,并能基于这些结构实现准确而强大的3D定位、定向和导航。随着计算机视觉的发展,这些能够创建高级、紧凑和语义丰富场景信息表达的整体结构元素越来越受到研究人员的关注。为了实现充分利用场景解耦股的能力,研究人员针对场景表达、结构化3D建模、场景合成与编辑、基于结构的推理规划与交互,丰富的应用场景的方面展开研究。


这一研讨会将致力于探索整体场景结构并实现精确、鲁棒、可靠的3D视觉,并研究在机器人、VR/AR、设计与建筑等多个领域的应用。

04

基于视觉归纳先验的数据高效深度学习

这一研讨会的重点在于探讨通过通用的视觉归纳内蕴知识结构来对深度网络进行设置,从而使得像几何与光反射这类物理知识可以有效融入到模型的结构中。通过视觉归纳先验知识代替了直接从数据中对知识进行学习,节约了宝贵的训练数据并提升了数据效率。


虽然数据是深度学习的燃料,但只有大公司能够负担起庞大的标注费用和训练硬件开销。而本研讨会的目标在于为仅仅具有小型软硬件和数据集的研究机构,通过视觉归纳先验提高数据效率。通过视觉的通用内蕴知识结构来对深度网络进行预先设置、将物理知识整合到模型结构中来。为了避免网络直接记忆下较小的数据集,本研讨会将重点介绍基于内蕴先验的正则化方法来防止过拟合。研讨会将在提升数据效率方法、深度学习与视觉归纳先验关系、图像表示、不变性、对于形状和纹理的理解以及紧凑型滤波器的设计等方面展开。

05

内部深度学习

探索自然信号的内部统计规律一直以来是计算机视觉等领域的强大工具,例如单张图像中被重复显示的冗余可以为多种任务提供高度相关性的监督信号,也可以实现完全不相关的推理(测试输入不需要任务训练样本)。内部学习近年来逐步发展,实现了可以利用单个样本训练深度神经网络的成果,不仅实现了优异的性能,更具灵活性与适应性。本研讨会将探讨内部学习的最新进展、讨论未来的发展方向,为研究内部学习的学者提供交流的平台和丰富的交流机会。

06

计算机视觉中的不平衡问题

基于学习的方法性能会受到各个不同层级的不平衡影响,包括输入数据、中间媒介、处理的中间阶段或是多任务设置中的优化目标。目前研究人人员倾向于在特定场景下使用特定方法解决问题,但对于其他计算机视觉领域类似的解决方法了解有效。这一研讨会将更深入地探讨不平衡问题,由于基于学习的方法在计算机视觉中占据主导地位,所以不平衡问题的进步将会为各个领域的应用带来实质性进展,提升业界和学界对于不平衡问题的关注与研究兴趣。

07

变化场景下的长期视觉定位

视觉定位的任务是估计出拍摄图像所在的位置和方位(相机位姿),它在自动驾驶汽车,增强/混合/虚拟现实,运动恢复结构和SLAM等众多领域具有重要的应用,受到学界和业界越来越多的关注。其中可以泛化到未见场景条件下长期的定位算法具有重要的现实意义,可以推广到光照或季节变化的环境以及场景几何变换情形。这一研讨会的目标在于为这一领域(长期视觉定位)提供研究基准,同时介绍目前的发展现状和具有挑战性的问题,并邀请了多位专家介绍了最新的研究成果和所面临的挑战。

08

公平的人脸识别与分析

人脸识别几乎是我们最常用的深度学习应用了,但由于训练数据的不平衡使得模型对于不同性别和肤色的人脸识别具有一定的偏见。该研讨会的目的在于探讨对于人脸识别模型中的偏见分析以及缓解方法,以促进人脸识别系统更加公平有效。此外研讨会还将致力于发布大规模的标注数据来推动人脸公平性验证及其相关领域的研究发展。研讨会将主要包含处理不平衡或噪声数据集的方法、缓解偏见的新方法/指标/算法、可解释的理解以及处理偏见的策略、生成模型的应用。研讨会中还包含了多位研究人员的分享:

09

实例级别识别研讨会

这一研讨会包含了两场演讲分享和四场挑战赛。比赛包括了地标识别、地标检索、艺术品识别、产品检索等四项细分比赛。具体的比赛日程和详细情况请参看网站:

10

基于结构化生成模型的感知

自然界中视觉的高度结构化启发了很多研究人员利用分析综合的方法来进行研究:通过模型重建图像的方式来理解图像。一个好的模型应该能够推断出被遮挡的时间可空间结果,例如合成出被遮挡2D或2.5D图像的完整三维结构,或者在给定部分视频片段时计算出完成的视频内容。生成模型近年来飞速发展,但作为因果或可解释性模型的研究还不足。本次研讨会将探索生成模型如何促进感知、特别是结构化的生成模型(图像、视频和3D数据)用于计算机视觉推理应用方面的机会。研讨会的分享嘉宾主要来自于DeepMind、多伦多大学、CMU、阿姆斯特丹大学和哥伦比亚大学。

11

域适应性与知识迁移

计算机视觉的成功依赖于大量标注诗句,但当训练数据不足时,研究人员需要寻找可替代的知识用于迁移或适应性调整,来为新领域任务的学习提供足够的支撑。这一研讨会的目标在于将迁移学习与域自适应领域结合起来用于计算机视觉领域的研究,主要将涵盖多种范式下的学习方法、提出新的适应性技术、专注于特定领域的计算机视觉技术、新的数据集和评价标准等等领域的探讨。

12

视频图灵测试

创造和理解故事的能力是人类交流和认知的重要手段,对于故事的理解一定程度上表现了主体智能程度的高低。在电影和电视节目中的视频故事可以作为测试AI算法能力的绝佳素材,其中涵盖了日常生活的方方面面,同时也涉及了人类的语言、思维和行为方式的理解。这一研讨会的主要探讨了AI该如何实现人类水平的故事理解能力,各个领域的专家将发表对于这一领域的看法和最新研究观点。同时还将基于DramaQA数据集开展以故事理解为中心的视频问答比赛。


研讨会的主要内容将覆盖多模态视频故事表达的深度学习架构、视频故事问答、长视频故事总结与检索、场景描述、事件与活动识别、视频主角识别与交互建模、场景图生成、视频情感识别等等领域。

各位小伙伴们,如果想要了解更多ECCV研讨会信息,请参看官网介绍,也敬请期待我们后续的 workshop 预告系列。

将门ECCV 2020专题活动 ●●

// 1

|精彩教程大揭秘,云端参会也easy

// 2

|云端参会攻略之Oral篇,前排占位、强势围观

ECCV 2020论文精选 ●●

// 1

|当AI遇见三维时装: 来会会现今最大的三维服装数据集

// 2

|GRNet: 用于稠密点云补全的网格化残差网络

// 3

|中科大&微软提出挑图神器: GIQA,一键挑出高质量图像


最后,别忘了
将门「ECCV 2020鲜声夺人云际会」火热报名中~

点击下方小程序报名



声明:本文为OFweek维科号作者发布,不代表OFweek维科号立场。如有侵权或其他问题,请及时联系我们举报。
2
评论

评论

    相关阅读

    暂无数据

    将门创投

    将门是一家专注于发掘、加速及投资...

    举报文章问题

    ×
    • 营销广告
    • 重复、旧闻
    • 格式问题
    • 低俗
    • 标题夸张
    • 与事实不符
    • 疑似抄袭
    • 我有话要说
    确定 取消

    举报评论问题

    ×
    • 淫秽色情
    • 营销广告
    • 恶意攻击谩骂
    • 我要吐槽
    确定 取消

    用户登录×

    请输入用户名/手机/邮箱

    请输入密码