快乐向前冲2024报名
2024-05-27
更新时间:2024-05-27 23:58:32作者:橙橘网
自从 OpenAI 发布 ChatGPT 以来,整个技术社区对大模型、AIGC 的关注越来越高。
大模型时代,计算机视觉(CV)领域的热点话题也在不断的发生着变化。
面对应接不暇的研究,我们如何才能以最快的时间了解 AI 领域的最新科研成果与发展趋势?参加顶会论文分享会就是一个不错的选择。
作为计算机视觉领域的顶级会议,CVPR 每年都会吸引大量研究机构和高校参会。据统计,今年共提交了 11532 份论文,2719 篇被接收,录用率为 23.6%。
为了给国内 CV 社区从业者搭建一个自由轻松的学术交流平台,机器之心计划于 2024 年 6 月 1 日 9:00-17:00 组织「CVPR 2024 线上论文分享会」,广邀 AI 社区成员参与学习。
本次论文分享会设置 Keynote、 论文分享环节,就业内关注的 CV 热门主题邀请顶级专家、论文作者与观众做学术交流。
今天,分享会全日程、Keynote 分享嘉宾及演讲主题正式公布。
Keynote 嘉宾及演讲主题
上午 Keynote 1:金小刚 数字人建模动画关键技术
分享人介绍:金小刚,浙江大学计算机科学与技术学院教授,博士生导师。浙江大学 - 腾讯游戏智能图形创新技术联合实验室主任,浙江省虚拟现实产业联盟理事长。第九届霍英东青年教师基金、浙江省杰出青年基金获得者,入选教育部新世纪优秀人才支持计划。在 ACM TOG (Proc. of Siggraph) 等国际重要学术刊物上发表论文 180 多篇。获省部级一等奖一次,二等奖二次。
分享摘要:数字人是近年来的研究热点,可广泛用于计算机动画、计算机游戏、虚拟主播、虚拟客服等领域。报告将介绍本人所在研究小组在视频肖像的胖瘦调整、肖像双下巴去除、肖像头发去除、用于睫毛抠图的数据集与基线方法、基于扩散模型的文生三维肖像、高精度人体运动神经求解器、实时人体运动补间等方面的一些最新研究进展。
上午 Keynote 2:朱俊彦 Enabling Collaboration between Creators and Generative Models
分享人介绍:Jun-Yan Zhu is an Assistant Professor at CMU’s School of Computer Science. Prior to joining CMU, he was a Research Scientist at Adobe Research and a postdoc at MIT CSAIL. He obtained his Ph.D. from UC Berkeley and B.E. from Tsinghua University. He studies computer vision, computer graphics, and computational photography. His current research focuses on generative models for visual storytelling. He has received the Packard Fellowship, the NSF CAREER Award, the ACM SIGGRAPH Outstanding Doctoral Dissertation Award, and the UC Berkeley EECS David J. Sakrison Memorial Prize for outstanding doctoral research, among other awards.
分享摘要:Large-scale generative visual models, such as DALL・E and Stable Diffusion, have made content creation as little effort as writing a short text description. Meanwhile, these models also spark concerns among artists, designers, and photographers about job security and proper credit for their contributions to the training data. This leads to many questions: Will generative models make creators’ jobs obsolete? Should creators stop publicly sharing their work? Should we ban generative models altogether?
In this talk, I argue that human creators and generative models can coexist. To achieve it, we need to involve creators in the loop of both model inference and model training while crediting their efforts for their involvement. I will first explore our recent efforts in model customization, which allows creators to freely control the model’s behavior by adding, altering, or removing concepts and rules. I will demonstrate several applications, including customizing models with multiple personal concepts and removing copyrighted content. I will then discuss our data attribution algorithm for assessing the influence of each training image for a generated sample. Collectively, we aim to allow creators to leverage the models while retaining control over the creation process and data ownership.
下午 Keynote 1:芦清林 腾讯混元文生图的算法核心 ——DIT 架构解读
分享人介绍:芦清林博士,带领多媒体创作团队,负责腾讯混元文生图模型及广告创意 AI 算法研发工作。在计算机视觉,机器学习,AIGC 方面有丰富的研究经历,曾发表 10 余篇会议和期刊论文,数十项专利,支撑腾讯广告业务发展。
分享摘要:
1、趋势:视觉生成技术的新篇章 ——DIT
2、混元 DIT 三大升级
3、效果展示 & 定量分析 ——demo
4、全面开源
下午 Keynote 2:盛律 Multimodal Large Language Models Meets Embodied Agents
分享人介绍:盛律,北京航空航天大学 “卓越百人” 副教授,入选北航青年拔尖计划。研究方向是三维视觉、多模态大模型和具身智能。在 TPAMI/IJCV 以及 CVPR/ICCV/ECCV 等重要国际期刊和会议发表论文 50 余篇,含多篇会议口头报告或亮点论文。谷歌引用超 4900 次。担任 ACM Computer Surveys 副编,CVPR 2024/ECCV 2024/ACM MM 2024 领域主席等。主持或参与多项国家自然科学基金、科技部重点研发计划等项目。
分享摘要:在多模态大模型和生成模型的加持下,围绕具身智能体的研究工作从传统的抓取、导航等任务,扩展到在复杂多模态环境中通用交互任务的解决。在本次报告中,讲者将介绍面向具身智能体的多模态大模型及其多模态多任务高效微调方法,并以此为基础探讨在以 Minecraft 为代表的仿真环境中实现具身智能体的设计思路,和在真实环境下实现具身机器人泛化操作的有益尝试。最后,报告将展望端到端具身大模型,讨论其中的机会和挑战。
此次线上论文分享会将在机器之心以及黄大年茶思屋两个平台进行直播,欢迎大家关注、预约。