<html><body><p><font size="2">[Apologies for cross-postings]</font><br><br><font size="2">*******************************************************</font><br><font size="2">1st CALL FOR PAPERS</font><br><br><font size="2">Workshop on Multi-modal Video Analysis and Moments in Time Challenge</font><br><font size="2">Nov. 2, 2019 | Seoul, Korea, in conjunction with ICCV 2019</font><br><br><a href="https://sites.google.com/view/multimodalvideo/home"><font size="2">https://sites.google.com/view/multimodalvideo/home</font></a><br><br><font size="2">July 31, 2019 : Paper submission deadline</font><br><font size="2">August 14, 2019 : Notification to authors</font><br><font size="2">August 20, 2019: Camera-ready paper deadline</font><br><br><font size="2">Video understanding is a very active research area in the computer vision community. This workshop aims to particularly focus on modeling, understanding, and leveraging the multi-modal nature of video. Recent research has amply demonstrated that in many scenarios multimodal video analysis is much richer than analysis based on any single modality. At the same time, multimodal analysis poses many challenges not encountered in modeling single modalities for understanding of videos (for e.g. building complex models that can fuse spatial, temporal, and auditory information). The workshop will be focused on video analysis/understanding related, but not limited, to the following topics:</font><br><br><font size="2">- deep network architectures for multimodal learning.</font><br><br><font size="2">- multimodal unsupervised or weakly supervised learning from video.</font><br><br><font size="2">- multimodal emotion/affect modeling in video.</font><br><br><font size="2">- multimodal action/scene recognition in video.</font><br><br><font size="2">- multimodal video analysis applications including but not limited to sports video understanding, entertainment video understanding, healthcare etc.</font><br><br><font size="2">- multimodal embodied perception for vision (e.g. modeling touch and video).</font><br><br><font size="2">- multimodal video understanding datasets and benchmarks.</font><br><br><br><font size="2">Papers should be limited to four pages, including figures and tables, in the ICCV style and will not be archived in the conference proceedings. We highly appreciate short forms of full papers accepted at ICCV as well as unpublished ideas and concept papers. Please note that papers in this workshop, as they will not be published in any proceedings and do not count as publications, can still be submitted to next year's CVPR.</font><br><br><font size="2">Organizers:</font><br><font size="2">Dhiraj Joshi, IBM Research AI</font><br><font size="2">Mathew Monfort, MIT CSAIL</font><br><font size="2">Kandan Ramakrishnan, MIT CSAIL</font><br><font size="2">Rogerio Schmidt Feris, IBM Research AI</font><br><font size="2">David Harwath, MIT CSAIL</font><br><font size="2">Dan Gutfreund, IBM Research AI</font><br><font size="2">Carl Vondrick, Columbia University</font><br><font size="2">Bolei Zhou, CUHK</font><br><font size="2">Hang Zhou, MIT CSAIL</font><br><font size="2">Zhicheng Yan, Facebook</font><br><font size="2">Aude Oliva, MIT CSAIL</font><br><br><font size="2">On behalf of the organizers,</font><br><font size="2">Hilde Kuehne</font><br><br><font size="2"><br>--<br>Dr. Hilde Kuehne<br>MIT-IBM Watson Lab<br><br>Website: <a href="http://researcher.watson.ibm.com/researcher/view.php?person=ibm-kuehne">http://researcher.watson.ibm.com/researcher/view.php?person=ibm-kuehne</a><br>Code & papers: <a href="https://hildekuehne.github.io">https://hildekuehne.github.io</a><br><br></font><BR>
</body></html>