<div dir="ltr"><div style="font-size:12.8px"><span style="font-size:12.8px">We apologize if you receive multiple copies of this message.</span><br style="font-size:12.8px"><br style="font-size:12.8px"><br style="font-size:12.8px"><span style="font-size:12.8px">******************************</span><span style="font-size:12.8px"><wbr>******************************</span><span style="font-size:12.8px"><wbr>*********************</span><span style="font-size:12.8px">*********<wbr>*******************</span></div><div style="font-size:12.8px"><span style="font-size:12.8px"></span><span style="font-size:12.8px"> Third Workshop on Vision Meets Cognition: </span><span style="font-size:12.8px">Functionality, Physics, Intentionality and Causality</span></div><div style="font-size:12.8px"><span style="font-size:12.8px">                                                           FPIC@CVPR17</span><br style="font-size:12.8px"><br style="font-size:12.8px"><span style="font-size:12.8px">                                        </span><font color="#1155cc"><span style="font-size:12.8px"><u><a href="http://www.visionmeetscognition.org/" target="_blank">http://www.<wbr>visionmeetscognition.org/</a></u></span></font><br style="font-size:12.8px"><br style="font-size:12.8px"><span style="font-size:12.8px">                                               <span class="gmail-aBn" tabindex="0"><span class="gmail-aQJ">July 21, 2017</span></span> @ Honolulu, HI</span><br style="font-size:12.8px"><br style="font-size:12.8px"><span style="font-size:12.8px">                                             in conjunction with  CVPR 2017</span><br style="font-size:12.8px"><br style="font-size:12.8px"><span style="font-size:12.8px">                               Submission Full </span><span class="gmail-m_2105534125061934294gmail-il" style="font-size:12.8px">Papers</span><span style="font-size:12.8px"> (6-8 pages): <span class="gmail-aBn" tabindex="0"><span class="gmail-aQJ">May 1, 2017</span></span></span><br style="font-size:12.8px"><span style="font-size:12.8px">                               Submission Extended Abstracts (1-2 pages): <span class="gmail-aBn" tabindex="0"><span class="gmail-aQJ">May 1, 2017</span></span></span><br style="font-size:12.8px"><br style="font-size:12.8px"><span style="font-size:12.8px">******************************</span><span style="font-size:12.8px"><wbr>******************************</span><span style="font-size:12.8px"><wbr>*********************</span><span style="font-size:12.8px">*********<wbr>*******************</span><br style="font-size:12.8px"><br style="font-size:12.8px"><br style="font-size:12.8px"><span class="gmail-m_2105534125061934294gmail-il" style="font-size:12.8px">CALL</span><span style="font-size:12.8px"> FOR </span><span class="gmail-m_2105534125061934294gmail-il" style="font-size:12.8px">PAPERS</span><br style="font-size:12.8px"><br style="font-size:12.8px"><span style="font-size:12.8px">Although we've seen a recent boost of sensors in digital devices, e.g., virtual reality headsets, autonomous driving, smart home, IoT devices, advanced algorithms for processing and handling visual data in the backend are largely missing. One key challenge is that algorithms that can understand images, human behaviors, and social activities from sensors deployed in daily lives go beyond the traditional scope of image and scene understanding, and they are expected to be capable of answering queries much broader and deeper than “what is where”. The mission of this workshop is to (a) identify the key domains in modern computer vision; (b) formalize the computational challenges in these domains; and (c) provide promising frameworks to solve these challenges.</span><br style="font-size:12.8px"><br style="font-size:12.8px"><span style="font-size:12.8px">In conjunction with CVPR 2017, our third Vision meets Cognition workshop will bring together researchers from computer vision, computer graphics, robotics and cognitive science, to advance computer vision systems going beyond answering “what is where” in an image and building a sophisticated understanding of an image about Functionality, Physics, Intentionality and Causality (FPIC). In effect, these abilities allow an observer to answer an almost limitless range of questions about an image using finite and general-purpose models. In the meanwhile, we also want to emphasize that FPIC is never meant to be an exclusive set of image and scene understanding problems. We welcome any scholars who share the same perspective but are working on different problems.</span><br style="font-size:12.8px"><br style="font-size:12.8px"><span style="font-size:12.8px">Submissions should be relevant to our workshop theme. Several key topics are:</span><br style="font-size:12.8px"><div><span style="font-size:12.8px">- Representation of visual structure and commonsense knowledge</span></div><div><span style="font-size:12.8px">- Recognition of object function / affordances</span></div><div><span style="font-size:12.8px">- Physically grounded scene interpretation</span></div><div><span style="font-size:12.8px">- 3D scene acquisition, modeling and reconstruction</span></div><div><span style="font-size:12.8px">- Human-object-scene interaction</span></div><div><span style="font-size:12.8px">- Physically plausible pose / action modeling</span></div><div><span style="font-size:12.8px">- Reasoning about goals and intents of the agents in the scenes</span></div><div><span style="font-size:12.8px">- Causal model in vision</span></div><div><span style="font-size:12.8px">- Abstract knowledge learning and transferring</span></div><div><span style="font-size:12.8px">- Top-down and Bottom-up inference algorithms</span></div><div><span style="font-size:12.8px">- Related topics in cognitive science and visual perception</span></div><div><span style="font-size:12.8px">- Applications of FPIC to augmented and mixed reality</span></div><br style="font-size:12.8px"><br style="font-size:12.8px"><span style="font-size:12.8px">IMPORTANT DATES</span><br style="font-size:12.8px"><br style="font-size:12.8px"><span style="font-size:12.8px">Submission Full </span><span class="gmail-m_2105534125061934294gmail-il" style="font-size:12.8px">Papers</span><span style="font-size:12.8px"> (6-8 pages) or Extended Abstracts (1-2 pages): <span class="gmail-aBn" tabindex="0"><span class="gmail-aQJ">May 1, 2017</span></span></span><br style="font-size:12.8px"><span style="font-size:12.8px">Notification of Acceptance: <span class="gmail-aBn" tabindex="0"><span class="gmail-aQJ">May 10, 2017</span></span></span><br style="font-size:12.8px"><span style="font-size:12.8px">Camera-ready Deadline: <span class="gmail-aBn" tabindex="0"><span class="gmail-aQJ">May 19, 2017</span></span></span></div><div style="font-size:12.8px"><br style="font-size:12.8px"><br style="font-size:12.8px"><span style="font-size:12.8px">WORKSHOP ORGANIZERS</span><br style="font-size:12.8px"><br style="font-size:12.8px"><span style="font-size:12.8px"><a href="http://yzhu.io/" target="_blank">Yixin Zhu</a>, UCLA</span></div><div style="font-size:12.8px"><a href="http://web.cs.ucla.edu/~cffjiang/" target="_blank">Chengfanfu Jiang</a>, UPenn</div><div style="font-size:12.8px"><a href="http://lapfaiyu.org/" target="_blank">Lap-Fai (Craig) Yu</a>, UMass Boston</div><div style="font-size:12.8px"><a href="http://www.stat.ucla.edu/~ybzhao" target="_blank">Yibiao Zhao</a>, MIT</div><div style="font-size:12.8px"><a href="http://www.stat.ucla.edu/~ping.wei/" target="_blank">Ping Wei</a>, UCLA, XJTU</div><div style="font-size:12.8px"><a href="http://web.mit.edu/~pbatt/www" target="_blank">Peter Battaglia</a>, DeepMind</div><div style="font-size:12.8px"><a href="http://web.mit.edu/~taogao/www" target="_blank">Tao Gao</a>, MIT<br><br style="font-size:12.8px"><br style="font-size:12.8px"><span style="font-size:12.8px">For more information: <a href="http://www.visionmeetscognition.org/" target="_blank">http://www.<wbr>visionmeetscognition.org/</a></span></div></div>