<html>
<head>
<meta http-equiv="Content-Type" content="text/html; charset=utf-8">
</head>
<body style="word-wrap: break-word; -webkit-nbsp-mode: space; line-break: after-white-space;" class="">
<div style="word-wrap: break-word; -webkit-nbsp-mode: space; line-break: after-white-space;" class="">
<div dir="auto" style="word-wrap: break-word; -webkit-nbsp-mode: space; line-break: after-white-space;" class="">
<div style="word-wrap: break-word; -webkit-nbsp-mode: space; line-break: after-white-space;" class="">
<div dir="auto" style="word-wrap: break-word; -webkit-nbsp-mode: space; line-break: after-white-space;" class="">
<div style="word-wrap: break-word; -webkit-nbsp-mode: space; line-break: after-white-space;" class="">
<div style="word-wrap: break-word; -webkit-nbsp-mode: space; line-break: after-white-space;" class="">
<div style="word-wrap: break-word; -webkit-nbsp-mode: space; line-break: after-white-space;" class="">
<br class="">
</div>
<div style="word-wrap: break-word; -webkit-nbsp-mode: space; line-break: after-white-space;" class="">
<b class=""><span class=""><b class="">#</b></span></b><b class="">#</b><b class="">#</b><b class=""><span class="">#</span>  COGNITIVE VISION  /<b class="">  </b>2019  <span class="">#</span></b><b class="">#</b><b class="">#</b><b class="">#</b></div>
<div style="word-wrap: break-word; -webkit-nbsp-mode: space; line-break: after-white-space;" class="">
<div class="">
<div class="">
<div class=""><span class="">
<div class="">
<div class="">
<div class="">
<div class=""><br class="">
</div>
<div class=""><br class="">
</div>
<div class=""><span class=""><span class=""><b class="">COGNITIVE VISION</b></span></span></div>
<div class=""><span class="">— <span class=""><b class="">Integrated Vision and AI for </b></span></span><span class=""><b class=""><span class="">Embodied </span><span class="">Perception and </span><span class="">Interaction</span></b></span></div>
<div class=""><a href="http://www.codesign-lab.org/cogsys2019/" class="">http://www.codesign-lab.org/cogsys2019/</a></div>
<div class=""><br class="">
</div>
<div class=""><br class="">
</div>
<div class=""><b class=""># </b>CHAIRS:</div>
<div class=""> </div>
<div class=""><span class="Apple-tab-span" style="white-space:pre"></span>Mehul Bhatt (Örebro University, Sweden)</div>
<div class=""><span class="Apple-tab-span" style="white-space:pre"></span>Daniel Levin (Vanderbilt University, United States)</div>
<div class=""><span class="Apple-tab-span" style="white-space:pre"></span>Parisa Kordjamshidi (Tulane University, United States)</div>
<div class=""><br class="">
</div>
<div class=""><br class="">
</div>
<div class=""><b class=""># </b>AS PART OF:</div>
<div class=""><br class="">
</div>
<div class=""><span class="Apple-tab-span" style="white-space:pre"></span>ACS 2019 - Advances in Cognitive Systems, August 2-5 2019</div>
<div class=""><span class="Apple-tab-span" style="white-space:pre"></span>Massachusetts Institute of Technology in Cambridge, Massachusetts / United States</div>
<div class=""><span class="Apple-tab-span" style="white-space:pre"></span><a href="http://www.cogsys.org/conference/2019" class="">http://www.cogsys.org/conference/2019</a></div>
<div class=""><br class="">
</div>
<div class=""><br class="">
</div>
<div class="">The workshop on COGNITIVE VISION is organised as part of ACS 2019, the Seventh Annual Conference on Advances in Cognitive Systems (ACS 2019) to be held at the Massachusetts Institute of Technology (Cambridge, Massachusetts). The workshop will
 be held as a full-day event on Friday August 2 2019.</div>
<div class=""><br class="">
</div>
<div class=""><span class="" style="font-size: 15px;"><br class="">
</span></div>
<div class=""><b class=""># ABOUT THE WORKSHOP </b><b class=""># </b></div>
<div class=""><span class="">
<div class="">
<div class="" style="font-size: 13px;">The workshop on COGNITIVE VISION solicits contributions addressing computational vision and perception at the interface of language, logic, cognition, and artificial intelligence. The workshop brings together a novel &
 unique combination of academics and research methodologies encompassing AI, Cognition, and Interaction. The workshop will feature invited and contributed research advancing the practice of Cognitive Vision particularly from the viewpoints of theories and methods
 developed within the fields of:</div>
<div class="" style="font-size: 13px;"><br class="">
</div>
<div class="" style="font-size: 13px;"><span class="Apple-tab-span" style="white-space: pre;"></span>—  Artificial Intelligence</div>
<div class=""><span class="Apple-tab-span" style="white-space: pre;"></span>—  Computer Vision<br class="">
<span class="Apple-tab-span" style="white-space: pre;"></span>—  Spatial Cognition and Computation<br class="">
<span class="Apple-tab-span" style="white-space: pre;"></span>—  Cognitive Linguistics<br class="">
<span class="Apple-tab-span" style="white-space: pre;"></span>—  Cognitive Science and Psychology<br class="">
<span class="Apple-tab-span" style="white-space: pre;"></span>—  Visual Attention, Perception. and Awareness<br class="">
<span class="Apple-tab-span" style="white-space: pre;"></span>—  Neuroscience</div>
<div class="" style="font-size: 13px;"><span class="Apple-tab-span" style="white-space: pre;"></span></div>
<div class="" style="font-size: 13px;">Application domains being addressed include, but are not limited to:</div>
<div class="" style="font-size: 13px;"><br class="">
</div>
<div class=""><span class="Apple-tab-span" style="white-space: pre;"></span>—  autonomous driving<br class="">
<span class="Apple-tab-span" style="white-space: pre;"></span>—  cognitive robotics - social robotics<br class="">
<span class="Apple-tab-span" style="white-space: pre;"></span>—  vision for psychology, human behaviour studies<br class="">
<span class="Apple-tab-span" style="white-space: pre;"></span>—  visuo-auditory perception in multimodality studies<br class="">
<span class="Apple-tab-span" style="white-space: pre;"></span>—  vision for social science, humanities<br class="">
<span class="Apple-tab-span" style="white-space: pre;"></span>—  social signal processing, social media<br class="">
<span class="Apple-tab-span" style="white-space: pre;"></span>—  visual art, fashion, cultural heritage<br class="">
<span class="Apple-tab-span" style="white-space: pre;"></span>—  vision in biology (e.g., animal, plant)<br class="">
<span class="Apple-tab-span" style="white-space: pre;"></span>—  vision and VR / AR<br class="">
<span class="Apple-tab-span" style="white-space: pre;"></span>—  vision for UAVs<br class="">
<span class="Apple-tab-span" style="white-space: pre;"></span>—  remote sensing, GIS<br class="">
<span class="Apple-tab-span" style="white-space: pre;"></span>—  medical imaging</div>
<div class=""><br class="">
</div>
<div class=""><br class="">
</div>
<div class=""><b class=""># TECHNICAL FOCUS #</b></div>
<div class=""><br class="">
</div>
<div class="">The principal emphasis of the workshop is on the integration of vision and artificial intelligence from the viewpoints of embodied perception, interaction, and autonomous control. In addition to basic research questions, the workshop addresses </div>
<div class="">diverse application areas where, for instance, the processing and semantic interpretation of (potentially large volumes of) highly dynamic visuo-spatial imagery is central: autonomous systems, cognitive robotics, medical & biological computing, </div>
<div class="">social media, cultural heritage & art, social media, psychology and behavioural research domains where data-centred analytical methods are gaining momentum. One particular challenge in these domains is to balance large-scale statistical analyses
 with much more selective rule-governed analysis of sparse data. These analyses may be guided by, for instance, recent research exploring the role of knowledge in constraining dynamic changes in awareness during the perception of meaningful events. Particular
 themes of high interest solicited by the workshop include:</div>
<div class=""><br class="">
<span class="Apple-tab-span" style="white-space: pre;"></span>—  methodological integrations between Vision and AI<br class="">
<span class="Apple-tab-span" style="white-space: pre;"></span>—  declarative representation and reasoning about spatio-temporal dynamics<br class="">
<span class="Apple-tab-span" style="white-space: pre;"></span>—  deep semantics and explainable visual computing (e.g., about space and motion)<br class="">
<span class="Apple-tab-span" style="white-space: pre;"></span>—  vision and computational models of narrative<br class="">
<span class="Apple-tab-span" style="white-space: pre;"></span>—  cognitive vision and multimodality (e.g., multimodal semantic interpretation)<br class="">
<span class="Apple-tab-span" style="white-space: pre;"></span>—  visual perception (e.g., high-level event perception, eye-tracking, biological motion)<br class="">
<span class="Apple-tab-span" style="white-space: pre;"></span>—  applications of visual sensemanking for social science, humanities, and human behaviour studies<br class="">
<br class="">
</div>
<div class="">The workshop emphasises application areas where explainability and semantic interpretation of dynamic visuo-spatial imagery are central, e.g., for commonsense scene understanding; vision for robotics and HRI; narrative interpretation </div>
<div class="">from the viewpoints of visuo-auditory perception & digital media, sensemaking from (possibly multimodal) human-behaviour data where the principal component is visual imagery. </div>
<div class=""><br class="">
We welcome contributions addressing the workshop themes from formal, cognitive, computational, engineering, empirical, </div>
<div class="">psychological, and philosophical perspectives. Indicative topics are: </div>
<div class=""><br class="">
</div>
<div class=""><span class="Apple-tab-span" style="white-space: pre;"></span>—  deep visuo-spatial semantics<br class="">
<span class="Apple-tab-span" style="white-space: pre;"></span>—  commonsense scene understanding<br class="">
<span class="Apple-tab-span" style="white-space: pre;"></span>—  semantic question-answering with image, video, point-clouds<br class="">
<span class="Apple-tab-span" style="white-space: pre;"></span>—  explainable visual interpretation<br class="">
<span class="Apple-tab-span" style="white-space: pre;"></span>—  concept learning and inference from visual stimuli<br class="">
<span class="Apple-tab-span" style="white-space: pre;"></span>—  learning relational knowledge from dynamic visuo-spatial stimuli<br class="">
<span class="Apple-tab-span" style="white-space: pre;"></span>—  knowledge-based vision systems<br class="">
<span class="Apple-tab-span" style="white-space: pre;"></span>—  ontological modelling for scene semantics<br class="">
<span class="Apple-tab-span" style="white-space: pre;"></span>—  visual analysis of sketches<br class="">
<span class="Apple-tab-span" style="white-space: pre;"></span>—  motion representation (e.g., for embodied control)<br class="">
<span class="Apple-tab-span" style="white-space: pre;"></span>—  action, anticipation, joint attention, and visual stimuli<br class="">
<span class="Apple-tab-span" style="white-space: pre;"></span>—  vision, AI, and eye-tracking<br class="">
<span class="Apple-tab-span" style="white-space: pre;"></span>—  neural-symbolic integration (for cognitive vision)<br class="">
<br class="">
<span class="Apple-tab-span" style="white-space: pre;"></span>—  high-level visual perception and eye-tracking<br class="">
<span class="Apple-tab-span" style="white-space: pre;"></span>—  high-level event perception<br class="">
<span class="Apple-tab-span" style="white-space: pre;"></span>—  egocentric vision and perception<br class="">
<span class="Apple-tab-span" style="white-space: pre;"></span>—  declarative reasoning about space and motion<br class="">
<span class="Apple-tab-span" style="white-space: pre;"></span>—  computational models of narratives<br class="">
<span class="Apple-tab-span" style="white-space: pre;"></span>—  narrative models for storytelling (from stimuli)<br class="">
<span class="Apple-tab-span" style="white-space: pre;"></span>—  vision and linguistic summarization (e.g., of social interaction, human behavior)<br class="">
<span class="Apple-tab-span" style="white-space: pre;"></span>—  visual perception and embodiment research (e.g., involving eye-tracking)<br class="">
<span class="Apple-tab-span" style="white-space: pre;"></span>—  biological and artificial vision<br class="">
<span class="Apple-tab-span" style="white-space: pre;"></span>—  biological motion<br class="">
<span class="Apple-tab-span" style="white-space: pre;"></span>—  visuo-auditory perception<br class="">
<span class="Apple-tab-span" style="white-space: pre;"></span>—  multimodal media annotation tools<br class="">
<br class="">
<br class="">
</div>
<div class=""><br class="">
</div>
<div class="">
<div class=""><b class=""># </b><b class="">SUBMISSION REQUIREMENTS #</b></div>
<div class=""><br class="">
</div>
<div class="">Submitted papers must be formatted according to ACS 2019 guidelines (details here: ACS 2019 guidelines). Contributions may be submitted as:</div>
<div class=""><br class="">
<span class="Apple-tab-span" style="white-space: pre;"></span>1.  technical papers (max 12 pages)<br class="">
<span class="Apple-tab-span" style="white-space: pre;"></span>2.  position / vision statements (max 7 pages)<br class="">
<span class="Apple-tab-span" style="white-space: pre;"></span>3.  work in progress reports or ``new'' project / initiative positioning (max 7 pages)<br class="">
<span class="Apple-tab-span" style="white-space: pre;"></span>4.  poster abstract (e.g., for early stage PhD candidates) (max 4 pages)<br class="">
<span class="Apple-tab-span" style="white-space: pre;"></span>5.  system demonstrations (max 4 pages)<br class="">
<br class="">
The above page lengths <b class="">DO NOT</b> include references: contribution categories (1-3) should contain a maximum of two pages of references, whereas contribution categories (4-5) may add one page of reference to their respective page limits. Each contribution
 (type) will be allocated an adequate duration of presentation to be determined by the workshop committees. Poster contributions are additionally expected to bring their poster for presentation and discussion during a poster session. <br class="">
<br class="">
Submissions should include a label describing the category of submission (as per 1-5 above) as a footnote on the first page of the paper. </div>
<div class="">All submissions should only be made (in English) electronically as PDF documents via the paper submission site at: <a href="https://easychair.org/conferences/?conf=cogvis2019" class="">https://easychair.org/conferences/?conf=cogvis2019</a></div>
<div class=""><br class="">
</div>
<div class=""></div>
<div class=""><br class="">
</div>
<div class=""><b class=""># </b><b class="">IMPORTANT DATES IN 2019 </b><b class=""># </b></div>
<div class="">
<div class=""><br class="">
</div>
<div class=""><i class="">We encourage expression of interest and / or registering an abstract and title (anytime before full submission deadline)</i><br class="">
<br class="">
</div>
<div class=""><span class="Apple-tab-span" style="white-space: pre;"></span>—  Submissions: June 3<br class="">
<span class="Apple-tab-span" style="white-space: pre;"></span>—  Notification: June 24<br class="">
<span class="Apple-tab-span" style="white-space: pre;"></span>—  Camera Ready: July 8<br class="">
<span class="Apple-tab-span" style="white-space: pre;"></span>—  Workshop Date: August 2<br class="">
<span class="Apple-tab-span" style="white-space: pre;"></span>—  ACS 2019 Conference: August 2 - 5 2019</div>
</div>
<div class=""><br class="">
</div>
<div class=""><br class="">
</div>
<div class="">
<div class=""><b class=""># WORKSHOP CHAIRS #</b></div>
<div class=""><b class=""><br class="">
</b></div>
<div class=""><span class="Apple-tab-span" style="white-space: pre;"></span>Mehul Bhatt  (Örebro University, Sweden)   /   <a href="http://www.mehulbhatt.org/" class="">http://www.mehulbhatt.org</a></div>
<div class=""><span class="Apple-tab-span" style="white-space: pre;"></span>Daniel Levin (Vanderbilt University, United States)   /   <a href="https://www.vanderbilt.edu/psychological_sciences/bio/daniel-levin" class="">https://www.vanderbilt.edu/psychological_sciences/bio/daniel-levin</a></div>
<div class=""><span class="Apple-tab-span" style="white-space:pre"></span>Parisa Kordjamshidi (Tulane University, United States)   /  
<a href="http://www.cs.tulane.edu/~pkordjam/" class="">http://www.cs.tulane.edu/~pkordjam/</a></div>
<div class=""> </div>
<div class=""><i class="">An initiative of</i>:</div>
<div class=""><br class="">
</div>
<div class=""><span class="Apple-tab-span" style="white-space:pre"></span>CoDesign Lab   >  Cognitive Vision <br class="">
<span class="Apple-tab-span" style="white-space:pre"></span><a href="http://www.codesign-lab.org/" class="">www.codesign-lab.org</a>  |  <a href="http://www.cognitive-vision.org/" class="">www.cognitive-vision.org</a> <br class="">
<br class="">
<span class="Apple-tab-span" style="white-space:pre"></span>Contact:   Please direct all inquiries to Mehul Bhatt via email at  >  [ mehul.bhatt AT
<a href="http://oru.se/" class="">oru.se</a> ]</div>
<div class=""><br class="">
</div>
<div class="">===================================================================================</div>
<div class=""><br class="">
</div>
<div class=""><br class="">
</div>
</div>
</div>
</div>
</span></div>
</div>
</div>
</div>
</span></div>
</div>
</div>
</div>
</div>
</div>
</div>
</div>
</div>
</div>
</body>
</html>