<html>
<head>
<meta http-equiv="Content-Type" content="text/html; charset=utf-8">
</head>
<body style="word-wrap: break-word; -webkit-nbsp-mode: space; line-break: after-white-space;" class="">
<div style="word-wrap: break-word; -webkit-nbsp-mode: space; line-break: after-white-space;" class="">
<div style="word-wrap: break-word; -webkit-nbsp-mode: space; line-break: after-white-space;" class="">
<div style="word-wrap: break-word; -webkit-nbsp-mode: space; line-break: after-white-space;" class="">
<div style="word-wrap: break-word; -webkit-nbsp-mode: space; line-break: after-white-space;" class="">
<div style="word-wrap: break-word; -webkit-nbsp-mode: space; line-break: after-white-space;" class="">
<div style="word-wrap: break-word; -webkit-nbsp-mode: space; line-break: after-white-space;" class="">
<div dir="auto" style="word-wrap: break-word; -webkit-nbsp-mode: space; line-break: after-white-space;" class="">
<div style="word-wrap: break-word; -webkit-nbsp-mode: space; line-break: after-white-space;" class="">
<div style="word-wrap: break-word; -webkit-nbsp-mode: space; line-break: after-white-space;" class="">
<div style="word-wrap: break-word; -webkit-nbsp-mode: space; line-break: after-white-space;" class="">
<div style="word-wrap: break-word; -webkit-nbsp-mode: space; line-break: after-white-space;" class="">
<div dir="auto" style="word-wrap: break-word; -webkit-nbsp-mode: space; line-break: after-white-space;" class="">
<div style="word-wrap: break-word; -webkit-nbsp-mode: space; line-break: after-white-space;" class="">
<div dir="auto" style="word-wrap: break-word; -webkit-nbsp-mode: space; line-break: after-white-space;" class="">
<div style="word-wrap: break-word; -webkit-nbsp-mode: space; line-break: after-white-space;" class="">
<div style="word-wrap: break-word; -webkit-nbsp-mode: space; line-break: after-white-space;" class="">
<div style="word-wrap: break-word; -webkit-nbsp-mode: space; line-break: after-white-space;" class="">
<b class="">++++  CALL FOR PAPERS  </b><b class="">++++  </b></div>
<div style="word-wrap: break-word; -webkit-nbsp-mode: space; line-break: after-white-space;" class="">
<b class=""><br class="">
</b></div>
<div style="word-wrap: break-word; -webkit-nbsp-mode: space; line-break: after-white-space;" class="">
<b class=""><br class="">
</b></div>
<div style="word-wrap: break-word; -webkit-nbsp-mode: space; line-break: after-white-space;" class="">
<span class=""><b class="">COGNITIVE VISION</b></span></div>
<div style="word-wrap: break-word; -webkit-nbsp-mode: space; line-break: after-white-space;" class="">
<div class="">
<div class="">
<div class=""><span class="">
<div class="">
<div class="">
<div class="">
<div class=""><span class="">— <span class=""><span class="">Integrated Vision and AI for </span></span></span><span class=""><span class=""><span class="">Embodied </span><span class="">Perception and </span><span class="">Interaction</span></span></span></div>
<div class=""><a class="" href="http://www.codesign-lab.org/cogsys2019/" >http://www.codesign-lab.org/cogsys2019/</a></div>
<div class=""><br class="">
</div>
<div class=""><b class=""># </b>CHAIRS: </div>
<div class=""><span class="Apple-tab-span" style="white-space:pre"></span>Mehul Bhatt (Örebro University, Sweden)</div>
<div class=""><span class="Apple-tab-span" style="white-space:pre"></span>Daniel Levin (Vanderbilt University, United States)</div>
<div class=""><span class="Apple-tab-span" style="white-space:pre"></span>Parisa Kordjamshidi (Tulane University, United States)</div>
<div class=""><br class="">
</div>
<div class=""><b class=""># </b>AS PART OF:</div>
<div class=""><span class="Apple-tab-span" style="white-space:pre"></span>ACS 2019 - Advances in Cognitive Systems, August 2-5 2019</div>
<div class=""><span class="Apple-tab-span" style="white-space:pre"></span>Massachusetts Institute of Technology in Cambridge, Massachusetts / United States</div>
<div class=""><span class="Apple-tab-span" style="white-space:pre"></span><a class="" href="http://www.cogsys.org/conference/2019" >http://www.cogsys.org/conference/2019</a></div>
<div class=""><br class="">
</div>
<div class=""><br class="">
</div>
<div class="">The workshop on COGNITIVE VISION is organised as part of ACS 2019, the Seventh Annual Conference on Advances in Cognitive Systems (ACS 2019) to be held at the Massachusetts Institute of Technology (Cambridge, Massachusetts). The workshop will
 be held as a full-day event on Friday August 2 2019.</div>
<div class=""><br class="">
</div>
<div class=""><span class="" style="font-size: 15px;"><br class="">
</span></div>
<div class=""><b class=""># ABOUT THE WORKSHOP </b><b class=""># </b></div>
<div class=""><span class="">
<div class="">
<div class="" style="font-size: 13px;">The workshop on COGNITIVE VISION solicits contributions addressing computational vision and perception at the interface of language, logic, cognition, and artificial intelligence. The workshop brings together a novel &
 unique combination of academics and research methodologies encompassing AI, Cognition, and Interaction. The workshop will feature invited and contributed research advancing the practice of Cognitive Vision particularly from the viewpoints of theories and methods
 developed within the fields of:</div>
<div class="" style="font-size: 13px;"><br class="">
</div>
<div class="" style="font-size: 13px;"><span class="Apple-tab-span" style="white-space: pre;"></span>—  Artificial Intelligence</div>
<div class=""><span class="Apple-tab-span" style="white-space: pre;"></span>—  Computer Vision<br class="">
<span class="Apple-tab-span" style="white-space: pre;"></span>—  Spatial Cognition and Computation<br class="">
<span class="Apple-tab-span" style="white-space: pre;"></span>—  Cognitive Linguistics<br class="">
<span class="Apple-tab-span" style="white-space: pre;"></span>—  Cognitive Science and Psychology<br class="">
<span class="Apple-tab-span" style="white-space: pre;"></span>—  Visual Attention, Perception. and Awareness<br class="">
<span class="Apple-tab-span" style="white-space: pre;"></span>—  Neuroscience</div>
<div class="" style="font-size: 13px;"><span class="Apple-tab-span" style="white-space: pre;"></span></div>
<div class="" style="font-size: 13px;">Application domains being addressed include, but are not limited to:</div>
<div class="" style="font-size: 13px;"><br class="">
</div>
<div class=""><span class="Apple-tab-span" style="white-space: pre;"></span>—  autonomous driving<br class="">
<span class="Apple-tab-span" style="white-space: pre;"></span>—  cognitive robotics - social robotics<br class="">
<span class="Apple-tab-span" style="white-space: pre;"></span>—  vision for psychology, human behaviour studies<br class="">
<span class="Apple-tab-span" style="white-space: pre;"></span>—  visuo-auditory perception in multimodality studies<br class="">
<span class="Apple-tab-span" style="white-space: pre;"></span>—  vision for social science, humanities<br class="">
<span class="Apple-tab-span" style="white-space: pre;"></span>—  social signal processing, social media<br class="">
<span class="Apple-tab-span" style="white-space: pre;"></span>—  visual art, fashion, cultural heritage<br class="">
<span class="Apple-tab-span" style="white-space: pre;"></span>—  vision in biology (e.g., animal, plant)<br class="">
<span class="Apple-tab-span" style="white-space: pre;"></span>—  vision and VR / AR<br class="">
<span class="Apple-tab-span" style="white-space: pre;"></span>—  vision for UAVs<br class="">
<span class="Apple-tab-span" style="white-space: pre;"></span>—  remote sensing, GIS<br class="">
<span class="Apple-tab-span" style="white-space: pre;"></span>—  medical imaging</div>
<div class=""><br class="">
</div>
<div class=""><br class="">
</div>
<div class=""><b class=""># TECHNICAL FOCUS #</b></div>
<div class=""><br class="">
</div>
<div class="">The principal emphasis of the workshop is on the integration of vision and artificial intelligence from the viewpoints of embodied perception, interaction, and autonomous control. In addition to basic research questions, the workshop addresses </div>
<div class="">diverse application areas where, for instance, the processing and semantic interpretation of (potentially large volumes of) highly dynamic visuo-spatial imagery is central: autonomous systems, cognitive robotics, medical & biological computing,
 social media, cultural heritage & art, social media, psychology and behavioural research domains where data-centred analytical methods are gaining momentum. One particular challenge in these domains is to balance large-scale statistical analyses with much
 more selective rule-governed analysis of sparse data. These analyses may be guided by, for instance, recent research exploring the role of knowledge in constraining dynamic changes in awareness during the perception of meaningful events. Particular themes
 of high interest solicited by the workshop include:</div>
<div class=""><br class="">
<span class="Apple-tab-span" style="white-space: pre;"></span>—  methodological integrations between Vision and AI<br class="">
<span class="Apple-tab-span" style="white-space: pre;"></span>—  declarative representation and reasoning about spatio-temporal dynamics<br class="">
<span class="Apple-tab-span" style="white-space: pre;"></span>—  deep semantics and explainable visual computing (e.g., about space and motion)<br class="">
<span class="Apple-tab-span" style="white-space: pre;"></span>—  vision and computational models of narrative<br class="">
<span class="Apple-tab-span" style="white-space: pre;"></span>—  cognitive vision and multimodality (e.g., multimodal semantic interpretation)<br class="">
<span class="Apple-tab-span" style="white-space: pre;"></span>—  visual perception (e.g., high-level event perception, eye-tracking, biological motion)<br class="">
<span class="Apple-tab-span" style="white-space: pre;"></span>—  applications of visual sensemanking for social science, humanities, and human behaviour studies<br class="">
<br class="">
</div>
<div class="">The workshop emphasises application areas where explainability and semantic interpretation of dynamic visuo-spatial imagery are central, e.g., for commonsense scene understanding; vision for robotics and HRI; narrative interpretation from the
 viewpoints of visuo-auditory perception & digital media, sensemaking from (possibly multimodal) human-behaviour data where the principal component is visual imagery. </div>
<div class=""><br class="">
We welcome contributions addressing the workshop themes from formal, cognitive, computational, engineering, empirical, </div>
<div class="">psychological, and philosophical perspectives. Indicative topics are: </div>
<div class=""><br class="">
</div>
<div class=""><span class="Apple-tab-span" style="white-space: pre;"></span>—  deep visuo-spatial semantics<br class="">
<span class="Apple-tab-span" style="white-space: pre;"></span>—  commonsense scene understanding<br class="">
<span class="Apple-tab-span" style="white-space: pre;"></span>—  semantic question-answering with image, video, point-clouds<br class="">
<span class="Apple-tab-span" style="white-space: pre;"></span>—  explainable visual interpretation<br class="">
<span class="Apple-tab-span" style="white-space: pre;"></span>—  concept learning and inference from visual stimuli<br class="">
<span class="Apple-tab-span" style="white-space: pre;"></span>—  learning relational knowledge from dynamic visuo-spatial stimuli<br class="">
<span class="Apple-tab-span" style="white-space: pre;"></span>—  knowledge-based vision systems<br class="">
<span class="Apple-tab-span" style="white-space: pre;"></span>—  ontological modelling for scene semantics<br class="">
<span class="Apple-tab-span" style="white-space: pre;"></span>—  visual analysis of sketches<br class="">
<span class="Apple-tab-span" style="white-space: pre;"></span>—  motion representation (e.g., for embodied control)<br class="">
<span class="Apple-tab-span" style="white-space: pre;"></span>—  action, anticipation, joint attention, and visual stimuli<br class="">
<span class="Apple-tab-span" style="white-space: pre;"></span>—  vision, AI, and eye-tracking<br class="">
<span class="Apple-tab-span" style="white-space: pre;"></span>—  neural-symbolic integration (for cognitive vision)<br class="">
<span class="Apple-tab-span" style="white-space: pre;"></span>—  high-level visual perception and eye-tracking<br class="">
<span class="Apple-tab-span" style="white-space: pre;"></span>—  high-level event perception<br class="">
<span class="Apple-tab-span" style="white-space: pre;"></span>—  egocentric vision and perception<br class="">
<span class="Apple-tab-span" style="white-space: pre;"></span>—  declarative reasoning about space and motion<br class="">
<span class="Apple-tab-span" style="white-space: pre;"></span>—  computational models of narratives<br class="">
<span class="Apple-tab-span" style="white-space: pre;"></span>—  narrative models for storytelling (from stimuli)<br class="">
<span class="Apple-tab-span" style="white-space: pre;"></span>—  vision and linguistic summarization (e.g., of social interaction, human behavior)<br class="">
<span class="Apple-tab-span" style="white-space: pre;"></span>—  visual perception and embodiment research (e.g., involving eye-tracking)<br class="">
<span class="Apple-tab-span" style="white-space: pre;"></span>—  biological and artificial vision<br class="">
<span class="Apple-tab-span" style="white-space: pre;"></span>—  biological motion<br class="">
<span class="Apple-tab-span" style="white-space: pre;"></span>—  visuo-auditory perception<br class="">
<span class="Apple-tab-span" style="white-space: pre;"></span>—  multimodal media annotation tools<br class="">
<br class="">
<br class="">
</div>
<div class=""><br class="">
</div>
<div class="">
<div class=""><b class=""># </b><b class="">SUBMISSION REQUIREMENTS #</b></div>
<div class=""><br class="">
</div>
<div class="">Submitted papers must be formatted according to ACS 2019 guidelines (details here: ACS 2019 guidelines). Contributions may be submitted as:</div>
<div class=""><br class="">
<span class="Apple-tab-span" style="white-space: pre;"></span>1.  technical papers (max 12 pages)<br class="">
<span class="Apple-tab-span" style="white-space: pre;"></span>2.  position / vision statements (max 7 pages)<br class="">
<span class="Apple-tab-span" style="white-space: pre;"></span>3.  work in progress reports or ``new'' project / initiative positioning (max 7 pages)<br class="">
<span class="Apple-tab-span" style="white-space: pre;"></span>4.  poster abstract (e.g., for early stage PhD candidates) (max 4 pages)<br class="">
<span class="Apple-tab-span" style="white-space: pre;"></span>5.  system demonstrations (max 4 pages)<br class="">
<br class="">
The above page lengths <b class="">DO NOT</b> include references: contribution categories (1-3) should contain a maximum of two pages of references, whereas contribution categories (4-5) may add one page of reference to their respective page limits. Each contribution
 (type) will be allocated an adequate duration of presentation to be determined by the workshop committees. Poster contributions are additionally expected to bring their poster for presentation and discussion during a poster session. <br class="">
<br class="">
Submissions should include a label describing the category of submission (as per 1-5 above) as a footnote on the first page of the paper. </div>
<div class="">All submissions should only be made (in English) electronically as PDF documents via the paper submission site at: <a class="" href="https://easychair.org/conferences/?conf=cogvis2019" >https://easychair.org/conferences/?conf=cogvis2019</a></div>
<div class=""><br class="">
</div>
<div class=""></div>
<div class=""><br class="">
</div>
<div class=""><b class=""># </b><b class="">IMPORTANT DATES IN 2019 </b><b class=""># </b></div>
<div class="">
<div class=""><br class="">
</div>
<div class=""><i class="">We encourage expression of interest and / or registering an abstract and title (anytime before full submission deadline)</i><br class="">
<br class="">
</div>
<div class=""><span class="Apple-tab-span" style="white-space: pre;"></span>—  Submissions: June 3<br class="">
<span class="Apple-tab-span" style="white-space: pre;"></span>—  Notification: June 24<br class="">
<span class="Apple-tab-span" style="white-space: pre;"></span>—  Camera Ready: July 8<br class="">
<span class="Apple-tab-span" style="white-space: pre;"></span>—  Workshop Date: August 2<br class="">
<span class="Apple-tab-span" style="white-space: pre;"></span>—  ACS 2019 Conference: August 2 - 5 2019</div>
<div class=""><br class="">
</div>
<div class=""><br class="">
</div>
</div>
<div class="">
<div class=""><b class=""># SCIENTIFIC COMMITTEES #</b></div>
<div class=""><b class=""><br class="">
</b></div>
<div class=""><br class="">
</div>
<div class=""><b class="">WORKSHOP CHAIRS</b></div>
<div class=""><br class="">
</div>
<div class=""><span class="Apple-tab-span" style="white-space: pre;"></span>—  Mehul Bhatt  (Örebro University, Sweden)   /   <a class="" href="http://www.mehulbhatt.org/" >http://www.mehulbhatt.org</a></div>
<div class=""><span class="Apple-tab-span" style="white-space: pre;"></span>—  Daniel Levin (Vanderbilt University, United States)   /   <a class="" href="https://www.vanderbilt.edu/psychological_sciences/bio/daniel-levin" >https://www.vanderbilt.edu/psychological_sciences/bio/daniel-levin</a></div>
<div class=""><span class="Apple-tab-span" style="white-space: pre;"></span>—  Parisa Kordjamshidi (Tulane University, United States)   /  
<a class="" href="http://www.cs.tulane.edu/~pkordjam/" >http://www.cs.tulane.edu/~pkordjam/</a></div>
<div class=""><br class="">
</div>
<div class=""><br class="">
</div>
<div class=""><b class="">PROGRAM COMMITTEE</b>    (In Progress)</div>
<div class=""><br class="">
</div>
<span class="Apple-tab-span" style="white-space:pre"></span>— Somak Aditya (Adobe Research - BEL, India)<br class="">
<span class="Apple-tab-span" style="white-space:pre"></span>— Amir Aly (Ritsumeikan University, Japan)<br class="">
<span class="Apple-tab-span" style="white-space:pre"></span>— Bonny Banerjee (University of Memphis, United States)<br class="">
<span class="Apple-tab-span" style="white-space:pre"></span>— Chitta Baral (Arizona State University, United States)<br class="">
<span class="Apple-tab-span" style="white-space:pre"></span>— Andrei Barbu (Massachusetts Institute of Technology, United States)<br class="">
<span class="Apple-tab-span" style="white-space:pre"></span>— Melissa Beck (Louisiana State University, United States)<br class="">
<span class="Apple-tab-span" style="white-space:pre"></span>— Ralph Ewerth (Leibniz Universität, Germany)<br class="">
<span class="Apple-tab-span" style="white-space:pre"></span>— Zoe Falomir (University of Bremen, Germany)<br class="">
<span class="Apple-tab-span" style="white-space:pre"></span>— Roberta Ferrario (Italian National Research Council - CNR, Italy)<br class="">
<span class="Apple-tab-span" style="white-space:pre"></span>— Hiranmay Ghosh (Tata Consultancy Services, India)<br class="">
<span class="Apple-tab-span" style="white-space:pre"></span>— Shyamanta M. Hazarika (Indian Institute of Technology Guwahati, India)<br class="">
<span class="Apple-tab-span" style="white-space:pre"></span>— Paul Hemeren (University of Skövde, Sweden)<br class="">
<span class="Apple-tab-span" style="white-space:pre"></span>— Maithilee Kunda (Vanderbilt University, United States)<br class="">
<span class="Apple-tab-span" style="white-space:pre"></span>— Francesca Lisi (Università degli Studi di Bari "Aldo Moro", Italy)<br class="">
<span class="Apple-tab-span" style="white-space:pre"></span>— Antonio Lieto (University of Turin, Italy)<br class="">
<span class="Apple-tab-span" style="white-space:pre"></span>— Yanxi Liu (Penn State University, United States)<br class="">
<span class="Apple-tab-span" style="white-space:pre"></span>— Rudolf Mester (Norwegian University of Science and Technology, Norway)<br class="">
<span class="Apple-tab-span" style="white-space:pre"></span>— Paulo E. Santos (Centro Universitário da FEI, Brazil)<br class="">
<span class="Apple-tab-span" style="white-space:pre"></span>— Michael Spranger (Sony CSL, Japan)<br class="">
<span class="Apple-tab-span" style="white-space:pre"></span>— Mohan Sridharan (University of Birmingham, United Kingdom)<br class="">
<span class="Apple-tab-span" style="white-space:pre"></span>— Jakob Suchan (University of Bremen, Germany)<br class="">
<span class="Apple-tab-span" style="white-space:pre"></span>— David Vernon (Carnegie Mellon University Africa, Rwanda)<br class="">
</div>
<div class="">
<div class=""><br class="">
</div>
<div class=""><br class="">
</div>
<div class=""><br class="">
</div>
<div class=""><i class="">An initiative of</i>:</div>
<div class=""><br class="">
</div>
<div class=""><span class="Apple-tab-span" style="white-space:pre"></span>CoDesign Lab   >  Cognitive Vision <br class="">
<span class="Apple-tab-span" style="white-space:pre"></span><a class="" href="http://www.codesign-lab.org/" >www.codesign-lab.org</a>  |  <a class="" href="http://www.cognitive-vision.org/" >www.cognitive-vision.org</a> <br class="">
<br class="">
<span class="Apple-tab-span" style="white-space:pre"></span>Contact:   Please direct all inquiries to Mehul Bhatt via email at  >  [ mehul.bhatt AT
<a class="" href="http://oru.se/" >oru.se</a> ]</div>
<div class=""><br class="">
</div>
<div class=""><br class="">
</div>
</div>
</div>
</div>
</span></div>
</div>
</div>
</div>
</span></div>
</div>
</div>
</div>
</div>
</div>
</div>
</div>
</div>
</div>
</div>
</div>
</div>
</div>
</div>
</div>
</div>
</div>
<br class="">
<br class="">
<div class="">
<div style="caret-color: rgb(0, 0, 0); color: rgb(0, 0, 0); font-style: normal; font-variant-caps: normal; font-weight: normal; letter-spacing: normal; orphans: auto; text-align: start; text-indent: 0px; text-transform: none; white-space: normal; widows: auto; word-spacing: 0px; -webkit-text-size-adjust: auto; -webkit-text-stroke-width: 0px; text-decoration: none; font-size: 16px; line-height: normal; font-family: "Helvetica Neue";" class="">
<span style="font-family: Calibri; font-size: 11px;" class=""><br class="Apple-interchange-newline">
<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<</span></div>
<div style="caret-color: rgb(0, 0, 0); color: rgb(0, 0, 0); font-style: normal; font-variant-caps: normal; font-weight: normal; letter-spacing: normal; orphans: auto; text-align: start; text-indent: 0px; text-transform: none; white-space: normal; widows: auto; word-spacing: 0px; -webkit-text-size-adjust: auto; -webkit-text-stroke-width: 0px; text-decoration: none; font-family: Calibri; font-size: 16px; line-height: normal;" class="">
<span style="font-size: 11px;" class=""><br class="">
</span></div>
<div style="caret-color: rgb(0, 0, 0); color: rgb(0, 0, 0); font-style: normal; font-variant-caps: normal; font-weight: normal; letter-spacing: normal; orphans: auto; text-align: start; text-indent: 0px; text-transform: none; white-space: normal; widows: auto; word-spacing: 0px; -webkit-text-size-adjust: auto; -webkit-text-stroke-width: 0px; text-decoration: none; font-family: Calibri; font-size: 16px; line-height: normal;" class="">
<span style="font-size: 11px;" class="">Professor - School of Science and Technology - </span><span style="font-size: 11px;" class="">Örebro University, Sweden</span></div>
<div style="caret-color: rgb(0, 0, 0); color: rgb(0, 0, 0); font-style: normal; font-variant-caps: normal; font-weight: normal; letter-spacing: normal; orphans: auto; text-align: start; text-indent: 0px; text-transform: none; white-space: normal; widows: auto; word-spacing: 0px; -webkit-text-size-adjust: auto; -webkit-text-stroke-width: 0px; text-decoration: none; font-size: 16px; line-height: normal; font-family: "Helvetica Neue";" class="">
<div class=""><font face="Calibri" class="">
<div class=""><font face="Calibri" class=""><span style="font-size: 11px;" class=""><font style="color: purple;" class=""><a class="" href="https://urldefense.proofpoint.com/v2/url?u=http-3A__www.mehulbhatt.org_&d=DwMGaQ&c=aLnS6P8Ng0zSNhCF04OWImQ_He2L69sNWG3PbxeyieE&r=_jnCXoQ5_E4TUArpC91emg&m=rVqpvqsojAUXWvg6tcgzQ3t2WDa6Rm4rWm-AcR6_geM&s=eDjBgclOKuAW69l2zhtEU0zvTHk0RZ9xRUBPTnDU0Nk&e=" style="color: purple;" >www.mehulbhatt.org</a> 
 |  SE</font>:  +</span></font><span style="font-size: 11px;" class="">46 19 303251  /  <a class="" href="mailto:mehul.bhatt@oru.se" >mehul.bhatt@oru.se</a></span></div>
<div class=""><br class="">
</div>
</font></div>
</div>
<div style="caret-color: rgb(0, 0, 0); color: rgb(0, 0, 0); font-style: normal; font-variant-caps: normal; font-weight: normal; letter-spacing: normal; orphans: auto; text-align: start; text-indent: 0px; text-transform: none; white-space: normal; widows: auto; word-spacing: 0px; -webkit-text-size-adjust: auto; -webkit-text-stroke-width: 0px; text-decoration: none; font-size: 16px; font-family: "Helvetica Neue";" class="">
<span style="font-family: Calibri; font-size: 11px;" class=""><b class="">CoDesign Lab EU</b>   /</span><span style="font-family: Calibri; font-size: 11px;" class=""> </span><span style="font-family: Calibri; font-size: 11px;" class="">  Cognition. AI. Interaction.
 Design.</span></div>
<div style="caret-color: rgb(0, 0, 0); color: rgb(0, 0, 0); font-style: normal; font-variant-caps: normal; font-weight: normal; letter-spacing: normal; orphans: auto; text-align: start; text-indent: 0px; text-transform: none; white-space: normal; widows: auto; word-spacing: 0px; -webkit-text-size-adjust: auto; -webkit-text-stroke-width: 0px; text-decoration: none; font-family: Calibri; font-size: 16px;" class="">
<span style="font-size: 11px;" class=""><a class="" href="https://urldefense.proofpoint.com/v2/url?u=http-3A__www.codesign-2Dlab.org_&d=DwMGaQ&c=aLnS6P8Ng0zSNhCF04OWImQ_He2L69sNWG3PbxeyieE&r=_jnCXoQ5_E4TUArpC91emg&m=rVqpvqsojAUXWvg6tcgzQ3t2WDa6Rm4rWm-AcR6_geM&s=rH9iQEljEkMldQ12fm917oD2hbrnnoWYVF6CTSDxfdE&e=" >www.codesign-lab.org</a> 
  /</span><span style="font-size: 11px;" class="">   </span><a class="" href="mailto:info@codesign-lab.org" style="font-size: 11px;" >info@codesign-lab.org</a></div>
<div style="caret-color: rgb(0, 0, 0); color: rgb(0, 0, 0); font-style: normal; font-variant-caps: normal; font-weight: normal; letter-spacing: normal; orphans: auto; text-align: start; text-indent: 0px; text-transform: none; white-space: normal; widows: auto; word-spacing: 0px; -webkit-text-size-adjust: auto; -webkit-text-stroke-width: 0px; text-decoration: none; font-family: Calibri; font-size: 16px;" class="">
<span style="font-size: 11px;" class=""><br class="">
</span></div>
<div style="caret-color: rgb(0, 0, 0); color: rgb(0, 0, 0); font-style: normal; font-variant-caps: normal; font-weight: normal; letter-spacing: normal; orphans: auto; text-align: start; text-indent: 0px; text-transform: none; white-space: normal; widows: auto; word-spacing: 0px; -webkit-text-size-adjust: auto; -webkit-text-stroke-width: 0px; text-decoration: none; font-family: Calibri; font-size: 16px;" class="">
<span style="font-size: 11px;" class="">DesignSpace Group  |  </span><span style="font-size: 11px;" class="">Cognitive Vision  |  </span><span style="font-size: 11px;" class="">Spatial Reasoning</span></div>
<div style="caret-color: rgb(0, 0, 0); color: rgb(0, 0, 0); font-style: normal; font-variant-caps: normal; font-weight: normal; letter-spacing: normal; orphans: auto; text-align: start; text-indent: 0px; text-transform: none; white-space: normal; widows: auto; word-spacing: 0px; -webkit-text-size-adjust: auto; -webkit-text-stroke-width: 0px; text-decoration: none; font-family: Calibri; font-size: 16px;" class="">
<span style="font-size: 11px;" class=""><a class="" href="https://urldefense.proofpoint.com/v2/url?u=http-3A__www.design-2Dspace.org_&d=DwMGaQ&c=aLnS6P8Ng0zSNhCF04OWImQ_He2L69sNWG3PbxeyieE&r=_jnCXoQ5_E4TUArpC91emg&m=rVqpvqsojAUXWvg6tcgzQ3t2WDa6Rm4rWm-AcR6_geM&s=IltzvSmIC3cjzUFKbdUSf4zbdh-aXZwA-f3tCz-_Ivk&e=" >www.design-space.org</a></span><span style="font-size: 11px;" class=""> </span><span style="font-size: 11px;" class=""> |
  </span><a class="" href="https://urldefense.proofpoint.com/v2/url?u=http-3A__www.cognitive-2Dvision.org_&d=DwMGaQ&c=aLnS6P8Ng0zSNhCF04OWImQ_He2L69sNWG3PbxeyieE&r=_jnCXoQ5_E4TUArpC91emg&m=rVqpvqsojAUXWvg6tcgzQ3t2WDa6Rm4rWm-AcR6_geM&s=eymAFGDfO0iiSnqX10NJbj544erEU_i2eYkQRs7S0ww&e=" style="font-size: 11px;" >www.cognitive-vision.org</a><span style="font-size: 11px;" class=""> </span><span style="font-size: 11px;" class=""> |
  </span><a class="" href="https://urldefense.proofpoint.com/v2/url?u=http-3A__www.spatialreasoning.com_&d=DwMGaQ&c=aLnS6P8Ng0zSNhCF04OWImQ_He2L69sNWG3PbxeyieE&r=_jnCXoQ5_E4TUArpC91emg&m=rVqpvqsojAUXWvg6tcgzQ3t2WDa6Rm4rWm-AcR6_geM&s=1CuQEfTTVPDu5g5k-ar4cXIMVIyk9XHLkSDu5S5kUac&e=" style="font-size: 11px;" >www.spatial-reasoning.com</a></div>
<div style="caret-color: rgb(0, 0, 0); color: rgb(0, 0, 0); font-style: normal; font-variant-caps: normal; font-weight: normal; letter-spacing: normal; orphans: auto; text-align: start; text-indent: 0px; text-transform: none; white-space: normal; widows: auto; word-spacing: 0px; -webkit-text-size-adjust: auto; -webkit-text-stroke-width: 0px; text-decoration: none; font-family: Calibri; font-size: 16px;" class="">
<span style="font-size: 11px;" class=""><br class="">
</span></div>
<div style="caret-color: rgb(0, 0, 0); color: rgb(0, 0, 0); font-style: normal; font-variant-caps: normal; font-weight: normal; letter-spacing: normal; orphans: auto; text-align: start; text-indent: 0px; text-transform: none; white-space: normal; widows: auto; word-spacing: 0px; -webkit-text-size-adjust: auto; -webkit-text-stroke-width: 0px; text-decoration: none; font-family: Calibri; font-size: 16px;" class="">
<span style="font-size: 11px;" class="">>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>  </span></div>
<div style="caret-color: rgb(0, 0, 0); color: rgb(0, 0, 0); font-family: Verdana; font-size: 13px; font-style: normal; font-variant-caps: normal; font-weight: normal; letter-spacing: normal; orphans: auto; text-align: start; text-indent: 0px; text-transform: none; white-space: normal; widows: auto; word-spacing: 0px; -webkit-text-size-adjust: auto; -webkit-text-stroke-width: 0px; text-decoration: none;" class="">
<span style="font-size: 11px;" class=""><br class="">
</span></div>
<br class="Apple-interchange-newline">
</div>
<br class="">
</div>
</div>
</body>
</html>0px; text-decoration: none; font-family: Calibri; font-size: 16px;" class="">
<span style="font-size: 11px;" class="">>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>  </span></div>
<div style="caret-color: rgb(0, 0, 0); color: rgb(0, 0, 0); font-family: Verdana; font-size: 13px; font-style: normal; font-variant-caps: normal; font-weight: normal; letter-spacing: normal; orphans: auto; text-align: start; text-indent: 0px; text-transform: none; white-space: normal; widows: auto; word-spacing: 0px; -webkit-text-size-adjust: auto; -webkit-text-stroke-width: 0px; text-decoration: none;" class="">
<span style="font-size: 11px;" class=""><br class="">
</span></div>
<br class="Apple-interchange-newline">
</div>
<br class="">
</div>
</div>
</body>
</html>