<div dir="ltr"><br><div class="gmail_quote">Apologies for cross postings<br><div dir="ltr"><div><div class="gmail_quote"><div dir="ltr" class="gmail_attr"><br></div><div dir="ltr"><div dir="ltr"><div>Reminder: Deadline for the Faces 2019 workshop is 7th July, 2019</div><div><br></div><div>Workshop to be held at the 22nd Nordic Conference on Computational Linguistics (NoDaLiDa 2019) Conference, Turku University, Turku, Finland, on 30 September 2019.</div><div><br></div><div><a href="https://faces2019workshop.github.io/home/" target="_blank">https://faces2019workshop.github.io/home/</a></div><div><br></div><div>Workshop goals</div><div>==============</div><div>The workshop will  provide a forum to present and discuss current research focusing on the way human faces are perceived, understood and described by humans, as well as the way computational models  represent (and therefore ‘understand’) human faces and generate descriptions of faces, or facial images corresponding to descriptions, for different purposes and applications.</div><div><br></div><div>Recent research on multimodal analysis of images and text or the generation of image descriptions has focussed on general data sets, involving everyday scenes and objects, or on domain-specific data. While some of these might contain faces as a subset, we argue that the  specific challenges associated with faces are not adequately represented. Descriptions of faces are frequent in human communication, for example when one seeks to identify an individual or distinguish one person from another. They are also pervasive in descriptive or narrative text. Depending on the context, they may focus on physical attributes, or incorporate inferred characteristics and emotional elements.</div><div><br></div><div>The ability to adequately model and describe faces is interesting for a variety of language technology applications, e.g., conversational agents and interactive narrative generation, as well as forensic applications in which faces need to be identified or generated from textual or spoken descriptions. Such systems would need to process the images associated with human faces together with their linguistic descriptions, therefore the research needed to develop them is placed at the interface between vision and language research, a cross-disciplinary area which has received considerable attention in recent years, e.g. through the series of workshops on Vision and Language organised by the European Network on Integrating Vision and Language (iV&L Net), the 2015–2018 Language and Vision Workshops, or recently the Workshop on Shortcomings in Vision and Language.</div><div><br></div><div>Human faces are being studied by researchers from different research communities, including those working with vision and language modeling, natural language generation and understanding, cognitive science, cognitive psychology, multimodal communication and embodied conversational agents. The workshop aims to reach out to all these communities to explore the many different aspects of research on human faces and foster cross-disciplinary synergy.</div><div><br></div><div><br></div><div>Relevant topics</div><div>=============</div><div>We are inviting short and long papers of original research, surveys, position papers, and demos on relevant topics that include, but are not limited to, the following ones:</div><div><br></div><div>- Datasets of facial images and descriptions</div><div>- Experimental studies of facial expression understanding by humans</div><div>- Discovery of face descriptions in corpora</div><div>- Automatic structuring of descriptions and semantic web representations and databases</div><div>- Algorithms for automatic facial description generation</div><div>- Emotion recognition by humans</div><div>- Emotion recognition, perception and interpretation of face descriptions</div><div>- Multimodal automatic emotion recognition from images and text</div><div>- Subjectivity in face perception</div><div>- Communicative, relational and intentional aspects of head pose and eye-gaze</div><div>- Collection and annotation methods for facial descriptions</div><div>- Inferential aspects of facial descriptions</div><div>- Understanding and description of the human face in different contexts, including commercial applications, art, forensics, etc.</div><div>- Modelling of the human face and facial expressions for embodied conversational agents</div><div>- Generation of facial images from descriptions</div><div><br></div><div><br></div><div>Important dates</div><div>==============</div><div>Paper submission deadline: July 7</div><div>Notification of acceptance: July 25</div><div>Camera ready Papers: September 1</div><div>Workshop Schedule: September 18</div><div>Workshop: September 30 (half day)  </div><div><br></div><div><br></div><div>Submission guidelines</div><div>====================</div><div>Submission URL: <a href="https://easychair.org/conferences/?conf=faces2019" target="_blank">https://easychair.org/conferences/?conf=faces2019</a></div><div><br></div><div>Short paper submissions may consist of up to 4 pages of content, while long papers may have up to 8 pages of content. References do not count towards these page limits.</div><div><br></div><div>All submissions must follow the NoDaLiDa 2019 style files, which are available for LaTeX (preferred) and MS Word and can be retrieved from the following address:</div><div><br></div><div><a href="http://www.nodalida2019.org/authorkit.zip" target="_blank">http://www.nodalida2019.org/authorkit.zip</a></div><div><br></div><div>Submissions must be anonymous, i.e. not reveal author(s) on the title page or through self-references. Papers must be submitted digitally, in PDF, and uploaded through the online submission system. The authors of accepted papers will be required to submit a camera-ready version to be included in the final proceedings. Authors of accepted papers will be notified after the notification of acceptance with further details.</div><div><br></div><div>Accepted papers will be published in the ACL Anthology <a href="https://aclanthology.info" target="_blank">https://aclanthology.info</a>.</div><div><br></div><div> </div><div>Organisers</div><div>===========</div><div>Patrizia Paggio, University of Copenhagen and University of Malta</div><div>Albert Gatt, University of Malta</div><div>Roman Klinger, University of Stuttgart</div><div><br></div><div><br></div><div>Programme committee</div><div>====================</div><div>Adrian Muscat, University of Malta</div><div>Andreas Hotho, University of Würzburg</div><div>Andrew Hendrickson, Tilburg University</div><div>Anja Belz, University of Brighton</div><div>Costanza Navarretta, CST, University of Copenhagen</div><div>David Hogg, University of Leeds</div><div>Diego Frassinelli, University of Stuttgart</div><div>Emiel van Miltenburg, Tilburg University and VU Amsterdam</div><div>Francesca D’Errico, Roma Tre University</div><div>Gerard de Melo, Rutgers University</div><div>Gholamreza Anbarjafari, University of Tartu</div><div>Isabella Poggi, Roma Tre University</div><div>Jan Snajder, University of Zagreb</div><div>Michael Tarr, Carnegie Mellon University</div><div>Jordi Gonzalez, Universitat Autònoma de Barcelona</div><div>Lonneke van der Plas, University of Malta</div><div>Paul Buitelaar, National University of Ireland, Galway</div><div>Raffaella Bernardi, CiMEC Trento</div><div>Sebastian Padó, University of Stuttgart</div><div>Spandana Gella, University of Edinburgh</div><div><br></div>-- <br><div dir="ltr" class="m_8625703924862518011m_-1563481746806050794gmail_signature"><div dir="ltr"><div><div dir="ltr">Albert Gatt<div>Institute of Linguistics and Language Technology</div><div>University of Malta</div><div><a href="http://staff.um.edu.mt/albert.gatt/" target="_blank">http://staff.um.edu.mt/albert.gatt/</a></div></div></div></div></div></div></div>
</div><br clear="all"><div><br></div>-- <br><div dir="ltr" class="m_8625703924862518011gmail_signature" data-smartmail="gmail_signature"><div dir="ltr"><div><div dir="ltr">Albert Gatt<div>Institute of Linguistics and Language Technology</div><div>University of Malta</div><div><a href="http://staff.um.edu.mt/albert.gatt/" target="_blank">http://staff.um.edu.mt/albert.gatt/</a></div></div></div></div></div></div></div>
</div></div>