<div dir="ltr"><b>Call for Papers - FBE2020</b><div><b>Workshop on Facial and Body Expressions, micro-expressions and behavior recognition</b><br></div><div><br></div><div>January 10th, 2021 - Milan, Italy<br><br></div><div>The workshop will be held in conjunction with ICPR2020: The 25th International Conference on Pattern Recognition, Milan, Italy, January 10-15, 2021.</div><div><br>Website: <a href="https://micc.unifi.it/FBE2020/" target="_blank">https://micc.unifi.it/FBE2020/</a><br><br>Submission deadline: October 10th, 2020</div><div><br>Submission server: <a href="https://cmt3.research.microsoft.com/FBE2020" target="_blank">https://cmt3.research.microsoft.com/FBE2020</a><br><br><b>=== CALL FOR PAPERS ===</b><div><br>In recent years there has been an increasing interest in several fields of research for analyzing human behaviour. Typically these works focus on macro-level recognition such as activities or explicit human-human interactions. Systems built to address these tasks assume that what is recognized corresponds to the true intentions of the observed person. This may not be always the case, since macro-level behaviors can be easily counterfeited.</div><div>For this reason, the interest in understanding micro-level behaviors has emerged, since these are often connected to involuntary reactions which are less likely to be faked or concealed. Understanding strong, unbiased behaviors is also a key aspect in several fields. For example, in security critical applications, observing posture, gait and small body movements could reveal malicious intentions. Moreover, body movements and behaviors could also be used to profile or re-identificate subjects without harming their privacy.</div><div>In general, low-level expressions and behaviors are more difficult to recognise than high-level ones, due to the fine-grained nature of the problem. It is also a fact that with the recent technological advancement, the means of data acquisition and processing have also dramatically improved, enabling new applications and analyses. To reliably understand facial micro-expressions, for example, there are both spatial and temporal issues to take into account. On the one hand it is necessary to either acquire and process high-resolution images or rely on different kinds of data such as high-quality depth maps. On the other hand, micro-expressions occur over an extremely short timespan (<500ms) and might not even be detectable with conventional low-framerate cameras. If some years ago it was not possible to acquire these kinds of data and process them, now it certainly is.<br><br><b>===  SCOPE ===<br></b><br>In this workshop we are interested in submissions focused but not limited on low-level characteristics, either facial or related to the human body, aiming at understanding high-level concepts. We are also interested in applications leveraging this information, for user profiling or behavior understanding.The workshop also favours positive criticism of current works and encourages new perspectives on the matter. Moreover, as we are all living in a world where our personal data is used and often abused, we are also interested in privacy issues that arise when profiling users. Finally, we also promote the creation of new datasets for both facial micro-expressions and body behavior understanding. Submissions are invited from all areas of pattern recognition.</div><div><br></div><div>Topics of interest include (but are not limited to):<br><ul><li style="margin-left:15px">Face expressions</li><li style="margin-left:15px">Emotion recognition</li><li style="margin-left:15px">Behavior analysis</li><li style="margin-left:15px">Action recognition</li><li style="margin-left:15px">Gait recognition</li><li style="margin-left:15px">3D recognition</li><li style="margin-left:15px">Micro-expression recognition</li><li style="margin-left:15px">Body analysis</li><li style="margin-left:15px">Biometrics</li><li style="margin-left:15px">User profiling and suggestion</li><li style="margin-left:15px">Deep learning tailored for face and behavior recognition</li><li style="margin-left:15px">Representation learning</li><li style="margin-left:15px">Unsupervised and semi-supervised learning</li><li style="margin-left:15px">Multi-resolution, multi-sensor, multi-modal analysis</li><li style="margin-left:15px">Public benchmark datasets and evaluation protocols</li></ul><br><b>=== SUBMISSION ===</b></div><div><br>All the submissions will be subjected to single-blind review process. Submitted papers should not have been published, accepted or under review elsewhere.</div><div>The submissions can be up to 12-15 pages for full papers or 6-8 pages for short papers (Springer Template).</div><div>All the papers must be submitted using the template you can find at this link: <a href="https://www.springer.com/gp/computer-science/lncs/conference-proceedings-guidelines" target="_blank">https://www.springer.com/gp/computer-science/lncs/conference-proceedings-guidelines</a><br>All the papers should be submitted using CMT: <a href="https://cmt3.research.microsoft.com/FBE2020" target="_blank">https://cmt3.research.microsoft.com/FBE2020</a><br>Accepted submissions will be presented either as oral or posters, and published in the ICPR 2020 Workshops volume, edited by Springer.<br><br><b>=== IMPORTANT DATES ===</b><br><br>Paper submission: October 10th, 2020<br>Author notification: November 10th, 2020<br>Camera-Ready Paper submission: November 15th, 2020<br><br><b>=== ORGANIZERS ===</b></div><div><b><br></b>Vittorio Murino, Istituto Italiano di Tecnologia<br>Moi Hoon Yap, Manchester Metropolitan University, UK<br>Federico Becattini, University of Florence, Italy<br>Federico Pernici, University of Florence, Italy<br><br><b>=== CONTACTS ===</b></div><div><b><br></b>For any question regarding the workshop please contact Federico Becattini at <a href="mailto:federico.becattini@unifi.it" target="_blank">federico.becattini@unifi.it</a><br><br>Please distribute this call to interested parties.</div></div><div><br></div>-- <br><div dir="ltr" class="gmail_signature" data-smartmail="gmail_signature"><div dir="ltr"><div><div dir="ltr">Federico Becattini, Ph.D.<br>Università di Firenze - MICC<br>Tel.: +39 055 275 1394<br><a href="https://www.micc.unifi.it/people/federico-becattini/" target="_blank">https://www.micc.unifi.it/people/federico-becattini/</a></div><div dir="ltr"><a href="https://fedebecat.github.io/" target="_blank">https://fedebecat.github.io/</a><br><div><a href="mailto:federico.becattini@unifi.it" target="_blank">federico.becattini@unifi.it</a><br></div></div></div></div></div></div>