<div dir="ltr"><div dir="ltr"><div><div dir="ltr" class="gmail_signature"><div dir="ltr"><div dir="ltr"><div>[Apologies if you receive multiple copies of this CFP]  <br></div></div></div></div></div><div dir="ltr"><div dir="ltr"><div dir="ltr"><div dir="ltr"><div dir="ltr"><div dir="ltr"><div dir="ltr"><span style="font-size:12.8px"><span class="gmail-il"><br></span></span></div><div dir="ltr"><span style="font-size:12.8px"><span class="gmail-il">CALL</span> FOR <span class="gmail-il">PAPERS</span>: </span><div><b><font size="4">2nd Facial Micro-Expression Grand Challenge (<span class="gmail-il">MEGC</span>) Workshop</font></b></div><div><span style="font-size:12.8px">in conjunction with the <b>14th IEEE Conference on Automatic Face and Gesture Recognition (FG) 2019</b></span></div><div><span style="font-size:12.8px">- Lille, France, 14-18 May 2019.</span></div><div><br style="font-size:12.8px"><span style="font-size:12.8px"><a href="https://facial-micro-expressiongc.github.io/MEGC2019/">https://facial-micro-expressiongc.github.io/MEGC2019/</a></span></div><div><span style="font-size:12.8px"><br></span></div><div><div>Facial micro-expressions (MEs) are involuntary movements of the face that occur spontaneously when a person experiences an emotion but attempts to suppress or repress the facial expression, typically found in a high-stakes environment. As such, the duration of MEs is very short with the general duration of not more than 500 milliseconds (ms), and is the telltale sign that distinguishes them from a normal facial expression. Computational analysis and automation of tasks on micro-expressions is an emerging area in face research, with a strong interest appearing as recent as 2014. Only recently, the availability of a few spontaneously induced facial micro-expression datasets has provided the impetus to advance further from the computational aspect. Particularly comprehensive are two state-of-the-art FACS coded datasets: the Chinese Academy of Sciences Micro-Expression Database II (CASME II) with 247 MFEs at 200 fps and the Spontaneous Facial Micro-Movement Dataset (SAMM) with 159 MFEs at 200 fps. In addition, there is recent interest in acquiring “in-the-wild” datasets to further introduce real-world scenarios. While much research has been done on these datasets individually, there have been little attempts to introduce a more rigorous and realistic evaluation to work done in this domain. This is the second edition of this workshop, which aims to promote interactions between researchers and scholars not only from within this niche area of facial micro-expression research, but also including those from broader, general areas of expression and psychology research.<br></div><div><br></div><div><span style="font-size:12.8px">This workshop has three main agendas:</span></div><div><div><span style="font-size:12.8px">1. To organize, for the first time, a <b>Micro-Expression Spotting Challenge</b> based on CAS(ME)^2 and SAMM datasets.</span></div><div><span style="font-size:12.8px">2. To organize the second <b>Micro-Expression Cross-DB Recognition Challenge,</b> which increases its previous coverage of CASME II and SAMM datasets to include the SMIC dataset.</span></div><div><span style="font-size:12.8px">3.To solicit original works that addresses a variety of challenges in ME research, but not limited to:</span></div><div><span style="font-size:12.8px"><br></span></div><div><span style="font-size:12.8px">- ME Spotting / Detection</span></div><div><span style="font-size:12.8px">- ME Recognition</span></div><div><span style="font-size:12.8px">- ME Feature Representations & Computational Analysis</span></div><div><span style="font-size:12.8px">- Unified ME Spot-and-Recognize schemes</span></div><div><span style="font-size:12.8px">- Deep Learning Techniques for ME Analysis</span></div><div><span style="font-size:12.8px">- ME Data Synthesis</span></div><div><span style="font-size:12.8px">- New ME Datasets</span></div><div><span style="font-size:12.8px">- Real-world Applications of ME</span></div><div><span style="font-size:12.8px">- Computational Linkages to Psychology / Neuroscience in MEs</span></div><div><br></div></div>CFP</div><div><font color="#1155cc"><u><a href="http://bit.ly/CFP_MEGC2019">http://bit.ly/CFP_MEGC2019</a></u></font><br style="font-size:12.8px"><br style="font-size:12.8px"><span style="font-size:12.8px">SUBMISSIONS</span>  <br style="font-size:12.8px"><span style="font-size:12.8px">Submission site is open, and accessible at:</span><br style="font-size:12.8px"><font color="#1155cc"><span style="font-size:12.8px"><u><a href="https://cmt3.research.microsoft.com/MEGC2019" target="_blank">https://cmt3.research.microsoft.com/MEGC2019</a></u></span></font></div><div><font color="#1155cc"><u><br style="font-size:12.8px"></u></font><span style="font-size:12.8px">Each paper will be reviewed by at least two reviewers from the TPC or external experts </span><span style="font-size:12.8px">in "double-blind" fashion, and so the submitted version of the paper should be appropriately anonymized not to reveal the authors or authors’ institutions. The submitted <span class="gmail-il">papers</span> </span><span style="font-size:12.8px">should present original work, not currently </span><span style="font-size:12.8px">under review elsewhere and </span><span style="font-size:12.8px">should have no substantial overlap with already published work. </span>All challenge entries should be accompanied by a paper submission.</div><div><br><span style="font-size:12.8px">Submissions (in PDF) can either be in the form of a short paper (max 4 pages + 1 page for </span><span style="font-size:12.8px">reference) </span><span style="font-size:12.8px">or </span><span style="font-size:12.8px">long paper </span><span style="font-size:12.8px">(no more than 8 pages including references) i</span><span style="font-size:12.8px">n IEEE </span><span class="gmail-m_5622539067052612886gmail-il" style="font-size:12.8px">FG</span><span style="font-size:12.8px"> 2019 paper format. <a href="http://fg2019.org/participate/regular-papers/">See here</a> for further instructions. Workshop papers presented at FG 2019 will appear in the IEEE Xplore digital library. If a paper is accepted, it is assumed that an author will register and attend the workshop to present the paper. (Papers that are not presented will not be published in the proceedings.)</span></div><div><span style="font-size:12.8px"><b><br></b></span></div><div><span style="font-size:12.8px"><b>Dates</b></span><br style="font-size:12.8px"><span style="font-size:12.8px">27 January 2019: Submission deadline</span><br style="font-size:12.8px"><span style="font-size:12.8px">12 February 2019: Notification of acceptance</span><br style="font-size:12.8px"><span style="font-size:12.8px">15 February 2019:  Camera ready submission</span><br style="font-size:12.8px"><br></div><div><span style="font-size:12.8px"><b>Organizing Chairs</b></span><br style="font-size:12.8px"><div><span style="font-size:12.8px">Moi Hoon Yap, Manchester Metropolitan University, UK </span></div><div><span style="font-size:12.8px">Sujing Wang, Chinese Academy of Sciences, China</span></div><div><span style="font-size:12.8px">John See, Multimedia University, Malaysia</span></div><div><span style="font-size:12.8px">Xiaopeng Hong, University of Oulu, Finland</span></div></div><div><br><b>Advisory Panel<br></b><div>Xiaolan Fu, Chinese Academy of Sciences, China </div><div>Guoying Zhao, University of Oulu, Finland</div></div><div><br></div><div>===</div><div>For further enquries, please contact Moi Hoon Yap (<a href="mailto:m.yap@mmu.ac.uk">m.yap@mmu.ac.uk</a>) or John See (<a href="mailto:johnsee@mmu.edu.my">johnsee@mmu.edu.my</a>)</div><div>===</div></div></div></div></div></div></div></div></div></div>