<div dir="ltr"><span style="font-size:12.8px">CALL FOR PAPERS: </span><div><span style="font-size:12.8px"><b>Workshop on Facial Micro-Expression Grand Challenge (MEGC): Methods and Datasets </b></span></div><div><span style="font-size:12.8px">in conjunction with the <b>13th IEEE Conference on Automatic Face and Gesture Recognition (FG) 2018</b></span></div><div><span style="font-size:12.8px">- Xi'An, China, 15-19 May 2018.</span></div><div><br style="font-size:12.8px"><font color="#1155cc"><span style="font-size:12.8px"><u><a href="http://www2.docm.mmu.ac.uk/STAFF/m.yap/FG2018Workshop.htm">http://www2.docm.mmu.ac.uk/STAFF/m.yap/FG2018Workshop.htm</a></u></span></font><br style="font-size:12.8px"><br style="font-size:12.8px"><span class="gmail-il" style="font-size:12.8px">* Workshop</span><span style="font-size:12.8px"> Description *</span><br style="font-size:12.8px"><div><span style="font-size:12.8px">Facial micro-expressions (MEs) are involuntary movements of the face that occur spontaneously when a </span></div><div><span style="font-size:12.8px">person experiences an emotion but attempts to suppress or repress the facial expression, typically found </span></div><div><span style="font-size:12.8px">in a high-stakes environment. As such, the duration of MEs is very short with the general duration of not </span></div><div><span style="font-size:12.8px">more than 500 milliseconds (ms), and is the telltale sign that distinguishes them from a normal facial expression.</span></div><div><span style="font-size:12.8px"><br></span></div><div><span style="font-size:12.8px">Computational analysis and automation of tasks on micro-expressions is an emerging area in face research,</span></div><div><span style="font-size:12.8px">with a strong interest appearing as recent as 2014. Only recently, the availability of a few spontaneously </span></div><div><span style="font-size:12.8px">induced facial micro-expression datasets has provided the impetus to advance further from the computational </span></div><div><span style="font-size:12.8px">aspect. Particularly comprehensive are two state-of-the art FACS coded datasets: the Chinese Academy of </span></div><div><span style="font-size:12.8px">Sciences Micro-Expression Database II (CASME II) with 247 MFEs at 200 fps and the Spontaneous Micro-Facial</span><span style="font-size:12.8px"> </span></div><div><span style="font-size:12.8px">Movement Dataset (SAMM) with 159 MFEs at 200 fps. While much research has been done on these datasets </span></div><div><span style="font-size:12.8px">individually, there has been no attempts to introduce a more rigorous and realistic evaluation to work done in </span></div><div><span style="font-size:12.8px">this domain.</span></div><div><span style="font-size:12.8px"><br></span></div><div><span style="font-size:12.8px">This is the <b>inaugural workshop</b> in this area of research, with the aim of promoting interactions between </span></div><div><span style="font-size:12.8px">researchers and scholars from within this niche area of research, and also including those from broader, </span></div><div><span style="font-size:12.8px">general areas of expression and psychology research.</span></div><div><br></div><div><span style="font-size:12.8px">This workshop has two main agenda:</span></div><div><span style="font-size:12.8px"><br></span></div><div><span style="font-size:12.8px">1.<span style="white-space:pre">  </span>To organize the first Grand Challenge for facial micro-expression research, involving CASME II-SAMM </span></div><div><span style="font-size:12.8px">cross-database recognition of micro-expression classes. Download the guidelines here: <a href="http://bit.ly/MEGC-Guidelines">http://bit.ly/MEGC-Guidelines</a></span></div><div><span style="font-size:12.8px"><br></span></div><div><span style="font-size:12.8px">2.<span style="white-space:pre">     </span>To solicit original works that address a variety of challenges of ME research, but not limited to:</span></div><div><span style="font-size:12.8px"><br></span></div><div><span style="font-size:12.8px">- ME detection/spotting</span></div><div><span style="font-size:12.8px">- ME recognition</span></div><div><span style="font-size:12.8px">- ME feature representation and computational analysis</span></div><div><span style="font-size:12.8px">- Unified ME spot-and-recognize schemes</span></div><div><span style="font-size:12.8px">- Deep learning techniques for MEs detection and recognition</span></div><div><span style="font-size:12.8px">- New objective classes for MEs analysis</span></div><div><span style="font-size:12.8px">- New MEs datasets, ME data synthesis</span></div><div><span style="font-size:12.8px">- Psychology of MEs research</span></div><br style="font-size:12.8px">CFP: <a href="http://bit.ly/MEGC-CFP">http://bit.ly/MEGC-CFP</a><br style="font-size:12.8px"><br style="font-size:12.8px"><span style="font-size:12.8px">* Submission *</span><br style="font-size:12.8px"><span style="font-size:12.8px">Submission site is open, and accessible at:</span><br style="font-size:12.8px"><font color="#1155cc"><span style="font-size:12.8px"><u><a href="https://cmt3.research.microsoft.com/MEGC2018">https://cmt3.research.microsoft.com/MEGC2018</a></u></span></font></div><div><font color="#1155cc"><u><br style="font-size:12.8px"></u></font><span style="font-size:12.8px">Each paper will be reviewed by at least two reviewers from the TPC or external experts </span></div><div><span style="font-size:12.8px">in double-blind fashion. The submitted papers </span><span style="font-size:12.8px">should present original work, not currently </span></div><div><span style="font-size:12.8px">under review elsewhere and </span><span style="font-size:12.8px">should have no substantial overlap with already published work.</span></div><div>All challenge entries should be accompanied by a paper submission.</div><div><br><span style="font-size:12.8px">Submissions (in PDF) can either be in the form of a short paper (max 4 pages + 1 page for </span></div><div><span style="font-size:12.8px">reference) </span><span style="font-size:12.8px">or </span><span style="font-size:12.8px">long paper </span><span style="font-size:12.8px">(no more than 8 pages) i</span><span style="font-size:12.8px">n IEEE </span><span class="gmail-il" style="font-size:12.8px">FG</span><span style="font-size:12.8px"> 2018 paper format. Accepted </span></div><div><span style="font-size:12.8px">papers will be included </span><span style="font-size:12.8px">in the Proceedings of IEEE </span><span class="gmail-il" style="font-size:12.8px">FG</span><span style="font-size:12.8px"> 2018 and Workshops and will be sent </span></div><div><span style="font-size:12.8px">for </span><span style="font-size:12.8px">inclusion into the </span><span style="font-size:12.8px">IEEE Xplore digital library.</span></div><div><br style="font-size:12.8px"><span style="font-size:12.8px">* Dates *</span><br style="font-size:12.8px"><span style="font-size:12.8px">4 February: Submission deadline</span><br style="font-size:12.8px"><span style="font-size:12.8px">26 February: Notification of acceptance</span><br style="font-size:12.8px"><span style="font-size:12.8px">4 March:  Camera ready submission</span><br style="font-size:12.8px"><span style="font-size:12.8px">15 May: Tentative </span><span class="gmail-il" style="font-size:12.8px">workshop</span><span style="font-size:12.8px"> date (TBC)</span><br style="font-size:12.8px"><br style="font-size:12.8px"><br style="font-size:12.8px"><span style="font-size:12.8px">* People *</span></div><div><div><span style="font-size:12.8px"><b>Organizing Chairs</b></span><br style="font-size:12.8px"><div><span style="font-size:12.8px">Moi Hoon Yap, Manchester Metropolitan University, UK (<a href="mailto:m.yap@mmu.ac.uk">m.yap@mmu.ac.uk</a>)</span></div><div><span style="font-size:12.8px">Sujing Wang, Chinese Academy of Sciences, China</span></div><div><span style="font-size:12.8px">John See, Multimedia University, Malaysia</span></div><div><span style="font-size:12.8px">Xiaopeng Hong, University of Oulu, Finland</span></div><div><span style="font-size:12.8px">Stefanos Zafeiriou, Imperial College London, UK</span></div><br style="font-size:12.8px"><b>Challenge Enquiries: </b></div><div><span style="font-size:12.8px">John See, Multimedia University, Malaysia</span><br></div><div><span style="font-size:12.8px"><a href="mailto:johnsee@mmu.edu.my">johnsee@mmu.edu.my</a></span></div><div><br></div><div><b>Submission Enquiries: </b><span style="font-size:12.8px"><br></span></div><div><span style="font-size:12.8px">Xiaopeng Hong, University of Oulu, Finland</span><br><a href="mailto:Xiaopeng.Hong@oulu.fi"><span style="font-size:12.8px">Xiaopeng.Hong@oulu.fi</span><br style="font-size:12.8px"></a></div></div><div><br style="font-size:12.8px"><span style="font-size:12.8px"><b>Program Committee</b></span><br style="font-size:12.8px"><div><span style="font-size:12.8px">Adrian Keith Davison, University of Manchester, UK </span></div><div><span style="font-size:12.8px">Daniel Leightley, King’s College London, UK</span></div><div><span style="font-size:12.8px">Anh Cat Le Ngo, University of Nottingham, UK</span></div><div><span style="font-size:12.8px">Sze Teng Liong, Xiamen University, Malaysia</span></div><div><span style="font-size:12.8px">Walied Merghani, Sudan University of Science and Technology, Sudan</span></div><div><span style="font-size:12.8px">Xiaoyi Feng, Northwestern Polytechnical University, Xi’an, China</span></div><div><span style="font-size:12.8px">Ruiping Wang, Institute of Computing Technology, Chinese Academy of Sciences, China </span></div><div><span style="font-size:12.8px">Xiaobai Li, University of Oulu, Finland </span></div><div><span style="font-size:12.8px">Wenjing Yan, Wenzhou University, China </span></div><div><span style="font-size:12.8px">Choon-Ching Ng, PRDCSG, Singapore </span></div><div><span style="font-size:12.8px">Hongying Meng, Brunel University, UK</span></div><br><b>Advisory Panel<br></b><div>Xiaolan Fu, Chinese Academy of Sciences, China </div><div>Guoying Zhao, University of Oulu, Finland</div><br style="font-size:12.8px"></div><div><br></div><div><span style="font-size:12.8px">--</span></div><div><span style="font-size:12.8px">John See, Ph.D</span></div><div><span style="font-size:12.8px">Visual Processing Lab</span></div><div><span style="font-size:12.8px">Faculty of Computing and Informatics</span></div><div><span style="font-size:12.8px">Multimedia University, Malaysia</span><span style="font-size:12.8px"><br></span></div><div><span style="font-size:12.8px">url: <a href="http://pesona.mmu.edu.my/~johnsee">http://pesona.mmu.edu.my/~johnsee</a></span></div><div><span style="font-size:12.8px">lab: <a href="http://viprlab.github.io">http://viprlab.github.io</a></span></div></div>