<div dir="ltr"><div>Apologies for cross-posting</div><div>******************************<wbr>*<br></div><div><br></div><div>CALL FOR PAPERS</div><div><br></div><div>2018 MDPI Symmetry Special Issue on Deep Learning for Facial Informatics

</div><br>Website:<br><a href="http://www.mdpi.com/journal/symmetry/special_issues/Deep_Learning_Face_Informatics" target="_blank">http://www.mdpi.com/journal/<wbr>symmetry/special_issues/Deep_<wbr>Learning_Face_Informatics</a><br><div><br></div><div>Contact:</div>Gee-Sern Jison Hsu (jison at <a href="http://mail.ntust.edu.tw">mail.ntust.edu.tw</a>)<br>Radu Timofte (radu.timofte at <a href="http://vision.ee.ethz.ch">vision.ee.ethz.ch</a>)<br><br><br>SCOPE<br><br>Deep
 learning has been revolutionizing many fields in computer vision, and 
facial informatics is one of the major fields. Novel approaches and 
performance breakthroughs are often reported on existing benchmarks. As 
the performances on existing benchmarks are close to saturation, larger 
and more challenging databases are being made and considered as new 
benchmarks, further pushing the advancement of the technologies. 
Considering face recognition, for example, the DeepFace and DeepID 
report nearly perfect and better-than-human performances on the LFW 
(Labeled Faces in the Wild) benchmark. More challenging benchmarks, 
e.g., the IARPA Janus Benchmark A (IJB-A) and MegaFace, are accepted as 
new standards for evaluating the performance of a new approach. Such an 
evolution is also seen in other branches of face informatics.<br><br>This
 special issue aims to delineate the state-of-the-art technologies in 
deep learning for facial informatics from multiple perspectives, 
including methods, architectures, databases, protocols and applications.
 Researchers from both academia and industry are cordially invited to 
share their latest advancements on all aspects of facial informatics. 
Both image- and video-based works are welcome. Topics for this special 
issue include, but are not limited to, the following: face recognition, 
face alignment, face detection and tracking, facial attributes (e.g., 
age, expression, gender, ethnicity, micro-expression, …), face 
hallucination, facial trait analysis.<br><br>All received submissions 
will be subject to peer review by experts in the field and will be 
evaluated based on their relevance to this special issue, level of 
novelty, significance of contribution, and the overall quality.<br><br><br>SUBMISSION<br><br>Manuscripts should be submitted online at <a href="http://www.mdpi.com" target="_blank">www.mdpi.com</a> by registering and logging in to this website. Once you are registered, the submission form is available at: <a href="http://www.mdpi.com/user/manuscripts/upload/?journal=symmetry" target="_blank">http://www.mdpi.com/user/<wbr>manuscripts/upload/?journal=<wbr>symmetry</a>.
 Manuscripts can be submitted until the deadline. All papers will be 
peer-reviewed. Accepted papers will be published continuously in the 
journal (as soon as accepted) and will be listed together on the special
 issue website. Research articles, review articles as well as short 
communications are invited. For planned papers, a title and short 
abstract (about 100 words) can be sent to the Editorial Office for 
announcement on this website.<br><br>Submitted manuscripts should not 
have been published previously, nor be under consideration for 
publication elsewhere (except conference proceedings papers). All 
manuscripts are thoroughly refereed through a single-blind peer-review 
process. A guide for authors and other relevant information for 
submission of manuscripts is available on the Instructions for Authors 
page: <a href="http://www.mdpi.com/journal/symmetry/instructions" target="_blank">http://www.mdpi.com/journal/<wbr>symmetry/instructions</a> . Symmetry is an international peer-reviewed open access monthly journal published by MDPI.<br><br>Please
 visit the Instructions for Authors page before submitting a manuscript.
 The Article Processing Charge (APC) for publication in this open access
 journal is 1200 CHF (Swiss Francs). This charge will be waived for the 
top ranked 5 accepted submissions (therefore, no fee for the best 
papers).<br><br><br>DATES<br><br>Submission: July 15, 2018  (extended!)<br>First Review: Aug 15, 2018<br>First Revision Due: Sep. 15, 2018<br>Final Review: Sep. 25, 2018<br>Final Revision Due: Oct. 5, 2018<br>Acceptance Notification: Nov. 15, 2018<br>Online Publication: Right after acceptance<br><br>CONTACT<br>Gee-Sern Jison Hsu (jison at <a href="http://mail.ntust.edu.tw">mail.ntust.edu.tw</a>)<br>Radu Timofte (radu.timofte at <a href="http://vision.ee.ethz.ch">vision.ee.ethz.ch</a>)<br><br>WEBSITE<br><a href="http://www.mdpi.com/journal/symmetry/special_issues/Deep_Learning_Face_Informatics" target="_blank">http://www.mdpi.com/journal/<wbr>symmetry/special_issues/Deep_<wbr>Learning_Face_Informatics</a><br></div>