<div dir="ltr"><div dir="ltr"><div dir="ltr"><div>[Apologies for multiple postings]<br></div><div><br></div><div>Special Issue on Multimodal machine learning for human behavior analysis</div><div>ACM Transactions on Multimedia Computing, Communications, and Applications</div><div><a href="https://tomm.acm.org/CFP_TOMM_SI_human_behavior_analysis.pdf">https://tomm.acm.org/CFP_TOMM_SI_human_behavior_analysis.pdf</a></div><div><br></div><div><br></div><div>*** CALL FOR PAPERS ***</div><div><br></div><div>Analyzing human behaviors in multimedia data has become one of the most interesting topics in intelligent multimedia perception. Recently, with the widespread availability of advanced visual and non-visual sensors and a growing need of user-friendly interface, integrating multi-modality data for human behavior analysis, has received a great deal of research interests from the community of multimedia analysis. Compared with the traditional single-modality human behavior analysis, multi-modality human behavior analysis provides deeper level understanding to human identification and event detection, and a more comprehensive perspective for understanding the intrinsic interaction and connections of humans.</div><div><br></div><div>Although the studies of human behavior analysis in multimodality data are invaluable for both academia and industry, there are many fundamental problems unsolved so far, such as learning representation of human appearance and behaviors from multiple modalities, mapping data from one modality to another to achieve cross-modality human behavior analysis, identifying and utilizing relations between elements from two or more different modalities for comprehensive behavior analysis, fusing information from two or more modalities to perform a more accurate prediction, transferring knowledge between modalities and their representations, and recovering missing modality data given the observed ones. In the past decade, several multimodal machine learning models have been developed and shown promising results in some real-world examples such as multimedia descriptions and retrieval, which prepares us to exploit and develop effective multimodal machine learning algorithms for addressing fundamental issues in human behavior analysis.</div><div><br></div><div>This special issue aims at providing a forum for researchers from natural language processing, multimedia, computer vision, speech processing and machine learning to present recent progress in machine learning research with applications to multimodal multimedia data. The list of possible topics includes, but not limited to:</div><div><br></div><div>Theories</div><div><br></div><div>- Multimodal representation learning</div><div><br></div><div>- Multimodal translation and mapping</div><div><br></div><div>- Multimodal aligning</div><div><br></div><div>- Multimodal fusing and co-learning</div><div><br></div><div>Applications</div><div><br></div><div>- Multimodal affect recognition including emotion, persuasion and personality traits</div><div><br></div><div>- Multimodal media description including image captioning, video captioning and visual question answering</div><div><br></div><div>- Multimodal action recognition</div><div><br></div><div>- Cross-media information retrieval</div><div><br></div><div>- Large-scale multimodal datasets</div><div><br></div><div>Tutorial or overview papers, creative papers outside the areas listed above but related to the overall scope of the special issue are also welcome. Prospective authors can contact the Guest Editors to ascertain interest on such topics. Submission of a paper to ACM TOMM is permitted only if the paper has not been submitted, accepted, published, or copyrighted in another journal. Papers that have been published in conference and workshop proceedings may be submitted for consideration to ACM TOMM provided that (i) the authors cite their earlier work;(ii) the papers are not identical; and (iii) the journal publication includes novel elements (e.g., more comprehensive experiments). For submission information, please refer to the ACM TOMM journal guidelines (see <a href="https://tomm.acm.org/authors.cfm">https://tomm.acm.org/authors.cfm</a>). Manuscripts should be submitted through the online system (<a href="https://mc.manuscriptcentral.com/tomm">https://mc.manuscriptcentral.com/tomm</a>).</div><div><br></div><div>*** Important dates ***</div><div><br></div><div>Submission deadline: April 15, 2019</div><div>First notification: June 15, 2019</div><div>Revision submission: August 15, 2019 Notification of acceptance: September 31, 2019 Online publication: March 2020</div><div><br></div><div>*** Guest editors ***</div><div><br></div><div>Prof. Shengping Zhang,</div><div>Harbin Institute of Technology, China, <a href="mailto:s.zhang@hit.edu.cn">s.zhang@hit.edu.cn</a></div><div><br></div><div>Dr. Huiyu Zhou,</div><div>University of Leicester, United Kingdom, <a href="mailto:hz143@leicester.ac.uk">hz143@leicester.ac.uk</a></div><div><br></div><div>Prof. Dong Xu,</div><div>University of Sydney, Australia, <a href="mailto:dong.xu@sydney.edu.au">dong.xu@sydney.edu.au</a></div><div><br></div><div>Prof. M. Emre Celebi,</div><div>University of Central Arkansas, USA, <a href="mailto:ecelebi@uca.edu">ecelebi@uca.edu</a></div><div><br></div><div>Prof. Thierry Bouwmans,</div><div>University of La Rochelle, France, <a href="mailto:thierry.bouwmans@univ-lr.fr">thierry.bouwmans@univ-lr.fr</a></div><div><br></div><div>On behalf of the guest editors,<br></div>-- <br><div dir="ltr" class="gmail_signature"><div dir="ltr"><span style="border-collapse:separate;border-spacing:0px"><div style="color:rgb(0,0,0);font-family:Calibri"><span style="background-color:rgb(255,255,255)"><font size="2">Dr. Shengping Zhang</font></span></div><div style="color:rgb(0,0,0);font-family:Calibri;font-size:medium"><div></div></div></span></div></div></div></div></div>