<div dir="ltr"><div><div dir="ltr">[Apologies for cross-posting]</div><div dir="ltr">--------------------------------------<br></div><div dir="ltr"><br></div><div dir="ltr">Call For Papers<div><br></div><div>The First International Workshop on Bringing Semantic Knowledge into Vision and Text Understanding<br></div><div><br></div><div>@IJCAI-2019, August 10-16, Macao, China<br></div><div><br></div><div>**Workshop website: <a href="http://cobweb.cs.uga.edu/~shengli/Tusion2019.html" target="_blank">http://cobweb.cs.uga.edu/~shengli/Tusion2019.html</a></div><div><br></div><div>Extracting and understanding the high-level semantic information in vision and text data is considered as one of the key capabilities of effective artificial intelligence (AI) systems, which has been explored in many areas of AI, including computer vision, natural language processing, machine learning, data mining, knowledge representation, etc. Due to the success of deep representation learning, we have observed increasing research efforts in the intersection between vision and language for a better understanding of semantics, such as image captioning, visual question answering, etc. Besides, exploiting external semantic knowledge (e.g., semantic relations, knowledge graphs) for vision and text understanding also deserves more attention: The vast amount of external semantic knowledge could assist in having a “deeper” understanding of vision and/or text data, e.g., describing the contents of images in a more natural way, constructing a comprehensive knowledge graph for movies, building a dialog system equipped with commonsense knowledge, etc. </div><div><br></div><div>This one-day workshop will provide a forum for researchers to review the recent progress of vision and text understanding, with an emphasis on novel approaches that involve a deeper and better semantic understanding of version and text data. The workshop is targeting a broad audience, including the researchers and practitioners in computer vision, natural language processing, machine learning, data mining, etc. </div><div><br></div><div>This workshop will include several invited talks and peer-reviewed papers (oral and poster presentations). We encourage submissions on a variety of research topics. The topics of interest include (but not limited to): </div><div>(1). Image and Video Captioning </div><div>(2). Visual Question Answering and Visual Dialog </div><div>(3). Scene Graph Generation from Visual Data </div><div>(4). Video Prediction and Reasoning </div><div>(5). Scene Understanding </div><div>(6). Knowledge Graph Construction </div><div>(7). Knowledge Graph Embedding </div><div>(8). Representation Learning </div><div>(9). KBQA: Question Answering over Knowledge Bases </div><div>(10). Dialog Systems using Knowledge Graph </div><div>(11). Adversarial Generation of Nature Language and Images </div><div>(12). Transfer Learning and Domain Adaptation across Vision and Text </div><div>(13). Graphical Causal Models </div><div>(14). Multimodal Representation and Fusion<br></div><div><br></div><div>**Important Dates</div><div>Submission Deadline: April 15, 2019 </div><div>Notification: May 10, 2019 </div><div>Camera Ready: June 1, 2019<br></div><div><br></div><div>**Organizers</div><div>Sheng Li, University of Georgia, Athens, GA, USA. </div><div>Yaliang Li, Alibaba Group, Bellevue, WA, USA </div><div>Jing Gao, University at Buffalo, Buffalo, NY, USA </div><div>Yun Fu, Northeastern University, Boston, MA, USA</div><div><br></div><div><br></div></div></div><div dir="ltr" class="gmail_signature" data-smartmail="gmail_signature"><div dir="ltr"><div><div dir="ltr"><div><div dir="ltr"><div><div dir="ltr"><div><div dir="ltr"><div dir="ltr"><div dir="ltr"><div dir="ltr"><div dir="ltr"><div dir="ltr"><div dir="ltr"><div dir="ltr"><div dir="ltr"><div dir="ltr"><div>

</div></div></div></div></div></div></div></div></div></div></div></div></div></div></div></div></div></div></div></div></div>