<div dir="ltr"><div dir="ltr"><div dir="ltr"><div><br></div><div>AAAI-19 Workshop on</div><div>Network Interpretability for Deep Learning</div><div><br></div><div>Overview</div><div>This workshop aims to bring together researchers, engineers, students in both academic and industrial communities who concern about the interpretability of deep learning models and, more importantly, the safety of applying these complex deep models in critical applications such as the medical diagnosis and the autonomous driving. Efforts along this direction are expected to open the black box of deep neural networks for better understanding and to build more transparent deep models which are interpretable to humans. Therefore, the main theme of the workshop is to build up consensus on the emerging topic of the network interpretability, by clarifying the motivation, the typical methodologies, the prospective trends, and the potential industrial applications of the network interpretability.</div><div><br></div><div><br></div><div>Topics</div><div>Theories of deep neural networks</div><div>Visualization of neural networks</div><div>Diagnosing and disentangling feature representations of neural networks</div><div>Learning representations for neural networks which are interpretable, disentangled and compact</div><div>Improving interpolation capacity of features for generative models</div><div>Probabilistic logic interpretation of deep learning</div><div>Bridging feature representations between visual concepts and linguistic concepts</div><div>Safety and fairness of the deep learning models</div><div>Industrial applications of interpretable deep neural networks</div><div>Evaluation of the interpretability of neural networks</div><div><br></div><div>Submission</div><div>We are calling for extended abstracts with 2—4 pages and full submissions with 6—8 pages. All the accepted papers will not be included in the proceedings of AAAI 2019, but we will publish workshop proceedings on arXiv.org.</div><div><br></div><div>Please submit workshop papers to <a href="mailto:networkinterpretability@gmail.com">networkinterpretability@gmail.com</a></div><div><br></div><div>Submission deadline: November 5 (extended to November 8), 2018</div><div><br></div><div>Notification date: November 26, 2018</div><div><br></div><div><br></div><div>Organizers:</div><div>Quanshi Zhang, SJTU, <a href="mailto:zqs1022@sjtu.edu.cn">zqs1022@sjtu.edu.cn</a> </div><div>Lixin Fan, <a href="mailto:lixin.fan01@gmail.com">lixin.fan01@gmail.com</a></div><div>Bolei Zhou, CUHK, <a href="mailto:bzhou@ie.cuhk.edu.hk">bzhou@ie.cuhk.edu.hk</a></div><div><br></div><div>Please contact Quanshi Zhang if you have question.</div><div><br></div></div></div></div>