<div dir="ltr"><div></div><div><br></div><div>6th workshop on Transferring and Adapting Source Knowledge in Computer Vision and </div>3rd VisDA Challenge<br><br>In conjunction with International Conference on Computer Vision (ICCV) 2019<br>2 Novembre 2019, Seoul, Korea<br><br><a href="https://sites.google.com/view/task-cv2019/home" target="_blank">https://sites.google.com/view/task-cv2019/home</a><br><br>******************************<br>CALL FOR PAPERS<br>This is the 6th annual workshop that brings together computer vision researchers interested in <br>domain adaptation and knowledge transfer techniques. <br><br>A key ingredient of the recent successes in computer vision has been the availability of visual <br>data with annotations, both for training and testing, and well-established protocols for evaluating <br>the results. However, this traditional supervised learning framework is limited when it comes to <br><div>deployment on new tasks and/or operating in new domains. In order to scale to such situations, <br></div><div>we must find mechanisms to reuse the available annotations or the models learned from them.<br></div><br>******************************<br>TOPICS<br>TASK-CV aims to bring together research in transfer learning (TL), domain generalization (DG) and <br>domain adaptation  (DG) for computer vision and invites the submission of research contributions on <br>the following topics:<br><br>- TL/DA/DG learning methods for challenging paradigms like unsupervised, self-supervised, incremental, <br>and online learning;<br>- TL/DA/DG focusing on specific visual features, models or learning algorithms;<br>- TL/DA/DG applied for procedural learning (e.g. state-action pairs, reinforcement learning);<br>- TL/DA/DG in the era of convolutional neural networks (CNNs), adaptation effects of fine-tuning, <br>regularization techniques, transfer of architectures and weights, etc;<br>- TL/DA/DG focusing on specific computer vision tasks (e.g., image classification, object detection, <br>semantic segmentation, recognition, retrieval, tracking, etc.) and applications (biomedical, robotics, <br>multimedia, autonomous driving, etc.);<br>- Comparative studies of different TL/DA/DG methods;<br>- Working frameworks with appropriate datasets and evaluation protocols to assess TL/DA/DG methods;<br>- Transferring part representations between categories;<br>- Transferring tasks to new domains;<br>- Solving domain shift due to sensor differences (e.g., low-vs-high resolution, power spectrum sensitivity) <br>and compression schemes;<br>- Extensions of few- and zero-shot learning approaches across domains.<br><br>This is not a closed list; thus, we welcome other interesting and relevant research for TASK-CV.<br><br>******************************<br>IMPORTANT DATES<br><b>Paper Submission: July 10th, 2019 </b><br>Notification of Acceptance: July 22nd, 2019<br>Camera-Ready: August 10th, 2019<br><br>As tradition we will have a best paper award supported by our sponsors<br><br>******************************<br>ORGANIZERS:<br>Tatiana Tommasi, Politecnico di Torino, Italy<br>David Vázquez, Element AI, Canada<br>Kate Saenko, Boston University, USA<br>Ben Usman, Boston University, USA<br>Xingchao Peng, Boston University, USA<br>Judy Hoffman, Facebook AI Research, USA<br>Neela Kaushik, Boston University, USA<br>Antonio M. López, Universitat Autònoma de Barcelona (UAB) and Computer Vision Center (CVC), Spain<br>Wen Li, ETH Zurich, Switzerland</div>