<div dir="ltr"><span style="font-size:12.8px">==============================</span><wbr style="font-size:12.8px"><span style="font-size:12.8px">========================</span><br style="font-size:12.8px"><span style="font-size:12.8px">##               1st Call for Papers                ##</span><br style="font-size:12.8px"><span style="font-size:12.8px">==============================</span><wbr style="font-size:12.8px"><span style="font-size:12.8px">========================</span><br style="font-size:12.8px"><span style="font-size:12.8px">ICCV workshop on Transferring and Adapting Source Knowledge in Computer Vision (TASK-CV) 2017</span><br style="font-size:12.8px"><span style="font-size:12.8px">Venice, Italy, 29 October, 2017</span><br style="font-size:12.8px"><br style="font-size:12.8px"><span style="font-size:12.8px">Workshop site: </span><a href="http://adas.cvc.uab.es/task-cv2017/" rel="noreferrer" target="_blank" style="font-size:12.8px">http://adas.cvc.uab.es/task-<wbr>cv2017/</a><br style="font-size:12.8px"><span style="font-size:12.8px">Challenge site: </span><a href="http://ai.bu.edu/visda-2017/" rel="noreferrer" target="_blank" style="font-size:12.8px">http://ai.bu.edu/visda-2017/</a><br style="font-size:12.8px"><br style="font-size:12.8px"><span style="font-size:12.8px">************************</span><br style="font-size:12.8px"><span style="font-size:12.8px">Important Dates</span><br style="font-size:12.8px"><span style="font-size:12.8px">************************</span><br style="font-size:12.8px"><span style="font-size:12.8px">Challenge devkit/data release: see the challenge website!</span><br style="font-size:12.8px"><br style="font-size:12.8px"><span style="font-size:12.8px">Submission deadline: June 21st, 2017</span><br style="font-size:12.8px"><span style="font-size:12.8px">Author notification: August 4th, 2017</span><br style="font-size:12.8px"><span style="font-size:12.8px">Camera-ready due: August 14th, 2017</span><br style="font-size:12.8px"><span style="font-size:12.8px">Workshop date:  29 October, 2017</span><br style="font-size:12.8px"><br style="font-size:12.8px"><span style="font-size:12.8px">************************</span><br style="font-size:12.8px"><span style="font-size:12.8px">Scope</span><br style="font-size:12.8px"><span style="font-size:12.8px">************************</span><br style="font-size:12.8px"><br style="font-size:12.8px"><span style="font-size:12.8px">This would be the 4th annual workshop that brings together computer vision researchers interested in domain adaptation and knowledge transfer techniques. New this year would be the proposed Domain Adaptation Challenge, see below.</span><br style="font-size:12.8px"><br style="font-size:12.8px"><span style="font-size:12.8px">A key ingredient of the recent successes in computer vision has been the availability of visual data with annotations, both for training and testing, and well-established protocols for evaluating the results. However, this traditional supervised learning framework is limited when it comes to deployment on new tasks and/or operating in new domains. In order to scale to such situations, we must find mechanisms to reuse the available annotations or the models learned from them.</span><br style="font-size:12.8px"><br style="font-size:12.8px"><span style="font-size:12.8px">************************</span><br style="font-size:12.8px"><span style="font-size:12.8px">Topics</span><br style="font-size:12.8px"><span style="font-size:12.8px">************************</span><br style="font-size:12.8px"><br style="font-size:12.8px"><span style="font-size:12.8px">Accordingly, TASK-CV aims to bring together research in transfer learning and domain adaptation for computer vision and invites the submission of research contributions on the following topics:</span><br style="font-size:12.8px"><br style="font-size:12.8px"><span style="font-size:12.8px">-TL/DA learning methods for challenging paradigms like unsupervised, and incremental or on-line learning.</span><br style="font-size:12.8px"><span style="font-size:12.8px">-TL/DA focusing on specific visual features, models or learning algorithms.</span><br style="font-size:12.8px"><span style="font-size:12.8px">-TL/DA jointly applied with other learning paradigms such as reinforcement learning.</span><br style="font-size:12.8px"><span style="font-size:12.8px">-TL/DA in the era of deep neural networks (e.g., CNNs), adaptation effects of fine-tuning, regularization techniques, transfer of architectures and weights, etc.</span><br style="font-size:12.8px"><span style="font-size:12.8px">-TL/DA focusing on specific computer vision tasks (e.g., image classification, object detection, semantic segmentation, recognition, retrieval, tracking, etc.) and applications (biomedical, robotics, multimedia, autonomous driving, etc.).</span><br style="font-size:12.8px"><span style="font-size:12.8px">-Comparative studies of different TL/DA methods.</span><br style="font-size:12.8px"><span style="font-size:12.8px">-Working frameworks with appropriate CV-oriented datasets and evaluation protocols to assess TL/DA methods.</span><br style="font-size:12.8px"><span style="font-size:12.8px">-Transferring knowledge across modalities (e.g., learning from 3D data for recognizing 2D data, and heterogeneous transfer learning)</span><br style="font-size:12.8px"><span style="font-size:12.8px">-Transferring part representations between categories.</span><br style="font-size:12.8px"><span style="font-size:12.8px">-Transferring tasks to new domains.</span><br style="font-size:12.8px"><span style="font-size:12.8px">-Solving domain shift due to sensor differences (e.g., low-vs-high resolution, power spectrum sensitivity) and compression schemes.</span><br style="font-size:12.8px"><span style="font-size:12.8px">-Datasets and protocols for evaluating TL/DA methods.</span><br style="font-size:12.8px"><br style="font-size:12.8px"><span style="font-size:12.8px">This is not a closed list; thus, we welcome other interesting and relevant research for TASK-CV.</span><br style="font-size:12.8px"><br style="font-size:12.8px"><span style="font-size:12.8px">******************************</span><wbr style="font-size:12.8px"><span style="font-size:12.8px">*******</span><br style="font-size:12.8px"><span style="font-size:12.8px">Domain Adaptation Challenge</span><br style="font-size:12.8px"><span style="font-size:12.8px">******************************</span><wbr style="font-size:12.8px"><span style="font-size:12.8px">*******</span><br style="font-size:12.8px"><br style="font-size:12.8px"><span style="font-size:12.8px">This year we are pleased to announce an accompanying Visual Domain Adaptation challenge. Please see  the challenge website (</span><a href="http://ai.bu.edu/visda-2017/" rel="noreferrer" target="_blank" style="font-size:12.8px">http://ai.bu.edu/visda-2017/</a><span style="font-size:12.8px"> ) for details, dates, and submission guidelines.</span><br style="font-size:12.8px"><br style="font-size:12.8px"><span style="font-size:12.8px">************************</span><br style="font-size:12.8px"><span style="font-size:12.8px">Best Paper Award</span><br style="font-size:12.8px"><span style="font-size:12.8px">************************</span><br style="font-size:12.8px"><br style="font-size:12.8px"><span style="font-size:12.8px">As in previous workshops, we plan to award 1-2 best papers. Sponsors will be announced.</span><br style="font-size:12.8px"><br style="font-size:12.8px"><span style="font-size:12.8px">************************</span><br style="font-size:12.8px"><span style="font-size:12.8px">Submission</span><br style="font-size:12.8px"><span style="font-size:12.8px">************************</span><br style="font-size:12.8px"><br style="font-size:12.8px"><span style="font-size:12.8px">- All submissions will be handled via the CMT website </span><a href="https://cmt3.research.microsoft.com/TASKCV2017/" rel="noreferrer" target="_blank" style="font-size:12.8px">https://cmt3.research.<wbr>microsoft.com/TASKCV2017/</a><span style="font-size:12.8px">.</span><br style="font-size:12.8px"><span style="font-size:12.8px">- The format of the papers is the same as the ICCV main conference. The contributions will consist in Extended Abstracts (EA) of 6 pages (excluding the references).</span><br style="font-size:12.8px"><span style="font-size:12.8px">- We accept dual submissions to ICCV 2016 and TASK-CV 2017. In other words, the submission to TASK-CV 2017 should be a 6-page summary of the submission to ICCV 2017 (Authors need to indicate the difference in their ICCV camera-ready version after their paper accepted by ICCV).</span><br style="font-size:12.8px"><span style="font-size:12.8px">- Submissions will be rejected without review if they: exceed the page limitation or violate the double-blind policy.</span><br style="font-size:12.8px"><span style="font-size:12.8px">- Manuscript templates can be found at the main conference website: </span><a href="http://iccv2017.thecvf.com/submission/main_conference/author_guidelines" rel="noreferrer" target="_blank" style="font-size:12.8px">http://iccv2017.thecvf.com/<wbr>submission/main_conference/<wbr>author_guidelines</a><br style="font-size:12.8px"><span style="font-size:12.8px">- The accepted papers will be included in the ICCV workshop collections, and also linked in the TASK-CV webpage.</span><br style="font-size:12.8px"><br style="font-size:12.8px"><br style="font-size:12.8px"><span style="font-size:12.8px">************************</span><br style="font-size:12.8px"><span style="font-size:12.8px">Workshop Chairs</span><br style="font-size:12.8px"><span style="font-size:12.8px">************************</span><br style="font-size:12.8px"><br style="font-size:12.8px"><span style="font-size:12.8px">Tatiana Tommasi, University of Rome La Sapienza, Italy</span><br style="font-size:12.8px"><span style="font-size:12.8px">Kate Saenko, Boston University, USA</span><br style="font-size:12.8px"><span style="font-size:12.8px">Ben Usman, Boston University, USA</span><br style="font-size:12.8px"><span style="font-size:12.8px">Xingchao Peng, Boston University, USA</span><br style="font-size:12.8px"><span style="font-size:12.8px">Judy Hoffman, Stanford, USA</span><br style="font-size:12.8px"><span style="font-size:12.8px">Dequan Wang, UC Berkeley, USA</span><br style="font-size:12.8px"><span style="font-size:12.8px">Antonio M. López, Computer Vision Center & U. Autònoma de Barcelona, Spain</span><br style="font-size:12.8px"><span style="font-size:12.8px">Wen Li – ETH Zurich, Switzerland</span><br style="font-size:12.8px"><span style="font-size:12.8px">Francesco Orabona, Stony Brook University, USA</span><br style="font-size:12.8px"><span style="font-size:12.8px">David Vázquez, Computer Vision Center & U. Autònoma de Barcelona, Spain</span><br></div>