<div dir="ltr"><span style="color:rgb(33,33,33);font-size:13px">CALL FOR ABSTRACTS</span><br style="color:rgb(33,33,33);font-size:13px"><br style="color:rgb(33,33,33);font-size:13px"><span style="color:rgb(33,33,33);font-size:13px">We invite 1-page abstract submissions to our CVPR 2017 Workshop on Continuous and Open-Set Learning.</span><br style="color:rgb(33,33,33);font-size:13px"><br style="color:rgb(33,33,33);font-size:13px"><span style="color:rgb(33,33,33);font-size:13px">Deadline: 31st of May, 2017</span><br style="color:rgb(33,33,33);font-size:13px"><span style="color:rgb(33,33,33);font-size:13px">Website:<span class="inbox-inbox-Apple-converted-space"> </span></span><a href="https://erodner.github.io/continuouslearningcvpr2017/" target="_blank" style="font-size:13px">https://erodner.github.io/continuouslearningcvpr2017/</a><br style="color:rgb(33,33,33);font-size:13px"><span style="color:rgb(33,33,33);font-size:13px">Workshop Date: 26th of July, 2017</span><br style="color:rgb(33,33,33);font-size:13px"><br style="color:rgb(33,33,33);font-size:13px"><span style="color:rgb(33,33,33);font-size:13px">Recent breakthroughs in our community have relied on the availability of large representative datasets for training. However, the implicit assumption imposed in the majority of our today’s techniques is a static closed world. These assumptions rarely hold in many application areas, instead, the set of semantic concepts and relevant tasks is dynamically changing - even on a daily basis. The assumption of a closed and static world is therefore one of the major obstacles when building intelligent systems that learn continuously, adaptively, and actively.</span><br style="color:rgb(33,33,33);font-size:13px"><br style="color:rgb(33,33,33);font-size:13px"><span style="color:rgb(33,33,33);font-size:13px">The workshop tries to bridge one of the gaps between computer vision research and AI goals by focusing on different aspects of continuous and open-set learning.<span class="inbox-inbox-Apple-converted-space"> </span></span><br style="color:rgb(33,33,33);font-size:13px"><br style="color:rgb(33,33,33);font-size:13px"><span style="color:rgb(33,33,33);font-size:13px">Organizers:</span><br style="color:rgb(33,33,33);font-size:13px"><br style="color:rgb(33,33,33);font-size:13px"><span style="color:rgb(33,33,33);font-size:13px">Erik<span class="inbox-inbox-Apple-converted-space"> </span></span><span class="inbox-inbox-lG" style="background-color:rgba(251,246,167,0.5);outline:transparent dashed 1px;color:rgb(33,33,33);font-size:13px">Rodner</span><span style="color:rgb(33,33,33);font-size:13px"><span class="inbox-inbox-Apple-converted-space"> </span>(Corporate Research and Technology, Carl Zeiss AG)</span><br style="color:rgb(33,33,33);font-size:13px"><span style="color:rgb(33,33,33);font-size:13px">Alexander Freytag (Corporate Research and Technology, Carl Zeiss AG)</span><br style="color:rgb(33,33,33);font-size:13px"><span style="color:rgb(33,33,33);font-size:13px">Christoph Lampert (IST Austria)</span><br style="color:rgb(33,33,33);font-size:13px"><span style="color:rgb(33,33,33);font-size:13px">Terrance E. Boult ((University of Colorado, Colorado Springs, USA)</span><br style="color:rgb(33,33,33);font-size:13px"><span style="color:rgb(33,33,33);font-size:13px">Joachim Denzler (University of Jena)</span><br style="color:rgb(33,33,33);font-size:13px"><br style="color:rgb(33,33,33);font-size:13px"><span style="color:rgb(33,33,33);font-size:13px">The following topics will be central to the workshop:</span><br style="color:rgb(33,33,33);font-size:13px"><span style="color:rgb(33,33,33);font-size:13px">Dealing with partially unknown, open, or dynamically increasing label spaces (probabilistic models, possibility for rejection, novelty detection, etc.)</span><br style="color:rgb(33,33,33);font-size:13px"><span style="color:rgb(33,33,33);font-size:13px">Continuous, online, and incremental learning (at level of instances, classes, common-sense knowledge, and representations)</span><br style="color:rgb(33,33,33);font-size:13px"><span style="color:rgb(33,33,33);font-size:13px">Active acquisition and annotation of new data with humans in the loop (curriculum learning, active learning, etc.)</span><br style="color:rgb(33,33,33);font-size:13px"><span style="color:rgb(33,33,33);font-size:13px">Transfer learning and domain adaptation in continuous and open-set learning scenarios</span><br style="color:rgb(33,33,33);font-size:13px"><span style="color:rgb(33,33,33);font-size:13px">Active data discovery in explorative data science and large-scale microscopy data</span><br style="color:rgb(33,33,33);font-size:13px"><span style="color:rgb(33,33,33);font-size:13px">Benchmarking success in continuous and open-set learning scenarios</span><br style="color:rgb(33,33,33);font-size:13px"><br style="color:rgb(33,33,33);font-size:13px"><span style="color:rgb(33,33,33);font-size:13px">Abstract submissions are limited to one page and need to be in<span class="inbox-inbox-Apple-converted-space"> </span></span><a href="http://cvpr2017.thecvf.com/submission/main_conference/author_guidelines" target="_blank" style="font-size:13px">CVPR17 format</a><span style="color:rgb(33,33,33);font-size:13px">. The abstract will not appear in any proceedings and if accepted only appear online on this page (if authors like). Our workshop is not meant as a publication venue, but rather a real meeting, where you learn about people interested in the same area and find the next cooperation partners for your future project.</span><br style="color:rgb(33,33,33);font-size:13px"><br style="color:rgb(33,33,33);font-size:13px"><span style="color:rgb(33,33,33);font-size:13px">Accepted abstracts will be presented in a quick 5min talk and a poster. We also welcome submissions of industrial partners interested in the topic and willing to present their application area. Furthermore, if you want to present your next proposal idea and you are looking for cooperation partners, you are also very much invited to submit an abstract.</span><br style="color:rgb(33,33,33);font-size:13px"><br style="color:rgb(33,33,33);font-size:13px"><span style="color:rgb(33,33,33);font-size:13px">We are looking forward to your submissions, see you at CVPR 2017.</span><br style="color:rgb(33,33,33);font-size:13px"><br style="color:rgb(33,33,33);font-size:13px"><span style="color:rgb(33,33,33);font-size:13px">Erik<span class="inbox-inbox-Apple-converted-space"> </span></span><span class="inbox-inbox-lG" style="background-color:rgba(251,246,167,0.5);outline:transparent dashed 1px;color:rgb(33,33,33);font-size:13px">Rodner</span><span style="color:rgb(33,33,33);font-size:13px"><span class="inbox-inbox-Apple-converted-space"> </span>(on behalf of the other organizers)</span>  <br></div>