<div dir="ltr"><div dir="ltr"><div dir="ltr"><div><span class="gmail-m_2358868591110292323gmail-m_1915704743853826484gmail-m_-2402332150115530072gmail-im">Apologies for cross-posting<br>*******************************</span><br><br>CALL FOR PAPERS:<br><br>NTIRE: New Trends in Image Restoration and Enhancement workshop and challenge on image super-resolution 2017
<br>In conjunction with CVPR 2017, July 21, Hawaii.<br>
<br>Website: <a href="http://www.vision.ee.ethz.ch/ntire17/" target="_blank">http://www.vision.ee.ethz.ch/n<wbr>tire17/</a>
<br>Contact: <a href="mailto:radu.timofte@vision.ee.ethz.ch" target="_blank">radu.timofte@vision.ee.ethz.ch</a>
<br><br>SCOPE<br>
<br>Image restoration and image enhancement are key computer vision 
tasks, aiming at the restoration of degraded image content or the 
filling in of missing information. Recent years have witnessed an 
increased interest from the vision and graphics communities in these 
fundamental topics of research. Not only has there been a constantly 
growing flow of related papers, but also substantial progress has been 
achieved.
<br>
<br>Each step forward eases the use of images by people or computers for
 the fulfillment of further tasks, with image restoration or enhancement
 serving as an important frontend. Not surprisingly then, there is an 
ever growing range of applications in fields such as surveillance, the 
automotive industry, electronics, remote sensing, or medical image 
analysis. The emergence and ubiquitous use of mobile and wearable 
devices offer another fertile ground for additional applications and 
faster methods.
<br>
<br>This workshop aims to provide an overview of the new trends and 
advances in those areas. Moreover, it will offer an opportunity for 
academic and industrial attendees to interact and explore 
collaborations.
<br>
<br>TOPICS<br>
<br>Papers addressing topics related to image restoration and enhancement are invited. The topics include, but are not limited to:
<br>
<br>●    Image inpainting
<br>●    Image deblurring
<br>●    Image denoising
<br>●    Image upsampling and super-resolution
<br>●    Image filtering
<br>●    Image dehazing
<br>●    Demosaicing
<br>●    Image enhancement: brightening, color adjustment, sharpening, etc.
<br>●    Style transfer
<br>●    Image generation and image hallucination
<br>●    Image-quality assessment
<br>●    Video restoration and enhancement
<br>●    Hyperspectral imaging
<br>●    Methods robust to changing weather conditions
<br>●    Studies and applications of the above.
<br>
<br>SUBMISSION<br>
<br>A paper submission has to be in English, in pdf format, and at most 8
 pages (excluding references) in CVPR style. The paper format must 
follow the same guidelines as for all CVPR submissions.
<br><a href="http://cvpr2017.thecvf.com/submission/main_conference/author_guidelines" target="_blank">http://cvpr2017.thecvf.com/sub<wbr>mission/main_conference/author<wbr>_guidelines</a>
<br>The review process is double blind. Authors do not know the names of
 the chair/reviewers of their papers. Reviewers do not know the names of
 the authors.
<br>Dual submission is allowed with CVPR main conference only. If a 
paper is submitted also to CVPR and accepted, the paper cannot be 
published both at the CVPR and the workshop.
<br>
<br>For the paper submissions, please go to the online submission site.
<br><a href="https://cmt3.research.microsoft.com/NTIRE2017" target="_blank">https://cmt3.research.microsof<wbr>t.com/NTIRE2017</a>
<br>
<br>Accepted and presented papers will be published after the conference
 in the CVPR Workshops Proceedings on by IEEE (<a href="http://www.ieee.org" target="_blank">http://www.ieee.org</a>) and 
Computer Vision Foundation (<a href="http://www.cv-foundation.org" target="_blank">www.cv-foundation.org</a>).
<br>
<br>The author kit provides a LaTeX2e template for paper submissions. 
Please refer to the example for detailed formatting instructions. If you
 use a different document processing system then see the CVPR author 
instruction page.
<br>
<br>Author Kit:  <a href="http://cvpr2017.thecvf.com/files/cvpr2017AuthorKit.zip" target="_blank">http://cvpr2017.thecvf.com/fil<wbr>es/cvpr2017AuthorKit.zip</a>
<br>
<br>WORKSHOP DATES<br>
<br>● Submission Deadline: April 17, 2017
<br>● Decisions: May 08, 2017
<br>● Camera Ready Deadline: May 18, 2017
<br>
<br>
<br>CHALLENGE on Example-based Single-Image Super-Resolution
<br>
<br>In order to gauge the current state-of-the-art in example-based 
single-image super-resolution, to compare and to promote different 
solutions we are organizing an NTIRE challenge in conjunction with the 
CVPR 2017 conference. We propose a large DIV2K dataset with DIVerse 2K 
resolution images.
<br>
<br>The challenge has 2 tracks:
<br>●    Track 1: bicubic uses the bicubic downscaling (Matlab 
imresize), one of the most common settings from the recent single-image 
super-resolution literature.
<br>●    Track 2: unknown assumes that the explicit forms for the 
degradation operators are unknown, only the training pairs of low and 
high images are available.
<br>
<br>To learn more about the challenge, to participate in the challenge, 
and to access the newly collected DIV2K dataset with DIVerse 2K 
resolution images everybody is invited to register at the links from:
<br><a href="http://www.vision.ee.ethz.ch/ntire17/" target="_blank">http://www.vision.ee.ethz.ch/n<wbr>tire17/</a><br> <br></div><div>
<br></div>CHALLENGE DATES<br><div>
<br>● Release of train data: February 14, 2017
<br>● Validation server online: February 25, 2017
<br>● Competition ends: April 16, 2017
(<b><i>extended!</i></b>)<br>
<br><br>ORGANIZERS<br>
<br>● Radu Timofte, ETH Zurich, Switzerland (<a href="mailto:radu.timofte@vision.ee.ethz.ch" target="_blank">radu.timofte@vision.ee.ethz.c<wbr>h</a>) 
<br>● Ming-Hsuan Yang, University of California at Merced, US (<a href="mailto:mhyang@ucmerced.edu" target="_blank">mhyang@ucmerced.edu</a>)
<br>● Eirikur Agustsson, ETH Zurich, Switzerland (<a href="mailto:eirikur.agustsson@vision.ee.ethz.ch" target="_blank">eirikur.agustsson@vision.ee.e<wbr>thz.ch</a>) 
<br>● Lei Zhang, The Hong Kong Polytechnic University (<a href="mailto:cslzhang@polyu.edu.hk" target="_blank">cslzhang@polyu.edu.hk</a>) 
<br>● Luc Van Gool, KU Leuven, Belgium and ETH Zurich, Switzerland (<a href="mailto:vangool@vision.ee.ethz.ch" target="_blank">vangool@vision.ee.ethz.ch</a>) 
<br>
<br><br></div><div>PROGRAM COMMITTEE<br></div>
    <ul style="list-style:outside none none"><li> Cosmin Ancuti, Université catholique de Louvain (UCL), Belgium</li><li> Michael S. Brown, York University, Canada</li><li> Subhasis Chaudhuri, IIT Bombay, India</li><li> Sunghyun Cho, Samsung</li><li> Oliver Cossairt, Northwestern University, US</li><li> Chao Dong, SenseTime</li><li> Weisheng Dong, Xidian University, China</li><li> Alexey Dosovitskiy, Intel Labs</li><li><span lang="EN-US"><font size="2"><b><span style="font-family:arial;color:rgb(0,0,0);background-color:transparent;font-weight:400;font-style:normal;font-variant:normal;text-decoration:none;vertical-align:baseline" id="gmail-m_5838046643776075996gmail-m_3274523204411541630gmail-m_-4022955906761915815docs-internal-guid-76b3fd97-ec27-3292-ff88-643a32e90560">Touradj Ebrahimi<span class="gmail-">, </span>EPFL, Switzerland<br></span></b></font></span></li><li> Michael Elad, Technion, Israel</li><li> Corneliu Florea, University Politehnica of Bucharest, Romania </li><li> Alessandro Foi, Tampere University of Technology, Finland</li><li> Bastian Goldluecke, University of Konstanz, Germany</li><li> Luc Van Gool, ETH Zürich and KU Leuven, Belgium</li><li> Peter Gehler, University of Tübingen and MPI Intelligent Systems, Germany</li><li> Hiroto Honda, DeNA Co., Japan</li><li> Michal Irani, Weizmann Institute, Israel</li><li> Phillip Isola, UC Berkeley, US</li><li> Zhe Hu, Light.co</li><li> Sing Bing Kang, Microsoft Research, US</li><li>Vivek Kwatra<span class="">, Google </span></li><li> Kyoung Mu Lee, Seoul National University, South Korea</li><li> Seungyong Lee, POSTECH, South Korea</li><li> Stephen Lin, Microsoft Research Asia</li><li> Chen Change Loy, Chinese University of Hong Kong</li><li> Vladimir Lukin, National Aerospace University, Ukraine</li><li> Kai-Kuang Ma, Nanyang Technological University, Singapore</li><li> Vasile Manta, Technical University of Iasi, Romania</li><li> Yasuyuki Matsushita, Osaka University, Japan</li><li> Peyman Milanfar, Google and UCSC, US</li><li> Rafael Molina Soriano, University of Granada, Spain</li><li> Yusuke Monno, Tokyo Institute of Technology, Japan</li><li> Hajime Nagahara, Kyushu University, Japan</li><li> Vinay P. Namboodiri, IIT Kanpur, India</li><li> Sebastian Nowozin, Microsoft Research Cambridge, UK </li><li> Aleksandra Pizurica, Ghent University, Belgium</li><li> Fatih Porikli, Australian National University, NICTA, Australia</li><li> Hayder Radha, Michigan State University, US</li><li> Stefan Roth, TU Darmstadt, Germany</li><li> Aline Roumy, INRIA, France</li><li> Jordi Salvador, Amazon, US</li><li> Yoichi Sato, University of Tokyo, Japan</li><li> Samuel Schulter, NEC Labs America</li><li> Nicu Sebe, University of Trento, Italy</li><li> Boxin Shi, National Institute of Advanced Industrial Science and Technology (AIST), Japan</li><li> Wenzhe Shi, Twitter Inc.</li><li> Alexander Sorkine-Hornung, Disney Research</li><li> Sabine Süsstrunk, EPFL, Switzerland</li><li> Yu-Wing Tai, SenseTime</li><li> Hugues Talbot, Université Paris Est, France</li><li> Robby T. Tan, Yale-NUS College, Singapore</li><li> Masayuki Tanaka, Tokyo Institute of Technology, Japan</li><li> Jean-Philippe Tarel, IFSTTAR, France</li><li> Radu Timofte, ETH Zürich, Switzerland</li><li> Ashok Veeraraghavan, Rice University, US</li><li> Jue Wang, Megvii Research, US</li><li> Chih-Yuan Yang, UC Merced, US</li><li> Ming-Hsuan Yang, University of California at Merced, US</li><li> Qingxiong Yang, Didi Chuxing, China</li><li> Lei Zhang, The Hong Kong Polytechnic University</li><li> Wangmeng Zuo, Harbin Institute of Technology, China</li><li><br></li></ul><p>SPEAKERS<br></p><ul style="list-style:outside none none"><li></li><li></li><li>Alexei Efros, UC Berkeley, US </li><li>Jan Kautz, NVIDIA</li><li>Liang Lin, SenseTime and Sun Yat-Sen University, China</li><li>Peyman Milanfar, Google and UC Santa Cruz, US</li><li>Eli Shechtman, Adobe</li><li>Wenzhe Shi, Twitter Inc.<br></li><li>Sabine Süsstrunk, EPFL, Switzerland</li></ul><div><br>SPONSORS<br></div><div><br><div style="margin-left:40px">NVIDIA<br></div></div><div style="margin-left:40px">SenseTime<br></div><div style="margin-left:40px">Twitter Inc<br></div><div style="margin-left:40px">Google<br></div><div><br><br>
Contact: <a href="mailto:radu.timofte@vision.ee.ethz.ch" target="_blank">radu.timofte@vision.ee.ethz.ch</a>
<br>Website: <a href="http://www.vision.ee.ethz.ch/ntire17/" target="_blank">http://www.vision.ee.ethz.ch/n<wbr>tire17/</a></div></div></div></div>