<div dir="ltr"><div class="gmail_default" style="color:#000000"><div style="color:rgb(34,34,34)">ICCV 2019 Workshop and Challenge on Real-World Recognition from Low-Quality Images and Videos (RLQ2019)<br></div><div style="color:rgb(34,34,34)">Seoul, South Korea, 27 Oct 2019</div><div style="color:rgb(34,34,34)"><a href="http://www.forlq.org/">http://www.forlq.org/ </a></div><div style="color:rgb(34,34,34)"><br></div><div style="color:rgb(34,34,34)"><b>Introduction:</b></div><span style="color:rgb(34,34,34)">What is the current state-of-the-art for recognition and detection algorithms in non-ideal visual environments? We are organizing the </span><b style="color:rgb(34,34,34)">RLQ workshop and challenge in ICCV 2019</b><span style="color:rgb(34,34,34)">. RLQ 2019 consists of challenge, keynote speech, paper presentation, poster session, special session on privacy and ethics of visual recognition, and a panel discussion from the invited speakers. </span><div style="color:rgb(34,34,34)"><br><b>Important Dates</b><br>Paper submission deadline: Aug. 1, 2019 (11:59PM PST)<br>Notification to authors: Aug. 20, 2019 (11:59PM PST)<br>Camera-ready deadline: Aug. 28, 2019 (11:59PM PST)<br>Workshop day: Oct. 27, 2019 (Full day)<br><br><b>Call for Papers</b><br>Original high-quality contributions are solicited on the following topics:<br><br> <b>[Paper Track] (4-8 pages)</b><br>-Robust recognition and detection from low-resolution image/video<br>-Robust recognition and detection from video with motion blur<br>-Robust recognition and detection from highly noisy image/video<br>-Robust recognition and detection from other unconstrained environment conditions<br>Artificial Degradations <br>-Low-resolution image/video enhancement, especially for recognition purpose<br>-Image/video denoising and deblurring, especially for recognition purpose<br>-Restoration and enhancement of other common degradations, such as low-illumination, inclement weathers, etc., especially for recognition purpose<br>-Novel methods and metrics for image restoration and enhancement algorithms, especially for recognition purpose<br>-Surveys of algorithms and applications with LQ inputs in computer vision<br>-Psychological and cognitive science research with proper data processing and enhancement<br>-Novel calibration and registration methods on gaze or object images etc. for recognition or detection purpose.<br>-Novel imperfect low-quality data mining, cleaning, and processing methods for training a recognition system.<br>-Other novel applications that robustly handle computer vision tasks with LQ inputs<br>-Special Topic: Legal, privacy, and ethics in recognition<div><br><b>[Abstract Track] (1-2 pages)</b><br>We solicit “positioning” write-ups,  in the form of short non-archival abstracts. They shall address important issues that may generate a lasting impact for next 5-year research in the field of recognition in low-quality visual data. Examples may include but are not limited to,<br>-Proposing novel technical solutions: preliminary works and “half-baked” results are welcome<br>-Identifying grand challenges that are traditionally overlooked or under-explored<br>-Discussing rising applications where recognition from low-quality visual data might have been a critical bottleneck</div><div>-Raising new research questions that may be motivated by emerging applications<br>-New datasets, new benchmark efforts, and/or new evaluation strategies<br>-Integration of low-quality visual recognition into other research topics<br><br><b>[Challenge Track] (3-6 pages)</b><br>Low-quality Image Recognition Challenge organized by QMUL</div><div><a href="https://evalai.cloudcv.org/web/challenges/challenge-page/392/overview" target="_blank">https://evalai.cloudcv.org/web/challenges/challenge-page/392/overview</a><br><br><div><b>Authors Guidelines</b><br>- Each submitted full-paper must be no longer than eight pages, excluding references. Please refer to the ICCV-2019 author submissions guidelines regarding formatting, templates, and policies. The submissions will go through a double-blind review process by the program committee. Selected papers will be published in ICCV<b> IEEE/CVF Workshop proceedings</b>.<br>- Each submitted abstract must be no longer than two pages, excluding references, in the format of ICCV-2019. The non-blind submissions will be also reviewed by the program committee, on a selective and competitive basis. The accepted abstracts will appear on the website. The workshop organizers will lead a collective positioning paper, targeted at a top-tier journal such as <b>TPAMI </b>or <b>IJCV</b>. Those whose abstracts are selected will be invited as co-authors of this paper (the author order will be alphabetical).<br>- We will set up best paper awards for the full papers.<br><br><b>Organizers</b><br>Yuqian Zhou*, Ph.D. Student, UIUC<br>Yunchao Wei*, Postdoc Researcher & Project Scientist, UIUC<br>Zhangyang Wang, Assistant Professor, TAMU<br>Jiaying Liu, Associate Professor, PKU<br>Ding Liu, Research Scientist, Bytedance Inc<br>Shaogang Gong, Professor, Queen Mary University of London<br>Jeffrey Cohn, Professor, Unversity of Pittsburgh and CMU<br>Nicu Sebe, Professor, University of Trento</div><div>Honghui Shi, Research Stall Member, IBM Research<br>Thomas S. Huang, Research Professor, UIUC, USA</div><div><br><b>Challenge Committee</b><br>Zhiyi Cheng, Qi Dong Ph.D QMUL<br><br><b>Invited Speakers</b><br>Rama Chellappa Prof. UMD<br>Matthew Turk, Prof. UCSB<br>Gang Hua, VP&Chief Scientist, Wormpex AI Research<br>Jeffrey Cohn, Prof. Pitt&CMU<br>Manmohan Chandraker, Prof. UCSD<br>Xiaoming Liu, Prof. MSU<br><br><b>Contact:</b></div><div>General Inquiry: <a href="mailto:chairs@forlq.org" target="_blank">chairs@forlq.org</a></div><div>Challenge Inquiry: <a href="mailto:challenge@forlq.org" target="_blank">challenge@forlq.org</a><br><b>Website:</b> <a href="http://www.forlq.org/" target="_blank">www.forlq.org</a><div><br></div><div>**It would be highly appreciated if you could disseminate this CFP among your colleagues**</div></div></div></div></div><div><div dir="ltr" class="gmail_signature" data-smartmail="gmail_signature"><div dir="ltr"><div><div dir="ltr"><div><div dir="ltr"><div><div dir="ltr"><div dir="ltr"><div><span style="font-size:x-small">--------------------------------------------------------------------------------------------------</span></div><div><span style="font-size:x-small"><font color="#000000">Ph.D Candidate of ECE Department, Beckman </font></span><font color="#000000" size="1">Institute</font></div><div><span style="font-size:x-small"><b><font color="#000000">University of Illinois at Urbana-Champaign (UIUC) </font></b></span></div><div><font size="1" color="#000000"><span style="background-color:rgb(255,255,255)">Master of Philosophy o</span>f ECE Department</font></div><span><span><font size="1" color="#000000"><b>The Hong Kong University of Science and Technology</b></font></span></span><div><font size="1" color="#666666">Phone: +1 (217) 607 3041 </font></div><div><font size="1" color="#666666">Email: <a href="mailto:zhouyuqian133@gmail.com" style="color:rgb(17,85,204)" target="_blank">zhouyuqian133@gmail.com</a>, <a href="mailto:yuqian2@illinois.edu" target="_blank">yuqian2@illinois.edu</a>, <a href="mailto:yzhouas@ust.hk" style="color:rgb(17,85,204)" target="_blank">yzhouas@ust.hk</a></font></div></div></div></div></div></div></div></div></div></div></div></div>