<div dir="ltr"><div class="gmail_default" style="color:#000000"><span style="color:rgb(34,34,34)">ICCV 2019 Workshop and Challenge on Real-World Recognition from Low-Quality Images and Videos (RLQ2019) </span><br style="color:rgb(34,34,34)"><span style="color:rgb(34,34,34)">Seoul, South Korea, 27 Oct 2019 </span><br style="color:rgb(34,34,34)"><a href="http://www.forlq.org/" rel="noreferrer" target="_blank">http://www.forlq.org/</a><span style="color:rgb(34,34,34)">   </span><br style="color:rgb(34,34,34)"><br style="color:rgb(34,34,34)"><span style="color:rgb(34,34,34)">Introduction: </span><br style="color:rgb(34,34,34)"><span style="color:rgb(34,34,34)">What is the current state-of-the-art for recognition and detection algorithms in non-ideal visual environments? We are organizing the RLQ workshop and challenge in ICCV 2019. RLQ 2019 consists of challenge, keynote speech, paper presentation, poster session, special session on privacy and ethics of visual recognition, and a panel discussion from the invited speakers. </span><br style="color:rgb(34,34,34)"><br style="color:rgb(34,34,34)"><span style="color:rgb(34,34,34)">Important Dates </span><br style="color:rgb(34,34,34)"><span style="color:rgb(34,34,34)">Paper submission deadline: <b>Aug. 8</b>, 2019 (11:59PM PST) </span><br style="color:rgb(34,34,34)"><span style="color:rgb(34,34,34)">Notification to authors: Aug. 20, 2019 (11:59PM PST) </span><br style="color:rgb(34,34,34)"><span style="color:rgb(34,34,34)">Camera-ready deadline: Aug. 28, 2019 (11:59PM PST) </span><br style="color:rgb(34,34,34)"><span style="color:rgb(34,34,34)">Workshop day: Oct. 27, 2019 (Full day) </span><br style="color:rgb(34,34,34)"><br style="color:rgb(34,34,34)"><span style="color:rgb(34,34,34)">[Challenge Track] by 30 Aug. 2019 </span><br style="color:rgb(34,34,34)"><span style="color:rgb(34,34,34)">• Low-quality Image Recognition Challenge organized by QMUL </span><br style="color:rgb(34,34,34)"><a href="https://evalai.cloudcv.org/web/challenges/challenge-page/392/overview" rel="noreferrer" target="_blank">https://evalai.cloudcv.org/web/challenges/challenge-page/392/overview</a><span style="color:rgb(34,34,34)"> </span><br style="color:rgb(34,34,34)"><br style="color:rgb(34,34,34)"><br style="color:rgb(34,34,34)"><span style="color:rgb(34,34,34)">Call for Papers </span><br style="color:rgb(34,34,34)"><span style="color:rgb(34,34,34)">Original high-quality contributions are solicited on the following topics: </span><br style="color:rgb(34,34,34)"><br style="color:rgb(34,34,34)"><span style="color:rgb(34,34,34)"> [Paper Track] </span><br style="color:rgb(34,34,34)"><span style="color:rgb(34,34,34)">• Robust recognition and detection from low-resolution image/video </span><br style="color:rgb(34,34,34)"><span style="color:rgb(34,34,34)">• Robust recognition and detection from video with motion blur </span><br style="color:rgb(34,34,34)"><span style="color:rgb(34,34,34)">• Robust recognition and detection from highly noisy image/video </span><br style="color:rgb(34,34,34)"><span style="color:rgb(34,34,34)">• Robust recognition and detection from other unconstrained environment conditions </span><br style="color:rgb(34,34,34)"><span style="color:rgb(34,34,34)">• Artificial Degradations </span><br style="color:rgb(34,34,34)"><span style="color:rgb(34,34,34)">• Low-resolution image/video enhancement, especially for recognition purpose </span><br style="color:rgb(34,34,34)"><span style="color:rgb(34,34,34)">• Image/video denoising and deblurring, especially for recognition purpose </span><br style="color:rgb(34,34,34)"><span style="color:rgb(34,34,34)">• Restoration and enhancement of other common degradations, such as low-illumination, inclement weathers, etc., especially for recognition purpose </span><br style="color:rgb(34,34,34)"><span style="color:rgb(34,34,34)">• Novel methods and metrics for image restoration and enhancement algorithms, especially for recognition purpose </span><br style="color:rgb(34,34,34)"><span style="color:rgb(34,34,34)">• Surveys of algorithms and applications with LQ inputs in computer vision </span><br style="color:rgb(34,34,34)"><span style="color:rgb(34,34,34)">• Psychological and cognitive science research with proper data processing and enhancement </span><br style="color:rgb(34,34,34)"><span style="color:rgb(34,34,34)">• Novel calibration and registration methods on gaze or object images etc. for recognition or detection purpose. </span><br style="color:rgb(34,34,34)"><span style="color:rgb(34,34,34)">• Novel imperfect low-quality data mining, cleaning, and processing methods for training a recognition system. </span><br style="color:rgb(34,34,34)"><span style="color:rgb(34,34,34)">• Other novel applications that robustly handle computer vision tasks with LQ inputs </span><br style="color:rgb(34,34,34)"><span style="color:rgb(34,34,34)">• Special Topic: Legal, privacy, and ethics in recognition </span><br style="color:rgb(34,34,34)"><br style="color:rgb(34,34,34)"><span style="color:rgb(34,34,34)">[Abstract Track] </span><br style="color:rgb(34,34,34)"><span style="color:rgb(34,34,34)">We solicit “positioning” write-ups,  in the form of short non-archival abstracts. They shall address important issues that may generate a lasting impact for next 5-year research in the field of recognition in low-quality visual data. Examples may include but are not limited to, </span><br style="color:rgb(34,34,34)"><span style="color:rgb(34,34,34)">• Proposing novel technical solutions: preliminary works and “half-baked” results are welcome </span><br style="color:rgb(34,34,34)"><span style="color:rgb(34,34,34)">• Identifying grand challenges that are traditionally overlooked or under-explored </span><br style="color:rgb(34,34,34)"><span style="color:rgb(34,34,34)">• Discussing rising applications where recognition from low-quality visual data might have been a critical bottleneck </span><br style="color:rgb(34,34,34)"><span style="color:rgb(34,34,34)">• Raising new research questions that may be motivated by emerging applications </span><br style="color:rgb(34,34,34)"><span style="color:rgb(34,34,34)">• New datasets, new benchmark efforts, and/or new evaluation strategies </span><br style="color:rgb(34,34,34)"><span style="color:rgb(34,34,34)">• Integration of low-quality visual recognition into other research topics </span><br style="color:rgb(34,34,34)"><br style="color:rgb(34,34,34)"><br style="color:rgb(34,34,34)"><span style="color:rgb(34,34,34)">Authors Guidelines </span><br style="color:rgb(34,34,34)"><span style="color:rgb(34,34,34)">- Each submitted full-paper must be no longer than eight pages, excluding references. Please refer to the ICCV-2019 author submissions guidelines regarding formatting, templates, and policies. The submissions will go through a double-blind review process by the program committee. Selected papers will be published in ICCV IEEE/CVF Workshop proceedings. </span><br style="color:rgb(34,34,34)"><span style="color:rgb(34,34,34)">- Each submitted abstract must be no longer than two pages, excluding references, in the format of ICCV-2019. The non-blind submissions will be also reviewed by the program committee, on a selective and competitive basis. The accepted abstracts will appear on the website. The workshop organizers will lead a collective positioning paper, targeted at a top-tier journal such as TPAMI or IJCV. Those whose abstracts are selected will be invited as co-authors of this paper (the author order will be alphabetical). </span><br style="color:rgb(34,34,34)"><span style="color:rgb(34,34,34)">- We will set up best paper awards for the full papers. </span><br style="color:rgb(34,34,34)"><br style="color:rgb(34,34,34)"><br style="color:rgb(34,34,34)"><span style="color:rgb(34,34,34)">Invited Speakers </span><br style="color:rgb(34,34,34)"><span style="color:rgb(34,34,34)">Rama Chellappa Prof. UMD </span><br style="color:rgb(34,34,34)"><span style="color:rgb(34,34,34)">Matthew Turk, Prof. UCSB </span><br style="color:rgb(34,34,34)"><span style="color:rgb(34,34,34)">Gang Hua, VP&Chief Scientist, Wormpex AI Research </span><br style="color:rgb(34,34,34)"><span style="color:rgb(34,34,34)">Jeffrey Cohn, Prof. Pitt&CMU </span><br style="color:rgb(34,34,34)"><span style="color:rgb(34,34,34)">Manmohan Chandraker, Prof. UCSD </span><br style="color:rgb(34,34,34)"><span style="color:rgb(34,34,34)">Xiaoming Liu, Prof. MSU </span><br style="color:rgb(34,34,34)"><br style="color:rgb(34,34,34)"><span style="color:rgb(34,34,34)">Contact: </span><br style="color:rgb(34,34,34)"><span style="color:rgb(34,34,34)">General Inquiry: </span><a href="mailto:chairs@forlq.org" target="_blank">chairs@forlq.org</a><span style="color:rgb(34,34,34)"> </span><br style="color:rgb(34,34,34)"><span style="color:rgb(34,34,34)">Challenge Inquiry: </span><a href="mailto:challenge@forlq.org" target="_blank">challenge@forlq.org</a><span style="color:rgb(34,34,34)"> </span><br style="color:rgb(34,34,34)"><span style="color:rgb(34,34,34)">Website: </span><a href="http://www.forlq.org/" rel="noreferrer" target="_blank">www.forlq.org</a><span style="color:rgb(34,34,34)"> </span><br style="color:rgb(34,34,34)"><br style="color:rgb(34,34,34)"><span style="color:rgb(34,34,34)">**It would be highly appreciated if you could disseminate this CFP among your colleagues**</span><br clear="all"></div><div><div dir="ltr" class="gmail_signature" data-smartmail="gmail_signature"><div dir="ltr"><div><div dir="ltr"><div><div dir="ltr"><div><div dir="ltr"><div dir="ltr"><div><span style="font-size:x-small">--------------------------------------------------------------------------------------------------</span></div><div><span style="font-size:x-small"><font color="#000000">Ph.D Candidate of ECE Department, Beckman </font></span><font color="#000000" size="1">Institute</font></div><div><span style="font-size:x-small"><b><font color="#000000">University of Illinois at Urbana-Champaign (UIUC) </font></b></span></div><div><font size="1" color="#000000"><span style="background-color:rgb(255,255,255)">Master of Philosophy o</span>f ECE Department</font></div><span><span><font size="1" color="#000000"><b>The Hong Kong University of Science and Technology</b></font></span></span><div><font size="1" color="#666666">Phone: +1 (217) 607 3041 </font></div><div><font size="1" color="#666666">Email: <a href="mailto:zhouyuqian133@gmail.com" style="color:rgb(17,85,204)" target="_blank">zhouyuqian133@gmail.com</a>, <a href="mailto:yuqian2@illinois.edu" target="_blank">yuqian2@illinois.edu</a>, <a href="mailto:yzhouas@ust.hk" style="color:rgb(17,85,204)" target="_blank">yzhouas@ust.hk</a></font></div></div></div></div></div></div></div></div></div></div></div></div>