<div><div dir="auto">Submission deadline extension: March 18th</div></div><div><div class="gmail_quote"><br><br><div dir="ltr"><div>The 15th IEEE Embedded Vision Workshop</div><div>June 16 or 17, 2019, Long Beach, CA</div><div>Held in conjunction with IEEE CVPR 2019.</div><div><br></div><div><a href="https://embeddedvisionworkshop.wordpress.com/" target="_blank">https://embeddedvisionworkshop.wordpress.com/</a></div><div><br></div><div>Main theme: Embedded Vision for Unmanned Aerial Vehicles (UAVs)</div><div><br></div><div>Important Dates</div><div>Paper submission: March 11, 2019</div><div>Demo abstract submission: March 11, 2019</div><div>Notification to the authors: April 3, 2019</div><div>Camera-ready paper: April 10, 2019</div><div><br></div><div>Paper submission: <a href="https://cmt3.research.microsoft.com/EVW2019" target="_blank">https://cmt3.research.microsoft.com/EVW2019</a></div><div>Author guidelines: <a href="http://cvpr2019.thecvf.com/submission/main_conference/author_guidelines" target="_blank">http://cvpr2019.thecvf.com/submission/main_conference/author_guidelines</a></div><div><br></div><div>For paper submission, please refer to CVPR guidelines.</div><div>For demo abstract submission, authors are encouraged to submit an abstract of up to 4 pages.</div><div><br></div><div>UAVs with embedded and real-time vision processing capabilities have proven to be highly versatile autonomous robotic platforms in a variety of environments and for different tasks. The workshop aims at collecting and discussing next-generation approaches for online and onboard visual systems embedded on UAVs in order to elaborate a holistic picture of the state of the art in this field, and also to reveal remaining challenges and issues. The discussion of these topics will identify <span class="m_6604157941067197405gmail-gr_ m_6604157941067197405gmail-gr_82 m_6604157941067197405gmail-gr-alert m_6604157941067197405gmail-gr_gramm m_6604157941067197405gmail-gr_inline_cards m_6604157941067197405gmail-gr_run_anim m_6604157941067197405gmail-Grammar m_6604157941067197405gmail-only-ins m_6604157941067197405gmail-replaceWithoutSep" id="m_6604157941067197405gmail-82" style="display:inline;border-bottom:2px solid transparent;background-repeat:no-repeat;color:inherit;font-size:inherit">next</span> steps in this research area for both young researchers as well as senior scientists. The invited speakers from academia will highlight past and current research and the invited speakers from industry will help <span class="m_6604157941067197405gmail-gr_ m_6604157941067197405gmail-gr_84 m_6604157941067197405gmail-gr-alert m_6604157941067197405gmail-gr_gramm m_6604157941067197405gmail-gr_inline_cards m_6604157941067197405gmail-gr_run_anim m_6604157941067197405gmail-Grammar m_6604157941067197405gmail-multiReplace" id="m_6604157941067197405gmail-84" style="display:inline;border-bottom:2px solid transparent;background-repeat:no-repeat;color:inherit;font-size:inherit">closing</span> the loop how research efforts are and will be perceived for industrial applications. Topics of interest include vision-based navigation, vision-based (multi-)sensor-fusion, online reconstruction, collaborative vision algorithms for navigation and environment perception, and related topics. This year, the Embedded Vision Workshop will host the Low-Power Image Recognition Challenge (LPIRC 2019, <a href="https://rebootingcomputing.ieee.org/lpirc" target="_blank">https://rebootingcomputing.ieee.org/lpirc</a>) merging “new advances in efficient embedded computer vision algorithms for UAV applications” with “low-power technologies for image recognition” — both playing a major role for next-generation low-power, <span class="m_6604157941067197405gmail-gr_ m_6604157941067197405gmail-gr_86 m_6604157941067197405gmail-gr-alert m_6604157941067197405gmail-gr_spell m_6604157941067197405gmail-gr_inline_cards m_6604157941067197405gmail-gr_run_anim m_6604157941067197405gmail-ContextualSpelling m_6604157941067197405gmail-multiReplace" id="m_6604157941067197405gmail-86" style="display:inline;border-bottom:2px solid transparent;background-repeat:no-repeat;color:inherit;font-size:inherit">high efficiency</span> aerial autonomy concepts.</div><div><br></div><div>Topics</div><div>Research papers are solicited in, but not limited to, the following topics and with relevance particularly to Unmanned Aerial Vehicles:</div><div><br></div><div>- New trends and challenges in embedded visual processing for UAV applications, including localization, navigation, and image-based perception</div><div>- Analysis of vision problems specific to embedded systems</div><div>- Analysis of embedded systems issues specific to computer vision</div><div>- Artificial intelligence hardware and software architectures for visual exploitation (for example deep learning, convolutional neural networks, and lightweight convolutional networks)</div><div>- <span class="m_6604157941067197405gmail-gr_ m_6604157941067197405gmail-gr_89 m_6604157941067197405gmail-gr-alert m_6604157941067197405gmail-gr_gramm m_6604157941067197405gmail-gr_inline_cards m_6604157941067197405gmail-gr_run_anim m_6604157941067197405gmail-Grammar m_6604157941067197405gmail-only-ins m_6604157941067197405gmail-doubleReplace m_6604157941067197405gmail-replaceWithoutSep" id="m_6604157941067197405gmail-89" style="display:inline;border-bottom:2px solid transparent;background-repeat:no-repeat;color:inherit;font-size:inherit">Embedded</span> vision for UAVs (industrial, mobile and consumer)</div><div>- Advanced assistance systems and autonomous navigation frameworks</div><div>- Augmented and Virtual Reality</div><div>- Large-scale computer vision problems including object recognition, scene analysis, industrial and medical applications</div><div>- New trends in programmable processors for vision and computational imaging</div><div>- Applications of and algorithms for embedded vision on:</div><div>- Massively parallel platforms such as GPUs (PC, embedded and mobile)</div><div>- Programmable platforms such as DSPs and multicore SoCs</div><div>- Reconfigurable platforms such as FPGAs and SoCs with reconfigurable logic</div><div>- Swarms of mobile aerial platforms</div><div>- Vision-based client devices for the Internet of Things (IoT)</div><div>- <span class="m_6604157941067197405gmail-gr_ m_6604157941067197405gmail-gr_90 m_6604157941067197405gmail-gr-alert m_6604157941067197405gmail-gr_gramm m_6604157941067197405gmail-gr_inline_cards m_6604157941067197405gmail-gr_run_anim m_6604157941067197405gmail-Grammar m_6604157941067197405gmail-only-ins m_6604157941067197405gmail-replaceWithoutSep" id="m_6604157941067197405gmail-90" style="display:inline;border-bottom:2px solid transparent;background-repeat:no-repeat;color:inherit;font-size:inherit">Mixed</span> reality on mobile devices</div><div>- <span class="m_6604157941067197405gmail-gr_ m_6604157941067197405gmail-gr_91 m_6604157941067197405gmail-gr-alert m_6604157941067197405gmail-gr_gramm m_6604157941067197405gmail-gr_inline_cards m_6604157941067197405gmail-gr_run_anim m_6604157941067197405gmail-Grammar m_6604157941067197405gmail-only-ins m_6604157941067197405gmail-doubleReplace m_6604157941067197405gmail-replaceWithoutSep" id="m_6604157941067197405gmail-91" style="display:inline;border-bottom:2px solid transparent;background-repeat:no-repeat;color:inherit;font-size:inherit">Embedded</span> vision for 3D reconstruction and (<span class="m_6604157941067197405gmail-gr_ m_6604157941067197405gmail-gr_92 m_6604157941067197405gmail-gr-alert m_6604157941067197405gmail-gr_spell m_6604157941067197405gmail-gr_inline_cards m_6604157941067197405gmail-gr_run_anim m_6604157941067197405gmail-ContextualSpelling" id="m_6604157941067197405gmail-92" style="display:inline;border-bottom:2px solid transparent;background-repeat:no-repeat;color:inherit;font-size:inherit">live</span>) data streams</div><div>- Biologically-inspired vision and embedded systems</div><div>- Computer vision applications distributed between embedded devices and servers</div><div>- Educational methods for embedded vision</div><div>- Hardware enhancements (lens, imager, processor) that impact vision applications</div><div>- Software enhancements (OS, middleware, vision libraries, development tools) that impact embedded vision application</div><div>- Performance metrics for evaluating embedded systems</div><div>- Hybrid embedded systems combining vision and other <span class="m_6604157941067197405gmail-gr_ m_6604157941067197405gmail-gr_79 m_6604157941067197405gmail-gr-alert m_6604157941067197405gmail-gr_spell m_6604157941067197405gmail-gr_inline_cards m_6604157941067197405gmail-gr_run_anim m_6604157941067197405gmail-ContextualSpelling m_6604157941067197405gmail-ins-del" id="m_6604157941067197405gmail-79" style="display:inline;border-bottom:2px solid transparent;background-repeat:no-repeat;color:inherit;font-size:inherit">sensor</span> modalities</div></div>
</div></div>