<div dir="ltr"><div class="gmail_quote">



<div>
<div dir="ltr">Full day workshop at CVPR 2021.<br>
<br>
Website: <a href="https://tub-rip.github.io/eventvision2021/" target="_blank">https://tub-rip.github.io/eventvision2021/</a><br>
<br>
**************<br>
Objective<br>
**************<br>
This workshop is dedicated to event-based cameras, smart cameras, and <br>
algorithms processing data from these sensors. Event-based cameras are <br>
bio-inspired sensors with the key advantages of microsecond temporal <br>
resolution, low latency, very high dynamic range, and low power consumption. <br>
Because of these advantages, event-based cameras open frontiers that <br>
are unthinkable with standard frame-based cameras (which have been <br>
the main sensing technology of the past 60 years). These revolutionary sensors <br>
enable the design of a new class of algorithms to track a baseball in the moonlight,
<br>
build a flying robot with the agility of a fly, and perform structure from motion
<br>
in challenging lighting conditions and at remarkable speeds. These sensors <br>
became commercially available in 2008 and are slowly being adopted in <br>
computer vision and robotics. In recent years they have received attention <br>
from large companies, e.g. the event-sensor company Prophesee collaborated <br>
with Intel and Bosch on a high spatial resolution sensor, Samsung announced <br>
mass production of a sensor to be used on hand-held devices, and they <br>
have been used in various applications on neuromorphic chips such as <br>
IBM’s TrueNorth and Intel’s Loihi. The workshop also considers novel vision sensors,
<br>
such as pixel processor arrays (PPAs), that perform massively parallel processing
<br>
near the image plane. Because early vision computations are carried out on-sensor,
<br>
the resulting systems have high speed and low-power consumption, enabling <br>
new embedded vision applications in areas such as robotics, AR/VR, automotive, <br>
gaming, surveillance, etc. This workshop will cover the sensing hardware, <br>
as well as the processing and learning methods needed to take advantage <br>
of the above-mentioned novel cameras. <br>
<br>
**************<br>
Confirmed Speakers<br>
**************<br>
- Ryad Benosman (Univ. Pittsburgh, USA)<br>
- Kwabena Boahen (Stanford, USA)<br>
- Bernabé Linares-Barranco (IMSE-CNM, CSIC and Univ. Seville, Spain)<br>
- Chiara Bartolozzi (IIT, Italy)<br>
- Ralph Etienne-Cummings (Johns Hopkins Univ., USA)<br>
- Oliver Cossairt (Northwestern Univ., USA)<br>
- Guido de Croon (TU Delft, Netherlands)<br>
- Gregory Cohen (Western Sydney Univ., Australia)<br>
- Yulia Sandamirskaya (Intel Labs, Germany)<br>
- Robert Mahony (Australian National Univ., Australia)<br>
- Kynan Eng (iniVation, Switzerland)<br>
- Shoushun Chen (CelePixel - Will Semiconductor, China)<br>
- Volkan Isler (Samsung AI Center NY, USA)<br>
- Prophesee, France<br>
<br>
**************<br>
Call for Papers:<br>
**************<br>
Research papers and demos are solicited in, but not limited to, the following topics:<br>
 - Event-based / neuromorphic vision.<br>
 - Algorithms: visual odometry, SLAM, 3D reconstruction, optical flow estimation,
<br>
image intensity reconstruction, recognition, stereo depth reconstruction, <br>
feature/object detection, tracking, calibration, sensor fusion (video synthesis, <br>
visual-inertial odometry, etc.).<br>
 - Model-based, embedded, or learning approaches.<br>
 - Event-based signal processing, representation, control, bandwidth control.<br>
 - Event-based active vision, event-based sensorimotor integration.<br>
 - Event camera datasets and/or simulators.<br>
 - Applications in: robotics (navigation, manipulation, drones…), automotive, IoT,
<br>
AR/VR, space science, inspection, surveillance, crowd counting, physics, biology.<br>
 - Event-based vision for computational photography.<br>
 - Near-focal plane processing, such as pixel processor arrays - PPAs (e.g., SCAMP sensor).<br>
 - Biologically-inspired vision and smart cameras.<br>
 - Novel hardware (cameras, neuromorphic processors, etc.) and/or software platforms.<br>
 - New trends and challenges in event-based and/or biologically-inspired vision (SNNs, etc.).<br>
<br>
**************<br>
Courtesy Presentations<br>
**************<br>
We also invite courtesy presentations (short talks) of related papers that are accepted at CVPR main conference or at other conferences. These presentations provide visibility to your work and help to build a community around the topics of the workshop. Please
 contact the organizers to make arrangements to showcase your work at the workshop.
<br>
<br>
**************<br>
Important Dates<br>
**************<br>
Paper submission deadline: March 27, 2021. <br>
Submission website: <a href="https://cmt3.research.microsoft.com/EVENTVISION2021" target="_blank">
https://cmt3.research.microsoft.com/EVENTVISION2021</a> <br>
Demo abstract submission: March 27, 2021<br>
Notification to the authors: April 10, 2021<br>
Camera-ready paper: April 15, 2021 (Exact date will be announced, as per CVPR website)<br>
Workshop day: June, 2021. TBA. Full day & virtual workshop.<br>
<br>
**************<br>
Paper/Demo Submission<br>
**************<br>
Research papers and demos are solicited in, but not limited to, the topics listed above. Paper submissions must adhere to the CVPR 2021 paper submission style, format and length restrictions. See the author guidelines and template provided by the CVPR 2021
 main conference. See also the policy of Dual/Double Submissions of concurrently-reviewed conferences, such as ICCV. Authors may want to limit the submission to four pages (excluding references) if that is their case.<br>
<br>
A double blind peer-review process of the submissions received is carried out via CMT. Accepted papers will be published open access through the Computer Vision Foundation (CVF) (see examples from CVPR Workshop 2019). For the accepted papers we request that
 the authors write a paragraph about ethical considerations and impact of their work.
<br>
<br>
<br>
Organizers:<br>
- Guillermo Gallego, Technische Universität Berlin and Einstein Center Digital Future, Germany.<br>
- Davide Scaramuzza, University of Zurich, Switzerland.<br>
- Kostas Daniilidis, University of Pennsylvania, USA.<br>
- Cornelia Fermüller, University of Maryland, USA.<br>
- Davide Migliore, Prophesee, France.</div><div dir="ltr"><br>
</div>
</div>

</div></div>