<html>
  <head>
    <meta http-equiv="content-type" content="text/html; charset=UTF-8">
  </head>
  <body text="#000080" bgcolor="#FFFFFF">
    <p>**************************************************<br>
      ECCV2022 - 10th International Workshop on Assistive Computer
      Vision and Robotics (ACVR 2022) <br>
      Tel-Aviv,  Oct. 23-27, 2022</p>
    <p>In conjunction with ECCV2022 - European Conference on Computer
      Vision</p>
    <p>Web: <a class="moz-txt-link-freetext"
        href="https://iplab.dmi.unict.it/acvr2022/">https://iplab.dmi.unict.it/acvr2022/</a>
      <br>
    </p>
    <p>Contact: <a class="moz-txt-link-abbreviated
        moz-txt-link-freetext" href="mailto:ACVR.workshop@gmail.com">ACVR.workshop@gmail.com</a></p>
    <p>Submission Website: <a class="moz-txt-link-freetext"
        href="https://cmt3.research.microsoft.com/ACVR2022">https://cmt3.research.microsoft.com/ACVR2022</a></p>
    <p>********************************************************</p>
    <p>_________________</p>
    <p>IMPORTANT DATES<br>
      _________________<br>
       </p>
    <p style="margin:0cm"><span style="font-size:11pt"><span
          style="font-family:Calibri,sans-serif"> <i><font size="5"><b>Full
                Paper Submission: July 13, 2022</b></font></i><br>
           Notification of Acceptance: August 1, 2022<br>
           Camera-Ready Paper Due: August 16, 2022</span></span></p>
    <p>________________</p>
    <p>CALL FOR PAPERS<br>
      ________________<br>
       <br>
      The last decade has witnessed the significant impact of Computer
      Vision and Robotics on real-world products. <br>
    </p>
    <p>The traditional Computer Vision problems such as tracking, 3D
      reconstruction, detection, recognition, odometry, navigation, and
      ultimately, are now solved with significantly higher accuracy
      using Machine Learning. <br>
    </p>
    <p>However, most of these results have focused on constrained
      application scenarios that do not involve the integration of
      feedback from the user. Since these applications do not consider
      the user's intentions and goals, they tend to be of limited use
      when it is necessary to provide assistance to humans.</p>
    <p>With the pervasive successes of Computer Vision and Robotics and
      the advent of industry 4.0, it has become paramount to design
      systems that can truly assist humans and augment their abilities
      to tackle both physical and intellectual tasks. We broadly refer
      to such systems as "assistive technologies". Examples of these
      technologies include approaches to assist visually impaired people
      to navigate and perceive the world, wearable devices which make
      use of artificial intelligence, mixed and augmented reality to
      improve perception and bring computation directly to the user, and
      systems designed to aid industrial processes and improve the
      safety of workers. These technologies need to consider an
      operational paradigm in which the user is central and can both
      influence and be influenced by the system. Despite some examples
      of this approach exist (e.g., OrCam, HoloLens), implementing
      applications according to this "human-in-the-loop" scenario still
      requires a lot of effort to reach an adequate level of reliability
      and introduces challenging satellite issues related to usability,
      privacy, and acceptability.</p>
    <p>The main scope of ACVR 2022 is to bring together researchers from
      the diverse fields of engineering, computer science, social and
      biomedical sciences who work in the context of technologies
      involving Computer Vision and Robotics related to real-time
      continuous assistance and support of humans while performing any
      task.</p>
    <p>Research papers are solicited in, but not limited to, the
      following topic areas:</p>
    <p>Symbiotic Human-Machine Systems;<br>
      Computer Vision to aid Industrial Processes;<br>
      Augmented and Mixed Reality;<br>
      Computer Vision to Improve the safety of workers;<br>
      Human-Robot Interaction;<br>
      Home Healthcare;<br>
      Technology for Cognition;<br>
      Automatic Emotional Hearing and Understanding;<br>
      Activity Monitoring Systems;<br>
      Manipulation Aids;<br>
      Smart Environments;<br>
      Safety and Security;<br>
      Ambient Assistive Living;<br>
      Privacy-preserving systems;<br>
      Robot assistants;<br>
      Quality of Life Technologies;<br>
      Navigation Systems;<br>
      Mobile and Wearable Systems;<br>
      Applications for the Visually Impaired;<br>
      Sign language recognition and applications for hearing impaired;<br>
      Applications for the Ageing Society;<br>
      Personalized Monitoring;<br>
      Egocentric and First-Person Vision;<br>
      Applications to improve the health and wellbeing of children and
      elderly;<br>
      Autonomous Driving;<br>
      Driver Assistance Systems;<br>
      Brain-Computer Interfaces (BCI) for Assistive Systems;<br>
      Multi-modal Human-Centered Systems.</p>
    <p>_________________</p>
    <p>INVITED SPEAKERS<br>
      _________________</p>
    <p>BERNARD GHANEM, KING ABDULLAH UNIVERSITY OF SCIENCE AND
      TECHNOLOGY (KAUST), SA - <a class="moz-txt-link-freetext"
        href="HTTPS://WWW.BERNARDGHANEM.COM/">HTTPS://WWW.BERNARDGHANEM.COM/</a></p>
    <p>RICHARD NEWCOMBE, META REALITY LABS, US<br>
      ____________</p>
    <p>SUBMISSION AND REVISION<br>
      ____________</p>
    <p>All submissions will be handled electronically via the
      conference’s CMT Website: <a class="moz-txt-link-freetext"
        href="https://cmt3.research.microsoft.com/ACVR2022">https://cmt3.research.microsoft.com/ACVR2022</a></p>
    <p>The format for paper submission is the same as the ECCV 2022 main
      conference. <br>
    </p>
    <p>Please refer to ECCV 2022  author guidelines (<a
        class="moz-txt-link-freetext"
        href="https://eccv2022.ecva.net/submission/call-for-papers/">https://eccv2022.ecva.net/submission/call-for-papers/</a>)</p>
    <p>See the instructions and guidelines at the following page: <a
        class="moz-txt-link-freetext"
        href="http://iplab.dmi.unict.it/acvr2022/submission">http://iplab.dmi.unict.it/acvr2022/submission</a></p>
    <p>ACVR reviewing will be double blind; in that authors will not
      know the names of the area reviewers of their papers, and area
      reviewers will not know the names of the authors. Each submitted
      paper will be revised by three experts.</p>
    <p>The paper length should match that intended for final
      publication. Papers are limited to 8 pages (excluding references),
      including figures and tables. Additional pages must contain only
      cited references. While there is no limit to the number of
      references, reviewers are instructed to check for pertinence.
      Citation of any of the co-authors’ published work must be done in
      the third person. Reference to unpublished work can be made by
      anonymizing it, including it as supplementary material, and
      referencing it as Anonymous.</p>
    <p>Authors may optionally submit additional material that could not
      be included in the main paper due to constraints of format (e.g.,
      a video), space (e.g., a proof of a theorem or an extra figure or
      table) or anonymity.</p>
    <p>Papers that are not blind, or do not use the template, or have
      more than 8 pages (excluding references) will be rejected without
      review.</p>
    <p>_____________________</p>
    <p>PROCEEDING AND JOURNAL SPECIAL ISSUE<br>
      _____________________</p>
    <p>All accepted papers will appear in the ECCV workshops
      proceedings.</p>
    <p>_________________</p>
    <p>WORKSHOP ORGANIZERS<br>
      _________________</p>
    <p>Giovanni Maria Farinella, University of Catania, IT</p>
    <p>Antonino Furnari,  University of Catania, IT</p>
    <p>Marco Leo, CNR-Institute of Applied Sciences and Intelligent
      Systems, IT</p>
    <p>Gerard G. Medioni, University of Southern California, US </p>
    <p>Mohan Trivedi, University of California San Diego, US<br>
      _________________</p>
    <p>ENDORSERS<br>
      _________________ </p>
    <p>CVPL - Associazione Italiana in Computer Vision, Pattern
      Recognition andMachine Learning</p>
    <p><a class="moz-txt-link-freetext" href="http://www.cvpl.it/">http://www.cvpl.it/</a><br>
      _________</p>
    <p>CONTACTS<br>
      _________</p>
    <p>Email: <a class="moz-txt-link-abbreviated moz-txt-link-freetext"
        href="mailto:ACVR.workshop@gmail.com">ACVR.workshop@gmail.com</a><br>
      Website: <a class="moz-txt-link-freetext"
        href="https://iplab.dmi.unict.it/acvr2022/">https://iplab.dmi.unict.it/acvr2022/</a></p>
  <div id="DAB4FAD8-2DD7-40BB-A1B8-4E2AA1F9FDF2"><br /> <table style="border-top: 1px solid #D3D4DE;">
        <tr>
      <td style="width: 55px; padding-top: 18px;"><a href="http://www.avg.com/email-signature?utm_medium=email&utm_source=link&utm_campaign=sig-email&utm_content=emailclient" target="_blank"><img src="https://ipmcdn.avast.com/images/icons/icon-envelope-tick-green-avg-v1.png" alt=""  width="46" height="29" style="width: 46px; height: 29px;" /></a></td>
                <td style="width: 470px; padding-top: 17px; color: #41424e; font-size: 13px; font-family: Arial, Helvetica, sans-serif; line-height: 18px;">Mail priva di virus. <a href="http://www.avg.com/email-signature?utm_medium=email&utm_source=link&utm_campaign=sig-email&utm_content=emailclient" target="_blank" style="color: #4453ea;">www.avg.com</a>             </td>
        </tr>
</table>
<a href="#DAB4FAD8-2DD7-40BB-A1B8-4E2AA1F9FDF2" width="1" height="1"> </a></div></body>
</html>