<!DOCTYPE html><html><head>
<meta http-equiv="Content-Type" content="text/html; charset=utf-8">
  </head>
  <body text="#060697" bgcolor="#FFFFFF">
    CALL FOR CONTRIBUTIONS
    <div class="moz-forward-container">
      <p> <br>
        **************************************************<br>
        <br>
        ECCV2024 - 12th International Workshop on Assistive Computer
        Vision and Robotics (ACVR 2024)<br>
        <br>
        Milan, Sept 29, 2024<br>
        <br>
          <br>
        In conjunction with ECCV2024 - European Conference on Computer
        Vision<br>
         <br>
        <br>
        Web: <a class="moz-txt-link-freetext" href="https://iplab.dmi.unict.it/acvr2024/" moz-do-not-send="true">https://iplab.dmi.unict.it/acvr2024/</a>
        Contact: <a class="moz-txt-link-abbreviated moz-txt-link-freetext" href="mailto:ACVR.workshop@gmail.com" moz-do-not-send="true">ACVR.workshop@gmail.com</a><br>
        <br>
        <br>
        Submission: <a class="moz-txt-link-freetext" href="https://cmt3.research.microsoft.com/ACVR2024" moz-do-not-send="true">https://cmt3.research.microsoft.com/ACVR2024</a><br>
        <br>
        ********************************************************<br>
         _________________<br>
         <br>
        <br>
        IMPORTANT DATES<br>
         <br>
        _________________<br>
        <br>
         <br>
        Full Paper Submission: 22/07/2024 (EXTENDED)<br>
        <br>
        Doctoral Consortium Submission: 20/08/2024<br>
        <br>
        Abstract Submission: 20/08/2024<br>
        <br>
        Notification of Acceptance Full Paper: 05/08/2024<br>
        <br>
        Camera-Ready Paper Due: 15/08/2024<br>
        <br>
        ________________<br>
        <br>
         <br>
        <br>
        CALL FOR PAPERS<br>
        <br>
         <br>
        <br>
        ________________<br>
        <br>
         <br>
        <br>
         <br>
        <br>
        Designing systems with humans in the loop to assist them is an
        exciting research area, with the potential to impact society at
        large. This requires a very different set of innovations, tools,
        and evaluation criteria than classic methods involved in fully
        autonomous tasks. Implementing such kinds of systems still
        requires a lot of effort to reach an adequate level of
        reliability and introduces challenging satellite issues related
        to usability, privacy, and acceptability. Besides,
        multidisciplinary competencies are required to adapt computer
        vision and robotics techniques and algorithms to industrial,
        social, medical, and economic constraints. The workshop aims to
        fill the reality gap in computer vision and robotics for
        assistive technology. The goal is to provide, year by year, a
        view of how recent findings in computer vision and robotics are
        changing assistive technologies, with emphasis on the related
        additional issues and how they have been addressed by the
        researchers working in the different research areas involved. We
        solicit contributed papers presenting assistive systems and
        describing how the related issues have been addressed.
        Submissions describing the outcome of research projects on the
        topics of the workshop are also welcome. We encourage the
        presentation of new data benchmarks for the workshop-related
        fields.<br>
        <br>
         <br>
        <br>
        Finally, the workshop will give a unique opportunity to
        students, who are close to finishing or who have recently been
        awarded their doctorate, to discuss their research and interact
        with experienced researchers in computer vision and robotics
        (Doctoral Consortium).<br>
        <br>
         <br>
        <br>
        Contributions are solicited in, but not limited to, the
        following topic areas:<br>
        <br>
         <br>
        <br>
        Symbiotic Human-Machine Systems;<br>
        <br>
        Computer Vision to aid Industrial Processes;<br>
        <br>
        Augmented and Mixed Reality;<br>
        <br>
        Computer Vision to Improve the Safety of Workers;<br>
        <br>
        Human-Robot Interaction;<br>
        <br>
        Home Healthcare;<br>
        <br>
        Technology for Cognition;<br>
        <br>
        Automatic Emotional Hearing and Understanding;<br>
        <br>
        Activity Monitoring Systems;<br>
        <br>
        Manipulation Aids;<br>
        <br>
        Smart Environments;<br>
        <br>
        Safety and Security;<br>
        <br>
        Ambient Assistive Living;<br>
        <br>
        Privacy-preserving systems;<br>
        <br>
        Robot assistants;<br>
        <br>
        Quality of Life Technologies;<br>
        <br>
        Navigation Systems;<br>
        <br>
        Mobile and Wearable Systems;<br>
        <br>
        Applications for the Visually Impaired;<br>
        <br>
        Sign language recognition and applications for the hearing
        impaired; Applications for the Ageing Society;<br>
        <br>
        Personalized Monitoring;<br>
        <br>
        Egocentric and First-Person Vision;<br>
        <br>
        Applications to improve the health and well-being of children
        and elderly; Autonomous Driving;<br>
        <br>
        Driver Assistance Systems;<br>
        <br>
        Brain-Computer Interfaces (BCI) for Assistive Systems;<br>
        <br>
        Multi-modal Human-Centered Systems;<br>
        <br>
        Environment Monitoring.<br>
        <br>
         _________________<br>
         <br>
        <br>
        INVITED SPEAKERS<br>
        <br>
         _________________<br>
        <br>
         <br>
        <br>
         <br>
        <br>
         <br>
        <br>
        DEEPAK PATHAK, CARNEGIE MELLON UNIVERSITY, US <a class="moz-txt-link-freetext" href="HTTPS://WWW.CS.CMU.EDU/~DPATHAK/" moz-do-not-send="true">HTTPS://WWW.CS.CMU.EDU/~DPATHAK/</a><br>
        <br>
         <br>
        <br>
        Talk Title: " A bottom-up approach to sensorimotor learning"<br>
        <br>
         <br>
        <br>
         <br>
        <br>
         <br>
        <br>
        LAMBERTO BALLAN, UNIVERSITY OF PADOVA, IT<br>
        <br>
        <a class="moz-txt-link-freetext" href="HTTP://WWW.LAMBERTOBALLAN.NET/" moz-do-not-send="true">HTTP://WWW.LAMBERTOBALLAN.NET/</a><br>
        <br>
         <br>
        <br>
        Talk Title: "From context-aware motion prediction to embodied
        visual navigation"<br>
        <br>
         <br>
         ____________<br>
         <br>
        SUBMISSION AND REVISION<br>
         ____________<br>
        <br>
          <br>
        All submissions will be handled electronically via the
        conference’s CMT Website: <a class="moz-txt-link-freetext" href="https://cmt3.research.microsoft.com/ACVR2024" moz-do-not-send="true">https://cmt3.research.microsoft.com/ACVR2024</a><br>
        <br>
         The format for paper submission is the same as the ECCV 2024
        main conference. Please refer to ECCV 2024 submission policies (<a class="moz-txt-link-freetext" href="https://eccv.ecva.net/Conferences/2024/SubmissionPolicies" moz-do-not-send="true">https://eccv.ecva.net/Conferences/2024/SubmissionPolicies</a>)<br>
        <br>
         <br>
        <br>
        See the instructions and guidelines on the following page: <a class="moz-txt-link-freetext" href="http://iplab.dmi.unict.it/acvr2024/submission" moz-do-not-send="true">http://iplab.dmi.unict.it/acvr2024/submission</a><br>
        <br>
         <br>
         <br>
        <br>
        CONTRIBUTED PAPERS<br>
        <br>
         <br>
        <br>
        ACVR2024 paper reviewing will be double-blind; Authors will not
        know the names of the area reviewers of their papers, and area
        reviewers will not know the names of the authors. Each submitted
        paper will be revised by three experts.<br>
        <br>
         <br>
        <br>
        The paper length should match that intended for final
        publication.<br>
        <br>
        Papers are limited to 14 pages, including figures and tables, in
        the LNCS style of Springer.<br>
        <br>
        Additional pages containing only cited references are allowed.<br>
        <br>
        Please download the ECCV 2024 Author Kit for detailed formatting
        instructions. Note also that the template has changed since ECCV
        2022. Authors must thus use this new template instead of
        templates from older conferences.<br>
        <br>
        While there is no limit to the number of references, reviewers
        are instructed to check for pertinence. Citation of any of the
        co-authors’ published work must be done in the third person.
        Reference to unpublished work can be made by anonymizing it,
        including it as supplementary material, and referencing it as
        Anonymous.<br>
        <br>
         <br>
        <br>
        Authors may optionally submit additional material that could not
        be included in the main paper due to constraints of format
        (e.g., a video), space (e.g., a proof of a theorem or an extra
        figure or table) or anonymity.<br>
        <br>
         <br>
        <br>
        Papers that are not blind, do not use the template, or have more
        than 14 pages (excluding references) will be rejected without
        review.<br>
        <br>
         <br>
         ABSTRACTS<br>
        <br>
         <br>
        <br>
        Authors may also submit abstracts describing published or
        ongoing works. The abstract should follow the same format as
        contributed papers and should be at least 2 pages and at most 4
        pages long, including references. Authors of accepted abstracts
        will be given the possibility to present their work during the
        workshop. The abstract will not be published in the workshop
        proceedings. The accepted abstracts will be published online on
        the workshop website upon consensus agreement provided by the
        authors.<br>
        <br>
         <br>
         DOCTORAL CONSORTIUM<br>
        <br>
         <br>
        The doctoral consortium is intended to be a discussion forum for
        PhD students and recent PhD graduates who wish to present,
        discuss, and receive feedback on their research activity.
        Eligible applicants are researchers who were awarded their PhD
        at most a year before the submission deadline, PhD candidates
        and PhD students who expected to graduate within two years.
        Applicants should submit a document describing their research
        activity at most 4 pages long (excluding references). The
        document will not be published in the workshop proceedings, and
        it may contain ongoing work and already published material.
        Eligible submissions will be selected by the workshop organizers
        and given the possibility to present and discuss their work
        during the workshop event in Paris. We expect submissions to
        cover aspects relevant to the aims and topics of the workshop.
        The submitted documents should follow the same format as the
        contributed papers.<br>
        <br>
        The accepted documents will be published online on the workshop
        website upon consensus agreement provided by the authors.<br>
        <br>
          _____________________________________<br>
        <br>
        PROCEEDING AND JOURNAL SPECIAL ISSUE<br>
        <br>
        _____________________________________<br>
        <br>
          <br>
        <br>
        All accepted contributed papers will appear in the ECCV2024
        workshops proceedings.<br>
        <br>
         <br>
        <br>
        Authors may be invited to submit an extended version (at least
        40% more than the seminar versions) of their work to a special
        issue (currently still in the planning stage) in a recognized
        journal in the field of computer vision or robotic research.<br>
        <br>
        _________________<br>
        <br>
         <br>
        <br>
        WORKSHOP ORGANIZERS<br>
        <br>
        <br>
        -- <br>
        Giovanni Farinella (University of Catania, IT),<br>
        Gerard Medioni (University of Southern California, US)<br>
        Marco Leo (National Research Council of Italy, IT)<br>
        Francesco Ragusa (University of Catania, IT),<br>
        Mohan Trivedi (University of California San Diego, US)<br>
        <br>
      </p>
      <div class="moz-signature">
        <table _ngcontent-lij-c51="" style="border-collapse: collapse; border-spacing: 0; width: 450px; font-weight: 400;" width="450">
          <tbody _ngcontent-lij-c51="">
            <tr _ngcontent-lij-c51="">
              <td _ngcontent-lij-c51="" style="border-style: none; padding: 0 18px 0 0; border-style: none solid none none; border-color: #002F5F; border-width: 0 1px 0 0; width: 162px;" width="162"><br>
              </td>
              <td _ngcontent-lij-c51="" style="border-style: none; padding: 0 0 0 18px;" width="236">
                <table _ngcontent-lij-c51="" style="border-collapse: collapse; border-spacing: 0;">
                  <tbody _ngcontent-lij-c51="">
                    <tr _ngcontent-lij-c51="">
                      <td _ngcontent-lij-c51="" style="border-style: none; padding: 0; font-size: 14px; line-height: 1.2; font-family: 'Source Sans Pro', Aptos, 'Open Sans', sans-serif; color: #002F5F;"><br>
                      </td>
                    </tr>
                    <tr _ngcontent-lij-c51="">
                      <td _ngcontent-lij-c51="" style="border-style: none; padding: 0; font-size: 14px; line-height: 1.2; font-family: 'Source Sans Pro', Aptos, 'Open Sans', sans-serif; color: #002F5F;"><br>
                      </td>
                    </tr>
                    <tr _ngcontent-lij-c51="">
                      <td _ngcontent-lij-c51="" style="border-style: none; padding: 0; font-size: 14px; line-height: 1.2; font-family: 'Source Sans Pro', Aptos, 'Open Sans', sans-serif; color: #002F5F;"><br>
                      </td>
                    </tr>
                    <tr _ngcontent-lij-c51="">
                      <td _ngcontent-lij-c51="" style="border-style: none; padding: 0; font-size: 14px; line-height: 1.2; font-family: 'Source Sans Pro', Aptos, 'Open Sans', sans-serif; color: #002F5F;"><br>
                      </td>
                    </tr>
                    <tr _ngcontent-lij-c51="">
                      <td _ngcontent-lij-c51="" style="border-style: none; padding: 0; font-size: 1px; height: 18px;"><br>
                      </td>
                    </tr>
                    <tr _ngcontent-lij-c51="">
                      <td _ngcontent-lij-c51="" style="border-style: none; padding: 0; font-size: 12px; line-height: 1.2; font-family: 'Source Sans Pro', Aptos, 'Open Sans', sans-serif; color: #002F5F;"><br>
                      </td>
                    </tr>
                    <tr _ngcontent-lij-c51="">
                      <td _ngcontent-lij-c51="" style="border-style: none; padding: 0; font-size: 12px; line-height: 1.2; font-family: 'Source Sans Pro', Aptos, 'Open Sans', sans-serif; color: #002F5F;"><br>
                      </td>
                    </tr>
                    <tr _ngcontent-lij-c51="">
                      <td _ngcontent-lij-c51="" style="border-style: none; padding: 0; font-size: 12px; line-height: 1.2; font-family: 'Source Sans Pro', Aptos, 'Open Sans', sans-serif; color: #002F5F;"><br>
                      </td>
                    </tr>
                    <tr _ngcontent-lij-c51="">
                      <td _ngcontent-lij-c51="" style="border-style: none; padding: 0; font-size: 12px; line-height: 1.2; font-family: 'Source Sans Pro', Aptos, 'Open Sans', sans-serif; color: #002F5F;"><br>
                      </td>
                    </tr>
                    <tr _ngcontent-lij-c51="">
                      <td _ngcontent-lij-c51="" style="border-style: none; padding: 0; font-size: 1px; height: 18px;"><br>
                      </td>
                    </tr>
                    <tr _ngcontent-lij-c51="">
                      <td _ngcontent-lij-c51="" style="border-style: none; padding: 0; font-size: 13px; line-height: 1.2; font-family: 'Source Sans Pro', Aptos, 'Open Sans', sans-serif; color: #002F5F;"><br>
                      </td>
                    </tr>
                    <tr _ngcontent-lij-c51="">
                      <td _ngcontent-lij-c51="" style="border-style: none; padding: 0; font-size: 13px; line-height: 1.2; font-family: 'Source Sans Pro', Aptos, 'Open Sans', sans-serif; color: #002F5F;"><br>
                      </td>
                    </tr>
                    <tr _ngcontent-lij-c51="">
                      <td _ngcontent-lij-c51="" style="border-style: none; padding: 0; font-size: 13px; line-height: 1.2; font-family: 'Source Sans Pro', Aptos, 'Open Sans', sans-serif; color: #002F5F;"><br>
                      </td>
                    </tr>
                  </tbody>
                </table>
                <!---->
                <!----> </td>
            </tr>
          </tbody>
        </table>
      </div>
    </div>
  <div id="DAB4FAD8-2DD7-40BB-A1B8-4E2AA1F9FDF2"><br><table style="border-top: 1px solid #D3D4DE;"><tr><td style="width: 55px; padding-top: 13px;"><a href="http://www.avg.com/email-signature?utm_medium=email&utm_source=link&utm_campaign=sig-email&utm_content=emailclient" target="_blank"><img src="https://s-install.avcdn.net/ipm/preview/icons/icon-envelope-tick-green-avg-v1.png" alt="" width="46" height="29" style="width: 46px; height: 29px;"></a></td><td style="width: 470px; padding-top: 12px; color: #41424e; font-size: 13px; font-family: Arial, Helvetica, sans-serif; line-height: 18px;">Privo di virus.<a href="http://www.avg.com/email-signature?utm_medium=email&utm_source=link&utm_campaign=sig-email&utm_content=emailclient" target="_blank" style="color: #4453ea;">www.avg.com</a></td></tr></table><a href="#DAB4FAD8-2DD7-40BB-A1B8-4E2AA1F9FDF2" width="1" height="1"> </a></div></body>
</html>