<html xmlns:v="urn:schemas-microsoft-com:vml" xmlns:o="urn:schemas-microsoft-com:office:office" xmlns:w="urn:schemas-microsoft-com:office:word" xmlns:m="http://schemas.microsoft.com/office/2004/12/omml" xmlns="http://www.w3.org/TR/REC-html40"><head><meta http-equiv=Content-Type content="text/html; charset=iso-8859-1"><meta name=Generator content="Microsoft Word 15 (filtered medium)"><style><!--
/* Font Definitions */
@font-face
        {font-family:Wingdings;
        panose-1:5 0 0 0 0 0 0 0 0 0;}
@font-face
        {font-family:"Cambria Math";
        panose-1:2 4 5 3 5 4 6 3 2 4;}
@font-face
        {font-family:Calibri;
        panose-1:2 15 5 2 2 2 4 3 2 4;}
/* Style Definitions */
p.MsoNormal, li.MsoNormal, div.MsoNormal
        {margin:0cm;
        font-size:11.0pt;
        font-family:"Calibri",sans-serif;
        mso-ligatures:standardcontextual;
        mso-fareast-language:EN-US;}
a:link, span.MsoHyperlink
        {mso-style-priority:99;
        color:#0563C1;
        text-decoration:underline;}
.MsoChpDefault
        {mso-style-type:export-only;
        mso-fareast-language:EN-US;}
@page WordSection1
        {size:612.0pt 792.0pt;
        margin:70.85pt 70.85pt 2.0cm 70.85pt;}
div.WordSection1
        {page:WordSection1;}
/* List Definitions */
@list l0
        {mso-list-id:337969445;
        mso-list-template-ids:1192887094;}
@list l0:level1
        {mso-level-number-format:bullet;
        mso-level-text:\F0B7;
        mso-level-tab-stop:36.0pt;
        mso-level-number-position:left;
        text-indent:-18.0pt;
        mso-ansi-font-size:10.0pt;
        font-family:Symbol;}
@list l0:level2
        {mso-level-number-format:bullet;
        mso-level-text:o;
        mso-level-tab-stop:72.0pt;
        mso-level-number-position:left;
        text-indent:-18.0pt;
        mso-ansi-font-size:10.0pt;
        font-family:"Courier New";
        mso-bidi-font-family:"Times New Roman";}
@list l0:level3
        {mso-level-number-format:bullet;
        mso-level-text:\F0A7;
        mso-level-tab-stop:108.0pt;
        mso-level-number-position:left;
        text-indent:-18.0pt;
        mso-ansi-font-size:10.0pt;
        font-family:Wingdings;}
@list l0:level4
        {mso-level-number-format:bullet;
        mso-level-text:\F0A7;
        mso-level-tab-stop:144.0pt;
        mso-level-number-position:left;
        text-indent:-18.0pt;
        mso-ansi-font-size:10.0pt;
        font-family:Wingdings;}
@list l0:level5
        {mso-level-number-format:bullet;
        mso-level-text:\F0A7;
        mso-level-tab-stop:180.0pt;
        mso-level-number-position:left;
        text-indent:-18.0pt;
        mso-ansi-font-size:10.0pt;
        font-family:Wingdings;}
@list l0:level6
        {mso-level-number-format:bullet;
        mso-level-text:\F0A7;
        mso-level-tab-stop:216.0pt;
        mso-level-number-position:left;
        text-indent:-18.0pt;
        mso-ansi-font-size:10.0pt;
        font-family:Wingdings;}
@list l0:level7
        {mso-level-number-format:bullet;
        mso-level-text:\F0A7;
        mso-level-tab-stop:252.0pt;
        mso-level-number-position:left;
        text-indent:-18.0pt;
        mso-ansi-font-size:10.0pt;
        font-family:Wingdings;}
@list l0:level8
        {mso-level-number-format:bullet;
        mso-level-text:\F0A7;
        mso-level-tab-stop:288.0pt;
        mso-level-number-position:left;
        text-indent:-18.0pt;
        mso-ansi-font-size:10.0pt;
        font-family:Wingdings;}
@list l0:level9
        {mso-level-number-format:bullet;
        mso-level-text:\F0A7;
        mso-level-tab-stop:324.0pt;
        mso-level-number-position:left;
        text-indent:-18.0pt;
        mso-ansi-font-size:10.0pt;
        font-family:Wingdings;}
ol
        {margin-bottom:0cm;}
ul
        {margin-bottom:0cm;}
--></style><!--[if gte mso 9]><xml>
<o:shapedefaults v:ext="edit" spidmax="1026" />
</xml><![endif]--><!--[if gte mso 9]><xml>
<o:shapelayout v:ext="edit">
<o:idmap v:ext="edit" data="1" />
</o:shapelayout></xml><![endif]--></head><body lang=DE link="#0563C1" vlink="#954F72" style='word-wrap:break-word'><div class=WordSection1><p class=MsoNormal><b><span lang=EN-US>5th Workshop on Real-World Surveillance: Applications and Challenges (RWS)<o:p></o:p></span></b></p><p class=MsoNormal><span lang=EN-US>in conjunction with the<o:p></o:p></span></p><p class=MsoNormal><span lang=EN-US>IEEE/CVF Winter Conference on Applications of Computer Vision (WACV) 2025 (<a href="https://wacv2025.thecvf.com/">https://wacv2025.thecvf.com/</a>)<o:p></o:p></span></p><p class=MsoNormal><span lang=EN-US><o:p> </o:p></span></p><p class=MsoNormal><b><span lang=EN-US>WORKSHOP WEBSITE <o:p></o:p></span></b></p><p class=MsoNormal><span lang=EN-US><a href="https://vap.aau.dk/rws-wacv2025/">https://vap.aau.dk/rws-wacv2025/</a><o:p></o:p></span></p><p class=MsoNormal><span lang=EN-US><o:p> </o:p></span></p><p class=MsoNormal><b><span lang=EN-US>CALL FOR PAPERS<o:p></o:p></span></b></p><p class=MsoNormal><span lang=EN-US>Computer vision methods trained on public databases demonstrate performance drift when deployed for<o:p></o:p></span></p><p class=MsoNormal><span lang=EN-US>real-world surveillance, compared to their initial results on the test set of those employed databases. In this<o:p></o:p></span></p><p class=MsoNormal><span lang=EN-US>workshop, we are interested in papers reporting their experimental results on any application of computer<o:p></o:p></span></p><p class=MsoNormal><span lang=EN-US>vision in real-world surveillance, challenges they have faced, and their mitigation strategy on topics like,<o:p></o:p></span></p><p class=MsoNormal><span lang=EN-US>but not limited to:<o:p></o:p></span></p><p class=MsoNormal><span lang=EN-US><o:p> </o:p></span></p><p class=MsoNormal><span lang=EN-US>• Object detection<o:p></o:p></span></p><p class=MsoNormal><span lang=EN-US>• Tracking<o:p></o:p></span></p><p class=MsoNormal><span lang=EN-US>• Anomaly detection<o:p></o:p></span></p><p class=MsoNormal><span lang=EN-US>• Scene understanding<o:p></o:p></span></p><p class=MsoNormal><span lang=EN-US>• Super-resolution<o:p></o:p></span></p><p class=MsoNormal><span lang=EN-US>• Multi-modal surveillance<o:p></o:p></span></p><p class=MsoNormal><span lang=EN-US><o:p> </o:p></span></p><p class=MsoNormal><span lang=EN-US>Furthermore, the workshop has a special attention to legal and ethical issues of computer vision applications in<o:p></o:p></span></p><p class=MsoNormal><span lang=EN-US>real-world scenarios. We therefore also welcome papers describing their methodology and experimental results on<o:p></o:p></span></p><p class=MsoNormal><span lang=EN-US>legal matters (like GDPR, AI Act, and US Executive Order on AI) or ethical concerns (like detecting bias towards<o:p></o:p></span></p><p class=MsoNormal><span lang=EN-US>gender, race, or other characteristics and mitigating strategies). The workshop also hosts a competition on human<o:p></o:p></span></p><p class=MsoNormal><span lang=EN-US>pose estimation and pose tracking.<o:p></o:p></span></p><p class=MsoNormal><span lang=EN-US><o:p> </o:p></span></p><p class=MsoNormal><b><span lang=EN-US>IMPORTANT DATES<o:p></o:p></span></b></p><p class=MsoNormal><span lang=EN-US>Paper submission:          November 20th, 2024 (11:59 PM, PT)<o:p></o:p></span></p><p class=MsoNormal><span lang=EN-US>Paper submission for challenge participants: <o:p></o:p></span></p><p class=MsoNormal style='margin-left:70.8pt;text-indent:35.4pt'><span lang=EN-US>November 27th, 2024 (11:59 PM, PT)<o:p></o:p></span></p><p class=MsoNormal><span lang=EN-US>Decision notification:     December 13th, 2024 (11:59 PM, PT)<o:p></o:p></span></p><p class=MsoNormal><span lang=EN-US>Camera-ready:               January 7th, 2024 (11:59 PM, PT)<o:p></o:p></span></p><p class=MsoNormal><span lang=EN-US>Workshop date:             February 28 or March 3 or 4, 2025<o:p></o:p></span></p><p class=MsoNormal><span lang=EN-US><o:p> </o:p></span></p><p class=MsoNormal><b><span lang=EN-US>SUBMISSION<o:p></o:p></span></b></p><p class=MsoNormal><span lang=EN-US>Submitted papers are handled via CMT.<o:p></o:p></span></p><p class=MsoNormal><span lang=EN-US>Paper template and guidelines for the workshop are similar to those of WACV.<o:p></o:p></span></p><p class=MsoNormal><span lang=EN-US>Accepted papers will be included in WACV Workshop proceedings and will be published by the CVF / IEEE.<o:p></o:p></span></p><p class=MsoNormal><span lang=EN-US><o:p> </o:p></span></p><p class=MsoNormal><b><span lang=EN-US>CHALLENGE: Human Pose Estimation on Thermal Imaging<o:p></o:p></span></b></p><p class=MsoNormal><span lang=EN-US><o:p> </o:p></span></p><p class=MsoNormal><span lang=EN-US>Our workshop presents a new competition series on “Human Pose Estimation on Thermal Imaging”. The competition will be hosted on the eval.ai platform.<o:p></o:p></span></p><p class=MsoNormal><span lang=EN-US>Human Pose Estimation (HPE) using visual images has achieved significant success. However, RGB-based models often struggle in poor weather and low-light conditions. Thermal infrared images offer a solution, remaining unaffected by such conditions and providing enhanced privacy.<o:p></o:p></span></p><p class=MsoNormal><span lang=EN-US>To address the lack of large-scale thermal HPE datasets, we introduce the Unified Pedestrian Pose Estimation in Thermal Imaging (UPPET) dataset. This dataset combines LLVIP, CAMEL, and OpenThermalPose (OTP), providing harmonized pose annotations across 19,333 images with 15 keypoints each and is used for the challenge.<o:p></o:p></span></p><p class=MsoNormal><span lang=EN-US>The competition aims to advance HPE in Thermal Imaging through three tracks:<o:p></o:p></span></p><p class=MsoNormal><span lang=EN-US><o:p> </o:p></span></p><p class=MsoNormal><span lang=EN-US>1. Generalization of HPE in Thermal Imaging<o:p></o:p></span></p><p class=MsoNormal><span lang=EN-US>2. HPE on Thermal Imaging<o:p></o:p></span></p><p class=MsoNormal><span lang=EN-US>3. HPE on Thermal Imaging based on Synthetic Data<o:p></o:p></span></p><p class=MsoNormal><span lang=EN-US><o:p> </o:p></span></p><p class=MsoNormal><span lang=EN-US>Participants will have a development phase to validate their results, followed by a test phase with a limited number of leaderboard submissions. A baseline model will be provided for reference.<o:p></o:p></span></p><p class=MsoNormal><span lang=EN-US>Join us in advancing the field of Human Pose Estimation on Thermal Imaging!<o:p></o:p></span></p><p class=MsoNormal><span lang=EN-US>Tentative challenge start date: November 4, 2024<o:p></o:p></span></p><p class=MsoNormal><span lang=EN-US><o:p> </o:p></span></p><p class=MsoNormal><b><span lang=EN-US>ORGANIZERS<o:p></o:p></span></b></p><p class=MsoNormal><span lang=EN-US>Andreas Specker<o:p></o:p></span></p><p class=MsoNormal><span lang=EN-US>Fraunhofer Institute of Optronics, System Technologies and<o:p></o:p></span></p><p class=MsoNormal><span lang=EN-US>Image Exploitation IOSB, Karlsruhe, Germany<o:p></o:p></span></p><p class=MsoNormal><span lang=EN-US>Mail: andreas.specker@iosb.fraunhofer.de<o:p></o:p></span></p><p class=MsoNormal><span lang=EN-US><o:p> </o:p></span></p><p class=MsoNormal><span lang=EN-US>Mickael Cormier<o:p></o:p></span></p><p class=MsoNormal><span lang=EN-US>Karlsruhe Institute of Technology and Fraunhofer Institute for Optronics, System Technologies and Image Exploitation IOSB, Karlsruhe, Germany<o:p></o:p></span></p><p class=MsoNormal><span lang=EN-US>Mail: mickael.cormier@iosb.fraunhofer.de<o:p></o:p></span></p><p class=MsoNormal><span lang=EN-US><o:p> </o:p></span></p><p class=MsoNormal><span lang=EN-US>Sergio Escalera Guerrero<o:p></o:p></span></p><p class=MsoNormal><span lang=EN-US>Universitat de Barcelona, Spain<o:p></o:p></span></p><p class=MsoNormal><span lang=EN-US>Computer Vision Center, Spain<o:p></o:p></span></p><p class=MsoNormal><span lang=EN-US>Aalborg University, Denmark<o:p></o:p></span></p><p class=MsoNormal><span lang=EN-US>Mail: sescalera@cvc.uab.cat<o:p></o:p></span></p><p class=MsoNormal><span lang=EN-US><o:p> </o:p></span></p><p class=MsoNormal><span lang=EN-US>Radu Ionescu<o:p></o:p></span></p><p class=MsoNormal><span lang=EN-US>University of Bucharest, Romania<o:p></o:p></span></p><p class=MsoNormal><span lang=EN-US>Mail: raducu.ionescu@gmail.com<o:p></o:p></span></p><p class=MsoNormal><span lang=EN-US><o:p> </o:p></span></p><p class=MsoNormal><span lang=EN-US>Fahad Shahbaz Khan<o:p></o:p></span></p><p class=MsoNormal><span lang=EN-US>Mohamed bin Zayed University of Artificial Intelligence, Abu Dhabi, United Arab Emirates<o:p></o:p></span></p><p class=MsoNormal><span lang=EN-US>Linköping University,Sweden<o:p></o:p></span></p><p class=MsoNormal><span lang=EN-US>Mail: fahad.khan@liu.se<o:p></o:p></span></p><p class=MsoNormal><span lang=EN-US><o:p> </o:p></span></p><p class=MsoNormal><span lang=EN-US>Kamal Nasrollahi,<o:p></o:p></span></p><p class=MsoNormal><span lang=EN-US>Aalborg University, Denmark<o:p></o:p></span></p><p class=MsoNormal><span lang=EN-US>Milestones Systems, Denmark<o:p></o:p></span></p><p class=MsoNormal><span lang=EN-US>Mail: kn@create.aau.dk<o:p></o:p></span></p><p class=MsoNormal><span lang=EN-US><o:p> </o:p></span></p><p class=MsoNormal><b><span lang=EN-US>ADVISORY COMMITTEE<o:p></o:p></span></b></p><p class=MsoNormal><span lang=EN-US>Thomas Moeslund<o:p></o:p></span></p><p class=MsoNormal><span lang=EN-US>Aalborg University, Denmark<o:p></o:p></span></p><p class=MsoNormal><span lang=EN-US>Mail: tbm@create.aau.dk<o:p></o:p></span></p><p class=MsoNormal><span lang=EN-US><o:p> </o:p></span></p><p class=MsoNormal><span lang=EN-US>Anthony Hoogs<o:p></o:p></span></p><p class=MsoNormal><span lang=EN-US>Kitware Inc, USA<o:p></o:p></span></p><p class=MsoNormal><span lang=EN-US>Mail: anthony.hoogs@kitware.com<o:p></o:p></span></p><p class=MsoNormal><span lang=EN-US><o:p> </o:p></span></p><p class=MsoNormal><span lang=EN-US>Shmuel Peleg<o:p></o:p></span></p><p class=MsoNormal><span lang=EN-US>Hebrew University of Jerusalem, Israel<o:p></o:p></span></p><p class=MsoNormal><span lang=EN-US>Mail: peleg@mail.huji.ac.il<o:p></o:p></span></p><p class=MsoNormal><span lang=EN-US><o:p> </o:p></span></p><p class=MsoNormal><span lang=EN-US>Mubarak Shah<o:p></o:p></span></p><p class=MsoNormal><span lang=EN-US>University of Central Florida, USA<o:p></o:p></span></p><p class=MsoNormal><span lang=EN-US>Mail: shah@crcv.ucf.edu<o:p></o:p></span></p><p class=MsoNormal><span lang=EN-US><o:p> </o:p></span></p><p class=MsoNormal><span lang=EN-US><o:p> </o:p></span></p></div></body></html>